Dificuldade atribuída e observada das perguntas em um teste de desempenho acadêmico

Autores

DOI:

https://doi.org/10.35622/j.rep.2021.04.004

Palavras-chave:

Índice de dificuldade, índice de discriminação, indicador de avaliação, outfit, infit

Resumo

Os responsáveis ​​pela construção dos testes de desempenho acadêmico propõem um conjunto de questões em três níveis de dificuldade: baixo, médio e alto. Quando um banco de perguntas calibrado não está disponível, os construtores baseiam-se em sua experiência para estimar a dificuldade das perguntas que propõem. Desta forma, antes da aplicação, temos um nível de dificuldade atribuído a cada questão do teste. Posteriormente, com os dados coletados do padrão de resposta dos examinados, podemos obter o índice de dificuldade de cada questão. Assim, após a aplicação, temos um nível observado para cada questão. O objetivo deste estudo é determinar o grau de coincidência entre a dificuldade atribuída e aquela observada em cada uma das questões de um teste de desempenho acadêmico.

Referências

Ander-Egg E. (2012). Diccionario de educación. 1ra edición, Córdoba – Editorial Brujas. (p.19, p.84)

Alvaro Page, Mariano et al. (1990) Hacia un modelo causal del rendimiento académico. Centro de Publicaciones del Ministerio de Educación y Ciencia CIDE, Madrid.

Backhoff, E., Larrazolo, N. y Rosas, M. (2000). Nivel de dificultad y poder de discriminación del Examen de Habilidades y Conocimientos Básicos (EXHCOBA). Revista Electrónica de Investigación Educativa, 2 (1). Consultado el día 27 de setiembre de 2019 en: https://redie.uabc.mx/redie/article/view/15

Barbero, I. (1996). Bancos de ítems, en Psicometría, Muñiz, J. (Coord.). Madrid, Editorial Universitas, S.A. (pp.139-170).

Canales, I. (2009). Evaluación Educacional. Programa de Licenciatura para profesores sin Título Pedagógico en Lengua Extranjera. Facultad de Educación de la Universidad Nacional Mayor de San Marcos, Lima. (p.58)

Cano, Y. (1991). Hacia una evaluación científica. Lima, Grafimag.

Cueto, S. (2007). Las evaluaciones nacionales e internacionales de rendimiento escolar en el Perú: balance y perspectivas. En Investigación, políticas y desarrollo en el Perú. Lima: GRADE. p. 405-455. Disponible en: http://www.grade.org.pe/upload/publicaciones/archivo/download/pubs/InvPolitDesarr-10.pdf

Ebel, R. (1997). Fundamentos de la Medición educacional. Buenos Aires, Editorial Guadalupe.

Educación. (2003). En Diccionario Enciclopédico de Educación, Barcelona, España. Grupo Editorial Ceac S.A. (p.147)

García-Cueto, E. y Fidalgo, A. (2005). Análisis de los ítems. En Muñiz, Fidalgo, García-Cueto, Martínez y Moreno (2005). Análisis de los ítems. Cuadernos de Estadística, Madrid, Editorial La Muralla. (pp.53-131)

Gómez Castro, J.L. “Rendimiento escolar y valores interpersonales: Análisis de resultados en EGB con el cuestionario SIV de Leonardo V. Gordon”. Bordón, n° 262, pp. 257-275, 1986.

Gronlund, N. (1999). Elaboración de tests de aprovechamiento. México, Editorial Trillas (p.28, p.32)

Hurtado, L. (2012). Análisis de pruebas de rendimiento usando el modelo de Rasch. San Bernandino, Editorial académica española.

Hurtado, L. (2018). Relación entre los índices de dificultad y discriminación. Revista Digital de Investigación en Docencia Universitaria, 12(1),273-300. doi: http://dx.doi.org/10.19083/ridu.12.614

Masters, G. (1988). Item discrimination: When more is worse. Journal of Educational Measurement, 25(1), 15-29. doi: https://doi. org/10.1111/j.1745-3984. 1988.tb00288.x

Miljánovich, M. (2005). Nuevo modelo de prueba de admisión de la Universidad Nacional Mayor de San Marcos, en Calidad de las Pruebas de Admisión de la Universidad Peruana, Piscoya L. (Ed.) Lima, Asamblea Nacional de Rectores (pp.103-112).

Muñiz, J. (1997). Introducción a la teoría de respuesta a los ítems. Madrid, Ediciones Pirámide (p.34).

Muñiz, J. (2010). Las teorías de los tests: teoría clásica y teoría de respuesta a los ítems. Papeles del psicólogo, vol 31, núm. 1, pp.57-66. ISSN:0214-7823. Disponible en https://www.redalyc.org/pdf/778/77812441006.pdf

Paz, M. (1996). Validez, en Psicometría, Muñiz, J. (Coord.). Madrid, Editorial Universitas, S.A. (pp.50-103).

Piscoya, L. (2005). Cuánto saben nuestros maestros. Fondo Editorial de la Universidad Nacional Mayor de San Marcos, Lima.

Rama, C. (2005). El acceso a la educación superior en América Latina y el Caribe, en Calidad de las Pruebas de Admisión de la Universidad Peruana, Piscoya L. (Ed.) Lima, Asamblea Nacional de Rectores (pp.17-46).

Reynolds, Livingston y Wilson (2019). Measurement and Assessment in Education, 2da. Edición. Pearson. (p.149)

Schunck, D. (1997). Teorías del aprendizaje. Pearson educación, México. (p.2, p.3)

Schumacker, R. (2004). Rasch Measurement: The dichotomous model, en Introduction to Rasch Measurement. Smith, E. y Smith, R. (Editores). Minessota, JAAM Press, (pp. 226-257).

Tristán, A. (2001). Análisis de Rasch para todos. México, Ceneval.

Yen, W. y Fitzpatrick, A. (2006). Item Response Theory, en Educational Measurement, Fourth Edition. Brennan, R. (Editor). American Council on Education and Praeger Publishers, (pp.111-154)

Publicado

2021-11-16

Edição

Seção

Artículos originales

Como Citar

Dificuldade atribuída e observada das perguntas em um teste de desempenho acadêmico . (2021). Revista Estudios Psicológicos, 1(4), 80-101. https://doi.org/10.35622/j.rep.2021.04.004

Artigos Semelhantes

1-10 de 83

Você também pode iniciar uma pesquisa avançada por similaridade para este artigo.