Dificultad asignada y observada de las preguntas de una prueba de rendimiento académico

Autores/as

DOI:

https://doi.org/10.35622/j.rep.2021.04.004

Palabras clave:

Índice de dificultad, índice de discriminación, indicador de evaluación, outfit, infit

Resumen

Los encargados de construir pruebas de rendimiento académico proponen un conjunto de preguntas en tres niveles de dificultad: baja, media y alta. Cuando no se cuenta con un banco de preguntas calibradas, los constructores apelan a su experiencia para estimar la dificultad de las preguntas que proponen. De este modo, previo a la aplicación, tenemos un nivel de dificultad asignado a cada pregunta de la prueba. Posteriormente, con la data recogida del patrón de respuestas de los examinados, podemos obtener el índice de dificultad de cada pregunta. Así, luego de la aplicación, tenemos un nivel observado para cada pregunta. El objetivo del presente estudio es determinar el grado de coincidencia entre la dificultad asignada y la observada en cada una de las preguntas en una prueba de rendimiento académico.

Estadísticas del Artículo

Referencias

Ander-Egg E. (2012). Diccionario de educación. 1ra edición, Córdoba – Editorial Brujas. (p.19, p.84)

Alvaro Page, Mariano et al. (1990) Hacia un modelo causal del rendimiento académico. Centro de Publicaciones del Ministerio de Educación y Ciencia CIDE, Madrid.

Backhoff, E., Larrazolo, N. y Rosas, M. (2000). Nivel de dificultad y poder de discriminación del Examen de Habilidades y Conocimientos Básicos (EXHCOBA). Revista Electrónica de Investigación Educativa, 2 (1). Consultado el día 27 de setiembre de 2019 en: https://redie.uabc.mx/redie/article/view/15

Barbero, I. (1996). Bancos de ítems, en Psicometría, Muñiz, J. (Coord.). Madrid, Editorial Universitas, S.A. (pp.139-170).

Canales, I. (2009). Evaluación Educacional. Programa de Licenciatura para profesores sin Título Pedagógico en Lengua Extranjera. Facultad de Educación de la Universidad Nacional Mayor de San Marcos, Lima. (p.58)

Cano, Y. (1991). Hacia una evaluación científica. Lima, Grafimag.

Cueto, S. (2007). Las evaluaciones nacionales e internacionales de rendimiento escolar en el Perú: balance y perspectivas. En Investigación, políticas y desarrollo en el Perú. Lima: GRADE. p. 405-455. Disponible en: http://www.grade.org.pe/upload/publicaciones/archivo/download/pubs/InvPolitDesarr-10.pdf

Ebel, R. (1997). Fundamentos de la Medición educacional. Buenos Aires, Editorial Guadalupe.

Educación. (2003). En Diccionario Enciclopédico de Educación, Barcelona, España. Grupo Editorial Ceac S.A. (p.147)

García-Cueto, E. y Fidalgo, A. (2005). Análisis de los ítems. En Muñiz, Fidalgo, García-Cueto, Martínez y Moreno (2005). Análisis de los ítems. Cuadernos de Estadística, Madrid, Editorial La Muralla. (pp.53-131)

Gómez Castro, J.L. “Rendimiento escolar y valores interpersonales: Análisis de resultados en EGB con el cuestionario SIV de Leonardo V. Gordon”. Bordón, n° 262, pp. 257-275, 1986.

Gronlund, N. (1999). Elaboración de tests de aprovechamiento. México, Editorial Trillas (p.28, p.32)

Hurtado, L. (2012). Análisis de pruebas de rendimiento usando el modelo de Rasch. San Bernandino, Editorial académica española.

Hurtado, L. (2018). Relación entre los índices de dificultad y discriminación. Revista Digital de Investigación en Docencia Universitaria, 12(1),273-300. doi: http://dx.doi.org/10.19083/ridu.12.614

Masters, G. (1988). Item discrimination: When more is worse. Journal of Educational Measurement, 25(1), 15-29. doi: https://doi. org/10.1111/j.1745-3984. 1988.tb00288.x

Miljánovich, M. (2005). Nuevo modelo de prueba de admisión de la Universidad Nacional Mayor de San Marcos, en Calidad de las Pruebas de Admisión de la Universidad Peruana, Piscoya L. (Ed.) Lima, Asamblea Nacional de Rectores (pp.103-112).

Muñiz, J. (1997). Introducción a la teoría de respuesta a los ítems. Madrid, Ediciones Pirámide (p.34).

Muñiz, J. (2010). Las teorías de los tests: teoría clásica y teoría de respuesta a los ítems. Papeles del psicólogo, vol 31, núm. 1, pp.57-66. ISSN:0214-7823. Disponible en https://www.redalyc.org/pdf/778/77812441006.pdf

Paz, M. (1996). Validez, en Psicometría, Muñiz, J. (Coord.). Madrid, Editorial Universitas, S.A. (pp.50-103).

Piscoya, L. (2005). Cuánto saben nuestros maestros. Fondo Editorial de la Universidad Nacional Mayor de San Marcos, Lima.

Rama, C. (2005). El acceso a la educación superior en América Latina y el Caribe, en Calidad de las Pruebas de Admisión de la Universidad Peruana, Piscoya L. (Ed.) Lima, Asamblea Nacional de Rectores (pp.17-46).

Reynolds, Livingston y Wilson (2019). Measurement and Assessment in Education, 2da. Edición. Pearson. (p.149)

Schunck, D. (1997). Teorías del aprendizaje. Pearson educación, México. (p.2, p.3)

Schumacker, R. (2004). Rasch Measurement: The dichotomous model, en Introduction to Rasch Measurement. Smith, E. y Smith, R. (Editores). Minessota, JAAM Press, (pp. 226-257).

Tristán, A. (2001). Análisis de Rasch para todos. México, Ceneval.

Yen, W. y Fitzpatrick, A. (2006). Item Response Theory, en Educational Measurement, Fourth Edition. Brennan, R. (Editor). American Council on Education and Praeger Publishers, (pp.111-154)

Publicado

16-11-2021

Número

Sección

Artículos originales

Cómo citar

Hurtado, L. (2021). Dificultad asignada y observada de las preguntas de una prueba de rendimiento académico. Revista Estudios Psicológicos, 1(4), 80-101. https://doi.org/10.35622/j.rep.2021.04.004

Artículos similares

51-60 de 87

También puede Iniciar una búsqueda de similitud avanzada para este artículo.