La inteligencia artificial está cambiando rápidamente la forma en que evaluamos el potencial humano, pero su naturaleza opaca plantea un riesgo importante. La tendencia actual de implementar sistemas de IA de “caja negra” en la educación, donde el proceso de toma de decisiones está oculto, socava la confianza y la rendición de cuentas. Así como los pasajeros merecen entender cómo funciona un avión, los estudiantes y educadores necesitan ver cómo las evaluaciones basadas en IA llegan a sus conclusiones. Esto no es sólo una cuestión de justicia; es un requisito fundamental para un aprendizaje significativo y oportunidades equitativas.
El problema de la IA opaca
El atractivo de la IA en las pruebas radica en su capacidad para personalizar las evaluaciones, adaptando las preguntas a los intereses individuales (un aficionado a los deportes que utiliza estadísticas, un astrónomo que analiza planetas). Pero esta personalización crea una paradoja: si cada estudiante realiza una prueba única, ¿cómo podemos garantizar que las puntuaciones sean comparables? Sin transparencia, se corre el riesgo de crear estándares arbitrarios y reforzar las desigualdades existentes.
El peligro es que los modelos patentados de IA, impulsados por intereses comerciales, puedan actuar como guardianes no revelados de oportunidades educativas y profesionales. Esto contrasta directamente con el rigor científico de la medición educativa establecida, que prioriza el acceso abierto a métodos y datos. No exigir explicabilidad significa aceptar un sistema en el que la IA determina los resultados sin justificación.
La solidez científica exige transparencia
La OCDE sostiene que la validez (la precisión y el significado de una evaluación) no es algo que deba comprobarse al final; debe incorporarse desde el principio. La validez ya no es una propiedad estática; es un argumento dinámico sobre un alumno en contexto. Una prueba de lectura impulsada por IA no es válida si sus resultados se malinterpretan o se utilizan incorrectamente, como por ejemplo categorizar injustamente a un estudiante basándose en una sola puntuación.
La explicabilidad es la clave para garantizar que esto no suceda. Los estudiantes merecen entender por qué recibieron una puntuación particular (un 78 en un ensayo, por ejemplo). La retroalimentación sin comprensión es inútil. Así como esperamos etiquetas nutricionales en los alimentos, necesitamos “etiquetas de evaluación” que detallen el diseño, la puntuación y las limitaciones de las pruebas basadas en IA. La Comisión Internacional de Pruebas recomienda explicaciones en lenguaje sencillo a los alumnos y las familias.
Justicia y evitar daños
Los sistemas de IA heredan sesgos de los datos con los que están entrenados, lo que hace que la equidad sea una preocupación fundamental. La tecnología puede introducir nuevas barreras: una IA que puntúe el habla debe adaptarse a los estudiantes sordos, por ejemplo. El principio de “no hacer daño” debe ser primordial.
Como enfatiza el Manual para la evaluación al servicio del aprendizaje, cualquier prueba debe demostrar que no sólo es precisa sino también segura, efectiva y justa. Esto requiere un argumento de validez riguroso que aborde los posibles sesgos y garantice un acceso equitativo a las oportunidades.
Hacia una plaza pública digital
Nos encontramos en una encrucijada. ¿Aceptamos un futuro dominado por “cajas negras” patentadas que moldean silenciosamente los caminos de los estudiantes, o construimos una “plaza pública digital” donde el diseño de la evaluación sea abierto, transparente y sujeto a debate? La innovación sin explicación es irresponsable.
El valor de una evaluación no es sólo su precisión; es lo útiles que son los conocimientos para estudiantes y educadores. Es hora de exigir que los proveedores de IA “muestren su trabajo”, asegurando que la historia de la IA en la educación sea de apertura, rigor científico y confianza ganada.
El futuro de la IA en la educación depende de nuestra voluntad de priorizar la transparencia, la equidad y la validez científica, no solo el avance tecnológico. Sólo entonces podremos aprovechar el poder de la IA sin sacrificar los principios de oportunidad equitativa y aprendizaje significativo.




















