La inteligencia artificial está transformando rápidamente la medición educativa, pero su potencial depende de construir sistemas que no solo sean eficientes sino también creíbles, justos y verdaderamente útiles para estudiantes y profesores. Un panel reciente de expertos destacó la necesidad de “cinturones de seguridad” (infraestructuras científicas rigurosas) para garantizar que las evaluaciones impulsadas por la IA mejoren el aprendizaje en lugar de simplemente acelerar los problemas existentes.
Los pilares de la IA responsable en la educación
Kadriye Ercikan de ETS sostiene que tres principios no deben ser negociables: eficacia (¿logra sus objetivos?), validez (¿la evidencia es sólida?) y imparcialidad (¿los resultados son consistentes en todos los grupos de estudiantes?). Esto significa diseñar la equidad en el sistema desde el principio, en lugar de intentar corregir los sesgos más adelante. El objetivo es pasar de evaluaciones que simplemente describen el estado de los estudiantes (como un termómetro) a aquellas que impulsan la mejora (como un termostato).
Reducir la carga de las pruebas y aumentar la utilidad
Angela Bahng, de la Fundación Gates, señala que los estudiantes ya dedican hasta 100 horas al año a realizar exámenes, lo que supone una carga desproporcionada para los estudiantes de color y los que están atrasados en su nivel de grado. Su trabajo se centra en un “marco de calidad del producto” que ayuda a las escuelas a elegir herramientas en función de su utilidad real: ¿son fáciles de usar, confiables y directamente útiles para la instrucción? Las aplicaciones emergentes de IA, como el reconocimiento de voz para obtener retroalimentación en tiempo real y los instructores de lectura de IA, son prometedoras y se espera evidencia rigurosa dentro de los próximos dos o tres años.
Más allá de la medición: respetar la experiencia de los educadores
Michelle Odemwingie, directora ejecutiva de Achievement Network, sostiene que la validez depende de si los conocimientos de la evaluación realmente informan la acción de los docentes. La sobrecarga actual de herramientas EdTech (más de 2.700 en uso) crea “obesidad de información”, lo que dificulta la capacidad de los educadores para dar sentido a datos fragmentados. Odemwingie advierte contra los sistemas de IA que entregan con seguridad información inexacta (“tonterías razonables”), y enfatiza que los sistemas de evaluación deben respetar el juicio y la experiencia de los docentes para generar un valor duradero. El problema central no es técnico; es relacional.
Priorizar el florecimiento humano sobre la optimización
Gabriela López desafía el campo para ir más allá de la velocidad y la predicción, diseñando sistemas de inteligencia artificial que prioricen el crecimiento, la agencia y las oportunidades de los estudiantes. Ella insiste en que “la variabilidad humana es una señal, no un ruido”; optimizar las definiciones estrechas de lo típico reduce la precisión y la confianza. La verdadera transparencia no se trata de exponer el código, sino de ayudar a las personas a comprender qué significan los resultados, cómo usarlos y qué no significan.
En última instancia, la IA en la educación debe ganarse la confianza demostrando apertura, rigor científico y un respeto fundamental por las personas detrás de los datos. El futuro de la evaluación no reside únicamente en la sofisticación técnica, sino en la construcción de sistemas que apoyen el florecimiento humano y empoderen tanto a estudiantes como a educadores.
