KI-gestützte Bildung: Bewertung für die Zukunft neu definieren

19
KI-gestützte Bildung: Bewertung für die Zukunft neu definieren

Künstliche Intelligenz verändert die Bildungsmessung rasant, ihr Potenzial hängt jedoch vom Aufbau von Systemen ab, die nicht nur effizient, sondern auch glaubwürdig, fair und für Schüler und Lehrer wirklich nützlich sind. Ein kürzlich durchgeführtes Expertengremium betonte die Notwendigkeit von „Sicherheitsgurten“ – strengen wissenschaftlichen Infrastrukturen –, um sicherzustellen, dass KI-gestützte Bewertungen das Lernen verbessern und nicht nur bestehende Probleme beschleunigen.

Die Säulen einer verantwortungsvollen KI in der Bildung

Kadriye Ercikan von ETS argumentiert, dass drei Prinzipien nicht verhandelbar sein dürfen: Wirksamkeit (erreicht es seine Ziele?), Validität (sind die Beweise solide?) und Fairness (sind die Ergebnisse bei allen Studierendengruppen konsistent?). Das bedeutet, von Anfang an Fairness in das System zu integrieren, anstatt später zu versuchen, Vorurteile zu beseitigen. Das Ziel besteht darin, von Beurteilungen, die lediglich den Status der Schüler beschreiben (wie ein Thermometer), zu solchen zu wechseln, die Verbesserungen antreiben* (wie ein Thermostat).

Reduzierung des Testaufwands und Steigerung des Nutzens

Angela Bahng von der Gates Foundation weist darauf hin, dass Schüler jährlich bereits bis zu 100 Stunden für Tests aufwenden, was farbige Schüler und diejenigen, die hinter der Klassenstufe zurückbleiben, unverhältnismäßig stark belastet. Der Schwerpunkt ihrer Arbeit liegt auf einem „Produktqualitätsrahmen“, der Schulen dabei hilft, Werkzeuge auf der Grundlage ihres tatsächlichen Nutzens auszuwählen: Sind sie benutzerfreundlich, zuverlässig und direkt hilfreich für den Unterricht? Neue KI-Anwendungen – wie Spracherkennung für Echtzeit-Feedback und KI-Lesetrainer – sind vielversprechend, wobei in den nächsten zwei bis drei Jahren stichhaltige Beweise erwartet werden.

Über die Messung hinaus: Respektierung der Fachkompetenz von Pädagogen

Michelle Odemwingie, CEO von Achievement Network, argumentiert, dass die Gültigkeit davon abhängt, ob die Erkenntnisse aus der Beurteilung tatsächlich in das Handeln der Lehrer einfließen. Die derzeitige Überlastung von EdTech-Tools (über 2.700 im Einsatz) führt zu „Informationsübergewicht“ und beeinträchtigt die Fähigkeit von Pädagogen, fragmentierte Daten zu verstehen. Odemwingie warnt vor KI-Systemen, die selbstbewusst ungenaue Informationen liefern („vernünftiger Unsinn“) und betont, dass Bewertungssysteme das Urteilsvermögen und die Fachkompetenz der Lehrkräfte respektieren müssen, um dauerhaften Wert zu liefern. Das Kernproblem ist nicht technischer Natur; es ist relational.

Das menschliche Gedeihen hat Vorrang vor der Optimierung

Gabriela López fordert das Fachgebiet heraus, über Geschwindigkeit und Vorhersage hinauszugehen und KI-Systeme zu entwerfen, die das Wachstum, die Entscheidungsfreiheit und die Chancen der Studierenden in den Vordergrund stellen. Sie besteht darauf, dass „die menschliche Variabilität ein Signal und kein Rauschen ist“ – die Optimierung für enge Definitionen des Typischen verringert Genauigkeit und Vertrauen. Bei echter Transparenz geht es nicht darum, Code offenzulegen, sondern darum, den Menschen zu helfen, zu verstehen, was Ergebnisse bedeuten, wie sie verwendet werden und was sie nicht bedeuten.

Letztendlich muss KI in der Bildung Vertrauen gewinnen, indem sie Offenheit, wissenschaftliche Genauigkeit und einen grundsätzlichen Respekt gegenüber den Personen hinter den Daten zeigt. Die Zukunft der Beurteilung liegt nicht nur in der technischen Raffinesse, sondern in der Entwicklung von Systemen, die das menschliche Gedeihen unterstützen und Lernende und Lehrende gleichermaßen befähigen.