Kunstmatige intelligentie transformeert onderwijsmetingen snel, maar het potentieel ervan hangt af van het bouwen van systemen die niet alleen efficiënt zijn, maar ook geloofwaardig, eerlijk en echt nuttig voor studenten en docenten. Een recent panel van deskundigen benadrukte de noodzaak van ‘veiligheidsgordels’ – rigoureuze wetenschappelijke infrastructuren – om ervoor te zorgen dat AI-gestuurde beoordelingen het leerproces verbeteren in plaats van simpelweg bestaande problemen te versnellen.
De pijlers van verantwoorde AI in het onderwijs
Kadriye Ercikan van ETS betoogt dat er over drie principes niet onderhandelbaar moet zijn: werkzaamheid (behaalt het zijn doelen?), geldigheid (is het bewijs deugdelijk?) en eerlijkheid (zijn de resultaten consistent voor alle studentengroepen?). Dit betekent dat we vanaf het begin eerlijkheid in het systeem moeten inbouwen, in plaats van later te proberen vooroordelen op te lossen. Het doel is om te verschuiven van beoordelingen die louter de status van de leerling beschrijven (zoals een thermometer) naar beoordelingen die verbetering aandrijven (zoals een thermostaat).
De testlast verminderen en het nut vergroten
Angela Baheng van de Gates Foundation wijst erop dat studenten jaarlijks al tot 100 uur aan toetsen besteden, waardoor gekleurde studenten en studenten die achterlopen op het niveau onevenredig zwaar worden belast. Haar werk richt zich op een ‘productkwaliteitsraamwerk’ dat scholen helpt hulpmiddelen te kiezen op basis van hun daadwerkelijke nut: zijn ze gebruiksvriendelijk, betrouwbaar en direct nuttig voor instructie? Opkomende AI-toepassingen – zoals spraakherkenning voor realtime feedback en AI-leescoaches – zijn veelbelovend, en er wordt binnen de komende twee tot drie jaar rigoureus bewijs verwacht.
Verder dan meten: respect voor de expertise van docenten
Michelle Odemwingie, CEO van Achievement Network, stelt dat validiteit afhangt van de vraag of beoordelingsinzichten daadwerkelijk het handelen van leraren beïnvloeden. De huidige overdaad aan EdTech-tools (meer dan 2.700 in gebruik) creëert ‘informatie-obesitas’, wat het vermogen van docenten belemmert om gefragmenteerde gegevens te begrijpen. Odemwingie waarschuwt voor AI-systemen die vol vertrouwen onnauwkeurige informatie leveren (“redelijke onzin”), en benadrukt dat beoordelingssystemen het oordeel en de expertise van leraren moeten respecteren om blijvende waarde te kunnen opleveren. Het kernprobleem is niet technisch; het is relationeel.
Prioriteit geven aan menselijke bloei boven optimalisatie
Gabriela López daagt het veld uit om verder te gaan dan snelheid en voorspelling en AI-systemen te ontwerpen die prioriteit geven aan de groei, keuzevrijheid en kansen van studenten. Ze benadrukt dat “menselijke variabiliteit een signaal is, geen ruis” – optimaliseren voor smalle definities van typisch vermindert de nauwkeurigheid en het vertrouwen. Echte transparantie gaat niet over het blootleggen van code, maar over het helpen van mensen te begrijpen wat resultaten betekenen, hoe ze te gebruiken en wat ze niet betekenen.
Uiteindelijk moet AI in het onderwijs vertrouwen winnen door blijk te geven van openheid, wetenschappelijke nauwkeurigheid en fundamenteel respect voor de individuen achter de gegevens. De toekomst van assessment ligt niet alleen in technische verfijning, maar in het bouwen van systemen die de menselijke bloei ondersteunen en zowel leerlingen als docenten empoweren.




















