Umělá inteligence rychle mění vzdělávací dimenze, ale její potenciál závisí na vytváření systémů, které jsou nejen efektivní, ale také důvěryhodné, spravedlivé a skutečně přínosné pro studenty a učitele. Nedávný panel zdůraznil potřebu „bezpečnostních pásů“ – přísné vědecké infrastruktury – aby bylo zajištěno, že hodnocení na základě umělé inteligence zlepší učení spíše než jen urychlí stávající problémy.
Pilíře odpovědné umělé inteligence ve vzdělávání
Kadriye Ercican z ETS tvrdí, že tři principy by měly být nesmlouvavé: efektivita (dosahuje systém své cíle?), platnost (jak silné jsou důkazy?) a spravedlnost (jak konzistentní jsou výsledky napříč všemi skupinami studentů?). To znamená navrhnout spravedlivost do systému od začátku, spíše než se později snažit napravit předsudky. Cílem je přejít od známek, které jednoduše popisují stav studenta (jako teploměr), k těm, které motivují ke zlepšení (jako termostat).
Snižte zátěž testování a zvyšte užitečnost
Angela Bang z Gates Foundation poznamenává, že studenti již tráví testováním až 100 hodin ročně, což neúměrně zatěžuje barevné studenty a ty, kteří zaostávají. Její práce se zaměřuje na „rámec zajišťování kvality produktů“, který pomáhá školám vybírat nástroje na základě jejich skutečné užitečnosti: jsou snadno použitelné, spolehlivé a přímo podporují učení? Rozvíjející se aplikace umělé inteligence – jako je rozpoznávání řeči pro zpětnou vazbu v reálném čase a učitelé čtení pomocí umělé inteligence – vykazují slibné výsledky, přičemž přísné důkazy se očekávají během příštích dvou až tří let.
Beyond Dimensions: Respektování zkušeností pedagogů
Michelle Odemwingye, generální ředitelka Achievement Network, tvrdí, že platnost závisí na tom, zda informace získané z hodnocení skutečně ovlivňují jednání učitelů. Současné přetížení vzdělávacích technologií (používá se jich přes 2 700) vytváří „informační obezitu“, což učitelům ztěžuje porozumění fragmentovaným datům. Odemwingye varuje před systémy umělé inteligence, které spolehlivě poskytují nesprávné informace („inteligentní nesmysl“), a zdůrazňuje, že systémy hodnocení musí respektovat úsudek a zkušenosti učitelů, aby poskytovaly dlouhodobý prospěch. Hlavní problém není technický, ale mezilidský.
Upřednostnění lidského rozkvětu před optimalizací
Gabriela Lopez vyzývá průmysl, aby překonal rychlost a předpovědi vývojem systémů umělé inteligence, které upřednostňují růst studentů, autonomii a posílení postavení. Trvá na tom, že „proměnlivost člověka je signál, ne šum“ – optimalizace pro úzké definice typických snižuje přesnost a důvěru. Skutečná transparentnost není o odhalení kódu, ale o pomoci lidem pochopit, co výsledky znamenají, jak je používat a co neznamenají.
Umělá inteligence ve vzdělávání si nakonec musí získat důvěru tím, že prokáže otevřenost, vědeckou přísnost a základní respekt k lidem, kteří za daty stojí. Budoucnost hodnocení spočívá nejen v technické vyspělosti, ale také ve vytváření systémů, které podporují lidský rozkvět a posilují studenty a pedagogy.




















