Образование на основе ИИ: Переосмысление оценки в будущем

3

Искусственный интеллект стремительно преобразует образовательные измерения, но его потенциал зависит от создания систем, которые будут не только эффективными, но и достоверными, справедливыми и действительно полезными для учеников и учителей. Недавняя панель экспертов подчеркнула необходимость «ремней безопасности» – строгой научной инфраструктуры – для обеспечения того, чтобы оценка на основе ИИ улучшала обучение, а не просто ускоряла существующие проблемы.

Столпы ответственного ИИ в образовании

Кадрие Эрчикан из ETS утверждает, что три принципа должны быть не подлежащими обсуждению: эффективность (достигает ли система своих целей?), валидность (насколько обоснованы доказательства?) и справедливость (насколько последовательны результаты для всех групп учащихся?). Это означает проектирование справедливости в систему с самого начала, а не попытки исправить предвзятости позже. Цель состоит в том, чтобы перейти от оценок, которые просто описывают статус ученика (как термометр), к тем, которые стимулируют улучшение (как термостат).

Снижение нагрузки на тестирование и повышение полезности

Анджела Банг из Фонда Гейтса отмечает, что ученики уже тратят до 100 часов в год на тестирование, непропорционально обременяя цветных учеников и тех, кто отстаёт по уровню знаний. Её работа сосредоточена на «рамке обеспечения качества продукта», которая помогает школам выбирать инструменты на основе их фактической полезности: удобны ли они в использовании, надежны ли и напрямую ли помогают в обучении? Появляющиеся приложения ИИ – такие как распознавание речи для обратной связи в реальном времени и ИИ-тьюторы по чтению – демонстрируют многообещающие результаты, при этом ожидаются строгие доказательства в течение следующих двух-трех лет.

За пределами измерений: Уважение к опыту педагогов

Мишель Одемвингье, генеральный директор Achievement Network, утверждает, что валидность зависит от того, действительно ли информация, полученная в результате оценки, влияет на действия учителей. Текущая перегрузка образовательными технологиями (более 2700 в использовании) создает «информационное ожирение», мешая учителям понимать фрагментированные данные. Одемвингье предостерегает от систем ИИ, которые уверенно предоставляют неверную информацию («разумную бессмыслицу»), подчеркивая, что системы оценки должны уважать суждения и опыт учителей, чтобы принести долгосрочную пользу. Основная проблема не техническая, а межличностная.

Приоритет человеческого процветания над оптимизацией

Габриэла Лопес призывает отрасль выйти за рамки скорости и предсказаний, разрабатывая системы ИИ, которые отдают приоритет росту, автономии и возможностям учащихся. Она настаивает на том, что «человеческая изменчивость – это сигнал, а не шум» – оптимизация узких определений типичного снижает точность и доверие. Истинная прозрачность заключается не в раскрытии кода, а в том, чтобы помочь людям понять, что означают результаты, как их использовать и что они не означают.

В конечном счёте, ИИ в образовании должен заслужить доверие, демонстрируя открытость, научную строгость и фундаментальное уважение к людям, стоящим за данными. Будущее оценки заключается не только в технической изощренности, но и в создании систем, которые поддерживают человеческое процветание и расширяют возможности учащихся и педагогов.

Попередня статтяБелый дом продвигает национальную политику в области ИИ, сталкиваясь с штатами из-за регулирования
Наступна статтяОбнаружены Кости Динозавра Под Парковкой в Колорадо