L’IA dans l’éducation : arguments en faveur de la transparence et de la confiance

15
L’IA dans l’éducation : arguments en faveur de la transparence et de la confiance

L’intelligence artificielle change rapidement la façon dont nous évaluons le potentiel humain, mais sa nature opaque présente un risque important. La tendance actuelle au déploiement de systèmes d’IA de type « boîte noire » dans l’éducation – où le processus de prise de décision est caché – sape la confiance et la responsabilité. Tout comme les passagers méritent de comprendre le fonctionnement d’un avion, les étudiants et les enseignants doivent voir comment les évaluations basées sur l’IA arrivent à leurs conclusions. Ce n’est pas seulement une question d’équité ; c’est une condition fondamentale pour un apprentissage significatif et des opportunités équitables.

Le problème de l’IA opaque

L’attrait de l’IA dans les tests réside dans sa capacité à personnaliser les évaluations, en adaptant les questions aux intérêts individuels (un fan de sport utilisant des statistiques, un astronome analysant des planètes). Mais cette personnalisation crée un paradoxe : si chaque élève passe un test unique, comment garantir que les résultats soient comparables ? Sans transparence, cela risque de créer des normes arbitraires et de renforcer les inégalités existantes.

Le danger est que les modèles d’IA propriétaires, motivés par des intérêts commerciaux, puissent agir comme des gardiens non divulgués des opportunités éducatives et professionnelles. Cela contraste directement avec la rigueur scientifique de la mesure éducative établie, qui donne la priorité au libre accès aux méthodes et aux données. Ne pas exiger l’explicabilité signifie accepter un système dans lequel l’IA détermine les résultats sans justification.

La solidité scientifique exige de la transparence

L’OCDE soutient que la validité – c’est-à-dire l’exactitude et le sens d’une évaluation – n’est pas quelque chose qui se vérifie à la fin ; il doit être intégré dès le départ. La validité n’est plus une propriété statique ; il s’agit d’un argument dynamique sur un apprenant dans son contexte. Un test de lecture basé sur l’IA n’est pas valide si ses résultats sont mal interprétés ou utilisés à mauvais escient, par exemple en catégorisant injustement un élève sur la base d’un seul score.

L’explicabilité est la clé pour garantir que cela n’arrive pas. Les étudiants méritent de comprendre pourquoi ils ont obtenu une note particulière (un 78 pour une dissertation, par exemple). Les commentaires sans compréhension sont inutiles. Tout comme nous attendons des étiquettes nutritionnelles sur les aliments, nous avons besoin d’« étiquettes d’évaluation » qui détaillent la conception, la notation et les limites des tests basés sur l’IA. La Commission internationale des tests recommande des explications en langage simple aux apprenants et aux familles.

Équité et prévention des préjudices

Les systèmes d’IA héritent des préjugés des données sur lesquelles ils sont formés, ce qui fait de l’équité une préoccupation majeure. La technologie peut introduire de nouveaux obstacles : une IA d’évaluation de la parole doit par exemple s’adapter aux étudiants sourds. Le principe « ne pas nuire » doit être primordial.

Comme le souligne le Manuel pour l’évaluation au service de l’apprentissage, tout test doit prouver qu’il est non seulement précis, mais également sûr, efficace et juste. Cela nécessite un argument de validité rigoureux qui corrige les biais potentiels et garantit un accès équitable aux opportunités.

Vers une place publique numérique

Nous nous trouvons à la croisée des chemins. Acceptons-nous un avenir dominé par des « boîtes noires » exclusives qui façonnent silencieusement les parcours des apprenants, ou construisons-nous une « place publique numérique » où la conception de l’évaluation est ouverte, transparente et sujette au débat ? L’innovation sans explicabilité est irresponsable.

La valeur d’une évaluation ne réside pas seulement dans son exactitude ; c’est l’utilité des informations pour les apprenants et les éducateurs. Il est temps d’exiger que les fournisseurs d’IA « montrent leur travail », en veillant à ce que l’histoire de l’IA dans l’éducation soit une histoire d’ouverture, de rigueur scientifique et de confiance méritée.

L’avenir de l’IA dans l’éducation dépend de notre volonté de donner la priorité à la transparence, à l’équité et à la validité scientifique – et pas seulement au progrès technologique. Ce n’est qu’alors que nous pourrons exploiter la puissance de l’IA sans sacrifier les principes d’opportunités équitables et d’apprentissage significatif.