Société
L’IA dans les écoles du Québec : un danger pour les droits des élèves?
13 février 2025
Les élèves du Québec verront leurs données utilisées pour entraîner l’intelligence artificielle (IA) Gemini de Google sous prétexte d’analyser les risques chez les élèves…, que les parents le veuillent ou non! C’est ce que nous apprend un article d’Isaac Peltz dans The Rover, publié le 8 février dernier.
Par Félix Cauchy-Charest, conseiller CSQ
Cette décision soulève d’importantes inquiétudes du côté des défenseurs des droits numériques. Si cette technologie promet d’aider à détecter des comportements problématiques, elle pose également de sérieuses questions sur la vie privée, la surveillance et entraînera des coûts de 1 million $ au moment même où le gouvernement Legault effectue des coupes drastiques de quelque 650 millions $ en éducation.
Une technologie intrusive et opaque
L’implantation de l’IA dans les écoles québécoises s’inscrit dans une tendance croissante à l’automatisation des processus éducatifs. Selon les promoteurs de cette initiative, ces outils permettraient d’identifier des élèves à risque en analysant divers comportements, tels que l’absentéisme, la baisse des résultats scolaires ou même des interactions en classe.
Toutefois, ces systèmes reposent sur des algorithmes dont le fonctionnement précis demeure opaque. Qui décide des critères pour étiqueter un élève comme étant « à risque »? Quelles données sont collectées et analysées? Ces informations sont-elles partagées avec d’autres institutions, voire avec des acteurs privés? L’absence de transparence autour de ces questions n’a rien pour rassurer les élèves et leurs parents!
Des risques pour la vie privée
L’utilisation de l’IA dans les écoles pose une menace sérieuse à la confidentialité des élèves et du personnel éducatif. Pensons à la fuite de données du logiciel PowerSchool qui a affecté plus de 80 commissions scolaires au Canada, laissant fuiter les données de 2,4 millions d’élèves, rien que dans deux districts scolaires ontariens.
Selon une source au fait du projet dans les officines gouvernementales, les personnes responsables de cette initiative ne comprennent pas comment l’IA fonctionne et ne sont pas conscientes des risques entourant les potentielles fuites de données.
Lorsque questionné sur la possibilité pour les parents de retirer leur enfant de la collecte de données (et pour les élèves adultes d’en faire de même), le ministère de l’Éducation aurait répondu que c’était impossible. Un parent interrogé par Isaac Peltz souligne son malaise à voir les données de son enfant utilisées pour entraîner l’outil d’IA Gemini de Google, surtout en raison du poids de plus en plus important de l’entreprise dans le système éducatif québécois (Chromebooks, Google Classroom, etc.). Sans compter que Mila, l’Institut québécois d’intelligence artificielle, ayant participé au développement de ce projet, n’y est plus associé depuis un bon moment.
La vraie solution : les professionnelles et professionnels de l’éducation
Lors du dernier Réseau des jeunes de la CSQ, de jeunes professionnelles et professionnels de l’éducation ont émis de sérieux doutes quant à la pertinence de déployer un tel outil en l’absence de ressources professionnelles suffisantes pour agir auprès des élèves en difficulté.
En raison des compressions budgétaires imposées au réseau, les travailleuses et travailleurs déjà présents dans nos écoles peinent à offrir les services requis par les élèves en difficulté du Québec. Avant de mettre en place un outil de « diagnostic en série », il serait plus avisé de miser sur des professionnelles et professionnels qui œuvrent au sein même des communautés scolaires, qui connaissent les élèves et qui peuvent agir en prévention.
Une bien mauvaise habitude de ne pas répondre aux questions
Face à ces enjeux, le ministère de l’Éducation aurait mieux fait de répondre aux préoccupations du personnel scolaire et des parents avant de forcer l’entrée de cette IA dans les écoles québécoises. Lorsque le ministère de l’Éducation a présenté le projet sous sa forme embryonnaire aux représentantes et représentants de la CSQ, vers 2021, les enjeux sur lesquels la Centrale s’interrogeait sont demeurés sans réponse… et le sont encore à ce jour! Une telle transformation ne peut se faire sans une réflexion approfondie sur les impacts éthiques, pédagogiques et sociaux.
Lors du dernier Congrès de la CSQ, les personnes déléguées ont adopté une résolution voulant que les nouvelles technologies, dont les modèles de langages larges (LLM) ou l’IA, aient leur place si, et seulement si, l’humain restait au cœur de la réflexion et des opérations.
Les travailleuses et travailleurs de l’éducation et les parents doivent être pleinement informés des outils utilisés et de leurs implications. Sans un cadre réglementaire clair et des garanties solides en matière de protection des données, cette initiative risque d’ouvrir la porte à des dérives inquiétantes. Souhaitons que le personnel puisse participer à l’évaluation en continu du projet.
L’éducation doit rester un espace d’apprentissage et d’émancipation, et non devenir un terrain d’expérimentation pour des technologies de surveillance.