Crédit visuel : Hidaya Tchassanti — Directrice artistique
Chronique rédigée par Hai Huong Lê Vu — Journaliste
ChatGPT, DeepSeek, Gemini… Sur notre campus de l’Université d’Ottawa (U d’O), il s’avère important de comprendre la nouvelle réalité algorithmique de l’intelligence artificielle (IA) et d’apprendre à coexister avec elle. Quels comportements adopter pour l’utiliser de manière éthique ? Explorons ce labyrinthe ensemble.
Trois ans après le boom de l’IA générative, nous pouvons nous sentir comme devant une machine à café ultra-sophistiquée, capable de merveilles, mais qui demeure intimidante. Pourtant, l’arrivée de l’IA en enseignement me rappelle l’avènement d’Internet. Au départ, la méfiance et l’hésitation régnaient, mais aujourd’hui, des outils comme le Campus virtuel Brightspace ou Érudit sont essentiels à notre éducation. L’IA suivra sûrement le même chemin, et deviendra omniprésente dans notre vie quotidienne.
Mirage ou bijou de technologie ?
L’IA a effectivement déjà pénétré nos salles de classe et nos projets de recherche, parfois même plus subtilement qu’un.e étudiant.e en retard essayant d’entrer en douce dans la salle de cours. Selon Deloitte, des chercheur.e.s exploitent sa puissance pour analyser des quantités astronomiques de données, et certain.e.s professeur.e.s utilisent les outils d’IA pour alléger la création de matériel pédagogique. Cette technologie peut aussi démocratiser l’accès à l’éducation, en aidant les étudiant.e.s en situation de handicap et ceux.celles ayant des barrières linguistiques, d’après la même source.
Cependant, il est impossible d’aborder le potentiel de l’IA sans évoquer les questions éthiques qu’elle soulève. Ces préoccupations sont encore plus pertinentes en matière d’intégrité académique : nous parlons ici de la qualité de l’information générée, des biais d’informations, de la discrimination programmée et de la désinformation par certains modèles d’IA.
Nous devons donc développer une littératie en IA, pour que nous puissions évaluer de manière critique les résultats fournis par ces systèmes et éviter de les considérer comme des vérités absolues. La littératie en IA favorise la pensée critique et forme des citoyen.ne.s numériques responsables.
Alors, comment utiliser l’IA de manière responsable ?
Avant de pouvoir apprendre à naviguer l’IA, il faut d’abord comprendre pourquoi les étudiant.e.s emploient cette technologie. Souvent, les étudiant.e.s profitent de l’IA pour améliorer leurs résultats scolaires et gagner du temps. Selon un sondage de 2024, 75 % des étudiant.e.s utilisateur.ice.s affirment avoir obtenu de meilleurs résultats grâce à l’IA. Une étude de KPMG, effectuée en mai 2023, révèle que les utilisations courantes de l’IA incluent la génération d’idées et la recherche. Pouvons-nous alors affirmer que l’IA est un outil qui ne fait qu’améliorer la vie académique des étudiant.e.s ?
Ce n’est pas si simple. Comment jongler avec l’IA et l’intégrité académique ? Selon le Règlement académique A-4 de l’U d’O, « le défaut d’identifier le contenu généré par tous les moyens technologiques, y compris l’intelligence artificielle » est une infraction académique. Les professeur.e.s établissent des règles vis-à-vis de l’utilisation de l’IA dans leurs cours : les étudiant.e.s doivent donc vérifier attentivement les plans de cours et les directives spécifiques de chaque évaluation.
Certain.e.s professeur.e.s demandent une déclaration précisant l’usage de l’IA, détaillant ce qui est permis – améliorer le style, corriger les fautes, clarifier des concepts – et ce qui est interdit – générer du contenu, inventer des preuves. En fonction des cours, il peut aussi être obligatoire de citer des outils comme DeepL ou Antidote, en expliquant comment ils ont été utilisés.
En cas de doute, la règle d’or reste de consulter les professeur.e.s Chaque discipline et chaque cours a ses spécificités. Ce qui est toléré dans un cours d’informatique, comme l’utilisation de l’IA pour résoudre des problèmes de programmation, ne le sera pas nécessairement dans un séminaire de littérature, où l’on attend une analyse personnelle approfondie.
Faut-il en rester au règlement actuel ?
Si notre Université a amorcé une réflexion sur l’IA, nous devons accélérer le passage à l’action. Comment rendre nos règlements plus clairs, plus pertinents et mieux adaptés à cette réalité technologique en constante évolution ?
L’une des autres pistes d’amélioration serait de s’inspirer des directives adoptées par d’autres institutions. L’Université du Québec à Montréal met en garde contre l’utilisation d’outils d’IA dans l’évaluation des apprentissages. C’est une perspective importante à considérer pour préserver l’authenticité de nos évaluations. L’Université de Montréal, quant à elle, recommande aux enseignant.e.s de rendre explicite leur propre utilisation de l’IA dans leurs cours.
L’idée n’est pas d’interdire l’IA, mais plutôt de préciser les zones grises. Certain.e.s expert.e.s suggèrent même d’exiger des étudiant.e.s qu’ils et elles fournissent une trace précise de leurs interactions avec l’IA, notamment les prompts utilisés.
Malgré ces idées, certain.e.s enseignant.e.s regrettent un climat de surveillance excessive, et certain.e.s étudiant.e.s craignent des mesures intrusives. Pour plusieurs, le développement de politiques flexibles, adaptées aux différentes disciplines, et qui favorisent l’intégration réfléchie de l’IA, est crucial.
L’intégration éthique de l’IA à l’U d’O nécessitera un dialogue continu et constructif entre les étudiant.e.s, les professeur.e.s et l’administration, voire avec les décideur.se.s politiques. Nous devrons trouver un équilibre entre l’exploration des potentialités de l’IA et la préservation de nos valeurs éthiques.