Crédit visuel : Hidaya Tchassanti — Directrice artistique
Enquête menée par Camille Cottais — Rédactrice en chef et Tom Chazelle Schulze — Journaliste
Depuis l’essor fulgurant de l’intelligence artificielle (IA) générative dans le monde universitaire, la question de son intégration pédagogique s’impose à l’Université d’Ottawa (U d’O), tant pour les étudiant.e.s que pour les professeur.e.s. Entre volonté d’innovation pédagogique, préoccupations éthiques et risques de tricherie, l’institution avance à tâtons. Comment former les étudiant.e.s à penser de manière critique, tout en apprenant à dialoguer avec l’IA ?
Une stratégie institutionnelle qui reste floue
Pour Alain St-Amant, Vice-provost aux affaires académiques à l’U d’O, l’absence de politique institutionnelle est justifiée par un souci de respect de la liberté académique des professeur.e.s. St-Amant estime que les professeur.e.s sont les « juges ultimes de l’utilisation ou non des outils d’IA, ainsi que du moment précis et de la manière dont ils peuvent être utilisés » et insiste sur l’importance de mentionner ces points dans les plans de cours.
Pour faire face à des questions d’équité, de confidentialité et de propriété intellectuelle de l’utilisation de l’IA, l’U d’O a acquis une licence commerciale de Microsoft Copilot, informe St-Amant. Cette licence pourrait permettre aux professeur.e.s de fournir un outil d’IA aux étudiant.e.s sans que leurs données personnelles n’y soient enregistrées.
Le Vice-provost explique également que dès 2023, le Service d’appui à l’enseignement et à l’apprentissage (SAEA) a proposé plusieurs ateliers sur l’IA, et continue d’en offrir, notamment en partenariat avec Contact Nord. De plus, il mentionne la création en cours d’un groupe de travail sur l’IA, qui viserait à créer un réseau de « champion.ne.s de l’IA » parmi les professeur.e.s de l’U d’O.
Certain.e.s professeur.e.s, comme Luc Angers, chargé de cours à la Faculté d’éducation de l’U d’O et Vice-président de la mobilisation des membres à l’APTPUO, réclament néamoins davantage d’accompagnement (formations, outils) de la part de l’institution.
Processus d’adaptation
À la Faculté de gestion Telfer, Stéphane Brutus, qui en est le doyen, explique que la réflexion sur l’intégration de l’IA dans les cours est déjà bien amorcée. Il décrit l’approche de la faculté comme étant intégrative : « [Acceptons] le défi et apprenons à nos étudiant.e.s à l’utiliser à bon escient, de façon critique et optimale, sans perdre leur propre pensée critique ». Brutus rappelle que l’IA représente un tournant comparable à l’arrivée d’Internet dans l’enseignement supérieur. Il plaide ainsi pour une formation à la fois technique et critique.
Pour le doyen de Telfer, il est clair que l’Université est en phase de réflexion et que, pour l’instant, les professeur.e.s doivent s’adapter seul.e.s à cette nouvelle réalité pédagogique. Il souligne cependant l’importance de ne pas réagir de manière précipitée en posant des politiques trop rigides, qui ne prendraient pas en compte les spécificités de chaque faculté. Il reconnaît néanmoins que ce vide peut créer une forme d’incertitude dans les salles de classe.
Jérémie Séror est professeur à l’Institut des langues officielles et du bilinguisme (ILOB), vice-doyen à la gouvernance de la Faculté des arts et titulaire de la chaire de recherche de l’ILOB en apprentissage des langues médiatisé par les technologies et l’IA. Selon lui, la rapidité à laquelle avancent les outils d’IA surpasse souvent la capacité institutionnelle à offrir un encadrement structuré. Il observe que cette dynamique peut rendre difficile la mise en place de politiques claires, durables et unifiées de la part de l’administration centrale.
Tricher à l’ère de l’IA
Selon le règlement académique A-4, l’usage non autorisé de l’IA générative est considéré comme une forme de tricherie ou de fraude académique, à condition que le ou la professeur.e ait spécifié dans son syllabus que ces outils ne sont pas autorisés.
L’Université déconseille aux professeur.e.s l’utilisation des outils de détection, qui manquent de fiabilité et donnent de nombreux « faux positifs », précise St-Amant. Face à un travail suspect, les professeur.e.s doivent donc miser sur d’autres moyens : incohérences avec les compétences démontrées en classe, réponses trop génériques, incapacité à expliquer à l’oral le contenu du travail soumis.
« Quand les étudiant.e.s copient-collent du ChatGPT sans réfléchir, ça se voit tout de suite », observe Jean-Sébastien Marier, professeur en communication et journalisme numérique à l’U d’O. Selon lui, de nombreux.ses étudiant.e.s font l’erreur de considérer l’IA générative comme une « panacée », leur permettant de compléter rapidement les travaux à la dernière minute.
Dans cette situation, deux options s’offrent aux professeur.e.s : l’approche pédagogique ou le processus disciplinaire. La première, privilégiée en cas de première infraction, implique une rencontre avec l’étudiant.e pour lui demander d’expliquer son travail dans ses propres mots. Puis, une éventuelle sanction peut être imposée. Marier explique qu’on peut par exemple demander à l’étudiant.e de refaire le travail, d’assister à un atelier du CARTU sur l’intégrité dans les études et d’en produire un résumé, ou encore imposer une pénalité, qui ne peut pas dépasser 10 % de la note finale du cours.
Si la faute est plus grave ou répétée, le dossier peut être transmis au décanat de la Faculté, avec enquête formelle et possible passage en comité disciplinaire.
Que l’approche soit pédagogique ou disciplinaire, chaque cas représente une charge importante pour les professeur.e.s. « Monter un dossier, c’est trois à cinq heures non rémunérées », déplore Marier. « Il n’y a pas d’incitatif à ce qu’on rapporte ces cas, ce qui fait que beaucoup de collègues sont moins enclin.e.s à aller de l’avant ».
Cette pression crée aussi un climat de suspicion, qui peut fragiliser la relation entre enseignant.e.s et élèves, note Martine Pellerin, professeure d’éducation à l’Université de l’Alberta. Marier parle d’une impression de « chasse aux sorcières », et Angers évoque un « travail d’enquête » difficile à soutenir à grande échelle.
Puisqu’il peut être difficile de détecter l’usage de l’IA, plusieurs professeur.e.s modifient leurs méthodes d’évaluation. Des examens supervisés en classe, écrits à la main, font leur retour, parfois même au niveau de la maîtrise. Mais ce retour au papier-crayon inquiète, notamment car il ne permet pas de faire acquérir aux étudiant.e.s des aptitudes de recherche. C’est ce que regrette Émilie Bernier, professeure à temps partiel en pensée politique, pour qui cela « abaisse le niveau de la formation à laquelle les étudiant.e.s ont droit ».
Pour Séror, il faut surtout complexifier et personnaliser les méthodes d’évaluation : présentations en classe, examens oraux, création de vidéos, projets multimodaux… : l’objectif est de concevoir des tâches que l’IA ne peut pas faire à la place des étudiant.e.s. St-Amant propose quant à lui de concevoir des travaux intégrant l’IA avec un regard critique : « par exemple, l’étudiant.e pourrait utiliser l’IA, puis l’évaluation porterait sur la manière dont l’étudiant.e a amélioré le texte initial généré par l’IA ».
Pour Pellerin, ce n’est pas l’IA qui cause la triche, mais le manque d’encadrement autour de son usage. « On ne forme pas, mais on condamne », dénonce la professeure en éducation, qui remarque que beaucoup d’élèves ne comprennent pas ce qu’est l’intégrité académique. Pour elle, l’approche punitive seule ne règlera rien : « quand un.e étudiant est sanctionné.e, cela ne veut pas dire qu’il.elle ne va pas le refaire, parce qu’on n’a pas guéri le problème ».
La question dépasse les comportements individuels, estime Bernier. Elle y voit le reflet d’enjeux systémiques : pression académique, surcharge de travail, vie étudiante précarisée, qui poussent les étudiant.e.s à concevoir les travaux universitaires comme un nombre de pages à générer. Derrière les cas de tricherie se cachent donc des enjeux plus larges, que ni la méfiance ni les sanctions ne peuvent vraiment régler. D’où l’importance, pour plusieurs professeur.e.s, d’opter pour une approche plus éducative que punitive — et de reconnaître que l’intégrité, comme l’apprentissage, repose sur une responsabilité partagée.
Former à une pensée critique de l’IA
Si la majorité des professeur.e.s interrogé.e.s ne s’opposent pas catégoriquement à l’usage de l’IA, tou.te.s reconnaissent la nécessité de développer une véritable littératie en IA, à la fois pour les professeur.e.s et les étudiant.e.s.
Pour Séror, il ne s’agit pas seulement de savoir comment utiliser les outils, mais aussi de comprendre ce qu’ils sont, ce qu’ils peuvent faire et quelles sont leurs limites. Pellerin ajoute qu’il est question de développer les compétences pour les utiliser de manière critique, responsable et transparente.
Plutôt qu’interdire l’IA, plusieurs enseignant.e.s misent en effet sur la transparence, en exigeant aux étudiant.e.s de dévoiler leur usage : outil utilisé, requêtes formulées, dialogue généré, modifications apportées. « Ce n’est pas suffisant de dire qu’on a utilisé ChatGPT », rappelle Pellerin, « Il faut montrer comment on a collaboré avec l’outil pour produire la copie finale ». Pellerin appelle à un passage d’un usage passif de l’IA (copier-coller) à une collaboration active avec les outils, où l’humain.e garde le contrôle.
Brutus insiste sur l’importance de la responsabilité institutionnelle : « Nos étudiant.e.s ne peuvent pas arriver dans le monde du travail en étant naïf.ve.s à la réalité. Il faut les former. » Il imagine même des cours crédités, pendant lesquels les étudiant.e.s apprendraient l’usage académique rigoureux de l’IA d’une façon encadrée et critique.
Pour intégrer l’IA dans ses cours de manière critique, Banafsheh Karamifar, professeure adjointe en linguistique et en français langue seconde à l’Université Laurentienne, vérifie en classe ce que ChatGPT génère et compare ses réponses à celles du corrigé ou du livre de référence. Marier, en plus de démonstrations en classe, a ajouté une question à zéro point sur l’outil quizz de Brightspace pour demander aux étudiant.e.s s’ils.elles avaient utilisé l’IA et, si oui, comment. Il affirme que cela lui permet d’accompagner les élèves dans leur utilisation de l’outil.
Pour que ces apprentissages se produisent, il faut cependant que les professeur.e.s soient eux.elles-mêmes adéquatement formé.e.s. Pellerin déplore que peu de ses collègues aient reçu une formation approfondie sur l’IA et ses implications pédagogiques.
Cette formation doit inclure les potentialités de l’IA générative, mais aussi ses limites et les enjeux éthiques qu’elle soulève, remarque Bernier, qui mentionne par exemple les conséquences environnementales désastreuses de ces technologies. Séror rappelle également que ChatGPT est un modèle prédictif, générant la réponse la plus probable à partir de données d’entraînement, et qui ne peut donc pas générer d’idées véritablement originales ou novatrices.
De la même façon, Marier souligne qu’il arrive fréquemment que l’IA générative fasse des erreurs ou invente des citations ou des sources : il avertit contre un risque de « confiance aveugle » dans l’outil. Bernier ajoute que les textes générés par l’IA souffrent d’un manque de pensée critique : « les travaux paraissent plus soignés en apparence, mais le fond est d’une vacuité totale », déplore la professeure en pensée politique.
Pellerin alerte quant à elle contre les biais de genre de l’IA, tandis que Karamifar et Brutus rappellent que la version gratuite de ChatGPT est moins performante, créant une inégalité d’accès entre les étudiant.e.s.
Protection des données et propriété intellectuelle
La préoccupation éthique majeure parmi le corps professoral semble néanmoins être celle de la protection des données personnelles. L’U d’O précise que « le partage du travail de[s] étudiant.e.s avec [l]es détecteurs sans leur permission soulève […] une série de problèmes de confidentialité et d’éthique », ajoutant qu’« un travail achevé est la propriété intellectuelle de l’étudiant.e ». Pellerin mentionne en effet qu’à chaque utilisation de l’IA générative ou de ses détecteurs, les données saisies peuvent enrichir le modèle.
Cette même constatation soulève des questions en matière de propriété intellectuelle et d’originalité des idées. Karamifar explique : « si vous pensez que vos idées sont originales, vous ne voulez pas les mettre dans ChatGPT, qui va permettre que quelqu’un d’autre les utilise avant même que vous ne les ayez publiés ». Séror recommande ainsi de payer pour la version avancée de ChatGPT, qui permet de désactiver le partage de données, ou de se tourner vers la licence commerciale de Microsoft Copilot acquise par l’U d’O.