Alors que l’intelligence artificielle (IA) s’impose dans les salles de classe, un climat de suspicion s’installe entre la communauté étudiante et le corps enseignant. Entre fausses accusations de fraude et incertitudes liées à son utilisation, comment l’Université s’adapte-t-elle à cette nouvelle réalité ?
Hiver 2025. Rafael* entame sa deuxième session au baccalauréat en études hispaniques à l’UdeM. Quelques semaines après avoir passé son examen intratrimestriel en classe, il reçoit un message de sa professeure. « Elle m’a enlevé 15 points parce que, selon elle, j’ai utilisé l’intelligence artificielle », révèle-t-il. La raison ? Elle juge sa grammaire trop bonne pour un étudiant de premier cycle.
« C’est normal que ma grammaire soit bonne », se justifie-t-il, expliquant avoir en effet grandi au Mexique et effectué toute sa scolarité en espagnol, contrairement à la grande majorité des étudiant·e·s de son cours, qui ont l’espagnol comme langue seconde.
L’histoire de Rafael n’est pas un cas isolé. Sur les réseaux sociaux, de nombreux étudiant·e·s de cégeps et d’universités dénoncent un climat de suspicion grandissant.
« Je me suis tellement fait accuser souvent d’avoir triché avec ChatGPT que je suis devenue complètement parano », confie une cégépienne montréalaise sur la plateforme TikTok. Un autre cégépien affirme avoir dû pour sa part rédiger sept pages pour prouver qu’il n’avait pas triché. Certain·e·s étudiant·e·s conseillent de garder des traces de leurs recherches au cas où ils devraient se justifier.
Des détecteurs imparfaits
Lorsque Rafael a rencontré son directeur de programme, celui-ci lui a rappelé que l’utilisation des détecteurs d’IA comme preuve de fraude était interdite.
L’efficacité de ces derniers est d’ailleurs largement remise en question depuis leur mise en service. OpenAI, l’entreprise derrière ChatGPT, a même fermé son propre outil de détection en 2023, jugeant sa marge d’erreur trop importante. Bien que des rumeurs sur la conception d’un nouveau détecteur circulent, l’entreprise californienne n’a encore mis aucun outil fiable à la disposition du public, particulièrement en français.
Aucune université, y compris l’Université de Montréal, ne recommande leur utilisation. « Le fait d’utiliser un outil de détection ne constitue pas une preuve, c’est important de le comprendre », a insisté l’expert-conseil en intégration de l’IA à la Faculté des arts et des sciences (FAS) Dave Anctil dans le cadre d’un atelier donné en février dernier sur l’intégrité intellectuelle dans l’utilisation de l’IA.
L’IA générative est un système probabiliste. Lorsqu’une personne lui pose une question, elle estime la réponse la plus probable en fonction des données dont elle dispose, ce qui génère un résultat différent à chaque fois. Les détecteurs, qui cherchent des motifs récurrents propres aux IA, comme des tournures de phrases ou certains choix de mots, ont donc du mal à faire la distinction de manière précise.
Malgré l’interdiction de ces outils dans certains départements universitaires, la méfiance persiste. En 2024, 79 % des étudiant·e·s pensaient que leurs professeur·e·s utilisaient des détecteurs d’IA pour analyser leurs travaux, selon un sondage KPMG mené auprès de 2974 Canadien·ne·s de 18 ans et plus1.
« On dit à nos enseignants de ne pas construire de rapport d’infraction en fonction du résultat d’un détecteur », rassure le secrétaire de la FAS et responsable des dossiers d’infraction aux règlements sur le plagiat et la fraude, Carl Bouchard. Néanmoins, l’expérience des enseignant·e·s leur permet de repérer des travaux suspects. « Après avoir corrigé des centaines de copies, on développe un œil aiguisé, souligne-t-il. Notre approche, c’est de leur dire de se faire confiance. »
Chaque année, la FAS rapporte entre 200 et 300 cas de plagiat, dont la grande majorité est liée à l’IA. « Il y a 20 ans, le raccourci était de demander à un ami de faire son travail ; aujourd’hui, c’est l’intelligence artificielle qui est accessible », précise M. Bouchard. Selon lui, le nombre de plaintes n’a pas augmenté de manière significative depuis l’apparition de l’IA.

de l’intelligence artificielle (IA) générative aux études supérieures à l’Université de Montréal. / crédit photo Nicolas Bougeard
Interdit ou pas ?
L’Université de Montréal laisse une grande autonomie aux professeur·e·s quant à la gestion de l’IA en classe. Certain·e·s peuvent même aller jusqu’à l’interdire complètement. Or, la plupart des logiciels, comme Antidote ou Microsoft Word, intègrent désormais des outils d’IA, ce qui revient à l’utiliser, même si les étudiant·e·s n’en ont pas forcément conscience.
« On demande aux étudiants d’être transparents quant à l’utilisation de l’IA, mais on ne leur dit pas comment l’utiliser efficacement », mentionne le professeur adjoint au Département de psychoéducation et d’andragogie de l’UdeM Normand Roy. Il encourage d’ailleurs son utilisation dans ses cours aux cycles supérieurs, convaincu de son potentiel pédagogique.
Une étude de 2024 sur les universités américaines révèle que 67,4 % des ressources et formations sur l’IA sont destinées au personnel enseignant, contre seulement 17,8 % pour les étudiant·e·s2.
Dans ce contexte, la stratégie de surveillance et de sanction ne semble pas adaptée. « Les étudiants ont été un peu laissés à eux-mêmes », a constaté M. Anctil au cours de son atelier, tout en soulignant que ces données proviennent des États-Unis, même si la tendance semble similaire au Canada.
« Nous, on constate ou non une infraction », rappelle M. Bouchard. L’intention de l’étudiant·e n’est pas prise en compte par le comité disciplinaire. Il insiste donc sur l’importance pour les enseignant·e·s d’être explicites quant aux règles d’utilisation de l’IA afin d’éviter toute ambiguïté. « Si un professeur ne précise pas clairement dans son plan de cours qu’un outil est permis, celui-ci est par défaut interdit », soutient le professeur.
Vers des pistes de solution
L’omniprésence de l’IA ne fait plus aucun doute : 59 % des étudiant·e·s déclarent l’utiliser dans un contexte scolaire et 82 % admettent avoir déjà présenté du contenu généré par IA comme étant le fruit de leur propre travail, selon les résultats de l’étude de KPMG.
Face à cette réalité, plusieurs enseignant·e·s proposent de revoir les méthodes d’évaluation. « On a beaucoup mis l’accent sur l’écriture pour évaluer les connaissances ; peut-être faut-il diversifier les approches, suggère la professeure de philosophie et d’éthique de l’intelligence artificielle au Cégep André-Laurendeau Andréanne Sabourin Laflamme. Au lieu de faire une chasse aux sorcières, il faudrait adapter nos exigences et enseigner aux étudiants comment bien l’utiliser. »
M. Roy réfléchit également à ces enjeux dans son séminaire sur l’innovation dans l’enseignement supérieur. Il a d’ailleurs mis en place un système d’autodéclaration, au sein duquel les étudiant·e·s cochent des cases à la fin d’un travail pour indiquer une utilisation de l’IA.
En attendant une réglementation plus claire, Rafael devra repasser son examen sur papier. Cette nouvelle évaluation comptera pour 80 % de sa note finale. Une solution qui ne le dérange pas outre mesure, bien que tout le processus ait été lourd et anxiogène. « J’ai eu peur pour mon diplôme », avoue-t-il.
*Afin de respecter l’anonymat de l’étudiant, le prénom a été modifié.
- KPMG (2024): Les étudiants qui utilisent l’IA générative avouent qu’ils n’apprennent pas autant, 21 octobre 2024. Consulté le 29 mars 2025, en ligne.
- Wang, Hui, Dang, Anh et al. (2024): « Generative AI in higher education: Seeing ChatGPT through universities’ policies, resources, and guidelines », Computers and Education : Artificial Intelligence, vol. 7, décembre 2024, 100326. En ligne, consulté le 29 mars 2025.
(Photo de couverture : crédit Pexels – Cottonbro)