Campus

L’IA sur les bancs de l’UdeM

«Si certains arrivent à avoir de bonnes notes alors qu’ils ne sont pas capables de rédiger de bonnes dissertations sans ChatGPT, je ne trouve pas ça juste», déclare l’étudiante en première année au baccalauréat en études internationales Rachel Rivrais.

À quelques minutes d’intervalle, ChatGPT est effectivement capable de générer un poème qui abonde en métaphores sur l’amour et l’arbre, une recette de carottes rôties au miel et une dissertation de 2000 mots sur les enjeux de la guerre froide. Rapide, compétent dans de nombreux domaines et capable, de surcroît, d’éviter les fautes d’orthographe, les capacités du robot conversationnel en font, en apparence, un bon élève version dématérialisée. L’UdeM a formellement interdit son utilisation dans le contexte d’une évaluation, précisant qu’elle était considérée comme une forme de plagiat.

Le directeur de transfert technologique pour l’Institut de valorisation des données (IVADO), Pierre Dumouchel, décrit plus précisément son fonctionnement. «C’est un agent conversationnel basé sur ce qu’on appelle « les grands modèles de langage », explique-t-il. Un modèle de langage est un outil qui propose le prochain mot en fonction des mots qui ont été dits précédemment et en fonction du contexte. Des systèmes comme cela génèrent des mots en fonction de ce qu’ils ont appris».

Le modèle de langage se construit ainsi grâce à la collecte d’une grande quantité de données textuelles. «ChatGPT est la pointe de la technologie dans toute la recherche qui a été faite sur les cinq, six dernières années, précise l’étudiant en sixième année de doctorat à l’UdeM Salem Lahlou. Toute cette recherche sur les modèles de langage a été condensée dans ce projet-là.»

Le 17 février dernier, les étudiant·e·s ont reçu un courriel du secrétaire général à l’UdeM Alexandre Chabot, qui spécifie que l’usage de ChatGPT est interdit dans les évaluations. Photo | Juliette Diallo

Effervescence autour de l’IA

L’UdeM occupe une place prépondérante dans le développement de ces techniques d’intelligence artificielle. Dans le domaine, elle se présente sur son site Internet comme étant «aux premières loges du développement de l’intelligence artificielle à l’échelle du globe». L’Institut québécois pour l’intelligence artificielle (Mila), le centre de recherche le plus reconnu au monde dans ce domaine, ainsi qu’IVADO, sont deux grands pôles rassemblant des chercheur·euse·s de l’Université de Montréal.

Le professeur titulaire au Département d’informatique et de recherche opérationnelle de l’UdeM Yoshua Bengio, fondateur de Mila, a eu un rôle de pionnier dans le domaine de l’apprentissage profond, indispensable au fonctionnement d’outils comme ChatGPT. Par ailleurs, «les mécanismes d’attention qui sont au cœur de tous les modèles de langage qui fonctionnent très bien depuis des années, dont ChatGPT, ont été créés à Mila», souligne M. Lahlou, qui rédige sa thèse sous la supervision du professeur.

ChatGPT pourrait combler les lacunes de la communauté étudiante en matière de connaissances sur certains sujets, mais aussi sur le plan de la grammaire et de l’orthographe, ou encore pour reformuler un texte. «Il peut y avoir de belles applications dans le milieu de l’éducation, on peut avoir une formation plus spécialisée dans des domaines dans lesquels on aurait pris du retard», estime M. Dumouchel.

Toutefois, certaines personnes voient l’agent conversationnel comme un outil bien pratique pour se faciliter la tâche ou pour lutter contre d’éventuelles pannes d’inspiration. C’est le cas de Rachel Rivrais, qui avoue l’avoir déjà utilisé pour qu’il lui vienne en aide afin d’écrire une lettre de motivation, tout en soulignant qu’elle ne l’utiliserait pas pour rédiger une dissertation. «Ça ne serait pas correct, parce que ça ne va pas vraiment représenter ce que je suis, ce que je veux dire», reconnaît-elle. ChatGPT peut aussi, comme le mentionne M. Lahlou, permettre d’améliorer un texte. «On peut lui demander de rendre un courriel plus professionnel», précise-t-il.

Repenser l’évaluation

À l’UdeM, l’utilisation de ChatGPT qui soulève des questions est celle par laquelle la fraude pourrait être facilitée. «Un collègue avait fait passer son examen en gestion de l’innovation à ChatGPT et il a eu 80 %, ce qui était plus haut que la moyenne de sa classe, s’alarme M. Dumouchel. Pour l’intégrité du diplôme que l’on accorde, il faut faire attention.» Bien sûr, il y a un véritable enjeu dans la facilité d’accès à l’outil et la rapidité avec laquelle celui-ci s’est déployé, mais ce n’est pas pour autant qu’il faut céder à la panique selon le doyen de la Faculté des arts et des sciences de l’UdeM, Frédéric Bouchard.

À l’heure actuelle, c’est la discussion qui est mise à l’honneur. Le déploiement de ChatGPT doit en effet inviter le monde universitaire à la réflexion. «C’est l’occasion de se demander si nos évaluations sont vraiment les plus appropriées pour refléter le degré de compréhension de nos étudiants», explique M. Bouchard. M.Lahlou partage son avis. «Il faut peut-être repenser un petit peu les modes d’évaluation, suggère-t-il. Est-ce que la dissertation faite à la maison est encore un mode d’évaluation valable aujourd’hui?» En raison de l’arrivée de ChatGPT, la communauté universitaire hâte le pas quant à des questionnements «amorcés depuis un certain temps», précise le doyen.

Comme pour d’autres outils, ChatGPT fera partie de la vie universitaire, pour le meilleur et pour le pire. Sera-t-il un concurrent ou un allié, une aide ou une menace? La question n’est pas si dichotomique que ça, selon M. Bouchard. «Cet outil n’est pas bien ou mal en soi, la question est toujours de savoir quand et comment on l’utilise, déclare-t-il. Il faut vraiment en parler pour comprendre les défis, mais aussi comprendre les utilisations positives qui peuvent en être faites.» L’objectif n’est donc pas de bannir la technologie de l’enceinte de l’Université, mais plutôt de s’en emparer de manière intelligente.

Le 8 février dernier, à l’issue d’une rencontre du conseil de la Faculté des arts et des sciences, un événement pour la communauté étudiante a été organisé autour de ChatGPT. «On a demandé à l’un de nos professeurs de mathématiques et de statistiques, chercheur à Mila, d’expliquer la technologie», précise M. Bouchard. D’autres professionnel·le·s et chercheur·euse·s provenant de diverses disciplines sont intervenu·e·s et le doyen affirme que la Faculté est «déjà en train de préparer des ateliers, des discussions pour différents volets de l’enseignement et de la recherche».

Penser, s’affirmer

ChatGPT est une belle bibliothèque d’information, pertinente dans certains cas. «[Mais] si la réponse à la question qu’on lui pose n’est pas dans ce qu’il a appris, il va fabuler, il va proposer quelque chose, il génère des mots», alerte toutefois M. Dumouchel. «ChatGPT préfère sortir une information qui est potentiellement convaincante pour les humains plutôt que de dire « je ne sais pas »», résume M. Lahlou. De nombreux aspects des capacités mentales humaines résistent donc encore à l’intelligence artificielle. «On est finalement assez loin du scénario de Terminator», ironise le doctorant.

Si les scientifiques ne cessent de se questionner et résolvent des problèmes complexes pour créer de telles technologies, les utilisateur·rice·s doivent aussi constamment s’interroger quant à leur utilisation. ChatGPT pourrait ainsi devenir une entrave à la capacité de réflexion et à celle d’invention. Selon l’étudiant en deuxième année au baccalauréat en science politique François Racicot, ChatGPT devient véritablement un obstacle à un certain point. «Un étudiant en première année qui utilise ChatGPT et n’apprend pas bien comment faire une dissertation ne pourra pas faire son job correctement quand il arrivera dans le monde du travail, prévient-il. Il peut y avoir une vraie conséquence. Si tu deviens trop dépendant de ça, à un moment, ça bloque.»

L’Institut québécois pour l’intelligence artificielle (Mila), situé au 6666, rue Saint-Urbain.Photo | Juliette Diallo

L’étudiante en première année à la maîtrise en ergothérapie Alice Tourancheau comprend que l’outil puisse être pratique, mais elle voit surtout des aspects négatifs quant à sa démocratisation. «Je ne pense pas que cette intelligence artificielle soit objective, et je pense qu’elle peut nous faire perdre notre aptitude à critiquer ce que l’on voit, s’inquiète-t-elle. Quand on cherche une information sur Internet, on peut comparer différentes sources, alors que ChatGPT donne une idée avec un axe précis, sans que l’on sache comment il en est arrivé à cette conclusion.» Pour elle, l’utilisation de cet outil dans le cadre de sa maîtrise serait un nonsens. «On est dans un cursus qui est là pour nous faire réfléchir», ajoute-t-elle.

Pour trouver sa place dans la société de demain, «il faut revendiquer clairement et fièrement que comme être humain, on apporte quelque chose qui est nouveau, qui est surprenant, qui a une dignité en soi», déclare M. Bouchard.

Des questionnements persistent

Il n’y a pas que dans son usage pédagogique que ChatGPT donne du fil à retordre. Selon M. Lahlou, l’arrivée de ChatGPT entraîne l’émergence de questions sociétales qui peuvent mener à des débats intéressants et nécessaires, à commencer par celui de la centralité du travail dans la vie de la population. «Avec ces outils-là, on peut facilement se rendre compte que certains métiers vont perdre en importance», analyse-t-il.

Le doctorant explique que cet enjeu est déjà amorcé depuis un certain temps, avec, par exemple, le devenir des chauffeur·euse·s de camion ou de taxi face au développement des voitures autonomes. D’après lui, une autre question très importante concerne l’utilisation malveillante de l’intelligence artificielle pour la production de fausses informations. «Quelqu’un de mal intentionné peut très bien utiliser ChatGPT pour faire de la manipulation de masse, souligne-t-il. À partir de données disponibles publiquement, on peut lui demander d’élaborer un texte susceptible de convaincre un groupe de personnes de faire une action quelconque, d’acheter un produit.»

De plus, Microsoft a acquis ChatGPT pour l’intégrer à son moteur de recherche, Bing. Or, ce genre d’outil pourrait renforcer l’influence des grandes entreprises qui dominent présentement le monde de la technologie, explique M. Lahlou. «Est-ce qu’on ne devrait pas commencer à développer des versions open source [NDLR: système d’exploitation libre]». Un logiciel dit open source, ou logiciel libre, permet à ses utilisateur·rice·s de disposer librement de son code source, c’est-à-dire de l’ensemble des instructions, sous forme de texte, qui le programme. Le code source peut alors être modifié, amélioré, réutilisé.

À la croisée des disciplines

L’intelligence artificielle n’évolue pas en vase clos et les enjeux qui lui sont liés incitent plusieurs domaines à se rencontrer. IVADO a soumis au gouvernement fédéral un projet de recherche intitulé «IAR3», dans le but de développer une IA robuste, raisonnante et responsable. Il y aura une «contribution des chercheurs en sciences humaines», explique M. Dumouchel, dans tous les aspects du versant «responsable», dans l’adoption de ces technologies par la société. «Rapprocher la communauté scientifique en intelligence artificielle, en mathématiques et en recherches opérationnelles avec la communauté des neuroscientifiques» sera également indispensable et permettra d’améliorer le niveau d’intelligence de l’IA, notamment pour la rendre plus raisonnante.

En effet, à la différence de l’IA, le cerveau humain prend le temps de réfléchir, ce qui lui donne la possibilité de transposer ses connaissances pour d’adapter à un contexte particulier. Si ChatGPT était capable de raisonner, il ferait preuve de plus de logique et serait moins dépendant de l’environnement dans lequel il a été entraîné

Partager cet article