Quartier Libre : Quel type d’activités avez-vous menées à Paris dans le cadre de cet évènement ?
Marc-Antoine Dilhac : Notre démarche consistait à organiser depuis février dernier des ateliers de délibération qui permettent d’enrichir des principes éthiques et de formuler des recommandations de politiques publiques. Les enseignements de notre dernier atelier à Paris ont été assez conformes à ce qu’on savait déjà de nos ateliers au Québec, mais les sujets étaient différents. Les enjeux de l’environnement et de la propagande (par l’influence des chatbots, robots logiciels pouvant dialoguer avec un individu, par le biais d’un service de conversations automatisées) ont été mis sur la table. Ce qui ressort, c’est qu’on a un dilemme qui ne va pas être facile à négocier et à surmonter : celui d’avoir une information fiable et donc contrôlée, tout en ayant la possibilité de participer librement au débat public. C’est l’enjeu de la liberté d’expression.
Q. L. : Comment l’intelligence artificielle (IA) influence-t-elle cette question de la liberté d’expression ?
M.-A. D. : D’une certaine manière, tous les problèmes qu’on a avec l’IA, on les a rencontrés avant son avènement. Mais l’IA modifie considérablement la donne par des capacités de calcul extraordinaires et par la possibilité d’aller chercher des informations qu’on ne pouvait pas traiter auparavant. Par exemple, un type d’application de l’IA qui est problématique, c’est la création d’images par des systèmes d’IA selon une technologie qu’on appelle les GAN, Generative Adversarial Networks. Ceux-ci permettent de créer des contenus vidéo et audio, de telle sorte qu’on peut faire dire n’importe quoi à n’importe qui. On sait très bien qu’il est déjà possible d’altérer les photographies, simplement, aujourd’hui, en raison de la diffusion et du degré de réalisme de ces contenus audiovisuels, l’impact est beaucoup plus grand.
Q. L. : De quelle manière l’éthique risque-t-elle de limiter la recherche en matière d’IA ?
M.-A. D. : Dans la mesure où l’éthique porte sur ce qu’on doit faire et non pas sur ce qu’on peut faire, il est certain qu’elle contraint les possibilités. A priori, elle ne contraint pas la recherche, car celle-ci doit être la plus libre possible parce qu’on ne sait jamais ce qui va être trouvé. Cela dit, il y a tout de même des recherches qui paraissent illégitimes. Par exemple, ce qu’on a appelé le Gaydar. C’est un projet de deux chercheurs de l’Université de Stanford, qui sont partis de l’hypothèse qu’il pourrait y avoir une corrélation entre les traits du visage et l’orientation sexuelle, et qu’un algorithme qui n’est pas biaisé peut essayer de les trouver. Ce type de recherche, on ne devrait pas l’autoriser. C’est de la fausse science, qui avait été bannie de toutes les universités et qui refait surface aujourd’hui avec l’intelligence artificielle.
Q. L. : On présente souvent Montréal comme étant au cœur du développement de l’IA. Quelle est la place de l’UdeM dans ce domaine ?
M.-A. D. : On trouve à Montréal des chercheurs qui ont été pionniers, comme Yoshua Bengio, qui a fondé le MILA (Institut des algorithmes d’apprentissage de Montréal) et qui en est le directeur scientifique. À partir du moment où ce chercheur, qui est le plus en vue dans le développement de l’IA, appartient à l’UdeM, celle-ci est effectivement au cœur de cet écosystème de l’IA. Mais il faut ajouter McGill, dont les chercheurs font aussi partie du MILA.