Notre intérêt pour le pire

icone Debats
Par Etienne Galarneau
jeudi 29 mars 2018
Notre intérêt pour le pire
(Photo: Benjamin Parinaud)
(Photo: Benjamin Parinaud)
Si j’ai appris une chose en écoutant des vidéos de fail sur Internet pendant les périodes creuses de mon adolescence, c’est que mes contemporains ont une fascination pour les scénarios qui tournent mal.

Lorsque les responsables des communications de la Maison-Blanche ont dit utiliser des « faits alternatifs » en janvier 2017, les ventes du roman dystopique 1984 de George Orwell ont grimpé en flèche sur le site du libraire en ligne Amazon. À la télévision, La servante écarlate, traitant d’un futur proche où les États-Unis deviennent un état chrétien totalitaire du nom de Gilead, obtient vingt-six prix dont deux Golden Globes et huit Emmy. Chez les abonnés de Netflix volubiles sur les réseaux sociaux, la série d’anticipation Black Mirror est incontournable.

Pourtant, si l’on doit se fier aux experts en la matière, l’anticipation n’est qu’une projection du présent. Les créateurs de la série Black Mirror avancent d’ailleurs souvent qu’ils dépeignent un avenir qui se situe « dans cinq minutes ». Les créateurs d’aujourd’hui parviennent à peindre un portrait limpide de notre avenir et plutôt que de s’en inquiéter, nous semblons plutôt nous en divertir.

Ne vous méprenez pas sur mes intentions : je suis en faveur de l’avancée de la science. Par contre, je me demande si nous faisons exprès pour nous avancer vers les pires scénarios pour l’humanité. La réponse est peut-être dans notre considération de l’éthique.

Essais et erreurs

Il aura tout de même fallu quelques années aux chercheurs en intelligence artificielle pour se retrouver et travailler sur les principes d’éthique. Pour le public, du moins, l’argent semble être passé avant ces questions. Après tout, le gouvernement canadien a débloqué 93 millions de dollars pour financer les projets de développement dans ce domaine à l’UdeM en septembre 2016. En janvier 2017, durant une rencontre tenue à Asilomar en Californie, des sommités du monde de l’intelligence artificielle se sont entendus sur les 23 grands principes reliés à ce champ de recherche.

Au même lieu, dans les années 1970, la communauté scientifique a mis un moratoire sur les manipulations génétiques. Cet endroit devrait représenter le symbole de la prudence en recherche. Pourtant, l’adoption des 23 principes éthiques en intelligence artificielle laisse croire qu’il s’agit plutôt un haut lieu du tâtonnement. À moins de deux heures de Palo Alto, épicentre de la Silicon Valley, les berges rocailleuses d’Asilomar devraient faire envier pour leur importance dans le monde de l’éthique plutôt que pour son côté bucolique.

Si le chercheur en éthique de l’intelligence artificielle à l’UdeM Martin Gibert peut nous affirmer que les principes qui régissent son domaine sont les mêmes que dans toutes les sciences, il me paraît curieux que la rencontre d’Asilomar n’ait pas eu lieu plus tôt. L’éthique doit être une démarche proactive. Mieux vaut rediriger le Titanic lorsque l’on voit l’iceberg plutôt que de boucher les trous quand la coque est percée.

Les signes sont là et nous avons les outils pour éviter le pire. Pourtant, notre volonté de voir le pire semble parfois prendre le dessus sur nos bonnes considérations. Nous pouvons continuer à célébrer les œuvres fictives qui présentent un futur dystopique. Pour autant qu’elles restent ce qu’elles sont : des fantaisies.