Souriez, l’IA vous filme

icone Societe
Par Francis Hébert-Bernier
mardi 24 novembre 2020
Souriez, l’IA vous filme
Les problèmes éthiques engendrés par ces robots "moraux" reposant sur l'IA peuvent être fortement réduits, pour autant que les personnes visées par ces technologies soient consultées pour leur conception. Crédit : Pxhere.
Les problèmes éthiques engendrés par ces robots "moraux" reposant sur l'IA peuvent être fortement réduits, pour autant que les personnes visées par ces technologies soient consultées pour leur conception. Crédit : Pxhere.

Des recherches actuelles intègrent l’intelligence artificielle (IA) aux technologies de vidéosurveillance. Des robots « moraux » remplaceraient les gardiens de sécurité, notamment pour la surveillance des aînés. Cette technologie pose des questions en matière de protection de données et de consentement des personnes surveillées.

Les normes éthiques sont la première chose à laquelle penser dans le cadre du développement des systèmes de vidéosurveillance dits intelligents, puisque ces derniers s’appuient sur l’IA, selon la professeure associée au Centre de recherche de l’Institut universitaire de gériatrie de Montréal (CRIUMG) Jaqueline Rousseau et le professeur au Département d’informatique et de recherche opérationnelle (DIRO) de l’UdeM Jean Meunier.

Tous deux travaillent depuis dix ans sur un système de caméra qui permet de détecter les chutes des personnes âgées et d’appeler de l’aide automatiquement. « Le système qu’on a développé est différent par son aspect intelligent, qui évite d’avoir recours à un gardien de sécurité qui regarde constamment les images, explique Mme Rousseau. Les personnes âgées ne sont donc pas surveillées constamment par une autre personne, ce qui minimise le côté intrusif. »

Des agents moraux artificiels

Ces systèmes, qui agissent seuls, doivent prendre des décisions affectant la vie des gens, ce qui en fait des agents moraux artificiels (AMA), selon le philosophe et chercheur au Centre de recherche en éthique (CRÉ) de l’UdeM Martin Gibert. « Les AMA sont des robots pour lesquels la question “Comment doit-on les programmer pour qu’ils se comportent moralement ?” est pertinente, précise-t-il. L’un des défis de leur programmation est de leur faire respecter des règles, qui sont plus instinctives qu’explicites. »

Par exemple, un gardien de sécurité peut décider d’ignorer certaines règles pour éviter de causer du tort, un comportement beaucoup plus ardu à apprendre à une IA. « La programmation des algorithmes nous force à avoir des règles super claires et à les hiérarchiser », ajoute M. Gibert.

L’importance du consentement

D’après Mme Rousseau, les problèmes éthiques engendrés par les AMA peuvent être fortement réduits, pour autant que les personnes visées par de tels systèmes soient impliquées dans leur conception. « Au début du projet, nous avons rencontré les personnes qui ont des risques de chute et leurs proches aidants, pour leur demander ce qu’ils attendaient d’un tel système », précise-t-elle. Ensemble, ils ont convenu d’un système polyvalent paramétrable, qui convient aux souhaits des utilisateurs et leur permet de contrôler les données collectées sur eux.

Les utilisateurs peuvent par exemple choisir que le système collecte de la vidéo, des images, ou qu’il floute ces dernières afin de ne pas les identifier. En redonnant un certain contrôle aux personnes âgées, cette grande polyvalence les aide à faire en sorte qu’ils acceptent l’installation d’un système de caméras dans leur domicile, selon M. Meunier.

Collecter le moins de données possible

Bien que son intégration aux systèmes de vidéosurveillance puisse rendre ces derniers moins intrusifs pour les usagers, l’utilisation de l’IA amène des enjeux au niveau de la protection des données personnelles, souligne M. Meunier. « L’un des principaux défis de la recherche en vidéosurveillance intelligente est l’absence de données, surtout dans un pays comme le nôtre, où les enjeux de vie privée sont importants », détaille le professeur en informatique à l’Université TÉLUQ Wassim Bouachir, spécialiste dans ce domaine. Ce problème peut, selon lui, être contourné en faisant preuve de créativité.

Le recours aux simulations est l’une des méthodes utilisées par ses équipes et celles de Mme Rousseau. Elles permettent d’indemniser les participants pour l’utilisation de leur image et de les renseigner sur les mesures mises en place pour anonymiser les données personnelles qui sont collectées, ce qui réduit les problèmes éthiques, d’après M. Bouachir.

Selon lui, les informations personnelles sont peu pertinentes pour la recherche et il est possible d’éviter de les collecter en faisant preuve d’imagination. « Par exemple, dans mes travaux sur la prévention du suicide, nous utilisions la Kinect, qui a été originellement développée pour la Xbox, précise-t-il. Grâce à cette caméra, nous enregistrons seulement le squelette et les articulations. De cette façon, nous pouvons collecter les données sur le mouvement sans enregistrer les visages. »

Sécuriser les systèmes

Pour être sécuritaires, les dispositifs de vidéosurveillance intelligente doivent également être conçus pour fonctionner en circuit fermé, insiste M. Meunier. « Il y a de plus en plus de solutions avec lesquelles les données sont stockées à l’extérieur, prévient-il. Peu importe les promesses des compagnies, si les données sont conservées ailleurs, cela comporte des risques. Il faut faire très attention. » Comme le rappelle M. Gibert, tant que la fuite des données suscitera des craintes, la population résistera au déploiement des technologies basées sur l’IA.