Alors que le scrutin du 5 novembre 2024 approche à grands pas, de nombreuses photos et vidéos politiques générées par intelligence artificielle (IA) circulent en ligne. Ces contenus participent à un élan de désinformation et le camp trumpiste s’en empare comme d’une énième arme de communication politique.
Sur les réseaux sociaux a récemment été diffusée une image de la candidate démocrate Kamala Harris tenant un discours dans un stade rempli, vêtue d’un costume rouge et portant un immense drapeau orné d’un marteau et d’une faucille. Son adversaire, le candidat républicain Donald Trump, a relayé le 18 août dernier sur son compte X (anciennement Twitter) cette image générée par IA, qui associe la politicienne au parti communiste.
Donald Trump a plus tard partagé d’autres images sur son compte Truth Social*, également créées par IA générative et mettant en scène de jeunes femmes vêtues de t-shirts arborant le slogan « Swifties [admirateur·rice·s de Taylor Swift] for Trump ». L’une d’entre elles montre même la chanteuse Taylor Swift déguisée en Oncle Sam et appelant son public à voter pour le candidat républicain. En réponse, la célébrité aux 284 millions d’abonné·e·s sur Instagram a affiché son soutien à Kamala Harris.
*Truth Social est un réseau social fondé par le groupe Trump Media & Technology Group (TMTG) à la suite du bannissement de Donald Trump de Facebook et Twitter, quelques jours après l’assaut du Capitole en 2021. Cette plateforme de microblogage se veut être un espace « de débats gratuits et ouverts sans aucune discrimination vis-à-vis des idéologies politiques ».
En juillet, le propriétaire de X, Elon Musk, suivi par 192 millions d’internautes sur le réseau social, avait déjà partagé une vidéo hypertruquée (deepfake) de la candidate démocrate dans laquelle elle accusait l’actuel président, Joe Biden, « de ne pas savoir comment gérer le pays. »
Ces contenus, inventés de toutes pièces, peuvent-ils réellement influencer l’issue du scrutin ? Les recherches en communication s’accordent pour dire que mesurer les « effets » d’une communication sur le comportement des individus est une quête souvent complexe, dans la mesure où une multitude de facteurs influencent les comportements de la population. De plus, ils ne toucheraient qu’une fraction d’électeur·rice·s niché·e·s dans certains recoins du Web, comme des communautés et des canaux trumpistes en ligne, et non l’entièreté de l’électorat américain.
Au cours d’une entrevue sur Radio-Canada, le directeur de l’Observatoire de l’écosystème médiatique de l’Université McGill, Aengus Bridgman, a toutefois assimilé ces images à des « mèmes », soit du contenu à caractère souvent humoristique (et politique) créé à partir d’un référentiel commun et décliné de multiples fois sur Internet. L’intérêt, selon lui, serait de générer de l’activité en ligne, de susciter de l’attention et de galvaniser les fidèles d’un camp comme de l’autre.
Responsabilité des plateformes
Dans un communiqué publié en février dernier, la maison mère de Facebook, Instagram et WhatsApp, Meta, avait affiché son intention de contrer le risque de désinformation par l’IA grâce à l’apposition d’une étiquette portant la mention « créé par IA ». Pourtant, à ce jour, ce type d’annotation n’est visible que sur Instagram, et seulement sur une partie du contenu visé, selon un article du journal Le Monde.
Telegram, Snapchat et X, quant à eux, semblent à la traîne. Telegram, qui a récemment accepté de modifier ses règles de modération, ne s’est pas encore clairement exprimé à ce sujet. Snapchat, pour sa part, n’étiquette que ses propres photos et délaisse celles que les utilisateur·rice·s importent. Enfin, X se fie aux signalements qu’effectuent ses usager·ère·s, tout en offrant paradoxalement un générateur d’images réservé à celles et ceux qui possèdent un abonnement payant à la plateforme.
Le réseau social chinois TikTok, de son côté, fait preuve de plus d’efforts en proposant plusieurs solutions. Il exige par exemple que ses utilisateur·rice·s déclarent si leur contenu est généré par IA et tente aussi de les détecter par lui-même.
À ce jour, les États-Unis ne régulent pas encore l’utilisation de l’IA sur les réseaux sociaux. Toutefois, la Californie discute actuellement d’un projet de loi pour obliger les générateurs d’images à apposer un marquage et forcer les réseaux sociaux à étiqueter systématiquement leurs contenus.