« Un manque de confiance » : comment les deepfakes et l’IA pourraient perturber les élections américaines | Actualités des élections américaines 2024


Le 21 janvier, Patricia Gingrich était sur le point de s’asseoir pour dîner lorsque son téléphone fixe a sonné. L’électrice du New Hampshire a décroché et a entendu une voix lui disant de ne pas voter à la prochaine primaire présidentielle.

“En l’écoutant, j’ai pensé, mon Dieu, cela ressemble à Joe Biden”, a déclaré Gingrich à Al Jazeera. “Mais le fait qu’il disait de sauvegarder votre vote, de ne pas l’utiliser lors des prochaines élections – je savais que Joe Biden ne dirait jamais cela.”

La voix ressemblait peut-être à celle du président des États-Unis, mais ce n’était pas lui : il s’agissait d’un deepfake, généré par l’intelligence artificielle (IA).

Les experts préviennent que les deepfakes – audio, vidéo ou images créées à l’aide d’outils d’IA, dans le but d’induire en erreur – présentent un risque élevé pour les électeurs américains à l’approche des élections générales de novembre, non seulement en injectant de faux contenus dans la course, mais en érodant la confiance du public.

Gingrich a déclaré qu’elle n’était pas tombée amoureuse du deepfake de Biden, mais elle craint que cela n’ait supprimé la participation électorale. Le message a atteint près de 5 000 électeurs du New Hampshire quelques jours seulement avant les primaires de l’État.

“Cela pourrait être mauvais pour les gens qui ne sont pas suffisamment informés de ce qui se passe avec les démocrates”, a déclaré Gingrich, président du comité démocrate de Barrington à Burlington, dans le New Hampshire.

“S’ils pensaient vraiment qu’ils ne devraient pas voter pour quelque chose et que Joe Biden leur disait de ne pas le faire, alors peut-être qu’ils n’assisteraient pas à ce vote.”

Joe Biden marche le long d’une file de partisans, qui se tiennent derrière une barricade à l’extérieur, certains pointant des téléphones-appareils photo vers le président.La voix du président américain Joe Biden a été usurpée lors d’un appel automatisé envoyé aux électeurs des primaires du New Hampshire [Leah Millis/Reuters]
Groupes en ligne vulnérables

L’appel de Biden n’a pas été le seul deepfake jusqu’à présent ce cycle électoral. Avant d’annuler sa candidature à la présidence, la campagne du gouverneur de Floride, Ron DeSantis, a partagé une vidéo contenant des images générées par l’IA de Donald Trump serrant dans ses bras l’immunologiste Anthony Fauci – deux personnalités qui se sont affrontées publiquement pendant la pandémie de COVID-19.

Et en septembre, un autre appel automatisé a été envoyé à 300 électeurs censés participer à la primaire républicaine de Caroline du Sud. Cette fois, les destinataires ont entendu une voix générée par l’IA qui imitait le sénateur Lindsey Graham, leur demandant pour qui ils votaient.

La pratique consistant à modifier ou à falsifier des contenus – notamment à des fins politiques – existe depuis l’aube de la politique américaine. Même le premier président du pays, George Washington, a dû faire face à une série de « lettres fallacieuses » qui semblaient le montrer remettant en question la cause de l’indépendance des États-Unis.

Mais les outils d’IA sont désormais suffisamment avancés pour imiter les gens de manière convaincante, rapidement et à moindre coût, augmentant ainsi le risque de désinformation.

Une étude publiée plus tôt cette année par des chercheurs de l’Université George Washington prédit que d’ici le milieu de l’année 2024, les « attaques d’IA » quotidiennes s’intensifieraient, constituant une menace pour les élections générales de novembre.

L’auteur principal de l’étude, Neil Johnson, a déclaré à Al Jazeera que le risque le plus élevé ne provenait pas des récents appels automatisés, manifestement faux – qui contenaient des messages qui font sourciller – mais plutôt de deepfakes plus convaincants.

“Il s’agira d’images nuancées, d’images modifiées, et non d’informations entièrement fausses, car les fausses informations attirent l’attention des contrôleurs de désinformation”, a déclaré Johnson.

L’étude a révélé que les communautés en ligne sont liées d’une manière qui permet à de mauvais acteurs d’envoyer de grandes quantités de médias manipulés directement dans le grand public.

Les communautés des États swing pourraient être particulièrement vulnérables, tout comme les groupes de parents sur des plateformes comme Facebook.

« Le rôle des communautés parentales va être important », a déclaré Johnson, citant comme exemple la propagation rapide de la désinformation sur les vaccins pendant la pandémie.

« Je pense que nous allons être soudainement confrontés à une vague de [disinformation] – beaucoup de choses qui ne sont pas fausses, elles ne sont pas fausses, mais elles étendent la vérité.

Donald Trump se tient à côté du podium de la Maison Blanche où s'exprime Anthony Fauci.Une image générée par l’IA et publiée par la campagne de Ron DeSantis semble montrer Donald Trump, à droite, embrassant Anthony Fauci, à gauche. [Leah Millis/Reuters]
La confiance du public érodée

Toutefois, les électeurs eux-mêmes ne sont pas les seules cibles des deepfakes. Larry Norden, directeur principal du programme élections et gouvernement au Brennan Center for Justice, a travaillé avec les responsables électoraux pour les aider à repérer les faux contenus.

Par exemple, Norden a déclaré que des acteurs malveillants pourraient utiliser des outils d’IA pour demander aux travailleurs électoraux de fermer prématurément un bureau de vote, en manipulant le son de la voix de leur patron ou en envoyant un message apparemment via le compte d’un superviseur.

Il apprend aux agents électoraux à se protéger en vérifiant les messages qu’ils reçoivent.

Norden a souligné que les mauvais acteurs peuvent créer du contenu trompeur sans IA. “Le problème avec l’IA, c’est qu’elle facilite simplement les choses à grande échelle”, a-t-il déclaré.

L’année dernière, Norden a illustré les capacités de l’IA en créant une vidéo deepfake de lui-même pour une présentation sur les risques que pose la technologie.

“Cela n’a pas pris longtemps”, a déclaré Norden, expliquant qu’il lui suffisait d’intégrer ses précédentes interviews télévisées dans une application.

Son avatar n’était pas parfait – son visage était un peu flou, sa voix un peu saccadée – mais Norden a noté que les outils d’IA s’amélioraient rapidement. “Depuis que nous avons enregistré cela, la technologie est devenue plus sophistiquée et je pense que c’est de plus en plus difficile à dire.”

La technologie à elle seule n’est pas le problème. À mesure que les deepfakes deviennent plus courants, le public en deviendra plus conscient et plus sceptique quant au contenu qu’il consomme.

Cela pourrait éroder la confiance du public, les électeurs étant plus susceptibles de rejeter les informations véridiques. Des personnalités politiques pourraient également abuser de ce scepticisme à leurs propres fins.

Les juristes ont qualifié ce phénomène de « dividende du menteur » : les inquiétudes suscitées par les deepfakes pourraient permettre aux sujets de séquences audio ou vidéo légitimes de prétendre plus facilement que les enregistrements sont faux.

Norden a cité comme exemple l’audio Access Hollywood qui a émergé avant les élections de 2016. Dans le clip, on entend Trump, alors candidat, parler de ses interactions avec les femmes : « Vous pouvez tout faire. Attrapez-les par la chatte.

L’enregistrement – ​​qui était bien réel – a été considéré comme préjudiciable aux perspectives de Trump parmi les électrices. Mais si un audio similaire fuyait aujourd’hui, Norden a déclaré qu’un candidat pourrait facilement le qualifier de faux. “Il serait plus facile pour le public de rejeter ce genre de chose qu’il ne l’aurait été il y a quelques années.”

Norden a ajouté : « L’un des problèmes que nous rencontrons actuellement aux États-Unis est le manque de confiance, et cela ne peut qu’empirer les choses. »

Steve Kramer se tient dans une salle d'audience, entouré d'un avocat et d'un agent des forces de l'ordre.Steve Kramer, de centre gauche, a été inculpé de 13 chefs d’accusation de suppression d’électeurs, ainsi que de délits pour son implication dans l’appel automatisé du New Hampshire. [Steven Senne/AP Photo, pool]
Que peut-on faire contre les deepfakes ?

Même si les deepfakes constituent une préoccupation croissante lors des élections américaines, relativement peu de lois fédérales restreignent leur utilisation. La Commission électorale fédérale (FEC) n’a pas encore limité les deepfakes lors des élections, et les projets de loi au Congrès restent bloqués.

Les États individuels se démènent pour combler le vide. Selon un outil de suivi de la législation publié par l’organisation de défense des consommateurs Public Citizen, 20 lois nationales ont été promulguées jusqu’à présent pour réglementer les deepfakes lors des élections.

Plusieurs autres projets de loi – à Hawaï, en Louisiane et au New Hampshire – ont été adoptés et attendent la signature du gouverneur.

Norden a déclaré qu’il n’était pas surpris de voir des États agir individuellement devant le Congrès. «Les États sont censés être les laboratoires de la démocratie, cela s’avère donc une fois de plus vrai : les États agissent en premier. Nous savons tous qu’il est très difficile de faire adopter quoi que ce soit au Congrès », a-t-il déclaré.

Les électeurs et les organisations politiques agissent également. Après que Gingrich ait reçu le faux appel de Biden dans le New Hampshire, elle s’est jointe à un procès – mené par la League of Women Voters – pour demander des comptes pour la tromperie présumée.

La source de l’appel s’est avérée être Steve Kramer, un consultant politique qui a affirmé que son intention était d’attirer l’attention sur la nécessité de réglementer l’IA en politique. Kramer a également admis être à l’origine de l’appel automatisé en Caroline du Sud, imitant le sénateur Graham.

Kramer s’est manifesté après que NBC News a révélé qu’il avait chargé un magicien d’utiliser un logiciel accessible au public pour générer le deepfake de la voix de Biden.

Selon le procès, le deepfake a pris moins de 20 minutes pour être créé et n’a coûté que 1 $.

Kramer, cependant, a déclaré à CBS News qu’il avait reçu « une exposition d’une valeur de 5 millions de dollars » pour ses efforts, qui, espérait-il, permettraient à la réglementation sur l’IA de « s’exercer ou au moins de commencer à se rentabiliser ».

« Mon intention était de faire une différence », a-t-il déclaré.

Paul Carpenter, un magicien, semble faire flotter une carte à jouer entre ses deux mains tendues.Paul Carpenter, un magicien de la Nouvelle-Orléans, a déclaré qu’il avait été embauché pour créer une contrefaçon de la voix du président Biden. [Matthew Hinton/AP Photo]
Possibilité d’appliquer les lois existantes

Mais le cas de Kramer montre que les lois existantes peuvent être utilisées pour limiter les deepfakes.

La Commission fédérale des communications (FCC), par exemple, a statué (PDF) plus tôt cette année que les logiciels d’imitation vocale relevaient de la loi de 1991 sur la protection des consommateurs par téléphone – et étaient donc illégaux dans la plupart des circonstances.

La commission a finalement proposé une amende de 6 millions de dollars contre Kramer pour cet appel automatisé illégal.

Le ministère de la Justice du New Hampshire a également accusé Kramer de crime de suppression d’électeurs et d’usurpation d’identité d’un candidat, ce qui pourrait entraîner jusqu’à sept ans de prison. Kramer a plaidé non coupable. Il n’a pas répondu à une demande de commentaire d’Al Jazeera.

Norden a déclaré qu’il est significatif qu’aucune des lois que Kramer est accusé d’avoir enfreint ne soit spécifiquement adaptée aux deepfakes. « Les accusations criminelles portées contre lui n’ont rien à voir avec l’IA », a-t-il déclaré. « Ces lois existent indépendamment de la technologie utilisée. »

Cependant, ces lois ne sont pas aussi faciles à appliquer aux acteurs malveillants qui ne sont pas identifiables ou qui se trouvent en dehors des États-Unis.

«Les agences de renseignement nous ont appris qu’elles voient déjà la Chine et la Russie expérimenter ces outils. Et ils s’attendent à ce qu’ils soient utilisés », a déclaré Norden. “En ce sens, vous n’allez pas légiférer pour résoudre ce problème.”

Norden et Johnson estiment que l’absence de réglementation rend plus important pour les électeurs de s’informer sur les deepfakes – et d’apprendre à trouver des informations précises.

Quant à Gingrich, elle a déclaré qu’elle savait que les deepfakes manipulateurs ne feraient que devenir plus omniprésents. Elle aussi estime que les électeurs doivent s’informer sur les risques.

Son message aux électeurs ? “Je dirais aux gens de s’assurer qu’ils savent qu’ils peuvent voter.”



Source link