Chronique de Nicolas Capt
«Bonjour, c’est Joe Biden!»

Me Nicolas Capt, avocat en droit des médias, décortique deux fois par mois un sujet d’actualité pour Blick. Cette semaine, il revient sur les dangers de l'intelligence artificielle générative, à quelques mois de l'élection présidentielle aux États-Unis.
Publié: 07.02.2024 à 13:42 heures
Nicolas Capt, avocat en droit des médias

La course à la présidentielle américaine promet de déclencher une autre course, technologique celle-là, contre les deepfakes, soit des enregistrements sonores ou vidéo créés ou modifiés grâce à l’intelligence artificielle (IA). 

Il y a quelques mois, le Président rigolait encore de ces dispositifs, tout en en soulignant déjà les dangers. Aujourd’hui les deepfakes sont tout simplement devenus la crainte majeure de perturbation des élections présidentielles américaines.

Appels à encadrer l'intelligence artificielle générative

Ainsi, un appel robotisé, qui imitait la voix de Joe Biden, a-t-il fait l’objet récemment d’une importante diffusion dans l’État du New Hampshire. Cet appel visait à enjoindre les résidents de cet État de ne pas se rendre aux urnes dans le contexte de la primaire démocrate. Pour le crédibiliser, certaines phrases fétiches de Joe Biden y étaient utilisées. 

Un appel robotisé, qui imitait la voix de Joe Biden, fait l’objet récemment d’une importante diffusion dans l’État du New Hampshire. Cet appel visait à enjoindre les résidents de cet État de ne pas se rendre aux urnes dans le contexte de la primaire démocrate.
Photo: DUKAS

Suite à cet incident, une enquête pour possible perturbation du processus électoral a été ouverte, et les appels pour un encadrement strict de l’intelligence artificielle générative, voire une interdiction des appels robotisés, se sont multipliés, tant du côté de la société civile que des experts. Car, pour les influenceurs de l’ombre, le clonage de la voix présente de nombreux avantages dont un coût faible, une utilisation aisée et un traçage fort compliqué. 

Inquiétude autour des clonages audios

Selon certains médias, le deepfake en question aurait été créé par un outil proposé par la société ElevenLabs, laquelle serait actuellement valorisée à plus d’un milliard de dollars. Cette entreprise, interrogée par l’AFP, ne s’est toutefois pas déterminée à ce sujet, son site internet se limitant à indiquer que les utilisateurs sont autorisés à générer des clones vocaux du personnel politique sans leur permission, à la condition toutefois qu’il soit clair pour les destinataires de ces fichiers qu’il s’agit de parodies et non de contenus réels. 

Dans un paysage médiatique marqué par une défiance croissante à l’endroit des médias traditionnels, cet emploi exponentiel des deepfakes à des fins de désinformation ne laisse pas d’inquiéter, en particulier s’agissant des clonages audio, faciles à réaliser et à l’impact fort. 

En Amérique, les risques d'une nouvelle élection parasitée

Si la technologie n’est pas totalement démunie - on peut en effet imaginer des filigranes audios ou des signatures numériques dans les contenus générés - force est de constater que le déploiement de ces outils d’encadrement prendra du temps et s’avérera très complexe. 

En attendant, il y a malheureusement fort à parier que les élections américaines devront vivre avec un parasitage d’un nouveau genre. Après les affres de l’affaire Cambridge Analytica (2016), encore dans toutes les mémoires, les démêlés de l’Amérique avec la vérité alternative demeurent plus que jamais au centre du débat.

Vous avez trouvé une erreur? Signalez-la