ElevenLabs, dont la technologie a été utilisée pour les faux appels automatisés de Biden, s’associe à une société de détection d’IA
Un accord mutuellement bénéfique sans composante financière
En bref: ElevenLabs, la start-up qui a fait les gros titres en début d’année lorsque sa technologie d’intelligence artificielle a été utilisée pour cloner la voix du président Biden lors d’une série d’appels automatisés, s’est associée à une société de détection d’intelligence artificielle pour lutter contre les deepfakes. Il s’agit d’une initiative importante en cette année électorale où la désinformation s’avère être un problème majeur.
En janvier, un appel automatisé de 39 secondes a été envoyé aux électeurs du New Hampshire pour leur dire de ne pas voter aux primaires démocrates, mais de « conserver leurs votes » pour l’élection présidentielle de novembre. La voix qui prononçait ce conseil ressemblait presque exactement à celle de Joe Biden. La société de détection de fraude vocale Pindrop Security a ensuite analysé l’appel et conclu qu’il avait été créé à l’aide d’un moteur de synthèse vocale fabriqué par ElevenLabs, ce que la société a confirmé. La personne qui a créé le deepfake a été suspendue du service d’ElevenLabs.
Bloomberg rapporte désormais qu’ElevenLabs s’est associé à Reality Defender, une entreprise basée aux États-Unis qui propose ses services de détection de deepfakes aux gouvernements, aux fonctionnaires et aux entreprises.
Le partenariat semble être mutuellement bénéfique. Reality Defender a accès aux données et modèles de clonage vocal d’ElevenLabs, ce qui lui permet de mieux détecter les contrefaçons, tandis que l’entreprise d’intelligence artificielle peut utiliser les outils de Reality Defender pour empêcher que ses produits ne soient utilisés à mauvais escient. Un porte-parole d’ElevenLabs a déclaré qu’il n’y avait aucun élément financier dans l’accord.
ElevenLabs interdit le clonage de la voix d’une personne sans son autorisation. Ses services sont présentés comme capables de combler les lacunes linguistiques, de redonner la voix à ceux qui l’ont perdue et de rendre les interactions numériques plus humaines.
Les deepfakes, qui permettent de créer des vidéos et des sons incroyablement réalistes de personnes réelles, sont de plus en plus perfectionnés. Non seulement ils sont utilisés pour placer des victimes dans des films pornographiques, mais ils sont de plus en plus utilisés dans l’arène politique, ce qui constitue une préoccupation majeure en période électorale.
L’incident avec la voix de Biden a conduit la FCC à proposer de rendre illégale l’utilisation de voix générées par l’IA dans les appels automatisés en vertu de la loi sur la protection des consommateurs en téléphonie, ou TCPA. L’agence a fait part de ses inquiétudes quant au fait que la technologie soit utilisée pour tromper et dérouter les consommateurs en imitant les voix de « célébrités, de candidats politiques et de membres proches de la famille ».
Lors de son discours sur l’état de l’Union en mars, Biden a appelé à une interdiction de l’usurpation de la voix par l’IA, bien que l’étendue de l’interdiction proposée ne soit pas claire.
Crédit: Lien source
Les commentaires sont fermés.