Comment s'opposer au clonage de sa voix par l'IA
Nouveautés + tendances

Comment s'opposer au clonage de sa voix par l'IA

Spektrum der Wissenschaft
9/12/2023
Traduction: traduction automatique

Une nouvelle technique contre le deepfake empêche le clonage des voix et protège ainsi contre une utilisation trompeuse : "AntiFake" rend plus difficile la lecture des enregistrements vocaux par les outils d'intelligence artificielle.

Les voix synthétiques ne sont pas seulement un thème sensible pour les célébrités et les hommes politiques. Les récents progrès de l'intelligence artificielle générative (IA) permettent de synthétiser la parole de manière authentique, au point que les gens ne peuvent plus distinguer à distance s'ils parlent à la personne qui leur est familière ou à un "deepfake". Si la voix est "clonée" par un tiers sans son consentement, des acteurs malveillants peuvent l'utiliser pour diffuser n'importe quel message. C'est le revers de la médaille de cette technologie qui, par le biais d'une assistance personnalisée ou d'avatars délibérément créés, a un potentiel utile et ne fournit pas seulement une concurrence aux locuteurs professionnels ou du matériel pour les gangs d'escrocs.

Le potentiel d'abus du clonage de voix réelles à l'aide d'un logiciel de voix profonde est toutefois évident : les voix synthétiques peuvent facilement être utilisées à mauvais escient pour induire les autres en erreur. De plus, quelques secondes d'enregistrement vocal suffisent pour cloner la voix d'une personne de manière convaincante. Quiconque envoie des messages vocaux ou parle sur un répondeur, même occasionnellement, a déjà fourni au monde plus qu'assez de matériel de lui-même pour être cloné.

L'informaticien et ingénieur Ning Zhang a mis au point une nouvelle méthode pour déjouer la synthèse vocale non autorisée avant qu'elle n'ait lieu. Pour ce faire, Zhang, qui enseigne l'informatique et l'ingénierie à la McKelvey School of Engineering de l'Université de Washington à St. Louis, a créé un outil appelé "AntiFake". Zhang l'a présenté fin novembre 2023 lors d'une conférence spécialisée à Copenhague, au Danemark. Si vous souhaitez en savoir plus, la présentation de Zhang est déjà dans les actes de la conférence.

Prévenir le clonage de sa propre voix par l'IA

Les méthodes traditionnelles permettant de détecter les deepfakes n'interviennent qu'une fois que le mal est fait. AntiFake, en revanche, intervient en amont pour empêcher la synthèse des données vocales en un faux deep voice. L'outil est censé battre les faussaires numériques avec leurs propres armes : il utilise ainsi des techniques similaires à celles utilisées par les cybercriminels pour le clonage vocal afin de protéger les voix contre le piratage et la contrefaçon. Le code source du projet AntiFake est disponible gratuitement pour tous.

Le logiciel anti-fraude vocale vise à rendre plus difficile pour les cybercriminels l'analyse des données vocales et la lecture des caractéristiques importantes pour une synthèse vocale. "L'outil utilise une technique de l'IA adverse qui faisait à l'origine partie de la boîte à outils des cybercriminels, mais nous l'utilisons maintenant pour nous défendre contre eux", explique Zhang en expliquant ce qui se passe techniquement : "Nous déformons le signal audio enregistré, le déformons ou le perturbons juste assez pour qu'il sonne juste pour un auditeur humain", tout en le rendant inutilisable pour l'entraînement d'un clone vocal. Des approches similaires existent déjà pour la protection contre la copie d'œuvres sur Internet - par exemple d'images qui semblent encore naturelles à l'œil humain, mais dont les informations ne peuvent plus être lues par des machines en raison d'informations perturbatrices invisibles pour l'homme dans le fichier image.

C'est ainsi que le logiciel Glaze rendrait les images inutilisables pour le machine learning de grands modèles d'IA, et que certaines astuces protègent contre la reconnaissance faciale sur les photos. "AntiFake s'assure qu'il est difficile pour les criminels de synthétiser nos voix et de nous imiter lorsque nous publions nos données vocales", explique Zhang à propos de l'utilisation de l'outil qu'il a développé.

Les méthodes d'attaque s'améliorent constamment et les attaquants se professionnalisent, comme on peut le voir par exemple avec l'actuelle augmentation des cyberattaques automatisées contre les entreprises, les infrastructures et les administrations publiques dans le monde. Pour s'assurer qu'AntiFake puisse suivre la dynamique des menaces et résister le plus longtemps possible à des modèles de synthèse puissants, Zhang et son doctorant Zhiyuan Yu ont développé leur outil de manière à ce qu'il soit le plus large et le plus communément formé possible.

Le laboratoire de Zhang a testé l'outil contre cinq synthétiseurs vocaux modernes. Il aurait atteint un taux de protection de 95 pour cent, et ce même contre des synthétiseurs commerciaux inconnus pour lesquels AntiFake n'avait pas été spécialement conçu. Zhang et Yu ont testé leur outil avec 24 cobayes humains issus de différents groupes de population. Pour une étude comparative représentative, il faudrait d'autres essais et un groupe expérimental plus important.

Ainsi, AntiFake peut déjà protéger les enregistrements vocaux courts contre l'imitation, qui est statistiquement le format le plus courant pour la contrefaçon cybercriminelle. Selon les créateurs de l'outil, rien ne s'oppose à ce qu'il soit étendu à des documents audio plus longs ou à de la musique, afin de protéger également des documents plus volumineux contre les abus. Pour l'instant, les utilisateurs intéressés doivent encore s'en charger eux-mêmes, ce qui nécessite des connaissances en programmation. Le code source lui-même est disponible sur Internet.

"Tôt ou tard, nous serons en mesure de protéger complètement les enregistrements vocaux", a déclaré Zhang à l'American Association for the Advancement of Science avec confiance, car les systèmes d'IA restent vulnérables aux interférences. Ce qui est considéré comme une lacune majeure dans l'utilisation de l'IA pour des raisons de sécurité peut être exploité dans la lutte contre le deepfake. Cependant, les méthodes et les outils doivent être adaptés en permanence aux possibilités des cybercriminels, apprendre et évoluer avec eux.

Spektrum der Wissenschaft

Nous sommes partenaires de Spectre des Sciences et souhaitons vous rendre l'information plus accessible. Suivez Spectre des Sciences si vous aimez ses articles.


Photo de couverture : Shutterstock / fizkes

Cet article plaît à 36 personne(s)


User Avatar
User Avatar
Spektrum der Wissenschaft
Wissenschaft aus erster Hand

Des experts de la science et de la recherche rendent compte des dernières découvertes dans leur domaine – de manière compétente, authentique et compréhensible.


Informatique
Suivez les thèmes et restez informé dans les domaines qui vous intéressent.

Ces articles pourraient aussi vous intéresser

Commentaire(s)

Avatar