Avec le développement de l’intelligence artificielle, un nouveau type d’arnaque voit le jour. Dans un article publié il y a quelques jours, le Washington Post appelle cela la “voice scam” ou l’arnaque à la voix. En substance, les malfaiteurs utilisent des outils basés sur l’intelligence artificielle pour cloner la voix d’une personne, puis appeler un proche de la cible en utilisant sa voix pour demander un virement.
Comme le rapporte le Post, une Canadienne de 73 a bien failli perdre des milliers de dollars à cause de cette nouvelle arnaque. Les arnaqueurs ont cloné la voix de son petit-fils, Brandon, et demandé de l’argent, car celui-ci serait en prison. Avec son mari, la septuagénaire est allée à la banque pour retirer l’équivalent de 2 074 euros, le plafond journalier. Puis, elle est allée dans une autre banque pour retirer plus d’argent.
Mais par chance, un employé de cette seconde banque a flairé quelque chose de suspect. En effet, un autre client a déjà été ciblée par la même arnaque. Et c’est grâce à cela que la grand-mère de Brandon a su qu’elle était sur le point de se faire arnaquer. En ce qui concerne la voix générée par une IA, celle-ci était convaincante.
D’autres ont été moins chanceux. Le Washington Post évoque le témoignage d’un homme, âgé de 39 ans, dont les parents ont perdu l’équivalent de 14 500 euros. Les arnaqueurs ont fait croire à ses parents qu’il a tué quelqu’un lors d’un accident de voiture, et qu’il a besoin d’argent. Cité par le journal américain, il raconte que la voix synthétique était suffisamment proche de la sienne pour que ses parents y croient. Paniqués, ceux-ci sont allés dans plusieurs banques pour retirer de l’argent, puis ont effectué le transfert demandé sur un terminal Bitcoin.
Une IA très accessible ou même gratuite
Si ces arnaques sont aussi fréquentes, c’est parce que les avancées dans le domaine de l’IA générative permettent de proposer des logiciels très performants à moindre coût ou même gratuitement. De plus, sur certains logiciels, un enregistrement de 30 secondes suffit pour cloner la voix de quelqu’un. Et cet enregistrement peut être facile à trouver si la cible a une chaîne YouTube ou un compte TikTok.
Parmi ces outils de clonage de voix, il y a celui de la société ElevenLabs. Fin janvier, celle-ci a dû modifier les conditions d’accès à son logiciel, pour limiter les utilisations malveillantes. Dans une série de tweets, ElevenLabs a expliqué que presque tous les “contenus malveillants” sont créés avec sa version gratuite, qui ne requiert aucune vérification d’identité.
Cette version gratuite a donc été supprimée et désormais, il faut se servir d’une carte bancaire, même pour un essai gratuit. De ce fait, les utilisateurs sont identifiés. De plus, l’entreprise a annoncé la création d’un logiciel qui permet de détecter les voix générées par son IA.
Presse Citron