Le Wall Street Journal a évoqué un cas intéressant : des arnaqueurs ont utilisé une voix deepfake pour se faire passer pour le chef d’une société allemande non identifiée lors d’une conversation téléphonique. Au téléphone, le PDG fictif, dont la voix avait été simulée à l’aide d’Amnesty International, a demandé au responsable d’une filiale britannique non identifiée de transférer d’urgence 220 000 euros sur le compte d’un fournisseur hongrois, bien que ce compte appartienne en réalité à des criminels.
Cette affaire a été rendue publique grâce à la compagnie d’assurances Euler Hermes Group, qui enquêtait sur cet incident. Selon les experts de la compagnie d’assurance, les fraudeurs ont utilisé des logiciels commerciaux disponibles sur le marché pour créer des faux. Le chef de la société britannique soupçonnait un piège lorsque le «leader allemand» avait appelé pour la troisième fois et demandé un deuxième virement, mais l’appel était venu du numéro autrichien. Malheureusement, à ce moment-là, le premier virement avait déjà été envoyé et avait été ouvert sur le compte en Hongrie, d’où les fonds avaient été virés au Mexique.
Fait intéressant, ce n’est pas la première fois que vous utilisez une voix Deepfake de cette manière. En juillet de cette année, la BBC a rapporté que les experts Symantec avaient découvert trois cas similaires dans lesquels la technologie d’IA avait été utilisée pour simuler les votes des PDG. À cause de ces faux, des entreprises victimes anonymes ont perdu des millions de dollars.
Même à ce moment-là, les experts ont averti que les chefs d’entreprise pourraient constituer une cible facile pour la fraude et la création de voix contrefaites. Le fait est que des échantillons de leurs votes peuvent être facilement trouvés dans des discours dans les médias et lors de conférences, des vidéos sur YouTube, etc.