Facebook Twitter Instagram
    ArtBen
    • Accueil
    • Vidéos
    • Tests
    • Tutoriels
    • Sécurité
    • À Propos
    • Contact
    S'abonner
    ArtBen

    L’IA a aidé des fraudeurs à imiter la voix d’un PDG et à voler 220 000 euros

    8 septembre 2019 Sécurité Lecture : 2 minutes.
    Partager Facebook Twitter LinkedIn Tumblr Reddit Telegram Email
    Partager
    Facebook Twitter LinkedIn Pinterest Email

    Le Wall Street Journal a évoqué un cas intéressant : des arnaqueurs ont utilisé une voix deepfake pour se faire passer pour le chef d’une société allemande non identifiée lors d’une conversation téléphonique. Au téléphone, le PDG fictif, dont la voix avait été simulée à l’aide d’Amnesty International, a demandé au responsable d’une filiale britannique non identifiée de transférer d’urgence 220 000 euros sur le compte d’un fournisseur hongrois, bien que ce compte appartienne en réalité à des criminels.

    Cette affaire a été rendue publique grâce à la compagnie d’assurances Euler Hermes Group, qui enquêtait sur cet incident. Selon les experts de la compagnie d’assurance, les fraudeurs ont utilisé des logiciels commerciaux disponibles sur le marché pour créer des faux. Le chef de la société britannique soupçonnait un piège lorsque le «leader allemand» avait appelé pour la troisième fois et demandé un deuxième virement, mais l’appel était venu du numéro autrichien. Malheureusement, à ce moment-là, le premier virement avait déjà été envoyé et avait été ouvert sur le compte en Hongrie, d’où les fonds avaient été virés au Mexique.

    Fait intéressant, ce n’est pas la première fois que vous utilisez une voix Deepfake de cette manière. En juillet de cette année, la BBC a rapporté que les experts Symantec avaient découvert trois cas similaires dans lesquels la technologie d’IA avait été utilisée pour simuler les votes des PDG. À cause de ces faux, des entreprises victimes anonymes ont perdu des millions de dollars.

    Même à ce moment-là, les experts ont averti que les chefs d’entreprise pourraient constituer une cible facile pour la fraude et la création de voix contrefaites. Le fait est que des échantillons de leurs votes peuvent être facilement trouvés dans des discours dans les médias et lors de conférences, des vidéos sur YouTube, etc.

    Partager Facebook Twitter LinkedIn Tumblr Email
    Article précédentGoogle étend son programme de primes pour les bugs sur les applications comptant 100 millions d’installations ou plus
    Article Suivant Lilocked ransomware a infecté des milliers de serveurs Linux

    Articles Similaires

    Sécurité

    Les critères indispensables pour choisir un VPN

    20 décembre 2019
    Sécurité

    Plus de 600 000 traceurs GPS utilisent des mots de passe par défaut et sont accessibles à tous !

    8 septembre 2019
    Sécurité

    Lilocked ransomware a infecté des milliers de serveurs Linux

    8 septembre 2019
    Ajouter un commentaire

    Laisser un commentaire

    Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

    Catégories
    Twitter YouTube Instagram Facebook
    • Annonceurs
    • À Propos
    • Contact
    • Confidentialité
    © 2023 ArtBen. Conçu par Arthur Benchetrit.

    Tapez ci-dessus et appuyez sur Entrée pour rechercher. Appuyez sur Échap pour annuler.