<p>
<figcaption class="article-featured-image-caption">
<em>Image : Song Haiyuan / MB Media via Getty</em>
</figcaption>
</p>
Sotto Voce
Un escroc a tenté de berner des dirigeants de Ferrari, mais s’est heurté à une barrière efficace : le bon sens.
Une tentative de fraude
Comme le rapporte Bloomberg, cet individu avait contacté, au début du mois, un cadre de Ferrari via WhatsApp. En se faisant passer pour Benedetto Vigna, le PDG de Ferrari, à partir d’un compte avec son nom et sa photo — mais pas avec son numéro habituel — il a essayé de convaincre le dirigeant qu’une acquisition majeure était en préparation.
Dans son message, l’imposteur a lancé : « Salut, as-tu entendu parler de la grande acquisition que nous préparons ? J’aurais besoin de ton aide. » Il a ajouté qu’il fallait se préparer à signer un accord de confidentialité avant de procéder.
« L’autorité de régulation des marchés italiens et la Bourse de Milan ont déjà été informées », a continué le fraudeur, demandant de rester vigilant et de faire preuve de discrétion.
Une conversation douteuse
Les choses ont pris une tournure encore plus troublante lorsque le cadre a décidé d’appeler ce faux Vigna. Ce dernier a utilisé une voix deepfake pour « parler » en direct. Il a tenté de persuader le cadre que le PDG avait un numéro ultra-secret pour des affaires tout aussi secrètes, expliquant ainsi les messages étranges provenant d’un numéro inconnu. Toutefois, pas totalement convaincu, le cadre a posé une question que seul le véritable Vigna aurait pu répondre : quel livre venait-il de prêter à son patron influent ?
Dans cette situation, l’escroc a raccroché, prouvant ainsi l’efficacité d’une question de sécurité.
Scamly Reunion
Les deepfakes alimentés par l’IA, imitant des voix et même des visages, deviennent de plus en plus réalistes. Cela complique la tâche de distinguer un individu authentique d’un imposteur. Dans un contexte où les arnaques s’intensifient grâce à cette technologie, la stratégie éprouvée du cadre de Ferrari est un exemple frappant de comment se défendre contre des tentatives similaires. Ces escroqueries peuvent toucher n’importe qui, pas seulement les dirigeants de grandes entreprises.
Prévenir les arnaques
Parallèlement, les experts en sécurité incitent les familles à créer des “mots de code” pour s’identifier en cas où un escroc tenterait de se faire passer pour un membre de la famille afin de subtiliser de l’argent.
Bien que la tentative d’escroquer Ferrari ait échoué, il est crucial que d’autres dirigeants restent vigilants. Plus tôt cette année, un PDG a été dupé et a conséquentement perdu des millions de dollars au profit d’arnaqueurs utilisant des deepfakes. De plus, la firme de sécurité Know Be4 a récemment révélé avoir engagé un hacker nord-coréen comme employé à distance, masquant son identité avec une photo générée par IA.
Conclusion
Les escroqueries continuent, et l’utilisation croissante de l’IA pour les perpetrer représente un réel danger. Restez prudents !
FAQ
Quels sont les signes d’une arnaque par deepfake ?
Les signaux d’alerte incluent des messages précipités, des demandes d’urgence pour des retours d’argent, et une communication inhabituelle.
Que faire si l’on soupçonne une arnaque ?
Il est conseillé de vérifier directement avec la personne concernée par des canaux de communication fiables, comme un numéro connu, et de ne pas répondre immédiatement à des demandes suspectes.
Comment protéger ses informations personnelles ?
Utilisez des questions de sécurité fortes et changez régulièrement vos mots de passe. Évitez de partager des informations sensibles sur des plateformes vulnérables.
Les deepfakes peuvent-ils être utilisés à des fins positives ?
Oui, ils peuvent être utilisés dans des domaines comme le cinéma, les jeux vidéo et l’éducation, mais leur utilisation doit être encadrée et éthique.
Quel est l’avenir des arnaques basées sur l’IA ?
L’augmentation des technologies de deepfake et d’IA pourrait intensifier les problèmes de sécurité, rendant imperative la sensibilisation et l’éducation des utilisateurs sur ces risques.
