Faux enlèvements à l’IA: l’alerte du FBI et comment réagir

Des escrocs s’appuient de plus en plus sur l’IA pour mettre en scène de faux enlèvements, sans crime réel à la clé. Le FBI met en garde contre une nouvelle vague d’arnaques où les victimes reçoivent ce que les fraudeurs présentent comme une preuve de vie — des photos ou des vidéos qui semblent montrer un proche retenu — et sont pressées de payer une rançon immédiate. Un scénario malheureusement efficace, car il joue sur un réflexe élémentaire: la peur pour les siens, qui peut faire vaciller même les plus prudents.

Selon le FBI, les auteurs ciblent une personne, collectent des photos et des extraits vidéo sur les réseaux sociaux et d’autres sources ouvertes, puis peaufinent le tout avec des outils génératifs. Le piège fonctionne au tempo de l’urgence: le résultat paraît assez crédible pour déclencher la panique dans les premières minutes, l’objectif étant d’obtenir un paiement avant toute vérification au calme.

Le Bureau souligne aussi que ces truquages se repèrent de moins en moins d’un simple coup d’œil, et que les escrocs peuvent envoyer ces soi-disant preuves via des messages éphémères afin de réduire la marge d’examen. Même les faux les plus soignés finissent toutefois par trébucher sur des détails: proportions étranges, traits du visage déformés, ou absence de marques distinctives visibles sur de vraies photos. Ce sont souvent ces minuscules indices qui trahissent la supercherie.

Le conseil principal reste limpide: avant toute décision, tenter de joindre directement la personne prétendument enlevée via un numéro connu ou par l’intermédiaire de proches, plutôt que d’utiliser les coordonnées fournies par l’escroc. Autre réflexe utile: convenir à l’avance d’un mot de passe familial pour les situations d’urgence — simple, mémorable, et souvent suffisant pour percer l’illusion en quelques secondes. Du bon sens, encore faut-il parvenir à l’appliquer sous pression.