AI-skapade kidnappningsbluffar: FBI:s varning och så skyddar du familjen

Danny Weber

15:26 10-12-2025

© RusPhotoBank

FBI varnar för AI-förfalskade kidnappningar. Känn igen bluffen, verifiera med kända nummer, använd familjekodord och undvik panikbetalningar med våra råd.

Bedragare lutar sig allt oftare mot AI för att iscensätta påstådda ”kidnappningar” utan att något faktiskt brott har begåtts. FBI varnar nu för en ny våg av upplägg där offren får fabricerade ”bevis på liv”—bilder eller videor som ser ut att visa en anhörig som hålls fången—och pressas att betala en snabb lösensumma. Upplägget spelar på en grundläggande reflex: rädslan för nära och kära, något som kan få även försiktiga personer ur balans.

Enligt FBI väljer gärningspersonerna ut ett mål, samlar bilder och klipp från sociala nätverk och andra öppna källor och förfinar sedan materialet med generativa verktyg. Resultatet kan se tillräckligt övertygande ut för att utlösa panik under de första minuterna—och just tidsaspekten är strategin: att knuffa någon mot en betalning innan personen hinner kontrollera något i lugn och ro.

FBI påpekar också att dagens förfalskningar blir allt svårare att avslöja vid en första anblick, och svindlarna kan skicka sådana ”bevis” via meddelanden som raderas automatiskt för att krympa utrymmet för noggrann granskning. Även välputsade bluffar snubblar dock ofta på små missar: orimliga proportioner, skeva ansiktsdetaljer eller avsaknad av kännetecken som syns på äkta bilder. Det är de där små avslöjandena som fortfarande spräcker illusionen.

Kärnrådet är enkelt: innan du gör något, försök nå den påstått bortförda personen direkt via ett känt nummer eller genom närstående, i stället för via kontaktvägarna som bedragaren ger. Det hjälper också att i förväg enas om ett enkelt, lätt att minnas kodord inom familjen—en liten förberedelse som ofta räcker för att snabbt sticka hål på bluffen.