FBI advarer mot AI Deepfake utpressingssvindel

Evnen til generativ AI til å lage naturtro bilder er imponerende, men US Federal Bureau of Investigation sier at kriminelle bruker dype falske forfalskninger for å målrette mot ofre for utpressing.

"FBI fortsetter å motta rapporter fra ofre, inkludert mindreårige barn og voksne som ikke samtykker, hvis bilder eller videoer ble endret til eksplisitt innhold," sa byrået i et PSA-varsel mandag.

FBI sier at rettshåndhevelsesbyråer mottok over 7,000 rapporter i fjor om nettutpressing rettet mot mindreårige, med en økning i ofre for såkalte «svindel-svindel» med dype faker siden april.

En deepfake er en stadig mer vanlig type video- eller lydinnhold laget med kunstig intelligens som skildrer falske hendelser som er stadig vanskeligere å skille ut som falske, takket være generative AI-plattformer som Midjourney 5.1 og OpenAIs DALL-E 2.

I mai gikk en forfalskning av Tesla og Twitter-sjef Elon Musk for å lure kryptoinvestorer viral. Videoen som ble delt på sosiale medier, inneholdt opptak av Musk fra tidligere intervjuer, redigert for å passe til svindelen.

Deepfakes er ikke alle ondsinnede, en deepfake av pave Frans iført en hvit Balenciaga-jakke gikk viralt tidligere i år, og nylig har AI-genererte deepfakes også blitt brukt for å bringe drapsofre tilbake til livet.

I sine anbefalinger advarte FBI mot å betale løsepenger fordi det ikke garanterer at de kriminelle ikke vil legge ut deepfake uansett.

FBI råder også til forsiktighet når du deler personlig informasjon og innhold på nettet, inkludert bruk av personvernfunksjoner som å gjøre kontoer private, overvåke barns nettaktivitet og se etter uvanlig oppførsel fra personer du har vært i kontakt med tidligere. Byrået anbefaler også å kjøre hyppige søk etter personlig og familiemedlemsinformasjon på nettet.

Andre byråer som slår alarm inkluderer US Federal Trade Commission, som advarte om at kriminelle har brukt deepfakes for å lure intetanende ofre til å sende penger etter å ha laget en lyddeepfake av en venn eller et familiemedlem som sier at de er blitt kidnappet.

"Kunstig intelligens er ikke lenger en langsøkt idé ut av en sci-fi-film. Vi lever med det, her og nå. En svindler kan bruke kunstig intelligens til å klone stemmen til din kjære,” sa FTC i et forbrukervarsel i mars, og la til at alle kriminelle behov er et kort lydklipp av et familiemedlems stemme for å få opptaket til å høres ekte ut.

FBI har ennå ikke svart på dekryptere s forespørsel om kommentar.

Hold deg oppdatert på kryptonyheter, få daglige oppdateringer i innboksen din.

Kilde: https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams