AI Deepfake ID-er gir problemer Crypto Exchange KYC

  • AI eskalerer utfordringen med dypfalske svindel i digital identitetsverifisering, noe som potensielt endrer cybersikkerhet og skaper problemer for KYC-tiltak for kryptoutveksling.

Feltet kunstig intelligens (AI) har vært vitne til bemerkelsesverdig vekst de siste årene, med anslag som indikerer at industrien innen 2030 kan legge til så mye som 15.7 billioner dollar til den globale økonomien – et tall som langt overgår dagens økonomiske resultater fra store aktører. , inkludert Kina og India til sammen. 

En spesiell utvikling i denne forbindelse som stammer fra dette rommet og har høstet mye trekkraft nylig, er "deepfakes" - dvs. svært realistiske video- og/eller lydopptak laget med AI som kan etterligne ekte menneskelige utseende eller stemmer, ofte umulig å skille fra deres ekte motparter.

Til dette punktet demonstrerte et nylig viralt innlegg på X hvordan noen utnytter lett tilgjengelig åpen kildekode og kommersiell programvare for å endre en persons selfie med generative AI-verktøy, og skaper falske ID-bilder som potensielt kan lure mange av dagens sikkerhetskontroller.

Se også: Vitalik Buterin understreker viktigheten av Web3-sikkerhetsstrategi for å bekjempe Deepfake-video

The Deepfake Conundrum

Etter hvert som det digitale landskapet har utviklet seg, utgjør fremveksten av AI-genererte deepfakes betydelige utfordringer for det eksisterende Know Your Customer-paradigmet (KYC). 

Toufi Saliba, administrerende direktør i HyperCycle – et selskap som bygger de nødvendige komponentene for å gjøre det mulig for AI-mikrotjenester å kommunisere med hverandre – uttalte at et viktig kjernepunkt i denne utfordringen er de eksisterende sikkerhetsprosessene i seg selv, og legger til:

"Kanskje KYC i seg selv er angrepsvektoren på selvsuverenitet, og disse [dypfalske] verktøyene beviser hvordan dagens KYC-systemer kan bli foreldet i nær fremtid. En spenstig løsning vil innebære å bruke viss kryptografi på riktig måte for å betjene den påståtte hensikten til KYC-tilhengere, og dermed også beskytte fremtidige generasjoner."

Saliba bemerket videre implikasjonene av AI og deepfakes på kryptovalutasektoren, og understreket at det haster med rask tilpasning. 

"Dette problemet med falske bilder vil sannsynligvis forstyrre hele sentraliserte systemer fra innsiden og ut, og dermed presentere en av de beste mulighetene for velmenende regulatorer og sentraliserte enheter til å innse at kryptografi kan komme til unnsetning når det trengs." hevdet han.

Når det gjelder gjenkjenning av dypt falskt innhold, uttalte Dimitry Mihaylov, en AI-forskningsekspert for FN, at med kriminelle som begynner å bruke sofistikerte verktøy for å generere realistiske falske identifikasjonsdokumenter, begynner vi nå å møte uforutsette utfordringer. 

Som et resultat mener han at det er avgjørende at bransjer over hele linjen utvikler seg raskt, og legger til:

"Markedet for AI-generert bildedeteksjon utvikler seg med prosjekter som FakeCatcher, et prosjekt som er utviklet i samarbeid med Umur Ciftci. Teknologien viser potensialet til sanntids dypfalsk-deteksjon med en nøyaktighetsgrad på 96 %."

Når vi ser fremover, forventer Mihaylov også et betydelig skifte i regulatoriske tilnærminger til KYC, noe som antyder en fremtid der dynamiske og interaktive verifiseringsprosesser kommer til å bli normen. 

"Vi kan se introduksjonen av mer dynamiske KYC-prosedyrer, som video KYC, ettersom regulatoriske rammeverk tilpasser seg disse teknologiske fremskritt," han foreslo.

Se også: Deepfake-video av Andrew Forrest fremmer falsk kryptoplattform på Facebook

Innvirkning på kryptovalutautvekslinger

Effekten av deepfakes kan merkes gjennom en rekke bransjer, inkludert krypto. 

Til dette punktet har en plattform kalt OnlyFake nylig skapt overskrifter for angivelig å omgå KYC-protokollene til flere kjente kryptovaluta-handelsplattformer.

For bare $15 hver, hevder plattformen å produsere falske førerkort og pass for 26 nasjoner, inkludert, men ikke begrenset til, USA, Canada, Storbritannia, Australia og flere EU-medlemsstater.

5. februar kalte et selskap 404 Media avslørt at den hadde brukt OnlyFakes tjenester for å unnvike KYC-verifiseringsprosessen til den populære kryptobørsen OKX.

Tilsvarende har lekke diskusjoner avslørt at OnlyFakes klientell feirer deres evne til å skjørte verifiseringsprosesser på en rekke andre kryptovalutabørser og finansinstitusjoner, inkludert Kraken, Bybit, Bitget, Huobi og PayPal.

Prosessen med å generere et forfalsket dokument på nettstedet er rapportert å være bemerkelsesverdig rask, med plattformen som angivelig kan generere opptil 100 falske ID-er samtidig ved å bruke kun Excel-regnearkdata. 

Dessuten har brukere muligheten til å inkludere sitt eget bilde eller velge et fra en kurert "personlig bibliotek av dråper," ikke stole på et nevralt nettverk.

De falske førerkortene og passene vises på forskjellige overflater i hjemmet som kjøkkenbenker, sengetøy, tepper og skrivebord, og etterligner den typiske presentasjonen for verifikasjoner på nettet. 

Ett innlegg viste til og med frem et fabrikkert australsk pass med detaljene til en tidligere amerikansk president lagt ut på et stykke stoff.

AIs innvirkning merkes vidt og bredt

I løpet av siste del av 2022, blokkjedesikkerhetsselskapet CertiK avslørt eksistensen av en underjordisk markedsplass der folk tilbød identiteten sin for salg for så lite som $8. 

Disse personene samtykket til å tjene som det legitime ansiktet for svikefulle kryptovaluta-initiativer og å opprette bank- og byttekontoer for brukere som ellers ville blitt utestengt fra en bestemt plattform.

I tillegg har den utbredte og enkle tilgjengeligheten av AI dyp falsk teknologi forårsaket alarm blant ledere i kryptovalutasektoren, spesielt når det gjelder å fastslå påliteligheten til videoverifiseringsprosesser som brukes i visse identitetsvalideringer.

Binances sikkerhetssjef Jimmy Su sa i mai 2023 at han var bekymret for økningen av svindlere som bruker dyp falsk teknologi for å omgå utvekslings-KYC-prosedyrer. 

Han advarte om at disse videoforfalskningene nærmet seg et nivå av realisme som er i stand til å lure menneskelige evaluatorer.

Til slutt, en studie utgitt av Nederland-baserte Sensity AI indikerte at livlighetstester brukt for identitetsverifisering var betydelig utsatt for dypfalske overgrep, noe som gjorde det mulig for svindlere å erstatte sine egne ansikter med ansikter til andre individer.

Til dette punktet ble en mann fra Kerala, India nylig offer for en list der svindleren, som utga seg for å være vennen hans, stjal 40,000 500 rupier (omtrent $XNUMX). 

Tilsvarende en deepfake video av Elon Musk som delte misvisende kryptoinvesteringsråd, gikk også rundt på Twitter i fjor.

Hva som kommer?

Når vi går mot en fremtid drevet av kunstig intelligens, er det rikelig med bevis som tyder på at trusselen fra "ansiktsbytte" dypfalske angrep vil fortsette å øke. 

Faktisk en fersk studie bemerket at angrep mot eksterne identitetsverifiseringssystemer økte med 704 % mellom 2022 og 2023, og denne økningen tilskrives tilgjengeligheten til gratis og rimelige ansiktsbytteverktøy, virtuelle kameraer og mobile emulatorer.

Videre, for hver måned som går, ser det ut til at hackere og svindlere blir mer og mer sofistikerte med sine angrep, som sett med fremveksten av digitale injeksjonsangrepsvektorer og -emulatorer, som lar skurkere lage og bruke dype faker i sanntid, posering. en alvorlig utfordring for både mobil- og videoautentiseringssystemer. 

Derfor, når vi ser fremover, vil det være interessant å se hvordan dette begynnende sikkerhetsparadigmet fortsetter å utvikle seg, spesielt gitt menneskers økende avhengighet av disse avanserte teknologiene.

Ansvarsfraskrivelse: Informasjonen som gis er ikke handelsråd. Bitcoinworld.co.in har ikke noe ansvar for investeringer som er gjort basert på informasjonen gitt på denne siden. Vi anbefaler på det sterkeste uavhengig forskning og/eller konsultasjon med en kvalifisert fagperson før du tar investeringsbeslutninger.

 

#Binance #WRITE2EARN

Kilde: https://bitcoinworld.co.in/ai-deepfake-ids-posing-problems-for-crypto-exchange-kyc-measures/