The Cry Wolf Moment Of AI Hype er lite nyttig

Selv om jeg er en som studerer slutten av menneskehetens scenarier, tror jeg at "ekspertbrevet" som foreslår et 6-måneders AI-moratorium eller den nyere uttalelsen om at AI-risiko er på nivå med pandemi- og kjernefysisk risiko, begge er overhypet. Den enda villere oppfatningen om at vi må stenge AI er uansvarlig. Enhver bekymring må være proporsjonal med risikoen vi står overfor. Akkurat nå er vi ikke i noen umiddelbar fare fra AI.

Nåværende AI-er er ikke i stand til å ta over samfunnet. De har ikke følelser og fortjener ikke beskyttelse slik menneskeliv gjør. De er ikke superintelligente og overgår ikke mennesker på noen generell måte. De tenker faktisk ikke i det hele tatt. Akkurat nå, hvis de mates med rikelig med data, er AI-er veldig gode på spesifikke oppgaver som beregning og prediksjon. Det er ikke bekymringsfullt, det er funksjoner disse systemene har ved design. Løftet til AI inkluderer å løse kreft, transformere industriell produksjon, modellere fremtidige scenarier og håndtere miljøutfordringer. Når det er sagt, er det legitime grunner til å kritisere nåværende AI-er for ressursbruk, åpenhet, skjevhet, cybersikkerhet og dens fremtidige innvirkning på sysselsettingen.

AI-er er beregningsmessig dyre - noe som betyr at de er en stor sløsing med knapp, fossil energi. Dette må løses umiddelbart. Men det er ikke et eksistensielt spørsmål, det er et spørsmål om rasjonell ressursbruk. Det faktum at AI-er som er avhengige av store og ineffektive datamodeller blir for dyre å spore og undersøke av akademia eller myndigheter, er et reelt problem. Men det er snarest mulig å fikse. Konsortier av akademiske eliteinstitusjoner eller regjeringer kan gå sammen og dele dataressurser slik de har gjort for superdatabehandling.

Large Language Models (LLM) er AI-modeller som kan generere naturlige språktekster fra store datamengder. Et problem med det er at disse tekstene er direkte avledet fra andres ærlige intellektuelle bidrag. De er faktisk stjålet. Generativ AI, spesielt, rekombinerer både forbruker- og organisasjonsdata så vel som kreativt innhold i kraftig brudd på opphavsretten. Dette er alvorlig, men ikke eksistensielt, og dessuten er EU, lobbyister fra Hollywood og «de fem store» bokforlagene allerede på sak. Forvent at dette vil bremse AIs tyngde. Med nåværende hastighet vil AI-er gå tom for gode treningsdata i god tid før de nærmer seg sentience.

Algoritmer som allerede brukes til å beregne skatter, velge våre nettstrømmer eller sette folk i fengsel har en slående mangel på åpenhet. Dette har imidlertid vært tilfelle i årevis, og har ingenting å gjøre med den siste AI-utviklingen. AI-bias er en funksjon og ikke en feil. Stereotyping er faktisk hovedtilnærmingen som slike modeller fungerer gjennom. Bortsett fra at fordommene er skjult i ugjennomtrengelige lag av maskinresonnement som er unnvikende for mennesker, eksperter eller ikke. Det vi bør stille spørsmål ved er visdommen til utviklerne som utviklet slike systemer, ikke evnen til systemet de opprettet, som er gitt. Systemer vil sjelden være bedre enn visdommen eller intensjonene til de som bygger eller driver det.

AI-treningsdata gjenspeiler skjevhetene i samfunnet som dataene ble samlet inn fra. Gjenbruk av dårlige treningsdata er en bekymringsfull praksis som allerede forurenser AI-modeller. Nåværende AI-tilnærminger forsterker ganske enkelt skjevhet for raskt å komme til et resultat. Dette er riktignok det motsatte av hva vi ønsker. Det vi ønsker å gjøre er å bruke teknologi for å sikre menneskelige feil. Å bekymre seg for maskinfeil er bortkastet bruk av menneskelig intelligens.

Til tross for "nevrale nettverk"-metaforen, ligner ikke nåværende AI-er hjerner på noen måte. Nåværende AI-systemer kan ikke resonnere analogt som mennesker gjør. Dette er bra. Vi vil kanskje ikke ha den typen AI-tilpasning som ildsjeler tar til orde for og prøver å etterligne. Maskiner skal være annerledes enn mennesker. Slik kan vi maksimere hverandres styrker. Og hvordan vi kan holde maskiner adskilte og adskilte. Maskiner skal ikke ha noen interesser å justere.

AI representerer i økende grad en betydelig cybersikkerhetstrussel som en ressurs for kriminelle og fiendtlige stater. Men cybersikkerhet er en moden bransje med mange eksperter godt rustet til å håndtere utfordringen. Det er ingen grunn til å stenge ned AI på grunn av cybersikkerhetsfrykt.

Sysselsettingsavbrudd på grunn av AI har vært et politisk spørsmål i årevis, først med roboter, nå med programvarebaserte AI-systemer. Det betyr at regjeringer vil være klare til å håndtere det. MIT Work of The Future-studien fant at bekymringen for arbeidsledighet på grunn av roboter var overvurdert. Mennesker har alltid funnet måter å jobbe på og vil gjøre det i fremtiden også. Vil produksjonen bli transformert av AI? Det skjer allerede, men på en ganske kontrollert måte.

Fra tid til annen lider AI av overhypede løfter om nåværende funksjonalitet eller fremtidig omfang. De første AI-vintrene startet i 1974–1980, da den amerikanske regjeringen trakk finansieringen. Den andre var fra 1987–1993, da kostnadene eskalerte, og AI klarte ikke å innfri sine høye løfter.

I påvente av at nye paradigmer kommer, i perioden 2025–2030, vil vi sannsynligvis gå inn i en tredje AI-vinter. I hvert fall sammenlignet med den varme AI-sommeren vi er lovet. Årsaken er at, til tross for hypen, av alle grunnene som er skissert ovenfor, er store språkmodeller i ferd med å nå sin maksimale nytteverdi og vil til slutt måtte erstattes av beregningsmessig mer elegante tilnærminger som er mer gjennomsiktige.

En slik kandidat er hyperdimensjonal databehandling som ville få maskiner til å resonnere mer effektivt fordi de gir maskinene semantisk forståelse, evnen til å behandle mening og kontekst bak informasjon fra den virkelige verden. Akkurat nå forstår ikke AI-systemer sammenhengen mellom ord og uttrykk, de er rett og slett flinke til å gjette. Det er utilstrekkelig. Vi vil etter hvert trenge legemliggjort AI, fordi tenkning er knyttet til oppfatning av rom. Det er definitivt tilfelle i produksjon som er et svært fysisk spill. Vi vil også trenge AI som er i stand til menneskelige minnefunksjoner som prioritering basert på forgrunning av noe informasjon og bakgrunnsbakgrunn for annen informasjon. Å glemme er et verktøy mennesker bruker for abstrakt tenkning, gå videre fra foreldet organisasjonspraksis, ta beslutninger og for å holde seg i øyeblikket og er ikke bare en feil. Ingen maskiner kan gjøre det veldig bra ennå.

I mellomtiden må vi regulere, men ikke dette sekundet. Og når vi regulerer, bør vi gjøre det bra. Dårlig regulering av AI vil sannsynligvis gjøre situasjonen verre. Å vekke regulatorer til denne utfordringen kan være nyttig, men jeg er ikke sikker på at den nåværende generasjonen av regulatorer er klar for den typen omfattende endringer som ville være nødvendig for å gjøre det bra. Det ville innebære å begrense mektige selskaper (muligens alle børsnoterte selskaper), begrense bruken av AI i styring, og ville bety enorme endringer i måten forbrukermarkedene fungerer på for tiden. I hovedsak ville vi måtte omkoble samfunnet. Det ville føre oss inn i utvekst noen tiår tidligere enn vi kanskje ønsker. Åpenhetsutfordringen rundt AI kan være mer formidabel enn kontrollvariablene som alle virker så bekymret for, ikke at de ikke er relatert, selvfølgelig.

Dessuten kan vi ikke være like bekymret hver gang en AI-benchmark nås. Vi må spare kreftene våre for virkelig store øyeblikk med gjennomgripende risiko. De vil komme, og i rettferdighet er vi ikke forberedt. Mine forespeilede fremtidsscenarier (se Extinction Scenarios for 2075) inkluderer massive datainnbrudd som holder hele land utestengt fra sine egne prosesser i flere måneder. Jeg bekymrer meg også for AI-er som blir hjulpet av kriminelle grupper eller statlige aktører. Mest av alt bekymrer jeg meg for kombinasjoner av AI, nanoteknologi, syntetisk biologi og kvanteteknologi – nesten usynlig kvasi-organisk intelligens med ukjent evne, kanskje bare noen tiår unna, som skjer akkurat når verden vil bli fortært av de kaskadevirkningene av klimaet. endring.

Nåværende AI-modeller fungerer ennå ikke godt nok til å være en trussel mot menneskeheten. Før vi kan vurdere å stenge dem, trenger vi bedre AI. Mer enn det, vi trenger klokere utviklere, mer sensibiliserte innbyggere og bedre informerte beslutningstakere. Vi trenger også et konsept for HVORDAN regulere AI. Men dette kan gjøres uten å bremse noe. Det blir en lærerik reise for alle. Moratoriebrevet angående GPT 4 (2023) er et gråt ulv-øyeblikk med bare en svak likhet med de farende risikoene menneskeheten står overfor i de kommende tiårene. Å sette AI-risiko på nivå med pandemirisiko og kjernefysisk risiko i 2023 er for tidlig. Kommer vi dit? Kanskje. Men gråtende ulv får konsekvenser. Det suger oksygenet ut av kommende debatter om ekte skrekk.

Kilde: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/