Her er hvordan OpenAI planlegger å rense ChatGPT fra falsk informasjon

OpenAI kunngjorde 31. mai sin innsats for å forbedre ChatGPTs matematiske problemløsningsevner, med sikte på å redusere tilfeller av kunstig intelligens (AI) hallusinasjoner. OpenAI la vekt på å dempe hallusinasjoner som et avgjørende skritt mot å utvikle tilpasset AGI.

I mars drev introduksjonen av den nyeste versjonen av ChatGPT, GPT-4, kunstig intelligens ytterligere inn i mainstream. Generative AI-chatbots har imidlertid lenge kjempet med faktanøyaktighet, og av og til generert falsk informasjon, ofte referert til som "hallusinasjoner". Arbeidet med å redusere disse AI-hallusinasjonene ble annonsert gjennom et innlegg på deres nettside.

AI-hallusinasjoner refererer til tilfeller der kunstig intelligens-systemer genererer utdata som er faktisk ukorrekte, villedende eller ikke støttet av virkelige data. Disse hallusinasjonene kan manifestere seg i ulike former, for eksempel å generere falsk informasjon, gjøre opp ikke-eksisterende hendelser eller personer eller gi unøyaktige detaljer om visse emner.

OpenAI utførte forskning for å undersøke effektiviteten av to typer tilbakemeldinger – «resultatovervåking» og «prosessovervåking». Resultatveiledning innebærer tilbakemelding basert på det endelige resultatet, mens prosessveiledning gir innspill for hvert trinn i en tankekjede. OpenAI evaluerte disse modellene ved å bruke matematiske problemer, genererte flere løsninger og valgte den høyest rangerte løsningen i henhold til hver tilbakemeldingsmodell.

Etter grundig analyse fant forskerteamet at prosessovervåking ga en overlegen ytelse da det oppmuntret modellen til å følge en menneskelig godkjent prosess. Derimot viste utfallsovervåking seg mer utfordrende å granske konsekvent.

OpenAI erkjente at implikasjonene av prosessovervåking strekker seg utover matematikk, og ytterligere undersøkelser er nødvendig for å forstå effektene på forskjellige domener. Den uttrykte muligheten for at dersom de observerte resultatene stemmer i bredere sammenhenger, kan prosessovervåking tilby en gunstig kombinasjon av ytelse og justering sammenlignet med resultatovervåking. For å lette forskningen, ga selskapet offentlig ut det komplette datasettet med prosessovervåking, og inviterte til utforskning og studier på dette området.

Relatert: AI-krav katapulterer Nvidia kort til en $1T-klubb

Selv om OpenAI ikke ga eksplisitte tilfeller som førte til deres etterforskning av hallusinasjoner, eksemplifiserte to nylige hendelser problemet i virkelige scenarier.

I en nylig hendelse erkjente advokat Steven A. Schwartz i Mata v. Avianca Airlines-saken å stole på chatboten som en forskningsressurs. Informasjonen gitt av ChatGPT viste seg imidlertid å være fullstendig fabrikkert, noe som fremhever problemet.

OpenAIs ChatGPT er ikke det eneste eksemplet på kunstig intelligens-systemer som møter hallusinasjoner. Microsofts AI, under en demonstrasjon av chatbot-teknologien i mars, undersøkte inntektsrapporter og genererte unøyaktige tall for selskaper som Gap og Lululemon.

Blad: 25K tradere satser på ChatGPTs aksjevalg, AI suger ved terningkast og mer

Kilde: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information