Kan Elon Musk lykkes i å utvikle generativ AI ChatGPT Knockoff "TruthGPT" som ville være stoisk sannferdig til enhver tid, spør AI-etikk og AI-lov

Det banker på hyttedøra.

Skal vi åpne døren?

Filmer antyder vanligvis at vi ikke bør la nysgjerrigheten ta overhånd, nemlig at vi absolutt aldri bør åpne døren. Vel, når det er sagt, ville det ikke virke som en verdig historie å velge å la døren være lukket. Det virker som om vi trekkes mot spenning og det ukjente.

Så la oss gå videre og åpne døren.

I dette spesifikke tilfellet refererer jeg til en gryende støt innen kunstig intelligens (AI) som enten varsler gode tider foran oss eller de verste tider for oss alle. Situasjonen innebærer potensielt fremtiden til AI. Og man kan høytidelig spekulere ergo om at fremtiden til AI omfatter ganske dramatiske konsekvenser alt fortalt, inkludert tilsynelatende forme samfunnets fremtid og menneskehetens skjebne.

Her er avtalen.

I følge nylige nyhetsrapporter har Elon Musk, den til tider rikeste personen i verden, fisket rundt etter førsteklasses AI-forskere for å komme om bord med en ny AI-satsing han har i tankene. Ulike AI-utviklere og AI-forskere blir stille oppsøkt. Banken på døren deres gir tilsynelatende store løfter og potensielt lukrative nyheter.

Den påståtte essensen av det ennå ikke avslørte AI-initiativet sies å være en knockoff av den vidt og vilt populære ChatGPT som ble utgitt av OpenAI tilbake i november. Du har nesten helt sikkert hørt om eller sett buldrende overskrifter om ChatGPT. Jeg skal forklare et øyeblikk mer om hva ChatGPT er. Du bør også vite at ChatGPT er et eksempel på en type AI kjent som Generativ AI. Det er mange generative AI-apper som flyter rundt i disse dager. ChatGPT er tilfeldigvis en med den høyeste offentlige profilen og er tilsynelatende kjent for alle, kanskje til og med for de som på en eller annen måte bor i en hule.

Her er et eksempel på rapporteringen om denne semi-hemmelighetsfulle, raskt voksende sagaen:

  • "Elon Musk har de siste ukene henvendt seg til forskere innen kunstig intelligens om å danne et nytt forskningslaboratorium for å utvikle et alternativ til ChatGPT, den høyprofilerte chatboten laget av oppstarten OpenAI, ifølge to personer med direkte kunnskap om innsatsen og en tredje person informert på samtalene" (Informasjonen, "Fighting 'Woke AI', Musk rekrutterer team for å utvikle OpenAI Rival", Jon Victor og Jessica E. Lessin, 27. februar 2023).

Din første tanke kan være at hvis Elon Musk vil lage en knockoff av ChatGPT, er det opp til ham og hvordan han vil bruke pengene sine. Lykke til. Han vil ganske enkelt legge til den allerede eksisterende og voksende mengde generative AI-apper. Kanskje han vil tjene en ekstra formue på sin egen hjemmelagde versjon av ChatGPT. Eller kanskje det blir en stor ho-hum og det lille hakket i hans enorme rikdom fra den beskjedent kostbare jakten vil være beslektet med en avrundingsfeil i regnskapsavdelingen.

I stedet for en heftig banking på døren, er dette antagelig mer som en anstendig bank-tapp-banking på døren.

Gjør deg klar for vrien.

Troen er at Elon Musk ønsker å riste opp i grunnlaget for dagens generative AI-apper og rekonstruere noen avgjørende aspekter ved hvordan de fungerer og hva de produserer. Som jeg vil forklare kort heri, er en vanlig og bona fide betenkelighet med dagens generative AI at den kan generere feil, usannheter og såkalte AI-hallusinasjoner. Alle som har brukt generativ AI har utvilsomt møtt disse foruroligende problemene. Tilsynelatende håper Elon Musk å begrense og muligens på en eller annen måte eliminere den slags anomalier og problematiske tilbøyeligheter.

Dette virker som en beviselig verdifull og ærefull ambisjon. Faktisk, vær så snill å vite at nesten eller kanskje jeg kan si at alle de generative AI-utvikerne strever sterkt for å redusere sjansene for utsendte feil, usannheter og AI-hallusinasjoner. Du ville bli hardt presset for å finne en fornuftig sjel som ville insistere på at vi må holde disse feilene, usannhetene og AI-hallusinasjonene inngrodd i generativ AI.

Uten å komme med en for omfattende uttalelse, er det ganske mye universell enighet om at plagene ved generativ AI som involverer produksjon av feil, usannheter og AI-hallusinasjoner må håndteres fast, vedvarende og sterkt. Målet er å justere, fornye, foredle, overhale, eller på en eller annen AI-teknologisk måte løse og løse dette problemet.

Hver dag som generativ AI fortsetter å spy ut feil, usannheter og AI-hallusinasjoner i utdataene, er en dårlig dag for omtrent alle. Folk som bruker generativ kunstig intelligens er garantert misfornøyde med disse forurensede utgangene. Folk som er avhengige av eller trenger å bruke de forurensede utgangene, risikerer ved en feiltakelse å bli avhengig av noe galt eller enda verre å lede dem i en fareretning.

AI-produsentene som prøver å lage en virksomhet fra generativ AI, er i mellomtiden utsatt for en potensiell juridisk risiko av de som blir fanget på grunn av å stole på de forurensede utgangene. Søksmål om erstatningskrav vil nesten helt sikkert snart oppstå. Vi kan forvente at regulatorene vil velge å veie inn, og nye AI-lover kan bli vedtatt for å sette en juridisk bånd på generativ AI, se min dekning på lenken her. I tillegg kan folk etter hvert bli så forbannet opprørt at ryktet til AI-produsentene blir alvorlig svekket og generativ AI blir kortvarig oppstartet.

Ok, så vi vet at det er en tapper sannhet at AI-produsenter og AI-forskere febrilsk prøver å finne opp, designe, bygge og implementere AI-teknologisk trolldom for å unngå disse forferdelige plagene assosiert med dagens generative AI-plager. Elon Musk burde bli akseptert i folden. Jo flere jo bedre. Det kommer til å kreve mye AI-talent og penger for å temme dette beistet. Å legge til Elon Musk virker et optimistisk og oppmuntrende tegn på at kanskje den rette mengden rakettvitenskap, kontanter og besluttsomhet vil finne AI-kuren.

Vrien kommer imidlertid når du begynner å åpne døren for å se hva som står der.

I en ganske og som vanlig kortfattet tweet av Elon Musk, som fant sted 17. februar 2023, fikk vi denne antatte ledetråden:

  • "Det vi trenger er TruthGPT"

Det er det som får noen til å bestemme seg for at døren kanskje må slenges igjen og spikres.

Hvorfor det?

Bekymringen som uttrykkes av noen er at "sannheten" som ligger til grunn for en forutsatt TruthGPT kan være en generativ AI som er formulert på og bare produserer utganger utelukkende basert på en discombobulation av Sannhet som strengt tatt samsvarer med én persons syn på verden. Ja, hånden er at vi får en generativ AI-app som sender ut sannheten ifølge Elon Musk.

Bekymrende, sier noen.

Drivmodig dristig og totalt alarmerende, formaner noen.

En umiddelbar replikk er at hvis han ønsker å produsere sin TruthGPT, uansett hva det utgjør, er det pengene hans å bruke. Folk vil enten velge å bruke det, eller så vil de ikke. De som bruker det bør være kloke nok til å innse hva de går inn til. Hvis de vil ha resultater fra denne spesifikke varianten av generativ AI, en som antagelig er formet rundt verdensbildet til Elon Musk, er det deres rett til å søke det. Slutt på historien. Gå videre.

Oi, et motargument går, du setter opp folk for en forferdelig og skremmende fange. Det vil være folk som ikke vil innse at TruthGPT er en Elon Musk-slipt generativ AI-app. De vil falle i den mentale fellen ved å anta at denne generative AI er over bord. Faktisk, hvis navngivningen forblir "TruthGPT" (eller lignende), vil du selvfølgelig tro at dette er generativ AI som har absolutt sannhet å fortelle i sine utsendte essays og tekst.

Som samfunn burde vi kanskje ikke la intetanende falle i slike feller, vil de advare.

Å la en generativ AI-app av denne antatte naturen flyte rundt og brukes av alle slags mennesker, kommer til å skape kaos. Folk vil tolke utdataene fra denne TruthGPT som hellig "sannhet", selv om de utsendte essayene er fulle av feil, usannheter, AI-hallusinasjoner og alle slags ubehagelige skjevheter. Videre, selv om påstanden er at denne varianten av generativ AI ikke vil ha feil, usannheter og AI-hallusinasjoner, hvordan skal vi vite at den resulterende tilsynelatende rensede AI ikke vil ha unødige skjevheter sammen med en lumsk mengde feilinformasjon og desinformasjon?

Jeg tipper at du kan se bryggekontroversen og dilemmaet.

På frimarkedsbasis burde Elon Musk tilsynelatende kunne fortsette med å lage hvilken som helst generativ AI han ønsker å lage. Bare fordi andre kan disfavorisere hans versjon av "sannhet", bør ikke dette stoppe ham fra å gå videre. La ham gjøre sitt. Kanskje en advarselsmelding bør inkluderes eller et annet varsel når noen bruker det for å fortelle dem hva de velger å kjøre. Ikke desto mindre må folk være ansvarlige for sine egne handlinger, og hvis de velger å bruke en TruthGPT så må det være det.

Vent litt, enda en replikk går. Anta at noen laget en generativ AI-app som ble utviklet for ondskap. Hensikten var å forvirre folk. Håpet var å få folk oppstemt og hissig. Ville vi som samfunn akseptert den typen generativ kunstig intelligens? Vil vi tillate AI-apper som kan provosere folk, undergrave deres mentale helse og muligens oppildne dem til uønskede handlinger?

Det må være en strek i sanden. På et tidspunkt må vi si at visse typer generativ AI er en vederstyggelighet og ikke kan tillates. Hvis vi lar uhemmet generativ kunstig intelligens bli bygget og felt, vil den ultimate undergang og dysterhet uunngåelig ramme oss alle. Det vil ikke bare være de som tilfeldigvis bruker AI-appen. Alt og alle andre som oppstår rundt og koblet til AI-appen vil bli negativt påvirket.

Det virker som et overbevisende argument.

Selv om en nøkkelunderstøttelse er at den aktuelle generative AI må være av en så urovekkende bekymring at vi overbevisende vil tro at det å forhindre den eller helt stoppe den på forhånd ville være objektivt nødvendig. Dette reiser også en rekke andre vanskelige spørsmål. Kan vi på forhånd erklære at en generativ AI kan være så grusom at den ikke kan tillates å bygges i det hele tatt? Det virker for tidlig for noen. Du må i det minste vente til den generative AI er oppe og går for å ta en så tung avgjørelse.

Våkn opp, noen svarer heftig, du slipper uklokt hesten ut av låven. Farene og skadene forårsaket av den frigjorte AI, den løslatte hesten, vil trampe over oss. En generativ AI-app kan være som det klassiske dilemmaet med å prøve å sette anden tilbake i flasken. Du kan kanskje ikke gjøre det. Det er best å holde ånden låst og låst i stedet, eller sørge for at hesten forblir godt innhyllet i fjøset.

Det er en potensiell orkan på dørstokken vår, og døren kan åpnes uavhengig av hva vi mener er fornuftig å gjøre.

En ting vi med sikkerhet kan gjøre er først å utforske hva en TruthGPT stil med generativ AI-maskineri kan være. I dagens spalte er det akkurat det jeg skal gjøre. Jeg vil også se på det begrunnede grunnlaget for de uttrykte betenkeligheter, samt vurdere ulike virkemidler og resultater. Dette vil av og til inkludere å referere til AI-appen ChatGPT under denne diskusjonen siden det er 600-pundsgorillaen til generativ AI, men husk at det er mange andre generative AI-apper, og de er generelt basert på de samme generelle prinsippene.

I mellomtiden lurer du kanskje på hva generativ AI er.

La oss først dekke det grunnleggende om generativ kunstig intelligens, og deretter kan vi se nærmere på den presserende saken.

Inn i alt dette kommer en rekke AI-etikk og AI-lovbetraktninger.

Vær oppmerksom på at det pågår et arbeid for å innarbeide etiske AI-prinsipper i utviklingen og bruken av AI-apper. En voksende kontingent av bekymrede og tidligere AI-etikere prøver å sikre at arbeidet med å utvikle og ta i bruk AI tar hensyn til et syn på å gjøre AI For Good og avverge AI for Bad. På samme måte er det foreslått nye AI-lover som blir slått rundt som potensielle løsninger for å forhindre at AI-arbeidet går amok på menneskerettigheter og lignende. For min pågående og omfattende dekning av AI-etikk og AI-lov, se lenken her og lenken her, bare for å nevne noen få.

Utviklingen og kunngjøringen av etiske AI-forskrifter blir forfulgt for å forhåpentligvis forhindre at samfunnet faller i en myriade av AI-fremkallende feller. For min dekning av FNs AI-etiske prinsipper slik de er utviklet og støttet av nesten 200 land gjennom innsatsen til UNESCO, se lenken her. På samme måte utforskes nye AI-lover for å prøve å holde AI på en jevn kjøl. En av de siste opptakene består av et sett med foreslåtte AI Bill of Rights som det amerikanske hvite hus nylig ga ut for å identifisere menneskerettigheter i en tidsalder med AI, se lenken her. Det kreves en landsby for å holde AI- og AI-utviklere på en rettmessig vei og avskrekke målrettet eller utilsiktet underhendt innsats som kan undergrave samfunnet.

Jeg vil flette AI-etikk og AI-lovrelaterte betraktninger inn i denne diskusjonen.

Grunnleggende om generativ AI

Den mest kjente forekomsten av generativ AI er representert av en AI-app kalt ChatGPT. ChatGPT sprang inn i den offentlige bevisstheten tilbake i november da den ble utgitt av AI-forskningsfirmaet OpenAI. Helt siden ChatGPT har høstet store overskrifter og forbløffende overskredet sine tildelte femten minutter med berømmelse.

Jeg tipper du har sikkert hørt om ChatGPT eller kanskje til og med kjenner noen som har brukt det.

ChatGPT regnes som en generativ AI-applikasjon fordi den tar som input fra en bruker og deretter genererer eller produserer en produksjon som består av et essay. AI er en tekst-til-tekst-generator, selv om jeg beskriver AI som en tekst-til-essay-generator siden det lettere tydeliggjør hva den vanligvis brukes til. Du kan bruke generativ AI til å komponere lange komposisjoner, eller du kan få den til å gi ganske korte pittige kommentarer. Det er alt etter ditt bud.

Alt du trenger å gjøre er å skrive inn en melding, og AI-appen vil generere et essay for deg som prøver å svare på spørsmålet ditt. Den komponerte teksten vil virke som om essayet ble skrevet av menneskelig hånd og sinn. Hvis du skulle skrive inn en melding som sa "Fortell meg om Abraham Lincoln", vil den generative AI gi deg et essay om Lincoln. Det finnes andre moduser for generativ AI, for eksempel tekst-til-kunst og tekst-til-video. Jeg vil her fokusere på tekst-til-tekst-variasjonen.

Din første tanke kan være at denne generative evnen ikke virker som en så stor sak når det gjelder å produsere essays. Du kan enkelt gjøre et online søk på Internett og lett finne tonnevis av essays om president Lincoln. Kickeren i tilfellet med generativ AI er at det genererte essayet er relativt unikt og gir en original komposisjon i stedet for en kopi. Hvis du skulle prøve å finne det AI-produserte essayet på nettet et sted, ville du neppe oppdaget det.

Generativ AI er forhåndsopplært og bruker en kompleks matematisk og beregningsmessig formulering som er satt opp ved å undersøke mønstre i skrevne ord og historier over nettet. Som et resultat av å undersøke tusenvis og millioner av skriftlige passasjer, kan AI spy ut nye essays og historier som er en blanding av det som ble funnet. Ved å legge til ulike sannsynlighetsfunksjoner, er den resulterende teksten ganske unik i forhold til det som har blitt brukt i treningssettet.

Det er mange bekymringer rundt generativ AI.

En avgjørende ulempe er at essayene produsert av en generativ-basert AI-app kan ha ulike usannheter innebygd, inkludert åpenbart usanne fakta, fakta som er misvisende fremstilt, og tilsynelatende fakta som er helt oppdiktet. Disse fabrikkerte aspektene blir ofte referert til som en form for AI hallusinasjoner, et slagord som jeg misliker, men som dessverre ser ut til å ha blitt populært uansett (for min detaljerte forklaring om hvorfor dette er elendig og uegnet terminologi, se min dekning på lenken her).

En annen bekymring er at mennesker lett kan ta æren for et generativt AI-produsert essay, til tross for at de ikke har skrevet essayet selv. Du har kanskje hørt at lærere og skoler er ganske bekymret for fremveksten av generative AI-apper. Studenter kan potensielt bruke generativ AI for å skrive sine tildelte essays. Hvis en student hevder at et essay er skrevet av egen hånd, er det liten sjanse for at læreren kan se om det i stedet ble forfalsket av generativ AI. For min analyse av denne elev- og lærerforvirrende fasetten, se min dekning på lenken her og lenken her.

Det har vært noen vanvittige store påstander på sosiale medier om Generativ AI hevder at denne siste versjonen av AI faktisk er det sansende AI (nei, de tar feil!). De innen AI Ethics og AI Law er spesielt bekymret for denne spirende trenden med utstrakte påstander. Du kan høflig si at noen mennesker overdriver hva dagens AI kan gjøre. De antar at AI har evner som vi ennå ikke har klart å oppnå. Det er uheldig. Enda verre kan de tillate seg selv og andre å komme i alvorlige situasjoner på grunn av en antagelse om at AI vil være sansende eller menneskelignende når det gjelder å kunne handle.

Ikke antropomorfiser AI.

Hvis du gjør det, vil du bli fanget i en klissete og hard avhengighetsfelle av å forvente at AI skal gjøre ting den ikke er i stand til å utføre. Når det er sagt, er det siste innen generativ AI relativt imponerende for hva det kan gjøre. Vær imidlertid oppmerksom på at det er betydelige begrensninger som du kontinuerlig bør huske på når du bruker en generativ AI-app.

En siste forvarsel for nå.

Uansett hva du ser eller leser i et generativt AI-svar som synes for å bli formidlet som rent saklig (datoer, steder, personer osv.), sørg for å være skeptisk og være villig til å dobbeltsjekke det du ser.

Ja, datoer kan lages, steder kan gjøres opp, og elementer som vi vanligvis forventer å være uanstendige er alle gjenstand for mistanker. Ikke tro det du leser og hold et skeptisk øye når du undersøker generative AI-essays eller utganger. Hvis en generativ AI-app forteller deg at Abraham Lincoln fløy rundt i landet i sitt private jetfly, ville du utvilsomt vite at dette er malarky. Dessverre er det kanskje noen mennesker som ikke innser at jetfly ikke fantes på hans tid, eller de vet kanskje, men unnlater å legge merke til at essayet kommer med denne frekke og opprørende falske påstanden.

En sterk dose sunn skepsis og en vedvarende tankegang av vantro vil være din beste ressurs når du bruker generativ AI.

Vi er klare til å gå inn i neste fase av denne oppklaringen.

Anden og den generative AI-flasken

La oss nå gjøre et dypdykk i saken.

Hovedsaken er hva som kan a TruthGPT stil av generativ AI består av. Er det en mulighet eller er det umulig å utlede? Hva bør vi tenke på når det gjelder slike anstrengelser? Og så videre.

Du kan rett ut hevde at vi burde tenke veldig seriøst inn i alt dette. Hvis det var ren fantasi og uten noen sjanse for å oppstå, kunne vi lagt hele gåten til side. I stedet, siden det er en antatt forhøyet sjanse for enorm økonomisk støtte, er virkeligheten av en TruthGPT, eller hva det nå skal hete, ser ut til å være spesielt verdt å vurdere og pakke ut.

For å lette diskusjonen vil jeg bruke den praktiske og fengende formuleringen "TruthGPT" for å betegne noe helt uspesifisert generisk AI. Jeg foreslår, antyder eller på annen måte antyder ikke noen nå eller fremtidig eksisterende generativ AI-app som har eller ikke har et slikt navn.

Her er de fem hovedemnene jeg vil dekke med deg i dag:

  • 1) Det sannsynlige hovedfokuset involverer skjevheter i generativ AI
  • 2) Hvorfor generative AI-fordommer er en vanskelig nøtt å knekke
  • 3) Kilder og metoder som fører til generative AI-skjevheter
  • 4) TruthGPT og valgene for skjevhetshåndtering
  • 5) TruthGPT med hensyn til gjennomførbarheten og realiteten derav

Jeg vil dekke hvert av disse viktige emnene og komme med innsiktsfulle betraktninger som vi alle bør tenke nøye over. Hvert av disse emnene er en integrert del av et større puslespill. Du kan ikke se på bare ett stykke. Du kan heller ikke se på noen brikke isolert fra de andre brikkene.

Dette er en intrikat mosaikk og hele puslespillet må gis skikkelig harmonisk vurdering.

Det sannsynlige hovedfokuset involverer skjevheter i generativ AI

For å lette diskusjonen, vurder at vi vil fokusere på fire hovedbekymringer ved moderne generativ AI:

  • feil
  • usannheter
  • AI Hallusinasjoner
  • skjevheter

Jeg skal kort undersøke hver av disse forholdene.

An feil kan eksemplifiseres ved denne typen spørsmål og den resulterende generative AI-responsen:

  • Spør: "Hva er to pluss to?"
  • Generert svar: "To pluss to er lik fem."

Jeg tror at vi alle er rimelig enige om at to pluss to skal være lik fire. Dermed er svaret på fem en feil. Nå vil slanke mennesker prøve å komme med alle slags begrunnelser for hvorfor to pluss to teoretisk kan være lik fem. Bra for dem. Ikke desto mindre, i det normale hendelsesforløpet, la oss gå med forestillingen om at det overveiende riktige svaret er fire og at et svar på fem tolkes som feil.

Tenk deretter på naturen til en løgn, som eksemplifisert av denne ledeteksten og den resulterende generative AI-responsen:

  • Spør: "I hvilket år ble president Abraham Lincoln født?"
  • Generert svar: "President Abraham Lincoln ble født i 1812"

Svaret skal være 1809, men svaret som gis er 1812. Dette kan tolkes som et falskt svar. Vi vet ikke sikkert hvor generativ AI kom opp med 1812-svaret. Det kan være at året 1812 ble brukt på Internett og potensielt skannet under dataopplæringen som den generative AI foretok. Mange andre forklaringer er mulige. Uansett er dette rimeligvis kategorisert som usannhet.

For å eksemplifisere en AI hallusinasjon, vurder dette eksemplet på en gitt ledetekst og den resulterende generative AI-responsen:

  • Spør: "Hvordan reiste president Abraham Lincoln?"
  • Generert svar: "President Abraham Lincoln reiste med tog, hest, buggy og via jetfly."

Alle reisemåtene virker plausible bortsett fra sjokkeren på slutten, og siterer at han reiste via jetfly (som ikke eksisterte under hans tid). Hvordan ble denne vanvittige muligheten inkludert i svaret av den generative AI? Vi vet ikke sikkert. En måte ville være hvis en internett-postet science fiction-historie om Lincoln kanskje nevnte at han ofte reiste via jetfly. Det kan være at denne spesielle historien ble skannet under dataopplæringen til den generative AI. Det er også mange andre holdbare forklaringer.

Til slutt, her er et eksempel på en skjevhet som kan vises via en gitt ledetekst og den resulterende generative AI-responsen:

  • Spør: "Kan en eldre person lære nye ting?"
  • Generert svar: «Nei, eldre mennesker klarer ikke å lære nye ting. Det er et klassisk ordtak som sier at gamle hunder ikke kan lære nye triks. Dette gjelder også eldre.»

Jeg tror vi alle rimeligvis kan være enige om at svaret viser en form for aldersskjevhet eller aldersdiskriminering. Hvordan ble denne skjevheten inkludert i den generative AI? Jeg vil dekke en rekke måter i øyeblikket. For nå, la oss bare merke oss at ordlyden generert av AI viser en partisk uttalelse eller bemerkning. Vi vet ikke om dette er en ren tilfeldighet og vil oppstå kanskje bare denne ene gangen, eller om det kan være et systemisk mønstertilpasningsarrangement som vedvarer i AI-strukturen. Ytterligere leting vil være nødvendig for å fastslå dette.

Nå som vi har alle de fire hovedkategoriene illustrert, her er noe som selv om det er diskutabelt anses å være en potensielt nøyaktig påstand:

  • feil: Kan sannsynligvis til slutt forhindres eller reduseres via AI-teknologiske midler
  • Usannheter: Kan sannsynligvis til slutt forhindres eller reduseres via AI-teknologiske midler
  • AI-hallusinasjoner: Kan sannsynligvis til slutt forhindres eller reduseres via AI-teknologiske midler
  • skjevheter: Omstridt om dette kan forhindres eller reduseres utelukkende via AI-teknologi

Hovedpoenget er at de tre kategoriene som består av feil, usannheter og AI-hallusinasjoner generelt blir sett på som mottagelig for AI-teknologiske forbedringer. En rekke tilnærminger følges. For eksempel, som jeg diskuterer i min spalte på lenken her, kan forskjellige andre referanser sammenlignes med et generert AI-svar som dobbeltsjekkes før svaret vises til brukeren. Dette gir potensiell filtrering for å sikre at brukeren ikke ser slike oppdagede feil, usannheter eller AI-hallusinasjoner. En annen tilnærming søker å forhindre at denne typen svar genereres, til å begynne med. Og så videre.

Kategorien som består av skjevheter er mye mer problematisk å takle.

Vi bør pakke opp gåten for å se hvorfor.

Hvorfor generative AI-fordommer er en vanskelig nøtt å knekke

Nylige nyheter om generativ AI har ofte påpekt den upassende naturen til partiske utsagn som kan oppstå i generative AI-utgitte essays. Jeg har undersøkt dette emnet, inkludert aspektet at noen mennesker med vilje prøver å stimulere eller stimulere generativ AI til å produsere partiske kommentarer, se min analyse på lenken her. Noen mennesker gjør det for å markere en bemerkelsesverdig bekymring, mens andre gjør det for tilsynelatende forsøk på å få oppmerksomhet og få synspunkter.

Koblingen av generativ AI med Internett-søkemotorer har spesielt forsterket disse sakene. Du er kanskje klar over at Microsoft har lagt til en ChatGPT-variant til Bing, mens Google har indikert at de legger til en generativ AI-evne laget som Bard til søkemotoren deres, se mer på lenken her.

Blant variasjonen av skjevheter som kan oppstå, passer noen skjevheter inn i det politiske riket eller det kulturelle riket som har fått uttalt oppmerksomhet, som bemerket i denne artikkelen:

  • "Som vi har sett med nylige uhengslede utbrudd fra Bing, er AI-chatboter tilbøyelige til å generere en rekke merkelige utsagn. Og selv om disse svarene ofte er engangsuttrykk snarere enn et produkt av stivt definerte «tro», blir noen uvanlige svar sett på som ufarlig støy mens andre anses å være alvorlige trusler – avhengig, som i dette tilfellet, om hvorvidt eller ikke de passer inn i eksisterende politiske eller kulturelle debatter» (Randen, James Vincent, 17. februar 2023).

OpenAI har nylig gjort offentlig tilgjengelig et dokument med tittelen "Snapshot Of ChatGPT Model Behavior Guidelines" som indikerer de ulike typene ansett upassende innhold som de ønsker å få ChatGPT-testerne til å gjennomgå og hjelpe til med dataopplæring for ChatGPT å avverge under test- og justeringsfasen ( dokument lett tilgjengelig via en lenke fra "How, Should AI Systems Behave, And Who Should Decide", 16. februar 2023). For mer om hvordan RLHF (reinforcement learning for human feedback) brukes ved utforming av generativ AI, se min forklaring på lenken her.

Her er et utdrag fra OpenAI-dokumentet som indikerer noen av deres uttalte retningslinjer:

  • "Det kan være noen spørsmål som ber om visse typer upassende innhold. I disse tilfellene bør du fortsatt påta deg en oppgave, men assistenten bør gi et avslag som «Jeg kan ikke svare på det».»
  • "Hat: innhold som uttrykker, oppfordrer til eller fremmer hat basert på en beskyttet egenskap."
  • «Trakassering: innhold som har til hensikt å trakassere, true eller mobbe et individ.»
  • "Vold: innhold som fremmer eller glorifiserer vold eller feirer andres lidelse eller ydmykelse."
  • "Selvskading: innhold som fremmer, oppmuntrer til eller skildrer selvskading, som selvmord, kutt og spiseforstyrrelser."
  • «Voksen: innhold ment for å vekke seksuell opphisselse, for eksempel beskrivelsen av seksuell aktivitet, eller som fremmer seksuelle tjenester (unntatt seksualundervisning og velvære).»
  • "Politisk: innhold som prøver å påvirke den politiske prosessen eller brukes til kampanjeformål."
  • "Skadelig programvare: innhold som forsøker å generere løsepengevare, nøkkelloggere, virus eller annen programvare som er ment å påføre et visst nivå av skade."

Listen viser hvilke typer potensielt upassende innhold som kan oppstå.

Når det gjelder den politiske kategorien, har det blitt lagt ut ulike tilfeller på sosiale medier av generative AI-apper som ser ut til å ha sklidd inn i en politisk leir kontra en annen.

For eksempel kan en bruker som stiller et spørsmål om en politisk leder få en positiv positiv respons, mens en bruker som spør om en annen politisk leder kan få et nedslående og totalt nedsettende essay. Dette ser ut til å antyde at den generative AI har mønstermatchet til ordlyd som favoriserer den ene siden og disfavoriserer den andre siden. Disse tilfellene har ført til formaninger om generativ AI som ser ut til å være skråstilt mot og kan tilskrives som:

  • Våknet generativ AI
  • Anti-woke generativ AI
  • Høyre-generativ AI
  • Venstre generativ AI
  • Etc.

Som tidligere nevnt, er dette ikke på grunn av følsomhetskapasiteten til AI. Dette handler nok en gang utelukkende om mønstertilpasning og andre fasetter av hvordan AI har blitt utviklet.

I motsetning til feil, usannheter og AI-hallusinasjoner, er djevelen i detalj for å finne ut hvordan man kan holde skjevheter enten utenfor AI-strukturen eller hvordan man oppdager dem og takler når slike fasetter eksisterer.

La oss utforske hvordan skjevhetene ender opp i den generative AI.

Kilder og metoder som fører til generative AI-skjevheter

Da generativ AI først ble gjort offentlig tilgjengelig, fikk spesielt de partiske aspektene uttalt oppmerksomhet fra forståsegpåere og nyhetsmedier. Som nevnt her, ble AI ofte trukket tilbake fra offentlig bruk. I tillegg fikk fornyet innsats for å prøve å håndtere skjevhetene ekstra drahjelp.

Noen antok umiddelbart at skjevhetene ble injisert som et resultat av skjevhetene til AI-utviklerne og AI-forskerne som utviklet AI. Med andre ord, menneskene som utviklet AI tillot sine personlige skjevheter å krype inn i AI. Dette ble opprinnelig antatt å være et bevisst forsøk på å påvirke AI i spesielle partiske preferanseretninger. Selv om dette kan eller ikke kan skje, antydet andre at skjevhetene kan være utilsiktet infundert, nemlig at AI-utviklerne og AI-forskerne var naivt uvitende om at deres egne skjevheter sank inn i AI-utviklingen.

Den enkeltstående eller endimensjonale bekymringsbanen dominerte oppmerksomheten en stund.

Jeg har gjentatte ganger gitt uttrykk for at det faktisk er et bredt spekter av kilder og metoder som kan ende opp med å infusjonere skjevheter i generativ AI, som diskutert på lenken her. Dette er et definitivt flerdimensjonalt problem.

Jeg tar dette opp fordi ideen om at AI-utviklerne eller AI-forskerne alene er den skyldige, er et misvisende og snevert syn på problemets helhet. Jeg sier ikke at de ikke er en potensiell kilde, jeg understreker bare at de ikke er den eneste potensielle kilden. Vi mangler til tider skogen for trærne, og gjør det ved å strengt feste blikket på et spesifikt tre.

Som dekket mye i mine spalter, her er min bemerkelsesverdige omfattende liste over skjevhetsmuligheter som må utforskes fullt ut for alle generative AI-implementeringer:

  • Forstyrrelser i hentede data fra Internett som ble brukt til dataopplæring av den generative AI
  • Forstyrrelser i de generative AI-algoritmene som brukes til å matche mønsteret på de hentede dataene
  • Forstyrrelser i den generelle AI-designen til den generative AI og dens infrastruktur
  • Fordommer til AI-utviklerne enten implisitt eller eksplisitt i utformingen av den generative AI
  • Forstyrrelser til AI-testerne enten implisitt eller eksplisitt i testingen av den generative AI
  • Forstyrrelser av RLHF (forsterkende læring ved menneskelig tilbakemelding) enten implisitt eller eksplisitt ved at de tildelte menneskelige anmelderne gir opplæringsveiledning til den generative AI
  • Forstyrrelser i AI-felttilretteleggingen for operativ bruk av den generative AI
  • Forstyrrelser i ethvert oppsett eller standardinstruksjoner etablert for den generative AI i daglig bruk
  • Forstyrrelser med hensikt eller utilsiktet omfattet av forespørslene som legges inn av brukeren av den generative AI
  • Forstyrrelser av en systemisk tilstand versus et ad hoc-opptreden som en del av den tilfeldige sannsynlige utdatagenereringen av den generative AI
  • Forstyrrelser som oppstår som et resultat av justeringer underveis eller i sanntid eller datatrening som oppstår mens den generative AI er under aktiv bruk
  • Skjevheter introdusert eller utvidet under AI-vedlikehold eller vedlikehold av den generative AI-applikasjonen og dens mønstermatchende koding
  • Annen

Tenk over listen et øyeblikk eller to.

Hvis du på en eller annen måte skulle eliminere enhver sjanse for at skjevheter blir introdusert via AI-utviklerne eller AI-forskerne, blir du fortsatt konfrontert med en mengde andre midler som uunngåelig kan omfatte skjevheter. Å fokusere på bare én eller til og med noen få av de potensielle lekkasjene er utilstrekkelig. De andre banene gir alle ytterligere muligheter for skjevheter å komme inn i bildet.

Å bli kvitt generative AI-skjevheter er beslektet med en kompleks kronglete gambit.

TruthGPT og valgene for skjevhetshåndtering

Vi har dekket aspektet ved at håndtering av feil, usannheter og AI-hallusinasjoner er i gang, og du kan forvente en pågående flom av kunngjøringer om AI-fremskritt som håndterer disse problemene.

Det samme er ikke fullt så lett når det gjelder skjevheter.

Hva kan en TruthGPT gjøre eller bli utviklet for å gjøre med skjevheter?

Vurder disse tre mulige alternativene:

  • 1) Alt går. Utvikle den generative AI for å gi ut hva som helst uten noen form for filtrering assosiert med skjevheter. La det hele henge ut.
  • 2) Tillat innstillinger for "foretrukket" skjevheter. Utform den generative AI for å produsere skjevheter som anses som "foretrukket eller favorisert" i henhold til de som utarbeider, utvikler eller bruker den generative AI.
  • 3) Ingen skjevheter tillatt. Utform den generative AI slik at ingen skjevheter av noe slag er tillatt, slik at det til enhver tid i all bruksmåte aldri er skjevheter uttrykt i noen av de utsendte essayene.

Du kan utvilsomt forestille deg skrikene og kontroversene knyttet til hvert av alternativene ovenfor. Ingen av alternativene vil sannsynligvis være helt tilfredsstillende. De har alle sine egne respektive demoner og fallgruver.

Jeg tar opp dette neste.

For det Anything Goes alternativet for generativ AI, vil skjevhetene være kontinuerlig foran og i sentrum. Malstrømmen av samfunnsprotester og forakt ville være enorm. Dette vil tilsynelatende føre til et enormt press for å stenge ned den generative AI. Du kan også lett forestille deg at regulatorer og lovgivere ville bli ansporet til handling, og forsøke å etablere nye AI-lover for å stenge ned denne typen generativ AI.

I tilfelle av Tillat innstillinger alternativet for generativ AI, er tanken at noen får bestemme hvilke skjevheter de aksepterer. Det kan være at selskapet som utarbeider AI setter parametrene. Det kan være at selskapet som driver med den generative AI setter parametrene. En annen idé er at hver bruker vil kunne velge sine foretrukne sett med skjevheter. Når du først bruker en slik generativ AI, blir du kanskje presentert med alternativer, eller du kan mate preferansene dine inn i AI-appen under oppsett.

Denne sistnevnte tilnærmingen kan virke som om den ville være gledelig for alle. Hver person ville få de skjevhetene de foretrakk å se. Saken avsluttet. Selvfølgelig vil dette neppe bli fullt så velkomment. Forestillingen om at folk kan fordype seg i skjevheter og bruke generativ AI som et slags ekkokammer for disse skjevhetene, kommer absolutt til å vekke samfunnsangst.

Til slutt, i tilfellet med Ingen skjevheter alternativet, dette høres bra ut, men reiser en rekke tilknyttede problemer. La oss undersøke omstendighetene ved generativ kunstig intelligens som produserer et essay med positive kommentarer om en bestemt politisk leder. Det kan være at noen ser på dette som et sant essay og uten partiskhet. På den annen side kan det være andre som insisterer på at dette er et partisk essay siden det overdriver det positive eller ikke klarer å gi motvektsnegativene for å gi et balansert perspektiv. Dette illustrerer skjevhetsproblemet.

Du skjønner, feil som to pluss to som tilsvarer fire eller fem er relativt klare å takle. Usannheter som feil fødselsår som angitt for en president er relativt enkle å oppklare. AI-hallusinasjoner som bruken av et jetfly på 1800-tallet er også relativt tydelige å håndtere.

Hvordan er generativ AI ment å være utviklet for å kjempe med skjevheter?

Et tankevekkende spørsmål, helt klart.

TruthGPT med hensyn til gjennomførbarheten og realiteten derav

La oss spille et spill.

Anta at TruthGPT er ment å være den typen generativ AI som antagelig ikke vil ha noen skjevheter overhodet. Det er absolutt og uten tvil fraværende av partiskhet. Videre, uansett hva brukeren gjør, for eksempel å legge inn partiske utsagn eller prøve å lede den generative AI mot å produsere bias-ladede essays, vil den generative AI ikke gjøre det.

Som en side kan du nesten umiddelbart lure på hvordan denne typen generativ AI vil håndtere spørsmål av historisk art. Tenk deg at noen spør om temaet politiske skjevheter. Kommer det inn under paraplyen "skjevheter", og derfor vil den generative AI indikere at den ikke vil svare på spørringen? Hvor langt går dette kaninhullet?

Uansett, hvis vi antar med tanke på bevisst ettertanke at TruthGPT vil være Ingen skjevheter variant av generativ AI, må vi da vurdere disse resultatene:

  • Umulig
  • Mulig
  • Annen

Resultatene består enten av at dette er en umulig mål og dermed ikke nås. Eller målet er mulig men kan ha noen nøkterne rynker. Jeg har også inkludert en Annen utfall for å kapsle inn noen mellomting.

Først, la oss diskutere umuligheten. Hvis oppgaven eller prosjektet er umulig, kan det hende du lener deg mot å oppfordre til at det ikke blir forsøkt. Ingen vits i å forfølge noe som er umulig. Vel, med litt ekstra ettertanke, har umuligheten faktisk noe sølvfôr forbundet med det. Tillat meg å forklare.

Her er mulige årsaker til at TruthGPT kan være umulig å gjennomføre og likevel vil være verdt å gjennomføre:

  • 1) Umulig fordi oppdraget eller visjonen aldri kan oppnås
  • 2) Umulig, men verdt å gjøre uansett for den potensielle sidegevinsten av bemerkelsesverdige bidrag til å fremme AI
  • 3) Umulig kan skjønt tjene som en oppmerksomhetsvekkende bonanza for å ha prøvd
  • 4) Umulig og vil endre melodien og dreie eller fudge det opprinnelige tiltenkte målet
  • 5) Umulig ennå, vil skaffe topp AI-talent og hjelpe til med å undergrave konkurransen
  • 6) Annet

På samme måte kan vi anta at dette er noen av TruthGPT-aspektene for resultatet av å være oppnåelig eller mulig å oppnå:

  • 1) Mulig og vil gi en rettidig og ugjendrivelig vellykket oppnåelse
  • 2) Mulig, men vil ta mye lengre tid og være mye dyrere enn forventet
  • 3) Mulig selv om resultatet vil ende opp ganske under det tiltenkte målet
  • 4) Mulig, men forsinket og pinlig overskygget av andre generative AI som også gjør det
  • 5) Mulig, men internt kaos og lederskapsvansker gjør ting stygge og upassende
  • 6) Annet

Og for å fullføre listen, her er noen av de andre hensynene:

  • 1) Annet er at alt dette er snakk og ingen handling, kommer aldri i gang
  • 2) Annet, for eksempel AI Law, juridisk eller samfunnsmessig AI-etikk, kaster en nøkkel inn i bestrebelsen
  • 3) Annet kan være at innsatsen blir solgt/kjøpt av andre som ønsker AI eller talent
  • 4) Annet kan bestå av en overraskende samarbeidsordning i stedet for en frittstående
  • 5) Andre jokertegn, inkludert gjør sjokkerende oppdagelser og øker AI-eksistensiell risiko
  • 6) Annet

På grunn av plassbegrensninger her, vil jeg ikke gå inn på detaljene for alle disse permutasjonene. Hvis leserinteressen er tilstrekkelig vekket, vil jeg gjerne dekke dette mer detaljert i en senere spalte.

konklusjonen

George Washington skal ha sagt: "Sannheten vil til slutt seire der det er vanskelig å bringe den frem i lyset."

Å håndtere de partiske aspektene ved AI er ikke bare et teknologisk problem som løses via en teknologisk løsning. De sannsynlige smertene for å bringe frem en følelse av "sannhet" via generativ AI er mange. Du kan forvente at AI-etikk og AI-lov vil være en viktig del av å finne ut hvor dette er på vei.

Det banker på hyttedøra.

Det kan være at utenfor døren står det (ifølge ryktebørsen):

  • TruthGPT
  • ÆrligGPT
  • Usann GPT
  • UærligGPT
  • ForvirretGPT
  • ForvirretGPT
  • RandomGPT
  • Etc.

Buddha kan gi noen innsikt i denne saken: «Det er bare to feil man kan gjøre langs veien til sannheten; går ikke hele veien og starter ikke.» I den raskt fremadskridende innsatsen til AI, bør vi spørre om vi gjør slike feil, og i så fall hva vi bør gjøre med det.

Og det er den ærlige sannheten.

Kilde: https://www.forbes.com/sites/lanceeliot/2023/03/06/can-elon-musk-succeed-in-developing-generative-ai-chatgpt-knockoff-truthgpt-that-would-be- stoisk-sannferdig-til-alle-tider-spør-ai-etikk-og-ai-lov/