Hva du trenger å vite om GPT-4 Den nettopp utgitte etterfølgeren til generativ AI ChatGPT, pluss AI-etikk og AI-lovoverveielser

Hva er din vanlige reaksjon på utgivelsen av en oppfølger til en stor overskriftsfengende storfilm?

Noen går og ser oppfølgeren og erklærer at den er like god om ikke enda bedre enn originalen. Andre kan ha ekstraordinært høye forventninger og etter å ha sett den nyere filmen proklamere den som rimelig god, men ingenting å hyle ekstatisk over. Det er noen som utvilsomt vil bli ekstremt skuffet, uansett hva den siste filmen inkluderer, og som summarisk vil erklære at den første filmen var uforskammet over oppfølgeren.

Det samme spekteret av reaksjoner og følelser har kommet frem i utgivelsen i går av GPT-4 av AI-produsenten OpenAI, som fant sted på Pi-dagen, nemlig 3.14 eller 14. mars 2023. Sannsynligvis en tilfeldighet av at det skjedde på matematikerens favorittpai- spisedag, fikk GPT-4-avdukingen mye presseoppmerksomhet og omfattende prat på sosiale medier.

Jeg vil her beskrive de viktigste funksjonene og egenskapene til GPT-4, sammen med å gjøre sammenligninger med forgjengeren ChatGPT (den første "blockbuster" i min analogi). I tillegg er det en rekke virkelig viktige AI-etikk- og AI-lovhensyn som følger med generativ AI, inkludert og kanskje spesielt i tilfellet med GPT-4 og ChatGPT på grunn av deres utvilsomt utbredte bruk og vanvidd-gnistende media og offentlig oppmerksomhet angående nåværende og fremtidig AI.

Kort sagt, akkurat som en oppfølger til en film, er GPT-4 på noen måter bedre enn ChatGPT, for eksempel å være større, raskere og tilsynelatende mer flytende, mens det på andre måter gir flere og uttalte betenkeligheter (jeg skal dekke disse snart her). En litt rotete reaksjon. Oppfølgeren er ikke en slam-dunk, som mange hadde regnet med at den ville bli. Det viser seg at ting er mer nyansert enn som så. Det virker som det er den virkelige verden vi alle lever i.

Kanskje administrerende direktør for OpenAI, Sam Altman, sa det best i sine tweets 14. mars 2023, om GPT-4-lanseringen:

  • "Her er GPT-4, vår mest dyktige og justerte modell til nå. Den er tilgjengelig i dag i vår API (med en venteliste) og i ChatGPT+."
  • "Den er fortsatt feil, fortsatt begrenset, og den virker fortsatt mer imponerende ved første gangs bruk enn den gjør etter at du har brukt mer tid på den."

Mine forslag om hva du kan vurdere å gjøre som et resultat av utgivelsen av GPT-4, og som avhengig av din eksisterende situasjon eller omstendighet, består av disse potensielle handlingene:

  • Eksisterende ChatGPT-brukere. Hvis du allerede bruker ChatGPT, bør du ta en nærmere titt på GPT-4 for å se om du kanskje vil bruke det i stedet (eller du kan bruke GPT-4 i tillegg til å bruke ChatGPT, altså bruk enten ChatGPT eller GPT -4, avhengig av dine behov etter hvert som de oppstår). Du kan spille med GPT-4 hvis du abonnerer på ChatGPT Plus, abonnementsmodusen på $20 per måned for å bruke ChatGPT, ellers har du ikke noen enkel måte å få tilgang til GPT-4 på dette tidspunktet (påminnelsen eller vrien er at Microsoft Bing, søkemotoren, bruker en variant av GPT-4, som jeg har diskutert på lenken her).
  • Har aldri brukt generativ kunstig intelligens. Hvis du ikke bruker ChatGPT og aldri har brukt noen generativ AI, vil du kanskje først begynne med ChatGPT siden den er tilgjengelig gratis (eller, selvfølgelig, vurder å bruke noen av myriadene av andre generative AI-apper for å starte reisen din inn i dette AI-riket). GPT-4 er ikke gratis for øyeblikket, som nevnt i punktene ovenfor angående eksisterende ChatGPT-brukere. Når du har tatt beina fatt med ChatGPT, kan du bestemme om det er verdt å abonnere på ChatGPT Plus for å få tilleggsfordelene, inkludert tilgang til GPT-4.
  • Bruker en annen generativ AI. Hvis du bruker en annen generativ AI-app enn ChatGPT, kan det hende du finner GPT-4 av stor interesse siden den har forbedringer utover det ChatGPT tilbyr. Jeg nevner dette fordi noen kunnskapsrike AI-brukere bestemte at ChatGPT ikke var like bra for dem som andre alternativer. Jeg vil anbefale å bli oppdatert om GPT-4 for å avgjøre om ditt eksisterende valg fortsatt er det beste for deg. Det kan være. Dermed tar jeg ikke til orde for at du absolutt skal bytte til GPT-4 og bare si at det alltid er forsvarlig å sparke dekkene på andre tilgjengelige biler.
  • Annen programvare som får tilgang til ChatGPT via API. For de som lager programvare som kobles til ChatGPT via API (applikasjonsprogrammeringsgrensesnitt), som jeg har diskutert på lenken her, vil du være lurt å ta en nærmere titt på bruken av GPT-4 via APIen. Et stort spørsmål er at kostnadene ved å bruke GPT-4 API er mye høyere enn å bruke ChatGPT. Du vil gjøre en avveiningsanalyse av de ekstra fordelene med GPT-4 versus det rimeligere alternativet å holde seg til ChatGPT. Dette er en litt komplisert avgjørelse. Gjør det bevisst og ikke tankeløst.

En ting som virker som et sjokk for mange, er at nyhetsverdien ikke kom helt opp til det nivået som var forventet tidligere.

Tillat meg å forklare hvorfor.

Den originale storfilmen og nå oppfølgeren

Du vet sannsynligvis at en generativ AI-app kjent som ChatGPT ble gjort tilgjengelig i slutten av november i fjor.

Dette var en overraskende braksuksess.

Frem til da ble tidligere forsøk på å frigjøre generative AI-applikasjoner til allmennheten vanligvis møtt med forakt og forargelse. Grunnlaget for bekymringene var at generativ AI kan produsere utdata som inneholder alle slags stygge utganger, inkludert profant språk, ubehagelige skjevheter, usannheter, feil og til og med oppdiktede fakta eller s.k. AI hallusinasjoner (Jeg liker ikke den "hallusinasjons"-terminologien siden den har en tendens til å antropomorfisere AI, se diskusjonen min på lenken her).

Generativ AI er en type AI som innebærer å generere utdata fra brukeroppgitte tekstmeldinger, for eksempel å kunne produsere eller generere tekstbaserte essays, eller produsere bilder eller kunstverk, eller produsere lyd, eller produsere video osv. Disse er vanligvis referert til som tekst-til-tekst, tekst-til-essay, tekst-til-kunst, tekst-til-bilde, tekst-til-lyd, tekst-til-video og lignende. Den bemerkelsesverdige fasetten til generativ AI er at de genererte verkene tilsynelatende er på nivå med menneskeskapte utdata. Du ville ha vanskelig for å prøve å skille en generativ AI-utgang fra en sammenlignbar komposisjon utelukkende produsert av det menneskelige sinnet og den menneskelige hånden.

For mer om generativ AI, se min pågående serie som denne lenken her om det grunnleggende om ChatGPT og generativ AI, sammen med dekning av ChatGPT av studenter og spørsmålene om potensielt juks på essays (bruk lenken her), den svært tvilsomme bruken av ChatGPT for mental helserådgivning (se lenken her), bekymringer over potensielt plagiat og brudd på opphavsretten til generativ AI (lenken her), og mange flere fremtredende emner på lenken her.

Noe av grunnen til at ChatGPT ikke så ut til å få den vanlige nakkeslengen var på grunn av litt arbeid bak kulissene av AI-produsenten, OpenAI, før utgivelsen av ChatGPT. De prøvde å bruke ulike teknikker og teknologier for å presse tilbake på å skrive ut spesielt hatefulle og stygge essays. Husk at ChatGPT utelukkende er en tekst-til-tekst- eller tekst-til-essay-stil av generativ AI. Dermed består forsøkene på å forhindre merkelige og rasende utganger i å håndtere ord. Lignende problemer oppstår når produksjonen er kunst eller bilder, selv om dette kan være like eller vanskeligere å fange opp for å forhindre produksjon av støtende bilder av ett eller annet slag.

En bemerkelsesverdig teknikk som i økende grad har blitt omfavnet av AI-produsenter, består av bruk RLHF (forsterkende læring via menneskelig tilbakemelding). Her er hvordan det generelt fungerer. Når en generativ AI-app først har blitt dataopplært, for eksempel ved å skanne tekst over Internett, brukes menneskelige anmeldere til å veilede eller vise frem for AI-en hva som er verdt å si og hva som er skandaløst å si. Basert på denne serien med godkjenninger og avvisninger, er den generative AI omtrent i stand til å matche det som virker greit å sende ut og det som ikke ser ut til å være tillatt.

Jeg vil også nevne et annet ekstremt viktig poeng.

AI er ikke sansende.

Uansett hva de gale overskriftene deklarerer, kan du være sikker på at dagens AI ikke er sansende. For generativ AI er appen en omfattende programvare for datamodellering og datamodellering. Etter å ha undersøkt millioner på millioner av ord fra Internett, utledes mønstre om ord og deres statistiske sammenhenger. Et resultat er en fantastisk form for mimikk av menneskelig språk (noen AI-innsidere omtaler dette som en stokastisk papegøye, noe som gjør poenget, men dessverre bringer et ellers sansende element inn i diskusjonen).

Du kan tenke på generativ AI som autofullføringsfunksjonen når du bruker en tekstbehandlingspakke, selv om dette er en mye mer omfattende og avansert funksjon. Jeg er sikker på at du har begynt å skrive en setning og har en autofullføring som anbefalte ordlyden for resten av setningen. Med generativ AI som ChatGPT, skriver du inn en melding, og AI-appen vil prøve å ikke bare fullføre ordene dine, men forsøke å svare på spørsmål og komponere hele svar.

I tillegg innebærer en nybegynnerfeil som mange gjør når de bruker ChatGPT eller en annen lignende generativ AI-app, å unnlate å bruke de anerkjente interaktive samtalekapasitetene. Noen skriver inn en melding og venter på svar. De ser ut til å tro at det er alt som skal til. En og ferdig. Men dette mangler kjernen i generativ AI. Den mer nyttige tilnærmingen består i å gjøre en rekke spørsmål knyttet til å delta i en dialog med den generative AI. Det er der generativ AI virkelig skinner, se eksemplene mine på lenken her.

ChatGPT ble varslet av media og allmennheten som et fantastisk gjennombrudd innen AI.

Realiteten er at mange andre lignende AI-apper har blitt utviklet, ofte i forskningslaboratorier eller tenketanker, og i noen tilfeller ble forsiktig gjort tilgjengelig for publikum. Som jeg sa ovenfor, var resultatet vanligvis ikke pent. Folk pirket og pirket på den generative AI og klarte å få essays av fryktelig karakter, se min dekning på lenken her. AI-produsentene i disse tilfellene ble vanligvis tvunget til å trekke AI-en fra den åpne markedsplassen og gå tilbake til å fokusere på laboratoriebruk eller nøye utvalgte AI-betatestere og utviklere.

Mye av resten av AI-industrien ble overrasket over at ChatGPT klarte å gå på stram linje med fortsatt å produsere stygge utganger, og likevel ikke i den grad at offentlige følelser tvang OpenAI til å fjerne AI-appen fra generell tilgang.

Dette var det sanne sjokket til ChatGPT.

De fleste antok at sjokket var den kjente evnen. Ikke for de i AI. Overraskelsen som rammet nesten alle AI-innsidere var at du kunne frigjøre generativ AI som kunne spy ut hatefulle ytringer, og tilbakeslaget var ikke voldsomt nok til å tvinge frem en rask retrett. Hvem visste det? Faktisk, før utgivelsen av ChatGPT, spådde ryktebørsen at innen noen få dager eller uker på det meste, ville OpenAI angre på å gjøre AI-appen lett tilgjengelig for alle som kommer. De ville måtte begrense tilgangen eller muligens gå den hjem og ta en pust i bakken.

Den utrolige suksessen til ChatGPT-utrullingen har forsiktig åpnet døren til andre generative AI-apper som også kan møte gaten. For eksempel har jeg diskutert Google-avdukingen av Bard og hvordan krigene på Internett-søkemotorer varmes opp på grunn av et ønske om å plugge generativ AI inn i konvensjonelt nettsøk, se lenken her.

ChatGPT kan med rimelighet karakteriseres som en blockbuster. Det er også en som kom ut av ingensteds, for å si det sånn. Noen ganger er det kjent at en storfilm på forhånd sannsynligvis vil bli en storfilm ved utgivelse. I andre tilfeller er filmen en sovende som overrasker publikum og til og med filmskaperen. Det var det som skjedde med ChatGPT og OpenAI.

Ok, så vi har storfilmen, ChatGPT.

ChatGPT er i hovedsak basert på en versjon av GPT kjent som GPT-3.5. Tidligere har det vært GPT-3, GPT-2 og lignende. AI-verdenen og de som tangerer AI visste alle at OpenAI hadde jobbet med neste versjon, GPT-4.

GPT-4 vil bli ansett som etterfølgeren eller oppfølgeren til ChatGPT.

Dette bringer oss tilbake til min analogi om filmer. ChatGPT, en overraskende storfilm, var enorm i popularitet. Forventningene om hva GPT-4 ville være og hvordan publikum ville reagere var fulle av ville spekulasjoner. GPT-4 ville gå på vannet! GPT-4 vil være raskere enn en fartskule! GPT-4 vil være oppnåelse av sansende AI eller Artificial General Intelligence (AGI)!

Av og på har dette gått.

Du er kanskje vagt klar over at administrerende direktør for OpenAI, Sam Altman, sa dette i et intervju lagt ut på YouTube (datert 17. januar 2023): «GPT-4 ryktemøllen er en latterlig ting. Jeg vet ikke hvor alt kommer fra. Folk ber om å bli skuffet, og det vil de bli. Hypen er akkurat som... Vi har ikke en faktisk AGI, og det er liksom det som forventes av oss.»

Vel, GPT-4 er her.

Filmen har kommet ut.

Vi kan se det med egne øyne. Ingen flere utemmede spekulasjoner. Virkeligheten har kommet til ro.

La oss pakke ut det skinnende nye leketøyet.

Det essensielle i GPT-4

Du vil utvilsomt vite hva GPT-4 gir.

I diskusjonen min vil jeg referere til ulike dokumenter og videoer som OpenAI har gjort tilgjengelig om GPT-4, sammen med kommentarer basert på min bruk av GPT-4. For å lette diskusjonen, vær så snill å vite at det er to nyttige dokumenter som jeg ivrig vil sitere, ett med tittelen OpenAI-offisielle GPT-4 teknisk rapport og den andre er OpenAI-funksjonæren GPT-4 systemkort dokument (begge er tilgjengelige på OpenAI-nettstedet). Jeg vil sitere dem ved akronymene av TR for GPT-4 teknisk rapport og SC for GPT-4 systemkort.

La oss starte med å sitere den aller første setningen i abstraktet for TR:

  • "Vi rapporterer utviklingen av GPT-4, en storskala, multimodal modell som kan akseptere bilder og tekstinndata og produsere tekstutganger."

Tro det eller ei, det er mye pakket inn i den ene setningen.

Sett deg ned og ta en behagelig drink i hånden.

Et aspekt som er en generelt akseptert tommelfingerregel om generativ AI er at jo større systemet er, desto mer sannsynlig blir flyten og den generelle evnen. Dette ser ut til å være relativt godt etablert av de historisk økende størrelsene på de generative AI-systemene og deres stadig mer bemerkelsesverdige flyt når det gjelder å føre interaktive samtaler. Ikke alle tror at dette må være tilfelle, og det er forskere som aktivt søker mindre oppsett som bruker ulike optimaliseringer for potensielt å oppnå like mye som sine større brødre.

I den ovenfor siterte setningen om GPT-4 fra TR, kan du ha observert formuleringen om at det er en "storskala" generativ AI. Alle ville sannsynligvis ha en tendens til å være enig, basert på de relative størrelsene på generative AI-systemer i dag.

Det åpenbare spørsmålet til AI-innsidere er hvor stor den er storskala når det gjelder GPT-4?

Vanligvis erklærer AI-produsenten stolt ulike størrelsesberegninger for deres generative AI. Du kan gjøre det for å informere resten av AI-verdenen om hvordan størrelse og skala betyr noe. Du kan gjøre det for å skryte. Du kan gjøre det ganske enkelt fordi det er som en bil, der en naturlig nysgjerrighet er hvor stor en motor er der og hvor fort den vil gå.

I følge TR, her er det som er indikert:

  • "Gitt både konkurranselandskapet og sikkerhetsimplikasjonene av store modeller som GPT-4, inneholder denne rapporten ingen ytterligere detaljer om arkitekturen (inkludert modellstørrelse), maskinvare, treningsberegning, datasettkonstruksjon, opplæringsmetode eller lignende."

AI-innsidere har en tendens til å finne dette forlokkende. På den ene siden ser det ut til å være et urovekkende brudd med diplomatiet å ikke fortelle om disse avgjørende egenskapene. Når det er sagt, logikken i at å gjøre det kan avsløre proprietære hemmeligheter eller muligens kunne åpne døren til cybersikkerhetsbukser, vel, det ser ut til å være fornuftig også.

Bør AI-produsenter bli tvunget til å avsløre spesielle egenskaper ved deres generative AI, og gjøre det i en grad og måte som ikke utilsiktet vil gi bort noen viktige ledetråder?

Jeg lar deg ta på deg AI Ethics-hatten for å tenke over denne vurderingen.

Noen mener at vi også kan ende opp med å etablere nye AI-lover som vil kreve eksplisitte avsløringer.

Tanken er at offentligheten burde vite hva som skjer med AI, spesielt når AI blir større og antagelig har potensiale for til slutt å bevege seg inn i den alvorlige sonen av eksistensielle risikoer, se min analyse på lenken her.

Når vi går videre, vet vi heller ikke hvilke data som ble brukt til å trene GPT-4.

Dataene gjør eller bryter fremkomsten av generativ AI. Noen mennesker antar feilaktig at hele Internett ble skannet for å utvikle disse generative AI-egenskapene. Nei. Faktisk, som jeg diskuterer på lenken her, blir bare en bitteliten del av Internett skannet.

Et beslektet aspekt er om den generative AI er i sanntids skanning av Internett og justerer den beregningsmessige mønstertilpasningen. ChatGPT var begrenset til skanninger som fant sted senest i år 2021. Dette betyr at når du bruker ChatGPT er det stort sett ingen data om hva som skjedde i 2022 og 2023.

Ryktene gikk på at GPT-4 ville inneholde en oppdatert og sanntidstilkobling til Internett for justering underveis.

Her er hva TR sier:

  • "GPT-4 mangler generelt kunnskap om hendelser som har skjedd etter at det store flertallet av dataene før trening ble avbrutt i september 2021 og lærer ikke av erfaringen. Det kan noen ganger gjøre enkle resonneringsfeil som ikke ser ut til å samsvare med kompetanse på tvers av så mange domener, eller være for godtroende når det gjelder å akseptere åpenbart falske utsagn fra en bruker.»

Da kan du kanskje se hvorfor noen er litt skuffet over GPT-4. Ryktene antydet at den ville fungere i sanntid og samtidig tilpasse seg Internett underveis. En ansett som stor forbedring i forhold til ChatGPT. Realiteten er at GPT-4 fortsatt håndterer daterte data. Og det foregår ingen sanntidsjustering av beregningsmønstertilpasningen per se basert på oppdateringer fra Internett.

Jeg har flere nyheter til deg.

Setningen som jeg tidligere siterte om GPT-4 som storskala sa også at GPT-4 er det multimodal.

Tillat meg å gi litt bakgrunn om forestillingen om multimodal generativ AI.

Jeg nevnte mot starten av denne diskusjonen at det finnes forskjellige typer generativ AI, for eksempel tekst-til-tekst eller tekst-til-essay, tekst-til-kunst eller tekst-til-bilde, tekst-til-lyd, tekst -to-video, etc. Disse anses alle for å være en enestående måte å håndtere innholdet på. Du kan for eksempel skrive inn litt tekst og få et generert essay. Et annet eksempel kan være at du skriver inn tekst og får et generert kunstverk.

På slutten av fjoråret la jeg mine årlige spådommer om hva vi ville se i AI-fremskritt for år 2023 (se lenken her). Jeg hadde uttalt at multimodal generativ AI kom til å bli hot. Tanken er at du for eksempel kan skrive inn tekst og et bilde (to moduser ved inngang), ved å bruke disse som ledetekst i generativ AI, og du kan få et essay som utgang sammen med en generert video og et lydspor (tre moduser på produksjon).

Dermed kan en rekke moduser eksistere side om side. Du kan ha en rekke moduser når du blir bedt eller inndata. Du kan også ha en rekke moduser ved den genererte responsen eller utgangen. Du kan ha en mix-and-match på både innganger og utganger. Det er dit ting er på vei. Spennende og mulighetene for hva som kan gjøres med generativ AI åpnes enormt på grunn av den multimodale funksjonaliteten.

ChatGPT har bare en enkeltmodus. Du legger inn tekst, du får litt generert tekst som utdata.

Ryktene gikk på at GPT-4 ville bryte lydbarrieren, så å si, og gi en full multimodal kapasitet av alt til alt. Alle visste at tekst ville være med. Forventningen var at bilder eller kunstverk ville bli lagt til, sammen med lyd, og muligens til og med video. Det ville vært gratis for alle. Enhver modus på inngang, inkludert så mange av disse modusene du ønsker. Pluss hvilken som helst modus på utgang, inkludert så mange av modusene blandet som du måtte ønske å ha.

Et veritabelt smørebord av moduser.

Hva gir GPT-4?

Gå tilbake til den setningen fra TR:

  • "Vi rapporterer utviklingen av GPT-4, en storskala, multimodal modell som kan akseptere bilder og tekstinndata og produsere tekstutganger."

Du kan skrive inn tekst og du får utskrevet tekst, pluss at du eventuelt kan legge inn et bilde ved inngangen.

Demonstrasjoner som viser bilde- eller visjonsbehandling av innlagte bilder har indikert at elementene i et bilde for eksempel kunne identifiseres av den generative AI og deretter komponeres til en skriftlig fortelling som forklarer bildet. Du kan be den generative AI om å forklare hva bildet ser ut til å avbilde. Alt i alt vil visjonsbehandlingen være et bemerkelsesverdig tillegg.

Synsbehandlings- eller bildeanalysefunksjonen er ennå ikke tilgjengelig for offentlig bruk (i henhold til bloggen til OpenAI-nettstedet):

  • "For å forberede bildeinndatafunksjonen for større tilgjengelighet, samarbeider vi tett med én enkelt partner for å starte."

Hovedpoenget med alt dette er at det er hjertevarmende å innse at GPT-4 tilsynelatende har evnen til å gjøre bildeinndata og analyse. Mange venter spent på offentlig utgivelse av denne funksjonen. Kudos til OpenAI for å dytte inn på den multimodale arenaen.

Så vi har tekst som input, pluss bilde som input (når den er tilgjengelig for offentlig bruk), og tekst som output.

Noen har skjønt vrengt i hånden i AI-samfunnet som dette knapt overholder forestillingen om multimodal. Ja, det er en modus til, bildet som input. Men ikke et bilde som utgang. Det er tilsynelatende ikke lyd som inngang, og heller ikke lyd som utgang. Det er tilsynelatende ikke video som inngang, og heller ikke video som utgang. De med en smarmy tilbøyelighet synes dette er "multi-modalt" på de mest minimalistiske måter.

Motargumentet er at du må krype før du går, og gå før du løper.

Jeg tror det dekker den første setningen i TR, og vi kan skifte til flere emner.

Flere essensielle av GPT-4

Jeg skal øke hastigheten nå som du har litt ekstra bakgrunn generelt om denne saken.

Her er noe viktig som nevnt i OpenAI-blogginnlegget om GPT-4:

  • "I løpet av de siste to årene har vi bygget om hele den dype læringsstabelen vår og, sammen med Azure, co-designet en superdatamaskin fra grunnen av for arbeidsmengden vår."

To raske poeng om dette.

For det første er indikasjonen på at de gjenoppbygde hele den dype læringsstabelen sin absolutt en bemerkelsesverdig bemerkning og prestasjon (det betyr at de gjorde om beregningsmønstermatchingsmodellene og valgte å omstrukturere hvordan ting fungerer under panseret). Bra for dem. Det tiggende spørsmålet som noen uttrykker er at det sikkert ville vært fint å vite nøyaktig hva de gjorde i denne gjenoppbyggingen. TR og SC nevner noe hva som fant sted, men ikke i noen utdypende grad.

Selvfølgelig kan du overbevisende argumentere for at de ikke burde avsløre sin hemmelige saus. De er ikke pålagt å gjøre det. Hvorfor gi støtte til sine konkurrenter unødvendig? Den andre siden av mynten argumenterer for at for å forbedre AI og samfunnet, vil det antagelig hjelpe til med å fremme generativ AI, som tilsynelatende kommer til å være bra for menneskeheten (håper man).

Vi er tilbake til den squishy skillelinjen for AI-etikk og AI-lov.

For det andre indikerer den siterte bemerkningen at de designet en superdatamaskin fra grunnen av. I tillegg til interessen for hva denne superdatamaskinen gjør og hvordan den fungerer, som noen har blitt forklart, tar dette opp en helt annen sak.

Noen bekymrer seg for at generativ AI er i ferd med å bli et stort pengespill. Bare teknologiselskapene med de største pengene og de største ressursene vil være i stand til å lage generativ kunstig intelligens. Grunnen til at dette stilles spørsmålstegn ved er at vi kanskje kommer til å ha generativ AI som er strengt kontrollert av bare en håndfull teknologifirmaer. Vi kan bli sterkt avhengige av disse firmaene og deres varer.

Trenger vi potensielt å bruke eksisterende lover eller utarbeide nye AI-lover for å forhindre at en konsentrasjon av generativ AI er i begrenset rekkevidde av bare noen få?

Noe å gruble på.

Hvis du venter på at skoen skal falle i form av en utrolig massiv forskjell mellom ChatGPT og GPT-4, ta en titt på dette fra OpenAI-blogginnlegget om GPT-4:

  • "I en uformell samtale kan skillet mellom GPT-3.5 og GPT-4 være subtilt. Forskjellen kommer frem når kompleksiteten til oppgaven når en tilstrekkelig terskel – GPT-4 er mer pålitelig, kreativ og i stand til å håndtere mye mer nyanserte instruksjoner enn GPT-3.5.»

Jeg har funnet ut at denne mangelen på særpreget forskjell er noe tilfellet, nemlig at hvis du prater med ChatGPT hver dag og gjør det samme med GPT-4, er du kanskje ikke spesielt klar over at GPT-4 anses som kraftigere totalt sett. .

Et aspekt som ser ut til å skille seg ut er å etablere kontekst for samtalene dine med de to generative AI-appene.

Her er hva jeg mener.

Når du bruker en generativ AI-app, hopper du til tider bare inn i en samtale som du starter og fortsetter sammen med AI. I andre tilfeller begynner du med å fortelle AI konteksten til samtalen. For eksempel kan jeg begynne med å fortelle den generative AI-en at jeg ønsker å diskutere bilmotorer med AI-en, og at jeg vil at AI-en skal late som om den er en bilmekaniker. Dette setter deretter scenen eller innstillingen for at AI skal reagere deretter.

Mange som bruker ChatGPT innser ikke viktigheten av å sette konteksten når de først går i dialog med AI-appen. Det kan være stor forskjell i forhold til hvilken respons du vil få. Jeg opplever ofte at ChatGPT ikke finpusser veldig godt alene mot spesielle sammenhenger. Den prøver, men kommer ofte til kort. Så langt ser det ut til at GPT-4 virkelig skinner gjennom bruken av kontekstuell etablering.

Hvis du skal bruke generativ AI og ønsker å etablere kontekster når du gjør det, vil jeg definitivt gi den generelle fordelen til GPT-4 fremfor ChatGPT.

På et relatert element er det også et aspekt kjent som styrbarhet som spiller inn.

Noen brukere av ChatGPT har blitt overrasket over at AI-appen noen ganger har gitt svar som kanskje virker overdrevent humoristiske eller altfor korte. Dette kan oppstå hvis den generative AI oppdager noe i inndatameldingen din som ser ut til å utløse den typen respons. Du kan spøkefullt spørre om noe og ikke innse at dette kommer til å styre ChatGPT mot vitser og en letthjertet tone.

I følge OpenAI-blogginnlegget om GPT-4 og styrbarhet:

  • "I stedet for den klassiske ChatGPT-personligheten med en fast ordlyd, tone og stil, kan utviklere (og snart ChatGPT-brukere) nå foreskrive AI-stilen og oppgaven ved å beskrive disse retningene i 'system'-meldingen. Systemmeldinger lar API-brukere i betydelig grad tilpasse brukernes opplevelse innenfor grensene.»

Igjen vil dette forbedre brukeropplevelsen med de generative AI-appene. Andre generative AI-produsenter gjør det samme, og vi vil uunngåelig ha nesten alle slike AI-apper med en eller annen form for styrbarhet og kontekstuell etableringsfunksjonalitet.

Den røffe veien fortsatt foran

Et pågående og urovekkende problem som ligger til grunn for generativ AI, generelt, er at alle slags ubehagelige og direkte forstyrrende utdata kan produseres.

I mine spalteinnlegg har jeg dekket disse forskjellige og nøkterne bekymringene:

  • Generative AI-produserte feil
  • Generative AI-produserte usannheter
  • Generative AI Embedded Biases
  • AI Hallusinasjoner
  • Personverninntrengninger
  • Datakonfidensialitet svakheter
  • Desinformasjonsspreder
  • Desinformasjon Propagator
  • Dobbel bruk for våpen
  • Overreliance av mennesker
  • Økonomisk innvirkning på mennesker
  • Styrking av nettkriminalitet
  • Etc.

Noen rykter gikk på at GPT-4 på magisk og mirakuløst vis skulle rydde opp og løse alle disse generative AI-sykdommene.

Ingen med et ordentlig hode på skuldrene trodde at et slikt rykte kunne holde vann. Dette er veldig vanskelige AI-problemer. De løses ikke uten videre. Det er mye som skal gjøres for å takle disse varige og irriterende vanskelighetene. Det vil sannsynligvis kreve en landsby for å erobre litanien av AI-etikk-spørsmål som er innblandet i miljøet med generativ AI.

For å gi kreditt der kreditt skal betales, har OpenAI forsøkt å forklare hvordan de takler disse mange varierte utfordringene. De av dere som er interessert i AI-etikk bør vurdere å ta en nærlesing av TR og SC.

Her er for eksempel noen enkle kommentarer om GPT-4 som oppgitt av OpenAI i TR:

  • «GPT-4 kan generere potensielt skadelig innhold, for eksempel råd om planlegging av angrep eller hatefulle ytringer. Det kan representere ulike samfunnsmessige skjevheter og verdenssyn som kanskje ikke er representative for brukernes hensikt, eller for mye delte verdier. Den kan også generere kode som er kompromittert eller sårbar. De ekstra egenskapene til GPT-4 fører også til nye risikooverflater."

Videre sier de dette i TR:

  • "Gjennom denne analysen finner vi at GPT-4 har potensialet til å bli brukt til å forsøke å identifisere privatpersoner når det er utvidet med eksterne data. Vi finner også at selv om GPT-4s cybersikkerhetsevner ikke er langt overlegne tidligere generasjoner av LLM-er, fortsetter den trenden med potensielt å senke kostnadene for visse trinn i et vellykket cyberangrep, for eksempel gjennom sosial utvikling eller ved å forbedre eksisterende sikkerhetsverktøy . Uten sikkerhetsreduksjoner er GPT-4 også i stand til å gi mer detaljert veiledning om hvordan man utfører skadelige eller ulovlige aktiviteter."

Jeg har ikke spalteplass her for å dekke alle de mange elementene knyttet til disse vanskelighetene. Vær på jakt etter ytterligere spaltedekning i min pågående analyse av generativ AI fra et AI-etikk- og AI-lovperspektiv.

Det virker verdt å ta et øyeblikk og erkjenne at OpenAI har gjort tilgjengelig deres identifikasjon av hvordan de nærmer seg disse vanskelige utfordringene. Du kan si at det ikke var noen grunn til at de måtte gjøre det. De kan bare oppføre seg som om det ikke er noe der å se. Eller de kunne bare gjøre noen vage håndvifter og hevde at de gjorde mange smarte ting for å håndtere disse problemene.

Heldigvis har de valgt den fornuftige tilnærmingen med å prøve å komme seg ut i forkant av tilbakeslagene og øyenbrynene som vanligvis følger med generative AI-utgivelser. De har antagelig som mål å vise frem deres seriøsitet og forpliktelse til å utrydde disse problemene og forsøke å dempe eller løse dem.

Jeg vil gi den ekstra tanken at AI-feltet kommer til å få hard juling hvis det ikke er en pågående og anstrengende innsats for å forfølge disse sakene på en rettferdig og forestående måte. Å ta en skjult svart-boks-tilnærming vil garantert bli rasende blant publikum for øvrig. Du kan også forutse at hvis AI-firmaer ikke prøver å håndtere disse problemene, er sjansen stor for at lovgivere og regulatorer vil bli trukket inn i disse sakene, og en tsunami av nye AI-lover vil pepre alle AI-produsentene og de som jobber AI.

Noen mener vi allerede er ved det tidspunktet.

De insisterer på at selv om mange av AI-produsentene ser ut til å dele det de gjør, er dette noe av en sleipe form for plausibel benektelse. Kort sagt, fortsett og sett ut AI som er forferdelig og åpenbart feilaktig, i stedet for å vente til ting er bedre utformet, og avverge dem i AI-etikk og AI-lov ved å proklamere at du gjør alt for å rette opp ting. Jeg har diskutert denne "vent til klar" pågående kontrovers ofte i spaltedekningen min.

Ifølge TR:

  • "OpenAI har gjentatt GPT-4 og distribusjonsplanen vår siden begynnelsen av august for å forberede en sikrere lansering. Vi mener dette har redusert risikooverflaten, men har ikke helt eliminert den. Dagens utrulling representerer en balanse mellom å minimere risikoen ved utrulling, muliggjøre positive brukstilfeller og lære av utrullingen.»

For å komme tilbake til saken, nevnte jeg tidligere at AI-hallusinasjoner er et rådende problem når det kommer til generativ AI.

Igjen, jeg liker ikke slagordet, men det ser ut til å ha slått an. Grunnpilaren i problemet med AI-hallusinasjoner er at de kan produsere utdata som inneholder veldig sprø ting. Du tenker kanskje at det er opp til brukeren å finne ut om utgangene er riktige eller gale. En bekymring her er at utgangene kan inneholde oppdiktede ting som brukeren ikke har noen enkle måter å finne ut av. De tror kanskje hele grisen på hva utdataene sier.

Det er også en subtil tendens til å bli lullet til å tro resultatet av generativ AI. Vanligvis er utgangen skrevet i en tone og måte som antyder en sikker inntrykk av selvtillit. Forutsatt at du bruker generativ AI regelmessig, er det lett å bli lullet til å se sannferdig materiale mye av tiden. Du kan da lett bli lurt når noe oppdiktet blir plukket inn i midten av det som ellers ser ut til å være et fullstendig fornuftig og faktafylt generert essay.

Her er hva TR sier om GPT-4:

  • "GPT-4 har en tendens til å "hallusinere", dvs. "produsere innhold som er useriøst eller usant i forhold til visse kilder." Denne tendensen kan være spesielt skadelig ettersom modellene blir stadig mer overbevisende og troverdige, noe som fører til overdreven tillit til dem av brukere. Motintuitivt sett kan hallusinasjoner bli farligere ettersom modellene blir mer sannferdige, ettersom brukere bygger tillit til modellen når den gir sannferdig informasjon i områder der de har en viss kjennskap.»

Den gode nyheten er at det er gjort og ser ut til å fortsette innsats for å prøve å redusere sjansene for AI-hallusinasjoner i GPT-4. Det påstås også at GPT-4 overgår GPT-3.5 når det gjelder å avverge AI-hallusinasjoner, selv om det gjør det klart at de fortsatt kommer til å forekomme.

Her er TR på dette:

  • "På interne evalueringer scorer GPT-4-lansering 19 prosentpoeng høyere enn vår nyeste GPT-3.5-modell for å unngå hallusinasjoner med åpne domene, og 29 prosentpoeng høyere for å unngå hallusinasjoner med lukkede domene."

For å avslutte denne delen av diskusjonen for nå, konfronterer generativ AI av alle AI-produsenter disse problemene. Ingen har på en eller annen måte kurert dette. Hvis du leter etter vanskelige AI-problemer, oppfordrer jeg deg til å hoppe ut i disse farvannene og hjelpe til. Det er mye arbeid å gjøre.

konklusjonen

Når en storfilm har eksistert en stund og gått fra kino til hjemmestreaming, er det sannsynligvis ganske mange som har sett filmen eller vet noe om den fra andre som har sett den. Deretter, når en oppfølger blir annonsert og filmet, kan forventningen nå astronomiske nivåer.

JJ Abrams, den nå legendariske filmskaperen for deler av Star Wars-serien og omstarten av Star Trek, sa dette om oppfølgere: "Det er ingenting galt med å lage oppfølgere, de er bare lettere å selge."

Edwin Catmull, medgründer av Pixar la vekt på dette om oppfølgere: "Tro meg, oppfølgere er like vanskelige å lage som originale filmer."

Hvis du er interessert i å se storfilmen ChatGPT, kan du enkelt registrere deg. Oppfølgeren GPT-4 er litt vanskeligere å få tilgang til. Vær også klar over at det er mange andre tilgjengelige filmer, vel, andre generative AI-apper tilgjengelig, så det kan være lurt å forsikre deg om at din filmopplevelse (også kalt generativ AI) er variert og tilfredsstillende.

En siste nøktern beskjed. Vær oppmerksom på at innholdet du kan støte på kan være PG13, R eller til og med NC-17. Husk på det.

Kilde: https://www.forbes.com/sites/lanceeliot/2023/03/15/what-you-need-to-know-about-gpt-4-the-just-released-successor-to-generative- ai-chatgpt-plus-ai-ethics-and-ai-law-considerations/