Generativ AI ChatGPT kan på en urovekkende sluke opp dine private og konfidensielle data, varsler AI-etikk og AI-lov

Nå ser du dataene dine, nå gjør du det ikke.

I mellomtiden har dine dyrebare data blitt en del av kollektivet, så å si.

Jeg sikter til et aspekt som kan være ganske overraskende for de av dere som ivrig og seriøst bruker det siste innen kunstig intelligens (AI). Dataene du legger inn i en AI-app er potensielt ikke i det hele tatt helt privat for deg og deg alene. Det kan være at dataene dine kommer til å bli brukt av AI-produsenten for antagelig å forsøke å forbedre deres AI-tjenester eller kan bli brukt av dem og/eller til og med deres allierte partnere til en rekke formål.

Du har nå blitt advart.

Denne utleveringen av dataene dine skjer på de mest uskyldige måter og av potensielt tusenvis eller i størrelsesorden millioner av mennesker. Hvordan det? Det er en type AI kjent som generativ AI som nylig har fått store overskrifter og stor oppmerksomhet fra allmennheten. Den mest bemerkelsesverdige av de eksisterende generative AI-appene er en som heter ChatGPT, som er utviklet av firmaet OpenAI.

Det er angivelig rundt en million registrerte brukere for ChatGPT. Mange av disse brukerne ser ut til å glede seg over å prøve ut denne hotteste og nyeste generative AI-appen. Prosessen er usedvanlig enkel. Du skriver inn litt tekst som en melding, og vips, ChatGPT-appen genererer en tekstutgang som vanligvis er i form av et essay. Noen refererer til dette som tekst-til-tekst, selv om jeg foretrekker å betegne det som tekst-til-essay siden dette ordspråket gir mer hverdagslig mening.

Til å begynne med vil en nybegynner bruker sannsynligvis legge inn noe morsomt og bekymringsløst. Fortell meg om livet og tidene til George Washington, noen kan komme inn som en oppfordring. ChatGPT ville deretter produsere et essay om vår legendariske første president. Essayet ville være helt flytende, og du ville bli hardt presset for å se at det ble produsert av en AI-app. En spennende ting å se skje.

Oddsen er at etter å ha lekt rundt en stund, vil et segment av nybegynnere ha blitt mette og potensielt velge å slutte å leke med ChatGPT. De har nå overvunnet sin FOMO (frykt for å gå glipp av), og gjør det etter å ha eksperimentert med AI-appen som omtrent alle ser ut til å prate om. Gjerning gjort.

Noen vil imidlertid begynne å tenke på andre og mer seriøse måter å bruke generativ AI på.

Kanskje bruk ChatGPT til å skrive notatet som sjefen din har bedt deg om å skrive. Alt du trenger å gjøre er å gi en melding med punktene du har i tankene, og det neste du vet at et helt notat har blitt generert av ChatGPT som ville gjøre sjefen din stolt av deg. Du kopierer det utsendte essayet fra ChatGPT, limer det inn i selskapets offisielle mal i tekstbehandlingspakken din, og sender det elegante notatet på e-post til lederen din. Du er verdt en million dollar. Og du brukte hjernen din til å finne et hendig verktøy for å gjøre det harde arbeidet for deg. Klapp deg selv på skulderen.

Det er ikke alt.

Ja, det er mer.

Husk at generativ AI kan utføre en rekke andre skriverelaterte oppgaver.

Tenk deg for eksempel at du har skrevet en fortelling av et eller annet slag for en verdsatt klient, og du vil gjerne ha en gjennomgang av materialet før det går ut av døren.

Easy-peasy.

Du limer inn teksten i fortellingen din i en ChatGPT-forespørsel og ber ChatGPT om å analysere teksten du har laget. Det resulterende essayet kan grave dypt inn i ordlyden din, og vil til din hyggelige overraskelse forsøke å tilsynelatende inspisere betydningen av det du har sagt (som går langt utover å fungere som en stavekontroll eller en grammatikkanalysator). AI-appen kan oppdage feil i logikken i fortellingen din eller kanskje oppdage motsetninger som du ikke var klar over var i ditt eget forfatterskap. Det er nesten som om du hyret inn en snedig menneskelig redaktør for å se utkastet ditt og gi en rekke nyttige forslag og bemerkede bekymringer (vel, jeg vil kategorisk slå fast at jeg ikke prøver å antropomorfisere AI-appen, spesielt at en menneskelig redaktør er et menneske mens AI-appen bare er et dataprogram).

Takk og lov for at du brukte den generative AI-appen til å granske din dyrebare skriftlige fortelling. Du vil utvilsomt foretrekke at AI finner de urovekkende skriftlige problemene i stedet for etter å ha sendt dokumentet til din verdsatte klient. Tenk deg at du hadde komponert fortellingen for noen som hadde leid deg til å lage en ganske viktig skildring. Hvis du hadde gitt den originale versjonen til klienten, før du gjorde AI-appen gjennomgang, kan du lide stor forlegenhet. Kunden vil nesten helt sikkert nære alvorlig tvil om dine ferdigheter til å utføre arbeidet som ble bedt om.

La oss gå opp.

Vurder opprettelsen av juridiske dokumenter. Det er åpenbart en spesielt alvorlig sak. Ord og hvordan de er sammensatt kan stave et livlig juridisk forsvar eller en dyster juridisk katastrofe.

I min pågående forskning og rådgivning samhandler jeg regelmessig med mange advokater som er svært interessert i å bruke AI innen juss. Ulike LegalTech-programmer kobles til AI-funksjoner. En advokat kan bruke generativ kunstig intelligens til å lage et utkast til en kontrakt eller komponere andre juridiske dokumenter. I tillegg, hvis advokaten laget et første utkast selv, kan de sende teksten over til en generativ AI-app som ChatGPT for å ta en titt og se hvilke hull eller hull som kan oppdages. For mer om hvordan advokater og det juridiske feltet velger å bruke AI, se diskusjonen min på lenken her.

Vi er imidlertid klare for gnisningen på dette.

En advokat tar et utkast til kontrakt og kopierer teksten til en melding for ChatGPT. AI-appen produserer en anmeldelse for advokaten. Det viser seg at flere gotchas er funnet av ChatGPT. Advokaten reviderer kontrakten. De kan også be ChatGPT om å foreslå en omformulering eller gjøre om den komponerte teksten for dem. En ny og bedre versjon av kontrakten produseres deretter av den generative AI-appen. Advokaten tar tak i den utsendte teksten og legger den inn i en tekstbehandlingsfil. Av brevet går til klienten deres. Oppdrag utført.

Kan du gjette hva som nettopp skjedde?

Bak kulissene og under panseret kan kontrakten ha blitt svelget som en fisk i munnen på en hval. Selv om denne AI-brukende advokaten kanskje ikke innser det, kan kontraktsteksten, plassert som en melding i ChatGPT, potensielt bli oppslukt av AI-appen. Det er nå fôr for mønstertilpasning og andre beregningskomplikasjoner i AI-appen. Dette kan igjen brukes på en rekke måter. Hvis det er konfidensielle data i utkastet, er det også potensielt nå innenfor rammen av ChatGPT. Spørringen din slik den er gitt til AI-appen er nå tilsynelatende en del av kollektivet på en eller annen måte.

Videre regnes det utleverte essayet også som en del av kollektivet. Hvis du hadde bedt ChatGPT om å modifisere utkastet for deg og presentere den nye versjonen av kontrakten, blir dette tolket som et utskrevet essay. Utdataene til ChatGPT er også en type innhold som kan beholdes eller på annen måte transformeres av AI-appen.

Yikes, du har kanskje uskyldig gitt bort privat eller konfidensiell informasjon. Ikke bra. Dessuten ville du ikke engang være klar over at du hadde gjort det. Ingen flagg ble heist. Et horn blåste ikke. Ingen blinkende lys gikk av for å sjokkere deg til virkeligheten.

Vi kan forutse at ikke-advokater lett kan gjøre en slik feil, men for en erfaren advokat å gjøre den samme nybegynnerfeilen er nesten utenkelig. Ikke desto mindre er det sannsynligvis juridiske fagfolk akkurat nå som gjør denne samme potensielle tabben. De risikerer å bryte et bemerkelsesverdig element i advokat-klient-privilegiet og muligens bryte American Bar Association (ABA) Model Rules of Professional Conduct (MRPC). Spesielt: "En advokat skal ikke avsløre informasjon knyttet til representasjonen av en klient med mindre klienten gir informert samtykke, offentliggjøringen er underforstått autorisert for å utføre representasjonen eller avsløringen er tillatt i henhold til paragraf (b)" (sitert fra MRPC, og for hvilke unntakene knyttet til underavsnitt b ikke ser ut til å omfatte bruk av en generativ AI-app på en ikke-sikker måte).

Noen advokater kan forsøke å unnskylde overtredelsen ved å hevde at de ikke er tekniske trollmenn og at de ikke ville ha hatt noen klare midler til å vite at det å legge inn konfidensiell informasjon i en generativ AI-app på en eller annen måte kan være et slags brudd. ABA har gjort det klart at en plikt for advokater omfatter å være oppdatert på AI og teknologi fra et juridisk perspektiv: «For å opprettholde den nødvendige kunnskapen og dyktigheten, bør en advokat holde seg à jour med endringer i loven og dens praksis, bl.a. fordelene og risikoene forbundet med relevant teknologi, engasjere seg i videre studier og utdanning og overholde alle juridiske videreutdanningskrav som advokaten er underlagt” (per MRPC).

Flere bestemmelser kommer inn i denne formen for juridisk plikt, inkludert å opprettholde klientens konfidensielle informasjon (Regel 1.6), beskytte klienteiendommer som data (Regel 1.15), riktig kommunikasjon med en klient (Regel 1.4), innhente klientinformert samtykke (Regel 1.6), og sikre kompetent representasjon på vegne av en klient (Regel 1.1). Og det er også den lite kjente, men svært bemerkelsesverdige AI-fokuserte resolusjonen vedtatt av ABA: «At American Bar Association oppfordrer domstoler og advokater til å ta opp de nye etiske og juridiske spørsmålene knyttet til bruken av kunstig intelligens ('AI') i rettspraksis, inkludert: (1) partiskhet, forklarbarhet og åpenhet for automatiserte avgjørelser tatt av AI; (2) etisk og fordelaktig bruk av kunstig intelligens; og (3) kontroller og tilsyn med AI og leverandørene som leverer AI."

Ord til de kloke for mine juridiske venner og kolleger.

Sakens kjerne er at omtrent hvem som helst kan havne i en jamning når de bruker generativ AI. Ikke-advokater kan gjøre det på grunn av deres antatte mangel på juridisk skarpsindighet. Advokater kan også gjøre det, kanskje forelsket i AI eller ikke trekke pusten dypt og reflektere over hvilke juridiske konsekvenser som kan oppstå ved bruk av generativ AI.

Vi er alle potensielt i samme båt.

Du bør også innse at ChatGPT ikke er den eneste generative AI-appen på blokken. Det er andre generative AI-apper du kan bruke. De er også sannsynligvis kuttet fra samme klut, nemlig at inngangene du legger inn som ledetekster og utdataene du mottar som genererte utsendte essays, anses som en del av kollektivet og kan brukes av AI-produsenten.

I dagens spalte skal jeg pakke ut hvordan data du legger inn og data du mottar fra generativ AI potensielt kan bli kompromittert med hensyn til personvern og konfidensialitet. AI-produsentene gjør tilgjengelige lisensieringskravene sine, og du vil være lurt å lese deg opp på disse viktige bestemmelsene før du begynner aktivt å bruke en AI-app med noen form for ekte data. Jeg vil lede deg gjennom et eksempel på slik lisensiering, og gjør det for ChatGPT AI-appen.

Inn i alt dette kommer en rekke AI-etikk og AI-lovbetraktninger.

Vær oppmerksom på at det pågår et arbeid for å innarbeide etiske AI-prinsipper i utviklingen og bruken av AI-apper. En voksende kontingent av bekymrede og tidligere AI-etikere prøver å sikre at arbeidet med å utvikle og ta i bruk AI tar hensyn til et syn på å gjøre AI For Good og avverge AI for Bad. På samme måte er det foreslått nye AI-lover som blir slått rundt som potensielle løsninger for å forhindre at AI-arbeidet går amok på menneskerettigheter og lignende. For min pågående og omfattende dekning av AI-etikk og AI-lov, se lenken her og lenken her, bare for å nevne noen få.

Det er betydelige etiske AI-nyanser og bestemmelser knyttet til hvordan AI-produsenter kan eller bør håndtere data eller informasjon som virker privat eller konfidensiell for brukerne deres. Du vet sannsynligvis også at en rekke eksisterende lover rammer kjernen av hvordan data skal håndteres av teknologienheter. Sjansene er også at de nylig foreslåtte AI-lovene også vil krysse inn i det samme territoriet. Se for eksempel min dekning av AI Bill of Rights og andre juridiske krangel som foregår om AI, kl lenken her.

Her er nøkkelen fra denne diskusjonen alt fortalt:

  • Vær veldig, veldig, veldig forsiktig med hvilke data eller informasjon du velger å legge inn i ledetekstene dine når du bruker generativ AI, og vær på samme måte ekstremt forsiktig og forutse hva slags utsendte essays du kan få siden utdataene også kan absorberes.

Betyr dette at du ikke bør bruke generativ AI?

Nei, det er ikke det jeg sier i det hele tatt.

Bruk generativ AI til ditt hjerte. Poenget er at du må være oppmerksom på hvordan du bruker den. Finn ut hva slags lisensbestemmelser som er knyttet til bruken. Bestem om du kan leve med disse bestemmelsene. Hvis det er muligheter for å informere AI-produsenten om at du ønsker å påberope deg visse typer ekstra beskyttelse eller tillatelser, sørg for at du gjør det.

Jeg vil også nevne en annen fasett som jeg skjønner vil få noen mennesker til å koke sinte. Her går. Til tross for hva lisensbestemmelsene er, må du også anta at det er en mulighet for at disse kravene kanskje ikke blir overholdt fullt ut. Ting kan gå galt. Ting kan skli mellom sprekkene. Til slutt kan du sikkert ha en rettssak mot en AI-produsent for ikke å overholde kravene deres, men det er litt etter at hesten allerede er ute av fjøset.

En potensielt svært sikker måte å gå frem på ville være å sette opp din egen instans på dine egne systemer, enten i skyen eller internt (og forutsatt at du overholder de riktige cybersikkerhetsreglene, noe noen riktignok ikke gjør, og de er verre av i sin egen sky enn å bruke skyen til programvareleverandøren). Et litt irriterende problem er imidlertid at få av de generative AI-appene i stor skala tillater dette akkurat nå. De jobber stort sett på vår-bare-sky-basis. Få har gjort tilgjengelig muligheten for å ha en hel forekomst skåret ut kun for deg. Jeg har spådd at vi gradvis vil se dette alternativet dukke opp, men til å begynne med vil det være ganske kostbart og noe komplisert, se mine spådommer på lenken her.

Hvordan kommer ellers spesielt dyktige og spesielt skarpsindige mennesker seg inn i en hengemyr med data- eller informasjonskonfidensialitet?

Tillokkelsen til disse generative AI-appene er ganske magnetisk når du begynner å bruke en. Trinn for trinn finner du deg selv fascinert og velger å sette tærne lenger og lenger inn i det generative AI-vannet. Det neste du vet er at du lett overleverer proprietært innhold som skal holdes privat og konfidensielt til en generativ AI-app.

Motstå trangen og vær så snill å unngå å gå trinnvis i en ubehagelig felle.

For bedriftsledere og toppledere går den samme advarselen til deg og alle medarbeiderne i hele bedriften. Seniorledere blir også fanget av entusiasmen og forbauselsen ved å bruke generativ AI. De kan virkelig rote og potensielt legge inn hemmelig informasjon på toppnivå i en AI-app.

På toppen av dette kan de ha brede ligaer av sine ansatte som også leker med generativ AI. Mange av de ellers oppmerksomme ansatte skriver tankeløst og lykkelig inn selskapets private og konfidensielle informasjon i disse AI-appene. I følge nylige nyhetsrapporter oppdaget Amazon tilsynelatende at noen ansatte skrev inn diverse proprietær informasjon i ChatGPT. En juridisk orientert advarsel skal ha blitt sendt internt for å være forsiktig med å bruke den uimotståelige AI-appen.

Totalt sett kommer litt ironi inn i de økende fenomenene med ansatte som med vilje legger inn konfidensielle data i ChatGPT og annen generativ AI. Tillat meg å utdype. Dagens moderne selskaper har vanligvis strenge retningslinjer for nettsikkerhet som de møysommelig har laget og implementert. Det finnes en rekke teknologiske beskyttelser. Håpet er å forhindre utilsiktede utgivelser av viktige ting. Et kontinuerlig trommeslag er å være forsiktig når du besøker nettsider, være forsiktig når du bruker apper som ikke er godkjent, og så videre.

Sammen kommer generative AI-apper som ChatGPT. Nyhetene om AI-appen går gjennom taket og får bred oppmerksomhet. Et vanvidd oppstår. Folk i disse selskapene som har alle disse cybersikkerhetsbeskyttelsene, velger å hoppe på en generativ AI-app. De leker ledig med det først. De begynner da å legge inn bedriftsdata. Wham, de har nå potensielt avslørt informasjon som ikke burde vært avslørt.

Det skinnende nye leketøyet som på magisk vis omgår millioner av dollar i utgifter til nettsikkerhetsbeskyttelse og kontinuerlig opplæring om hva du ikke skal gjøre. Men hei, det er spennende å bruke generativ AI og være en del av "in" mengden. Det er tydeligvis det som teller.

Jeg stoler på at du forstår at jeg er veldig forsiktig.

La oss deretter ta en nærmere titt på hvordan generativ AI teknisk sett håndterer teksten til ledetekstene og utsendte essays. Vi vil også utforske noen av lisensbestemmelsene, med ChatGPT som eksempel. Vær oppmerksom på at jeg ikke kommer til å dekke hele spekteret av disse lisensieringselementene. Sørg for å involvere din juridiske rådgiver for hvilke generative AI-apper du måtte bestemme deg for å bruke. Dessuten er lisensieringen forskjellig fra AI-produsent til AI-produsent, pluss at en gitt AI-produsent kan velge å endre lisensieringen sin, så sørg for å være årvåken med hva den siste versjonen av lisensieringen krever.

Vi har noe spennende å pakke ut om dette heftige emnet.

Først bør vi sørge for at vi alle er på samme side om hva Generativ AI består av og også hva ChatGPT handler om. Når vi dekker den grunnleggende fasetten, kan vi utføre en overbevisende vurdering av speilmetaforen knyttet til denne typen AI.

Hvis du allerede er godt kjent med Generative AI og ChatGPT, kan du kanskje skumle den neste delen og fortsette med delen som følger den. Jeg tror at alle andre vil finne lærerikt de viktige detaljene om disse sakene ved å lese avsnittet nøye og bli oppdatert.

En rask innføring om generativ AI og ChatGPT

ChatGPT er et interaktivt, samtaleorientert system for generell bruk av AI, i hovedsak en tilsynelatende ufarlig generell chatbot, men den brukes aktivt og ivrig av folk på måter som fanger mange helt på vakt, som jeg skal utdype om kort tid. Denne AI-appen utnytter en teknikk og teknologi i AI-området som ofte omtales som Generativ AI. AI genererer utdata som tekst, som er det ChatGPT gjør. Andre generativ-baserte AI-apper produserer bilder som bilder eller kunstverk, mens andre genererer lydfiler eller videoer.

Jeg vil fokusere på de tekstbaserte generative AI-appene i denne diskusjonen siden det er det ChatGPT gjør.

Generative AI-apper er svært enkle å bruke.

Alt du trenger å gjøre er å skrive inn en melding, og AI-appen vil generere et essay for deg som prøver å svare på spørsmålet ditt. Den komponerte teksten vil virke som om essayet ble skrevet av menneskelig hånd og sinn. Hvis du skulle skrive inn en melding som sa "Fortell meg om Abraham Lincoln", vil den generative AI gi deg et essay om Lincoln. Dette er vanligvis klassifisert som generativ AI som presterer tekst-til-tekst eller noen foretrekker å kalle det tekst-til-essay produksjon. Som nevnt er det andre moduser for generativ AI, som tekst-til-kunst og tekst-til-video.

Din første tanke kan være at denne generative evnen ikke virker som en så stor sak når det gjelder å produsere essays. Du kan enkelt gjøre et online søk på Internett og lett finne tonnevis av essays om president Lincoln. Kickeren i tilfellet med generativ AI er at det genererte essayet er relativt unikt og gir en original komposisjon i stedet for en kopi. Hvis du skulle prøve å finne det AI-produserte essayet på nettet et sted, ville du neppe oppdaget det.

Generativ AI er forhåndsopplært og bruker en kompleks matematisk og beregningsmessig formulering som er satt opp ved å undersøke mønstre i skrevne ord og historier over nettet. Som et resultat av å undersøke tusenvis og millioner av skriftlige passasjer, kan AI spy ut nye essays og historier som er en blanding av det som ble funnet. Ved å legge til ulike sannsynlighetsfunksjoner, er den resulterende teksten ganske unik i forhold til det som har blitt brukt i treningssettet.

Derfor har det vært bråk om at elever kan jukse når de skriver essays utenfor klasserommet. En lærer kan ikke bare ta essayet som svikefulle studenter hevder er deres eget forfatterskap og søke å finne ut om det ble kopiert fra en annen nettkilde. Totalt sett vil det ikke være noe definitivt eksisterende essay på nettet som passer til det AI-genererte essayet. Alt i alt må læreren motvillig akseptere at studenten skrev essayet som et originalt arbeid.

Det er ytterligere bekymringer om generativ AI.

En avgjørende ulempe er at essayene produsert av en generativ-basert AI-app kan ha forskjellige usannheter innebygd, inkludert åpenbart usanne fakta, fakta som er misvisende fremstilt, og tilsynelatende fakta som er helt oppdiktet. Disse fabrikkerte aspektene blir ofte referert til som en form for AI hallusinasjoner, et slagord som jeg misliker, men som dessverre ser ut til å ha blitt populært uansett (for min detaljerte forklaring om hvorfor dette er elendig og uegnet terminologi, se min dekning på lenken her).

Jeg vil gjerne avklare et viktig aspekt før vi går inn i tykke ting om dette emnet.

Det har vært noen vanvittige store påstander på sosiale medier om Generativ AI hevder at denne siste versjonen av AI faktisk er det sansende AI (nei, de tar feil!). De innen AI Ethics og AI Law er spesielt bekymret for denne spirende trenden med utstrakte påstander. Du kan høflig si at noen mennesker overdriver hva dagens AI faktisk kan gjøre. De antar at AI har evner som vi ennå ikke har klart å oppnå. Det er uheldig. Enda verre kan de tillate seg selv og andre å komme i alvorlige situasjoner på grunn av en antagelse om at AI vil være sansende eller menneskelignende når det gjelder å kunne handle.

Ikke antropomorfiser AI.

Hvis du gjør det, vil du bli fanget i en klissete og hard avhengighetsfelle av å forvente at AI skal gjøre ting den ikke er i stand til å utføre. Når det er sagt, er det siste innen generativ AI relativt imponerende for hva det kan gjøre. Vær imidlertid oppmerksom på at det er betydelige begrensninger som du kontinuerlig bør huske på når du bruker en generativ AI-app.

Hvis du er interessert i det raskt voksende oppstyret om ChatGPT og Generative AI, har jeg laget en fokusert serie i spalten min som du kan finne informativ. Her er et blikk i tilfelle noen av disse emnene fanger deg:

  • 1) Spådommer om generative AI-fremskritt som kommer. Hvis du vil vite hva som sannsynligvis vil utspille seg om AI gjennom 2023 og utover, inkludert kommende fremskritt innen generativ AI og ChatGPT, vil du lese min omfattende liste over 2023-spådommer på lenken her.
  • 2) Generativ kunstig intelligens og råd om mental helse. Jeg valgte å gjennomgå hvordan generativ AI og ChatGPT brukes til råd om mental helse, en plagsom trend, i henhold til min fokuserte analyse på lenken her.
  • 3) Grunnleggende om generativ AI og ChatGPT. Dette stykket utforsker nøkkelelementene i hvordan generativ AI fungerer, og fordyper spesielt i ChatGPT-appen, inkludert en analyse av buzz og fanfare, på lenken her.
  • 4) Spenning mellom lærere og studenter over generativ AI og ChatGPT. Her er måtene studentene vil bruke generativ AI og ChatGPT på. I tillegg er det flere måter for lærere å takle denne flodbølgen. Se lenken her.
  • 5) Kontekst og generativ AI-bruk. Jeg foretok også en undersøkelse med sesongmessig smak om en julenisserelatert kontekst som involverer ChatGPT og generativ AI på lenken her.
  • 6) Svindlere som bruker generativ AI. På et illevarslende notat, noen svindlere har funnet ut hvordan de kan bruke generativ AI og ChatGPT til å gjøre feil, inkludert å generere svindel-e-poster og til og med produsere programmeringskode for skadelig programvare, se min analyse på lenken her.
  • 7) Rookie-feil ved bruk av generativ AI. Mange mennesker både overskrider og overraskende underskjønner hva generativ AI og ChatGPT kan gjøre, så jeg så spesielt på underskuddet som AI-nybegynnere pleier å gjøre, se diskusjonen på lenken her.
  • 8) Mestring av generative AI-meldinger og AI-hallusinasjoner. Jeg beskriver en ledende tilnærming til å bruke AI-tillegg for å håndtere de ulike problemene knyttet til å prøve å legge inn passende meldinger i generativ AI, pluss at det er flere AI-tillegg for å oppdage såkalte AI-hallusinerte utdata og usannheter, som dekket kl lenken her.
  • 9) Avkrefte Bonehead-påstander om å oppdage generative AI-produserte essays. Det er et misforstått gullrush av AI-apper som forkynner å være i stand til å fastslå om et gitt essay var menneskeskapt versus AI-generert. Totalt sett er dette misvisende, og i noen tilfeller er det en grusom og uholdbar påstand, se min dekning på lenken her.
  • 10) Rollespill via generativ AI kan være tegn på ulemper med mental helse. Noen bruker generativ AI som ChatGPT for å spille rollespill, der AI-appen reagerer på et menneske som om det eksisterer i en fantasiverden eller andre oppdiktede omgivelser. Dette kan få psykiske konsekvenser, ser du lenken her.
  • 11) Avsløre rekkevidden av utgitte feil og usannheter. Ulike innsamlede lister blir satt sammen for å prøve å vise frem naturen til ChatGPT-produserte feil og usannheter. Noen mener dette er essensielt, mens andre sier at øvelsen er fåfengt, se min analyse på lenken her.
  • 12) Skoler som forbyr generativ AI ChatGPT mangler båten. Du vet kanskje at forskjellige skoler som New York City (NYC) Department of Education har erklært et forbud mot bruk av ChatGPT på nettverket og tilhørende enheter. Selv om dette kan virke som en nyttig forholdsregel, flytter den ikke nålen og savner dessverre helt båten, se min dekning på lenken her.
  • 13) Generativ AI ChatGPT kommer til å være overalt på grunn av den kommende API. Det er en viktig vri på vei rundt bruken av ChatGPT, nemlig at via bruk av en API-portal inn i denne spesielle AI-appen, vil andre programvareprogrammer kunne påkalle og bruke ChatGPT. Dette kommer til å dramatisk utvide bruken av generativ AI og har bemerkelsesverdige konsekvenser, se min utdypning på lenken her.
  • 14) Måter som ChatGPT kan svekke eller smelte. Flere potensielle irriterende problemer lå foran ChatGPT når det gjelder å undergrave den så langt enorme rosen den har mottatt. Denne analysen undersøker nøye åtte mulige problemer som kan føre til at ChatGPT mister dampen og til og med havner i hundehuset, se lenken her.

Du kan finne av interesse at ChatGPT er basert på en versjon av en forgjenger AI-app kjent som GPT-3. ChatGPT anses å være et litt neste steg, referert til som GPT-3.5. Det er forventet at GPT-4 sannsynligvis vil bli utgitt våren 2023. GPT-4 kommer antagelig til å være et imponerende skritt fremover når det gjelder å kunne produsere tilsynelatende enda mer flytende essays, gå dypere og være en ærefrykt -inspirerende vidunder med hensyn til komposisjonene den kan produsere.

Du kan forvente å se en ny runde med uttrykt undring når våren kommer og det siste innen generativ AI slippes.

Jeg tar dette opp fordi det er en annen vinkel å huske på, som består av en potensiell akilleshæl til disse bedre og større generative AI-appene. Hvis en AI-leverandør gjør tilgjengelig en generativ AI-app som skummende spyr ut urenheter, kan dette knekke håpet til disse AI-produsentene. En samfunnsmessig ringvirkning kan føre til at all generativ AI får et alvorlig svart øye. Folk vil utvilsomt bli ganske opprørt over dårlige resultater, som har skjedd mange ganger allerede og ført til støyende samfunnsmessige fordømmelsesreaksjoner mot AI.

En siste forvarsel for nå.

Uansett hva du ser eller leser i et generativt AI-svar som synes for å bli formidlet som rent saklig (datoer, steder, personer osv.), sørg for å være skeptisk og være villig til å dobbeltsjekke det du ser.

Ja, datoer kan lages, steder kan gjøres opp, og elementer som vi vanligvis forventer å være uanstendige er alle gjenstand for mistanker. Ikke tro det du leser og hold et skeptisk øye når du undersøker generative AI-essays eller utganger. Hvis en generativ AI-app forteller deg at Abraham Lincoln fløy landet rundt i sitt eget private jetfly, ville du utvilsomt vite at dette er malarky. Dessverre er det kanskje noen mennesker som ikke innser at jetfly ikke fantes på hans tid, eller de vet kanskje, men unnlater å legge merke til at essayet kommer med denne frekke og opprørende falske påstanden.

En sterk dose sunn skepsis og en vedvarende tankegang av vantro vil være din beste ressurs når du bruker generativ AI.

Vi er klare til å gå inn i neste fase av denne oppklaringen.

Å vite hva djevelen vil skje med den teksten

Nå som vi har etablert det grunnleggende, kan vi dykke ned i data og informasjonshensyn når vi bruker generativ AI.

Først, la oss kort vurdere hva som skjer når du skriver inn tekst i en melding om ChatGPT. Vi vet ikke sikkert hva som skjer inne i ChatGPT siden programmet anses som proprietært. Noen har påpekt at dette undergraver en følelse av åpenhet om AI-appen. En litt smarrig bemerkning er at for et selskap som heter OpenAI, er deres AI faktisk stengt for offentlig tilgang og ikke tilgjengelig som åpen kildekode.

La oss diskutere tokenisering.

Når du skriver inn ren tekst i en ledetekst og trykker på retur, er det antagelig en konvertering som skjer umiddelbart. Teksten konverteres til et format som består av tokens. Tokens er underdeler av ord. For eksempel vil ordet "hamburger" normalt være delt inn i tre tokens bestående av delen "skinke", "bur" og "ger". En tommelfingerregel er at tokens har en tendens til å representere omtrent fire tegn eller regnes som omtrent 75 % av et vanlig engelsk ord.

Hvert token omformuleres deretter som et tall. Ulike interne tabeller angir hvilket token som er tildelt hvilket bestemt nummer. Opptaket på dette er at teksten du skrev inn nå er et sett med tall. Disse tallene brukes til å beregne forespørselen. Videre er mønstertilpasningsnettverket som jeg nevnte tidligere også basert på tokeniserte verdier. Til syvende og sist, når du komponerer eller genererer det utsendte essayet, blir disse numeriske symbolene først brukt, og før de vises, konverteres symbolene tilbake til sett med bokstaver og ord.

Tenk på det et øyeblikk.

Når jeg forteller folk at det er slik mekanikken i prosesseringen fungerer, blir de ofte lamslått. De antok at en generativ AI-app som ChatGPT må bruke helt integrerende ord. Vi antar logisk at ord fungerer som hjørnestenen for statistisk å identifisere sammenhenger i skriftlige fortellinger og komposisjoner. Det viser seg at behandlingen faktisk har en tendens til å bruke tokens. Kanskje dette bidrar til forbauselsen over hvordan beregningsprosessen ser ut til å gjøre en ganske overbevisende jobb med å etterligne menneskelig språk.

Jeg ledet deg gjennom den prosessen på grunn av en vanlig misforståelse som ser ut til å spre seg rundt. Noen mennesker ser ut til å tro at fordi ledeteksten din blir konvertert til numeriske tokens, er du trygg på at AI-appens innside på en eller annen måte ikke lenger har den opprinnelige teksten du har skrevet inn. Dermed, påstanden, selv om du skrev inn konfidensiell informasjon i ledeteksten din, har du ingen bekymringer siden det hele har blitt tilsynelatende tokenisert.

Den oppfatningen er en feilslutning. Jeg har nettopp påpekt at numeriske tokens lett kan bringes tilbake til tekstformatet til bokstaver og ord. Det samme kan gjøres med den konverterte ledeteksten som har blitt tokenisert. Det er ingenting magisk beskyttende ved å ha blitt tokenisert. Når det er sagt, etter konverteringen til tokens, hvis det er en ekstra prosess som velger å droppe ut tokens, flytte dem rundt og på annen måte blande eller kutte opp ting, i så fall, er det faktisk mulighet for at noen deler av originalen ledeteksten er ikke lenger intakt (og forutsatt at en originalkopi ikke ellers beholdes eller lagres internt et sted).

Jeg vil neste ta en titt på de ulike varslene og lisensbestemmelsene til ChatGPT.

Når du logger på ChatGPT, vises det en rekke advarsler og informasjonskommentarer.

Her er de:

  • "Kan av og til generere feil informasjon."
  • "Kan av og til produsere skadelige instruksjoner eller partisk innhold."
  • "Trent til å avslå upassende forespørsler."
  • "Vårt mål er å få ekstern tilbakemelding for å forbedre systemene våre og gjøre dem tryggere."
  • "Selv om vi har sikkerhetstiltak på plass, kan systemet av og til generere feil eller villedende informasjon og produsere støtende eller partisk innhold. Det er ikke ment å gi råd."
  • "Samtaler kan bli vurdert av våre AI-trenere for å forbedre systemene våre."
  • "Vennligst ikke del noen sensitiv informasjon i samtalene dine."
  • «Dette systemet er optimalisert for dialog. Gi oss beskjed om et bestemt svar var bra eller lite nyttig."
  • "Begrenset kunnskap om verden og hendelser etter 2021."

To av disse advarslene er spesielt relevante for denne diskusjonen. Se på det sjette punktet og det syvende punktet.

La oss pakke ut disse to:

"Samtaler kan bli vurdert av våre AI-trenere for å forbedre systemene våre."

Dette sjette punktpunktet forklarer at tekstsamtaler når du bruker ChatGPT kan vurderes av ChatGPT via deres "AI-trenere", som blir gjort for å forbedre systemene deres. Dette er for å informere deg om at for alle dine innskrevne tekstforespørsler og de tilsvarende utsendte essayene, som alle er en del av "samtalen" du foretar med ChatGPT, kan den fullstendig ses av deres folk. Begrunnelsen som tilbys er at dette gjøres for å forbedre AI-appen, og vi blir også fortalt at det er en type arbeidsoppgave som utføres av deres AI-trenere. Kanskje det er det, men resultatet er at de har gitt deg beskjed om at de kan se på teksten din. Punktum, punktum.

Hvis de skulle gjøre noe annet med teksten din, ville du sannsynligvis søkt juridisk råd om hvorvidt de har gravitert voldsomt utover de foreslåtte grensene for bare å gjennomgå teksten for systemforbedringsformål (forutsatt at du klarte å oppdage at de hadde gjort det, hvilken av i seg selv virker kanskje usannsynlig). Uansett, du kan forestille deg den juridiske krangelen ved å prøve å sette dem fast på dette, og deres forsøk på å ordne seg ut av å bli tatt for på en eller annen måte å bryte grensene for ansvarsfraskrivelsen deres.

"Vennligst ikke del noen sensitiv informasjon i samtalene dine."

Det syvende punktpunktet indikerer at du ikke skal dele sensitiv informasjon i samtalene dine. Det virker relativt enkelt. Jeg antar at du kan tulle med hva definisjonen av sensitiv informasjon består av. Det punkterte punktet forteller deg heller ikke hvorfor du ikke bør dele sensitiv informasjon. Hvis du en dag må prøve og i dyp svette forklare hvorfor du dumt skrev inn konfidensielle data, kan du prøve den løftede øyenbrynspåstanden om at advarselen var uspesifikk, og derfor forsto du ikke betydningen. Hold pusten på den.

Alt i alt tør jeg påstå at de fleste jeg har sett bruke ChatGPT har en tendens til ikke å lese punktene, eller de skumles gjennom forholdsreglene og bare nikker med hodet som om det er vanlig vrøvl du ser alle tid. Det ser ut til at få tar advarslene strengt til hjertet. Er dette en feil fra leverandøren som ikke har gjort forholdsreglene mer uttalt? Eller skal vi anta at brukerne skal være ansvarlige og ha lest, forstått og deretter handle fornuftig basert på advarslene?

Noen hevder til og med at AI-appen burde advare deg gjentatte ganger. Hver gang du skriver inn en ledetekst, skal programvaren dukke opp en advarsel og spørre deg om du vil trykke returen. Igjen og igjen. Selv om dette kan virke som en nyttig forholdsregel, vil det riktignok irritere brukerne. En vanskelig avveining er involvert.

Ok, så det er de åpenbare advarslene som presenteres for alle brukere lett å se.

Brukere som kanskje er mer nysgjerrige, kan velge å følge noen av de detaljerte lisensieringsbestemmelsene som også er lagt ut på nettet. Jeg tviler på at mange gjør det. Min anelse er at få ser seriøst på punktene når de logger på, og enda færre med stor margin tar en titt på lisensdetaljene. Igjen, vi er alle litt følelsesløse til slike ting i disse dager. Jeg unnskylder ikke oppførselen, bare noterer hvorfor den oppstår.

Jeg skal undersøke noen få utdrag fra de publiserte lisensvilkårene.

Først, her er en definisjon av hva de anser som "innhold" knyttet til bruken av ChatGPT:

  • "Ditt innhold. Du kan gi inndata til Tjenestene ('Input'), og motta utdata generert og returnert av Tjenestene basert på Input ('Output'). Input og Output er samlet «innhold». Som mellom partene og i den grad det er tillatt av gjeldende lov, eier du alle Input, og underlagt din overholdelse av disse Vilkårene, tildeler OpenAI deg herved alle sine rettigheter, tittel og interesser i og til Output. OpenAI kan bruke innhold etter behov for å tilby og vedlikeholde tjenestene, overholde gjeldende lov og håndheve våre retningslinjer. Du er ansvarlig for innhold, inkludert for å sikre at det ikke bryter med gjeldende lov eller disse vilkårene.»

Hvis du nøye undersøker denne definisjonen, vil du legge merke til at OpenAI erklærer at den kan bruke innholdet slik de anser nødvendig for å opprettholde tjenestene, inkludert å overholde gjeldende lover og håndheve retningslinjene. Dette er et praktisk oppslag for dem. I en kommende av spaltene mine vil jeg diskutere et annet, men beslektet emne, spesifikt om immaterielle rettigheter (IP) som du har angående tekstmeldinger og utsendte essays (jeg påpeker dette her siden definisjonen av Innhold er relatert til dette emnet).

I en ytterligere del av begrepene, merket som seksjon c, nevner de denne fasetten: «En av hovedfordelene med maskinlæringsmodeller er at de kan forbedres over tid. For å hjelpe OpenAI med å tilby og vedlikeholde tjenestene, samtykker og instruerer du at vi kan bruke innhold til å utvikle og forbedre tjenestene." Dette er beslektet med den tidligere diskuterte enlinje-forsiktigheten som vises når du logger på ChatGPT.

Et eget dokument som er knyttet til dette gir noen tilleggsaspekter om disse tungtveiende sakene:

  • "Som en del av denne kontinuerlige forbedringen, når du bruker OpenAI-modeller via vår API, kan vi bruke dataene du gir oss til å forbedre modellene våre. Ikke bare hjelper dette modellene våre til å bli mer nøyaktige og bedre til å løse ditt spesifikke problem, det bidrar også til å forbedre deres generelle egenskaper og sikkerhet. Vi vet at personvern og sikkerhet er avgjørende for våre kunder. Vi legger stor vekt på å bruke passende tekniske og prosesskontroller for å sikre dataene dine. Vi fjerner all personlig identifiserbar informasjon fra data vi har til hensikt å bruke for å forbedre modellens ytelse. Vi bruker også bare et lite utvalg av data per kunde for vår innsats for å forbedre modellytelsen. For én oppgave er for eksempel det maksimale antallet API-forespørsler som vi prøver per kunde, begrenset til 200 hver 6. måned” (utdrag fra dokumentet med tittelen “Hvordan dataene dine brukes til å forbedre modellytelsen”).

Merk at bestemmelsen tilsier at bestemmelsen gjelder for bruk av API som et middel for å koble til og bruke alle OpenAI-modellene. Det er noe uklart om dette gjelder for sluttbrukere som direkte bruker ChatGPT.

I enda et annet dokument, et som inneholder deres liste over forskjellige vanlige spørsmål, gir de en rekke spørsmål og svar, hvorav to virker spesielt relevante for denne diskusjonen:

  • «(5) Hvem kan se samtalene mine? Som en del av vår forpliktelse til sikker og ansvarlig AI, gjennomgår vi samtaler for å forbedre systemene våre og for å sikre at innholdet overholder retningslinjene og sikkerhetskravene våre.»
  • "(8) Kan du slette spesifikke meldinger? Nei, vi kan ikke slette spesifikke forespørsler fra loggen din. Vennligst ikke del noen sensitiv informasjon i samtalene dine.»

Det er et tilleggsdokument som dekker personvernreglene deres. Den sier dette: «Vi samler inn informasjon som alene eller i kombinasjon med annen informasjon i vår besittelse kan brukes til å identifisere deg («Personlig informasjon»)» og fortsetter deretter med å forklare at de kan bruke loggdata, bruksdata, kommunikasjonsinformasjon, enhetsinformasjon, informasjonskapsler, analyser og annen potensielt innsamlet informasjon om deg. Sørg for å lese den fine skriften.

Jeg tror det gir en gjennomgang av noen vurderinger som ligger til grunn for hvordan dataene dine kan brukes. Som jeg nevnte innledningsvis, kommer jeg ikke til å gå møysommelig gjennom alle lisensbestemmelsene.

Forhåpentligvis får du deg inn i en sinnstilstand i disse sakene og vil forbli på toppen av tankene dine.

konklusjonen

Jeg har sagt det før, og jeg vil si det igjen, ikke skriv inn konfidensielle eller private data i disse generative AI-appene.

Vurder noen nyttige tips eller alternativer på dette salvie-rådet:

  • Tenk før du bruker generativ AI
  • Fjern ting på forhånd
  • Mask eller falsk innspillet ditt
  • Sett opp din egen instans
  • Annen

Jeg vil deretter angi hva hver av disse består av. Oppsettet av din egen instans ble tidligere dekket her. Bruken av "annet" i listen min skyldes muligheten for andre måter å takle å hindre at konfidensielle data blir inkludert, noe jeg vil dekke videre i en fremtidig spaltepost.

La oss undersøke disse:

  • Tenk før du bruker generativ AI. En tilnærming innebærer å unngå å bruke generativ AI helt. Eller i det minste tenk deg om to ganger før du gjør det. Jeg antar at den sikreste veien innebærer å ikke bruke disse AI-appene. Men dette virker også ganske alvorlig og nesten overbord.
  • Fjern ting på forhånd. En annen tilnærming består i å fjerne konfidensiell eller privat informasjon fra det du skriver inn som en melding. Sånn sett, hvis du ikke går inn i det, er det ikke en sjanse for at det blir tilført Borgen. Ulempen er at kanskje fjerningen av den konfidensielle delen på en eller annen måte reduserer eller undergraver det du prøver å få den generative AI til å gjøre for deg.
  • Mask eller falsk inndataene dine. Du kan endre den foreslåtte teksten din ved å endre informasjonen slik at det som virket konfidensielt eller privat, nå blir fremstilt annerledes. For eksempel, i stedet for en kontrakt som nevner Widget Company og John Smith, endrer du teksten til å referere til Specious Company og Jane Capone. Et problem her er om du vil gjøre en tilstrekkelig uttømmende jobb slik at alle de konfidensielle og private aspektene blir fullstendig endret eller forfalsket. Det ville være lett å gå glipp av noen av uklarhetene og legge igjen ting som ikke burde være der.

Her er en interessant ekstra vri som kan få nokginen din til å trenge videre på dette emnet. Hvis du fullstendig kan forsikre deg om at ingen av spørsmålene dine inneholder konfidensiell informasjon, betyr dette at du ikke trenger å bekymre deg for at de utsendte essayene også inneholder noe av den konfidensielle informasjonen din?

Dette virker aksiomatisk sant. Ingen konfidensiell input, ingen konfidensiell utgang.

Her er din tankevekkende vri.

Generativ AI er ofte satt opp for å omskolere seg selv fra tekstmeldingene som blir gitt. På samme måte er generativ AI ofte utviklet for å omskolere seg beregningsmessig fra de utleverte essayene. All denne omskoleringen er ment å forbedre egenskapene til generativ AI.

Jeg beskrev i en av mine andre spalter følgende eksperiment som jeg foretok. En advokat prøvde å finne en ny måte å takle et juridisk problem på. Etter en uttømmende titt på den juridiske litteraturen, så det ut til at alle vinkler som allerede dukket opp ble funnet. Ved å bruke generativ AI fikk vi AI-appen til å produsere en nyhet av en juridisk tilnærming som tilsynelatende ikke tidligere hadde blitt identifisert. Det ble antatt at ingen andre ennå hadde landet på denne juridiske holdningen. En lovlig gullklump så å si. Dette kan være en strategisk verdifull konkurranserettslig bonanza som til rett tid kan utnyttes og utnyttes.

Utgjør det utsendte essayet en form for konfidensiell informasjon, slik at den ble generert av AI for denne bestemte personen og inneholder noe spesielt og tilsynelatende unikt?

Aha, dette leder oss til det andre allierte og sammenvevde emnet om eierskap og IP-rettigheter knyttet til generativ AI. Følg med for å se hvordan dette blir.

En siste bemerkning foreløpig.

Sofokles ga denne visdommen: «Gjør ingenting i hemmelighet; for tiden ser og hører alle ting og avslører alt." Jeg antar at du kan modernisere ordlyden og hevde at generativ AI og de som utarbeider og vedlikeholder AI er tilbøyelige til å se alt også.

Det er et beskjedent symbolsk råd som er verdig å bli husket.

Kilde: https://www.forbes.com/sites/lanceeliot/2023/01/27/generative-ai-chatgpt-can-disturbingly-gobble-up-your-private-and-confidential-data-forewarns-ai- etikk-og-ai-lov/