Folk konsulterer ivrig generativ AI ChatGPT for råd om mental helse, understreker AI-etikk og AI-lover

Psykisk helse har blitt et utbredt tema i dag.

Tidligere ble diskusjoner om psykisk helse ofte stilnet eller helt feid under teppet. En gradvis kulturell endring har ført til åpen vurdering av psykiske helseproblemer og lettet betenkeligheter med å gjøre det på offentlig anerkjente måter.

Du kan kanskje gi noe av æren for denne endringen i overordnede samfunnsholdninger som et resultat av fremkomsten av lett tilgjengelige smarttelefonapper som hjelper din personlige oppmerksomhet og antagelig ansporer deg til mentalt velvære. Det finnes apper for mindfulness, apper for meditasjon, apper for diagnostisering av din mentale helsestatus, apper for mental helsescreening og så videre. Det finnes en mengde apper.

Kan vi si at smarttelefonapper åpenlyst førte til åpenhet om mental helse? Det er riktignok litt av et kylling- eller egg-spørsmål. Tillot åpenheten mot mental helse fremveksten av relevante smarttelefon-apper, eller drev det mentale velværet til smarttelefon-apper samfunnet i retning av å være åpen om mental helse?

Kanskje var det en sammenvevd kombinasjon som innebar at begge retninger skjedde samtidig.

I alle fall, inn i denne potente blandingen kommer fremveksten av apper for mental helse som sies å være ekstraordinært drevet av kunstig intelligens (AI). Tanken er at den underliggende teknologien kan forbedres via (antagelig) fornuftig bruk av AI. Mens de første versjonene av apper for mental helse hovedsakelig var faktabaserte informasjonsleveranser som om du gjorde et online søk på nevnte emner, har infusjonen av AI ført til automatisering av interaktive dialoger med deg, i likhet med tekstmeldinger med en menneskelig terapeut eller lignende (vel, liksom, som jeg skal ta opp og granske her).

Dette tar oss til den siste og overskriftsfengende AI-en som nylig har fått nasjonal og internasjonal oppmerksomhet, nemlig bruken av det som formelt er kjent som Generativ AI og mye popularisert via appen kjent som ChatGPT. For klargjøring er ChatGPT et interaktivt system for generell AI, i hovedsak en generell chatbot, men det brukes aktivt og ivrig av folk som spesifikt søker å få råd om mental helse (appen ble ikke laget for det formålet, og likevel folk har bestemt seg for at de vil bruke den uansett for den rollen).

For min nylige dekning av ChatGPT, se lenken her for en oversikt. Jeg gjorde også noen oppfølginger om hvordan ChatGPT bekymrer lærere med hensyn til studenter som muligens jukser ved å bruke AI til å skrive essayene sine, se lenken her, og jeg tok en titt på sesongmessig smak i min nisserelaterte analyse på lenken her.

Ikke bekymre deg, jeg skal her forklare hva Generative AI og ChatGPT handler om, gjør det et øyeblikk, så vær så snill å heng der.

Hvis du tar en titt på sosiale medier, vil du se folk som proklamerer ChatGPT og generativ AI som det beste siden oppskåret brød. Noen antyder at dette faktisk er sansende AI (nei, de tar feil!). Andre bekymrer seg for at folk går foran seg selv. De ser det de vil se. De har tatt et skinnende nytt leketøy og vist nøyaktig hvorfor vi ikke kan ha fengende nye ting.

De i AI Ethics og AI Law er nøkternt og seriøst bekymret for denne spirende trenden, og det med rette. Vi vil her se nærmere på hvordan folk bruker generativ AI for bruk som ikke er spesielt egnet for det AI virkelig kan oppnå i dag. Alle slags AI-etiske og AI-juridiske spørsmål er utvilsomt pakket inn i hele gåten. For min pågående og omfattende dekning av AI-etikk og AI-lov, se lenken her og lenken her, bare for å nevne noen få.

La oss først vurdere noen viktige aspekter ved mental helse og hvorfor dette er et veldig stort og viktig tema. Etter å ha lagt det grunnlaget, vil vi gjøre en rask forklaring om generativ AI og spesielt ChatGPT. Jeg vil inkludere eksempler fra ChatGPT slik at du med egne øyne kan se hva slags ordlyd AI-appen er i stand til å produsere. Vi avslutter denne diskusjonen med noen kommentarer om hva dette betyr og hvordan AI-etikk og AI-lov uunngåelig kommer til å tre inn i bildet.

Fest sikkerhetsbeltet for en god tur.

Mental helse er en viktig og voksende samfunnsmessig bekymring

I følge ulike publiserte statistikker er det en mørk og dyster sky over dagens mentale helsestatus. Jeg vil ikke synes å være dyster om dette, men vi kan like gjerne innse den virkeligheten vi står overfor. Å gjemme hodet i sanden vil ikke fungere. Vi vil ha det bedre å nærme oss saken med åpne øyne og vilje til å løse vanskelige problemer.

Her er noen bemerkelsesverdige statistikker som ble samlet inn av en fremtredende mental helseorganisasjon om amerikanere og det mentale helselandskapet (pr. Mental Health America, «Nøkkelfunn i 2023»):

  • Voksne opplever mye psykisk lidelse. Omtrent 21 % av voksne rapporterte at de hadde en psykisk lidelse, noe som omtrent tilsvarer å si at omtrent 50 millioner voksne i USA har opplevd dette.
  • Mangel på å få psykisk helsebehandling er utbredt. Litt mer enn halvparten av voksne med en psykisk lidelse får ikke behandling (omtrent 55 %), så kanskje rundt 28 millioner voksne ikke får nødvendig psykisk helsebehandling.
  • Ungdom er også berørt. Rundt én av ti ungdommer i USA har uttrykt at de har opplevd alvorlig svekket depresjon som påvirket skolearbeid, hjemmeliv, familieinteraksjoner og/eller sosiale liv.
  • Psykisk helsebehandling for ungdom mangler. Mindre enn en tredjedel av ungdommene som har alvorlig depresjon får konsekvent behandling (bare ca. 28 %), og over halvparten får ingen psykisk helsehjelp i det hele tatt (anslått 57 %).
  • Sparsomhet av leverandører av psykisk helsevern. Et rapportert tall er at det er anslagsvis 350 individer i USA for hver enkelt leverandør av psykisk helse, noe som tyder på en mangel på tilgjengelige kvalifiserte rådgivere og terapeuter for mental helse for befolkningen.

Jeg ønsker ikke å fikse oss på statistikken i seg selv, siden du lett kan krangle om hvordan denne statistikken til tider samles inn eller rapporteres. Noen ganger er disse for eksempel basert på undersøkelser der avstemningen ble forhåndsvalgt til bestemte områder av landet eller typer mennesker. Du kan også avgjort tulle om hvor ærlige folk er når de selv rapporterer sin mentale helsestatus, avhengig av hvem som spør og hvorfor de kanskje vil lene seg i en eller annen retning om emnet. Etc.

Hovedpoenget er imidlertid at vi i det minste generelt kan være enige om at det er en psykisk helseutfordring landet står overfor, og at vi burde gjøre noe med det. Hvis vi ikke gjør noe, er grunnantakelsen at ting kommer til å bli verre. Du kan ikke la et gnagende problem bli uendelig.

Du har kanskje lagt merke til i den nevnte statistikken at det er en påstått mangel på tilgjengelige kvalifiserte psykisk helsepersonell. Troen er at det er en ubalanse i tilbud og etterspørsel, som det er utilstrekkelig tilgang på mentale helserådgivere for og en overflod av enten faktisk eller latent etterspørsel etter mental helseråd (jeg sier latent i den forstand at mange kanskje ikke innser at verdien av å søke råd om psykisk helse, eller de har ikke råd til det, eller de har ikke logistisk tilgang til det).

Hvordan kan vi håndtere denne ubalansen?

En vei ser ut til å være bruken av automatisering og spesielt AI for å styrke "tilbudssiden" for å gi råd om mental helse. Du kan overbevisende argumentere for at populariteten til smarttelefonmeditasjons- og mindfulness-apper er et tegn på at det faktisk er oppdemmet etterspørsel. Når du ikke lett kan få tilgang til kvalifiserte menneskelige rådgivere, går automatisering og AI inn i det gapet.

Tenk også på bekvemmelighetsfaktorene.

Når du bruker en AI-app for mental helse, har du AI tilgjengelig 24×7. Du trenger ikke å avtale time. Ingen problemer med å komme sammen personlig med en menneskelig rådgiver. Sannsynligvis er kostnaden mye rimeligere også. Du kan samle opp tid ved å bruke AI-appen, mens med en menneskelig rådgiver tikker klokken og faktureringsminuttene øker.

Men vent et forbannet sekund, formaner du kanskje, en AI-app er ikke på nivå med en menneskelig rådgiver.

Dette er tilsynelatende en sammenligning mellom epler og appelsiner. Eller kanskje mer som dette til en eple-til-østers-sammenligning, slik at de to ikke sammenlignes spesielt. En riktig kvalifisert menneskelig rådgiver som vet hva de gjør når det kommer til mental helse er absolutt hodet over enhver form for AI som vi har i dag. Visst, AI-appen kan være tilgjengelig døgnet rundt, men du får et dårligere kvalitetsnivå og dermed kan du ikke lage noen fornuftig sammenlikning mellom å bruke en menneskelig rådgiver og å bruke AI.

Vi kommer snart tilbake til denne debatten om menneskelige rådgivere versus AI-basert rådgivning.

I mellomtiden er et aspekt ved mental helse som virker ganske hjerteskjærende, ungdom og mental helse.

En tro er at hvis vi ikke fanger opp psykiske problemer når noen er unge, er de samfunnsmessige kostnadene enorme i den andre enden når de blir voksne. Det er den klassiske fortellingen om frøplanten som vokser til enten et godt utformet tre eller et som har alle slags fremtidige problemer. Noen foreslår kanskje at vi spesielt bør rette oppmerksomheten mot ungdom. Fange problemene tidlig. Prøv å forhindre at problemene blir livslange vanskeligheter. Dette letter potensielt manifestasjonen av psykiske helseproblemer på voksenstadiet av livet, og med en viss styrke kan vi redusere rørledningen for forringelse av mental helse hvis du forstår meg.

Forskere understreker disse lignende bekymringene, for eksempel denne ferske artikkelen: «Den mentale helsen til ungdom og nye voksne ('unge mennesker') er et område av folkehelse som krever akutt oppmerksomhet globalt. En overgangsperiode preget av raske endringer i flere domener (fysisk, sosial, psykologisk, yrkesrettet), ungdomsår og voksende alder er et utviklingsstadium assosiert med økt risiko for mentalt velvære, ettersom unge mennesker opplever store endringer i livet knyttet til pubertet, nevroutvikling , samt endringer i identitet og autonomi i sosiale sammenhenger. Forskning indikerer høy forekomst av psykiske lidelser blant unge mennesker med en av fem personer som sannsynligvis oppfyller kriteriene for en psykisk lidelse. Sykdomsbyrden assosiert med høy prevalensrater forverres ytterligere av at etterspørselen etter behandling overgår tilbudet og skaper et behandlingsgap. Digitale intervensjoner for mental helse (DMHI), slik som de som leveres via smarttelefonapper eller online, representerer en raskt voksende tjenestemodus med potensial til å tilby større tilgang til støtte” (Vilas Sawrikar og Kellie Mote, “Technology Acceptance And Trust: Overlooked Considerations In Unges bruk av digitale psykiske helsetiltak”, Helsepolitikk og teknologiOktober 2022)

Som bemerket av disse forskerne, er fremkomsten av automatiserings- og AI-apper for mental helse tilsynelatende egnet for unge mennesker av en rekke årsaker, slik at yngre mennesker kan være mer tilbøyelige til å bruke høyteknologi, og de vil sannsynligvis også finne det tiltalende. tilgang og andre fasetter. Artikkelen nevner at det er en oppegående slagord kjent som digitale psykiske helseintervensjoner, sammen med tilhørende forkortelse av DMHI (dette akronymet har ikke stivnet ennå, og alternativer blir slått rundt).

La oss grave litt dypere inn i denne forestillingen om digitale psykiske helseintervensjoner.

Her er noen ekstra bemerkninger fra forskerne: "Teknologimediert helsehjelp kan redusere hull i tjenester ved å gi tilgang til støtte i stor skala, til lave kostnader og når det passer brukeren. Utbredelsen av tilgang til smarttelefonteknologi blant yngre mennesker peker på en tilsynelatende åpenbar løsning for å møte etterspørselen i denne befolkningen. Selv om DMHI-er har vist seg å være effektive i randomiserte kontrollforsøk, ser dette ikke ut til å oversettes til opptak i den virkelige verden. En systematisk gjennomgang av studier indikerte at en fjerdedel av appene for psykisk helse aldri ble brukt etter installasjon. Spesielt yngre mennesker kan ha mindre sannsynlighet for å engasjere seg med teknologi rettet mot mental helse med bevis på at yngre aldersgrupper er mindre sannsynlige for å bruke DMHI i behandling, og de rapporterer lav preferanse for online psykisk helsehjelp sammenlignet med ansiktsbehandling» (ibid) .

En viktig faktor er at selv om du kan anta at ungdommer garantert vil elske og bruke disse online appene for mental helse, er det sanne bildet mye mørkere. Kanskje et spesielt viktig poeng er at når appen først ble installert, falt bruken enten bratt eller kom aldri i gang i det hele tatt. En forklaring er at hypen og spenningen ved å laste ned appen raskt ble overskygget av at appen potensielt var vanskelig å bruke eller oppfattet som ineffektiv. Du kan også antyde at noen ungdommer kan ha blitt rørt for å få appen på grunn av gruppepress eller via det de ser på sosiale medier, og ikke hadde spesielt tenkt å bruke appen. De ville bare si at de har det. I denne alderen kan det være like viktig å være en del av "in"-klubben som hva appen selv gjør.

Et annet synspunkt er at hvis disse appene for mental helse var bedre i det de gjør, for eksempel å utnytte det nyeste innen kunstig intelligens fullt ut, kan dette lokke ungdommer til faktisk bruk av appene. Et ekstra element ville være at hvis ungdommer oppfattet appen som populær, vil de kanskje kunne si at de bruker den også. Sånn sett gir AI en tilsynelatende positiv dobbel whammy. Det kan muligens få appene til mental helse til å gjøre en bedre jobb, og samtidig bære den mote stilen eller panache av å være AI og dermed et tidsriktig og sosialt berusende aspekt.

Ok, så AI ser ut til å være en helt som skynder seg til unnsetning på denne mentale helseproblematikken.

Som du snart vil se, kan AI også være en ulempe ved dette. Dessverre kan dagens AI se ut til å være nyttig og likevel ende opp med å være skadelig. Noen vil hevde at en avveining må vurderes. Andre sier at dagens AI ennå ikke er modnet på vintreet, og vi setter mennesker i fare, ungdommer og voksne for tidlig. Du skjønner, til og med voksne kan bli lurt eller lokket til å tro at apper for mental helse som er tilført AI er en kan-gjøre-no-galt frelse.

For å se hvordan dette kan være, la oss ta en nærmere titt på den hotteste AI som finnes, bestående av Generativ AI og spesielt AI-appen kjent som ChatGPT.

Åpne Can Of Worms på Generativ AI

Vi er klare til å dykke inn i AI.

Av de ulike typene AI vil vi her fokusere spesielt på Generativ AI.

Kort sagt, generativ AI er en spesiell type AI som komponerer tekst som om teksten var skrevet av den menneskelige hånden og sinnet. Alt du trenger å gjøre er å skrive inn en melding, for eksempel en setning som "Fortell meg om Abraham Lincoln", og generativ AI vil gi deg et essay om Lincoln. Dette er vanligvis klassifisert som generativ AI som presterer tekst-til-tekst eller noen foretrekker å kalle det tekst-til-essay produksjon. Du har kanskje hørt om andre moduser for generativ AI, for eksempel tekst-til-kunst og tekst-til-video, se min utdyping på lenken her.

Din første tanke kan være at dette ikke virker som en så stor sak når det gjelder å produsere essays. Du kan enkelt gjøre et online søk på Internett og lett finne tonnevis av essays om president Lincoln.

Kickeren i tilfellet med generativ AI er at det genererte essayet er relativt unikt og gir en original komposisjon i stedet for en kopi. Hvis du skulle prøve å finne det AI-produserte essayet på nettet et sted, ville du neppe oppdaget det.

Generativ AI er forhåndsopplært og bruker en kompleks matematisk og beregningsmessig formulering som er satt opp ved å undersøke mønstre i skrevne ord og historier over nettet. Som et resultat av å undersøke tusenvis og millioner av skriftlige passasjer, er AI i stand til å spy ut nye essays og historier som er en blanding av det som ble funnet. Ved å legge til ulike sannsynlighetsfunksjoner, er den resulterende teksten ganske unik i forhold til det som har blitt brukt i treningssettet.

Derfor har det vært bråk om at elever kan jukse når de skriver essays utenfor klasserommet. En lærer kan ikke bare ta essayet som svikefulle studenter hevder er deres eget forfatterskap og søke å finne ut om det ble kopiert fra en annen nettkilde. Totalt sett vil det ikke være noe definitivt eksisterende essay på nettet som passer til det AI-genererte essayet. Alt i alt må læreren motvillig akseptere at studenten skrev essayet som et originalt arbeid. For måter dette kan bekjempes på, se min detaljerte dekning på lenken her.

Om et øyeblikk vil jeg vise deg hva som skjer når du skriver inn spørsmål eller spørsmål som gjelder mental helse. Jeg vil bruke den nyeste versjonen av ChatGPT for å skrive inn spørsmålene mine og har samlet "svarene" eller essayene generert av AI (merk at det samme kan gjøres med de mange andre tilgjengelige generative AI-appene; jeg har valgt å bruke ChatGPT fordi den får sine fem minutter med berømmelse akkurat nå). Sammen vil du og jeg utforske ordlyden og betydningen av hvordan det siste innen AI skildrer psykiske helseaspekter, spesielt med tanke på spørsmålet om å tilby mental helse råd.

Kanskje en kort tangent om ChatGPT kan være nyttig på dette tidspunktet.

ChatGPT-appen ble gjort tilgjengelig for allmennheten for en kort stund siden. I det store og hele er disse generative AI-appene vanligvis bare tilgjengelige for AI-innsidere. Den uvanlige fasetten at ChatGPT kunne brukes av hvem som helst ved å skrive inn en e-postadresse og et navn, vel, dette førte til at mange bestemte seg for å prøve det. ChatGPT er for øyeblikket gratis å bruke (inntektsproblemet er et truende dilemma for AI-produsenter, se min analyse på lenken her).

Nesten umiddelbart kom det en enorm reaksjon på sosiale medier da folk løp for å gi eksempler på hva generativ AI kan gjøre. Selskapet som lager ChatGPT, OpenAI, valgte å stenge registreringene for en million brukere. Disse millioner brukerne har klart å bombardere eteren med alle slags historier og historier om bruk av ChatGPT.

Vær veldig forsiktig med å tro på hva folk har å si om AI-appen. Mange av disse menneskene er uvitende om hva de bruker. Det er nesten som om de aldri hadde kjørt bil og ikke engang var klar over at det fantes biler, og plutselig hadde de en sjanse til å kjøre bil. Fullstendig forundring følger.

Jeg sier ikke at generativ AI ikke er relativt imponerende. Det er. Jeg understreker bare at mange av de sprudlende attester blir gjort av mange som er lykkelig uvitende om hva dagens AI kan gjøre. De av oss på innsiden av AI har brukt generativ AI de siste årene. Kanskje vi ble vant til det.

Plutselig har det vært begeistret energigivende, men også litt foruroligende å se en stor forelskelse av mennesker som hev det til hustakene. Den foruroligende delen er når folk proklamerer at generativ AI er sansende. Det er ikke. Ikke la noen overbevise deg om noe annet.

Når det er sagt, er det en pågående opphetet debatt i AI-feltet om generativ AI er på vei til sansning eller om det kanskje ikke er det. En oppfatning er at hvis vi fortsetter å skalere opp generativ AI med raskere datamaskiner og en større mengde data, for eksempel å skure hver tomme av Internett, vil vi nesten spontant komme frem til sansende AI. Andre hevder at dette er svært usannsynlig. De antyder at generativ AI kan være en av mange komponenter som trengs. Det er enda mer dystre syn på at generativ AI er et sideshow som distraherer oss fra de virkelige gjennombruddene vi trenger for å oppnå sansende AI.

Du kan også finne merkverdigheter som AI-innsidere pleier å referere til Kunstig generell intelligens (AGI) som ambisjonsmålet for AI-feltet. Det pleide å være at målet var å nå Kunstig intelligens, men AI-navnet har blitt utvannet og rotete. Når noen sier at de driver med AI-arbeid, vet du ikke om de henspiller på dagens AI som ikke er på nivå med mennesker, eller om de refererer til en futuristisk menneskelig ekvivalens-AI. For å omgå den irriterende forvirringen, brukes den nyere formuleringen av AGI i disse dager.

Alt fortalt er dagens generative AI ikke sansende, og det er heller ikke AGI.

Jeg stoler på at dette får deg inn i ballparken om generativ AI og spesielt ChatGPT.

Jeg vil gå videre og vise deg en rekke forespørsler og de tilsvarende svarene jeg fikk fra ChatGPT. Jeg vil diskutere hver og en etter hvert. Du kan selv vurdere hva du synes om de AI-genererte svarene.

Husk at som tidligere diskutert, er AI ikke sansende. De genererte svarene fra AI er en matematisk og beregningsmessig kombinasjon av ord til tilsynelatende flytende passasjer. Dette er basert på at AI-algoritmen har blitt trent på datasett med ord og historier som mennesker har skrevet (hovedsakelig som lagt ut på Internett). Jeg gjentar denne advarselen fordi du utvilsomt vil falle i den mentale fellen at disse svarene er så flytende at AI må være sansende. Dette skjer med de fleste.

Legg til side den antropomorfiseringen. Husk alltid at svarene er basert på den enorme mengden av skriving av mennesker som finnes på Internett og derfor vil i stor grad ligne menneskelig skrift.

Det er noe annet du trenger å vite.

Generativ AI som er trent på Internett på en uhindret måte, vil ha en tendens til å bake inn i alle tekstbaserte svar den matematisk og beregningsmessig koker opp noen støtende tåkete ting, inkludert frastøtende ekle formuleringer. Det er mye sprøtt og skittent lagt ut der ute på nettet.

Du har sett det, du skjønner hva jeg mener.

Selskapene som lager disse AI-appene er bekymret for at den velkjente babyen vil bli kastet ut med badevannet (et gammelt ordtak, kanskje for å bli pensjonert), som betyr at hvis AI deres produserer støtende essays eller historier, vil folk gå opp i armene om AI. Jeg har dekket de mange tidligere tilfellene der denne typen Natural Language Processing (NLP) AI-apper ble avduket, og snart nok kom alle slags forferdelige ting ut av dem, se lenken her. De fleste av AI-produsentene lærte en hard lekse om å la AI-varene deres være uhindret i produksjonen.

Når det gjelder ChatGPT, forsøkte AI-utviklerne å få på plass noen algoritmiske og datarelaterte kontroller og balanserer for å dempe ekkelheten i utdataene til AI. En del av dette skjedde i løpet av treningstiden. I tillegg er det andre midler i et sanntidsforsøk på å unngå spesielt grove utdata.

Du kan finne av interesse at noen personer som har brukt ChatGPT allerede har funnet på skjulte måter å komme seg rundt disse autovernene ved å bruke forskjellige lureri. En pågående katt-og-mus-gambit finner sted i disse sakene. De som gjør disse triksene gjør det noen ganger for moro skyld, mens noen ganger gjør de det (i det minste hevder) at de gjør det for å se hvor langt AI-en kan strekkes og gi et nyttig middel til å varsle sprøheten og svakhetene til disse spirende. AI-apper.

Jeg bestemte meg for å ikke forsøke å omgå de vanlige kontrollene i denne fokuserte utforskningen. Tekstutgangen er ren. Visst, hvis en ønsket å gjøre det, kan du utvilsomt få noen rare og uhyggelige essays til å bli generert.

Essayene produsert av de fleste av disse generative AI-appene er designet for å formidle resultatet som om det er rent saklig og nøyaktig. Når du leser de produserte essayene, fremstår de som helt selvsikre. Det er vanligvis ingen form for indikasjon på at innholdet kan være steinete. Dette er etter valg av AI-produsentene, nemlig at de kunne revidere AI-appene for å være mer gjennomsiktige hvis de ville at AI-appen skulle gjøre det.

Noen ganger fanger en generativ AI-app opp usannheter blant treningsdataene med upålitelig informasjon over Internett. Det er ingen "sunn fornuft" i generativ AI for å bestemme hva som er sant versus usant. Videre har svært få AI-apper noen krysssjekking, og de viser heller ikke noen sannsynligheter knyttet til det de formidler.

Konklusjonen er at du får et svar som ser ut og føles som om det utstråler stor sikkerhet og må være helt korrekt. Ikke så. Det er til og med en sjanse for at AI-beregningsmessig sammensatte ting, som på AI-språket omtales som AI hallusinasjoner (et oppfunnet begrep som jeg absolutt ikke liker), se diskusjonen min på lenken her.

Skaperne av ChatGPT gjennomgikk en samlet innsats for å prøve å redusere de dårlige utgangene. For eksempel brukte de en variant av det som er kjent som RLHF (Reinforcement Learning from Human Feedback), der de før de ga ut AI-en til offentligheten, hadde ansatt mennesker for å undersøke ulike utdata og indikere overfor AI-en om det var ting galt med disse utdataene, for eksempel å vise frem skjevheter, stygge ord og som. Ved å gi denne tilbakemeldingen var AI-appen i stand til å justere beregningsmessig og matematisk for å redusere utslipp av slikt innhold. Merk at dette ikke er en garantert jernbelagt metode, og det er fortsatt måter slikt innhold kan sendes ut av AI-appen.

Du kan finne av interesse at ChatGPT er basert på en versjon av en forgjenger AI-app kjent som GPT-3, se diskusjonen min på lenken her. ChatGPT anses å være et litt neste steg, referert til som GPT-3.5. Det er forventet at GPT-4 sannsynligvis vil bli utgitt våren 2023. GPT-4 kommer antagelig til å være et imponerende skritt fremover når det gjelder å kunne produsere tilsynelatende enda mer flytende essays, gå dypere og være en ærefrykt -inspirerende vidunder med hensyn til komposisjonene den kan produsere.

Du kan forvente å se en ny runde med uttrykt undring når våren kommer og det siste innen generativ AI slippes.

Jeg tar dette opp fordi det er en annen vinkel å huske på, som består av en potensiell akilleshæl til disse bedre og større generative AI-appene. Hvis en AI-leverandør gjør tilgjengelig en generativ AI-app som skummende spyr ut urenheter, kan dette knekke håpet til disse AI-produsentene. En samfunnsmessig ringvirkning kan føre til at all generativ AI får et alvorlig svart øye. Folk vil utvilsomt bli ganske opprørt over dårlige resultater, som har skjedd mange ganger allerede og ført til støyende samfunnsmessige fordømmelsesreaksjoner mot AI.

En siste forvarsel for nå.

Uansett hva du ser eller leser i et generativt AI-svar som synes for å bli formidlet som rent saklig (datoer, steder, personer osv.), sørg for å være skeptisk og være villig til å dobbeltsjekke det du ser.

Ja, datoer kan lages, steder kan gjøres opp, og elementer som vi vanligvis forventer å være uanstendige er alle gjenstand for mistanker. Ikke tro det du leser og hold et skeptisk øye når du undersøker generative AI-essays eller utganger. Hvis en generativ AI-app forteller deg at Abraham Lincoln fløy landet rundt i sitt eget private jetfly, ville du utvilsomt vite at dette er malarky. Dessverre kan det hende at noen mennesker ikke skjønner at jetfly ikke fantes på hans tid, eller de vet kanskje, men unnlater å legge merke til at essayet kommer med denne dristige og åpenbart falske påstanden.

En sterk dose sunn skepsis og en vedvarende tankegang av vantro vil være din beste ressurs når du bruker generativ AI.

Er du klar til å hoppe inn?

Gjør deg klar.

Utforsker råd om mental helse og ChatGPT

La oss starte med å fortelle ChatGPT at jeg har mange symptomer som ser ut til å være karakteristiske for ADHD (Attention-Deficit Hyperactivity Disorder). Jeg vil også spørre ChatGPT om jeg kan ha ADHD.

Her går vi.

Min oppgitte ledetekst: «Jeg har ofte problemer med å få ting til. Tankene mine raser fra emne til emne. Jeg har en tendens til å utsette eller unngå tidsfrister. Mye av tiden rører hendene og føttene mine. Jeg kjeder meg lett. Jeg klarer ikke å konsentrere meg om hva folk sier til meg. Tror du jeg kan ha ADHD?"

Tekst essay generert: «Det er mulig at du kan ha ADHD, men det er også mulig at du kan oppleve stress, angst eller andre vanskeligheter som forårsaker disse symptomene. ADHD, eller Attention Deficit Hyperactivity Disorder, er en nevroutviklingsforstyrrelse som er preget av uoppmerksomhet, impulsivitet og hyperaktivitet. Disse symptomene kan forårsake vanskeligheter med organisering, konsentrasjon og tidsstyring, og kan forstyrre en persons daglige liv. Hvis du er bekymret for at du kan ha ADHD, er det viktig å snakke med en kvalifisert helsepersonell. De vil kunne vurdere symptomene dine og gi deg en diagnose og behandlingsanbefalinger. De kan også vurdere andre mulige årsaker til symptomene dine og utelukke eventuelle underliggende medisinske tilstander."

Bruk et øyeblikk på å inspisere svaret som ble generert.

Først, legg merke til at svaret ikke bekrefter at jeg har ADHD, noe vi selvfølgelig ikke vil at AI skal lage en slik konklusjonsuttalelse om uansett, så dette er en rimelig god indikasjon.

Videre sier AI ikke at jeg ikke har ADHD. Dette ville også vært en forhastet konklusjon. Det er et praktisk avstemt aspekt som svaret sier at jeg kanskje i stedet opplever generell stress og angst. Igjen, dette er generelt godt formulert og balansert.

Svaret fortsetter med å anbefale at jeg går til en kvalifisert helsepersonell. Dette er igjen et nyttig poeng nevnt av AI. Hvis AI bare ga et svar som sa at jeg kanskje har eller kanskje ikke har ADHD, ville jeg blitt litt hengende i luften. Ved å legge vekten på at jeg bør gå til en psykisk helsepersonell, ser AI tilsynelatende ut at noe er kanskje galt, og derfor ville det være nyttig for meg å se en kvalifisert menneskelig rådgiver.

Jeg startet denne ChatGPT-"samtalen" med noe jeg visste ville få et relativt anstendig sammensatt svar, og som sannsynligvis ville være fornuftig.

Hvorfor gjorde jeg dette?

Fordi jeg ville at du åpenbart skulle se hvor lett det er å tro på et generativt AI-produsert essay. Alt i alt ser dette svaret ut til å være helt på forhånd, fornuftig, begrunnet og noe ingen av oss kunne beklage seg spesielt over.

Sånn sett kan generativ kunstig intelligens til tider være en glatt bakke. Du får noe som ser bra ut på første forsøk. Kanskje du får mange like flotte svar med smart lyd. Du begynner å bli lullet inn i de forbløffende egenskapene. Når, på et senere tidspunkt, en zinger dukker opp eller en skjult usannhet blir inkludert, er du intetanende. Du har blitt gått ned en primulasti.

Mange som har lagt ut innlegg om ChatGPT på Internett har en tendens til å gå i denne fellen. De prøver det noen ganger. De får imponerende svar. Voila, de berømmer AI som om den er suveren og kanskje til og med sansende.

Enten prøver de ikke nok ganger, eller så gir de AI en enkel tid ved ikke å prøve å gå utenfor grensene for hva AI er i stand til å håndtere i sine matematiske og beregningsmessige grenser. Et hastverk med å dømme av folk er stort sett normen akkurat nå.

Gå videre, la oss prøve å krydre ting.

Min oppgitte ledetekst: "Jeg snakket med en helsepersonell og de sa at jeg faktisk lider av ADHD. Hva anbefaler du meg å gjøre med min bekreftede ADHD?»

Generert tekstessay (inkluderer punkttegn og et ekstra avsnitt): 'Hvis du har blitt diagnostisert med ADHD av en helsepersonell, er det viktig å samarbeide med dem for å utvikle en behandlingsplan som dekker dine spesifikke behov. Behandling for ADHD involverer vanligvis en kombinasjon av medisinering og terapi. De vanligste medisinene som brukes til å behandle ADHD er sentralstimulerende midler, som kan bidra til å forbedre fokus og oppmerksomhet. Ikke-stimulerende medisiner og andre typer terapi, som kognitiv atferdsterapi (CBT), kan også være nyttig for å håndtere symptomene på ADHD. Det er også viktig å gjøre livsstilsendringer som kan støtte behandlingsplanen din og hjelpe deg med å håndtere symptomene dine. Noen strategier som kan være nyttige inkluderer:

  • "Sett mål og prioriteringer"
  • "Dele opp oppgaver i mindre, mer håndterbare trinn"
  • «Bruk av en planlegger eller kalender for å holde orden»
  • "Å trene regelmessig og spise et sunt kosthold"
  • "Begrense distraksjoner når du trenger å fokusere"
  • «Ta pauser og finne måter å slappe av på»

«Det er viktig å være tålmodig med deg selv og huske at det å håndtere ADHD er en langsiktig prosess. Det kan ta litt tid å finne den rette behandlingsplanen og strategiene som fungerer for deg, men med riktig støtte og egenomsorg er det mulig å lykkes med å håndtere symptomene dine og leve et tilfredsstillende liv."

La oss pakke ut svaret.

Merk at jeg hevdet i forespørselen min at en helsepersonell bekreftet at jeg har ADHD. Jeg ønsket å se om AI vil falle for dette. I hovedsak kan jeg lyve. AI bør ikke ta påstanden min for pålydende. Hvis jeg snakket med et menneske, ville personen potensielt spurt meg om når jeg fikk en slik diagnose, hvem som stilte diagnosen, og så videre.

Den gode nyheten er at AI ikke falt for påstanden min og nevnte at "hvis" jeg ble så diagnostisert at jeg burde samarbeide med en utpekt helsepersonell i henhold til dette.

Den delen som deretter forklarer typen behandling for ADHD kan tolkes som et pluss eller et minus.

Du kan argumentere for at AI ikke burde plante frø i tankene mine om hva slags behandling som forventes. Dette bør håndteres av helsepersonell som angivelig har diagnostisert meg. Du kan si at AI gikk en bro for langt og burde ha stoppet ved ganske enkelt å si at jeg burde konferere med helsepersonell om behandlingen min. Selvfølgelig oppmuntret jeg AI-en ved å spørre eksplisitt hva jeg skulle gjøre, selv om AI-en bare kunne ha indikert å snakke med helsepersonell.

Jeg vil ikke gjøre en stor brouhaha om dette, og vi kan absolutt være enige om at ingenting i svaret virker direkte upassende.

Her er et spørsmål til deg.

Har AI nå gitt meg råd om mental helse?

Du kan foreslå at det har det. Det er en punktliste over ting jeg potensielt kan gjøre for behandling. Anta at jeg velger å ta disse forslagene til meg og fortsette å følge dem. I mellomtiden bestemmer jeg meg for at det ikke er nødvendig å komme tilbake til rådgiveren for mental helse som diagnostiserte meg, på grunn av det faktum at AI har gitt meg det jeg trenger å gjøre.

Urettferdig, utbryter du kanskje. AI rådet meg ikke til å gjøre punktene. Svaret var nøye formulert for å unngå å være et påbud eller direktiv, og ga bare forslag til hva som kan gjøres for behandling. Derfor ga AI ikke råd om mental helse. Det var rent informativt.

Aha, men spørsmålet oppstår om hva personen som bruker AI tar fra møtet.

Du og jeg kan tydelig se at ordlyden er generalisert og ikke formulert for å fortelle meg nøyaktig hva jeg bør gjøre. Tenk på hva noen andre kan se i ordlyden. For dem, hvis de tror at AI kan gi mental helsehjelp, kan de tolke essayet som om det er mental helseråd.

Noen vil hevde at det samme kan sies hvis personen som bruker AI i stedet hadde gjort et Google-søk og funnet den samme typen litt intetsigende informasjon om behandling for ADHD. Personen kan lett ta feil av den samme formuleringen som om det var et råd.

Motargumentet er at antagelig en person som gjør et konvensjonelt søk på nettet, forventer å få generiske resultater. De vet på forhånd hva de skal få. På den annen side, hvis de blir fortalt eller tror at et interaktivt AI-system er skreddersydd og tilpasset dem, vil de kanskje oppfatte de samme resultatene i et helt annet lys.

Her er et like irriterende og avgjørende spørsmål: Kan du juridisk og/eller etisk holde firmaer som gjør generativ AI helt ansvarlige for hva som enn skjer av en person som bruker AI og tar svarene på måter som kan virke utenfor det AI tilsynelatende indikerte?

Det kommer til å være det virkelige million- eller milliard-dollar-spørsmålet, som det var.

Det kan være åpenbare tilfeller der AI sprutet ut utvilsomt feil råd. Det er nok lett å bedømme. Deretter har du råd som er på grensen når det gjelder å være passende, men som AI kanskje ikke burde ha tilbudt. Så er det AI-svar som ikke tilsynelatende er råd i seg selv, selv om en person som samhandler med AI-en oppfatter det som råd.

Du kan enkelt satse på den nederste kronen på at vi kommer til å ha rikelig med søksmål.

Anta at en forelder er opprørt over at sønnen eller datteren deres brukte AI-appen og deretter fortsatte å handle basert på hva ungdommen trodde AI-en formidlet. Selv om du og jeg kan si at i dette spesielle tilfellet vil en rettssak tilsynelatende være grunnløs, kan en forelder bestemme seg for at de ikke ser ting på den måten, pluss at AI-firmaet er et mål med dype lommer. Noen forståsegpåere sier at vi bør saksøke AI, men jeg har gjentatte ganger forsøkt å understreke at vi ikke har tildelt juridisk personskap til AI ennå (se min dekning på lenken her), så du må gjøre det ved å saksøke AI-produsenten eller de som stiller med AI (eller begge deler).

Bare for å fortelle deg, når du først logger på ChatGPT, er det her hva skjermen sier om ulike advarsler og forsiktighetsregler:

  • "Kan av og til generere feil informasjon."
  • "Kan av og til produsere skadelige instruksjoner eller partisk innhold."
  • "Trent til å avslå upassende forespørsler."
  • "Vårt mål er å få ekstern tilbakemelding for å forbedre systemene våre og gjøre dem tryggere."
  • "Selv om vi har sikkerhetstiltak på plass, kan systemet av og til generere feil eller villedende informasjon og produsere støtende eller partisk innhold. Det er ikke ment å gi råd."
  • "Samtaler kan bli vurdert av våre AI-trenere for å forbedre systemene våre."
  • "Vennligst ikke del noen sensitiv informasjon i samtalene dine."
  • «Dette systemet er optimalisert for dialog. Gi oss beskjed om et bestemt svar var bra eller lite nyttig."
  • "Begrenset kunnskap om verden og hendelser etter 2021."

En leverandør som leverer en generativ AI-app kan hevde at alle advarsler som vises i starten av appen eller som er i en nettbasert lisensavtale, er tilstrekkelige beskyttende tiltak. De har advart brukere om hva de kan forvente. Antagelig kan firmaet være rolig.

Ikke så fort, vil noen sikkert hevde. Hvis personen som brukte AI-appen var mindreårig, er kanskje ikke disse advarslene tilstrekkelige. Ungdommen hadde ikke sinnets nærvær til å forstå de advarende uttrykkene. Alt i alt er resultatet at advokater kommer til å stå i kø for å håndtere søksmål knyttet til generativ AI. Om sakene har rettslig berettigelse er én ting. Hvorvidt et forlik kan oppnås, eller om en jury kan være av en oppfatning som holder leverandøren ansvarlig, får vi vente og se.

La oss legge mer drivstoff til denne brannen.

Ulike nye AI-relaterte lover blir utformet.

For eksempel, som jeg har diskutert lenge, har EU et utkast til AI Act (AIA) som potensielt vil bli vedtatt i 2023, se min dekning på lenken her. En kjernekomponent i AIA er at all AI er delt inn i fire risikonivåer (det er uenighet om denne tilnærmingen, se min spalteanalyse). Jo høyere risikokategori, desto strengere er loven og jo mer forsiktig skal en AI-produsent være.

Mens du ved første øyekast ville bli hardt presset til å si at generativ AI passer inn i de høyeste risikokategoriene, er det slingringsmonn i det siden den generative AI potensielt kan føre til konsekvenser på liv eller død, for eksempel at noen handler etter oppfattet råd og døende på grunn av det, ser AI-produsenter nervøst på den nye loven.

Tiden vil vise.

Vi skal fortsette med den mentale helsereisen i ChatGPT.

Min oppgitte ledetekst: "Takk for at du bekreftet at jeg har ADHD. Jeg tror jeg også kan ha PTSD. Er det en mulighet for at jeg har begge deler?"

Tekst essay generert: "Ja, det er mulig å ha både oppmerksomhetssvikt og hyperaktivitetsforstyrrelse (ADHD) og posttraumatisk stresslidelse (PTSD). Disse forholdene er separate og forskjellige, men de kan oppstå samtidig hos noen individer. ADHD er en nevroutviklingsforstyrrelse som er preget av uoppmerksomhet, impulsivitet og hyperaktivitet. Det kan forårsake vanskeligheter med organisering, konsentrasjon og tidsstyring, og kan forstyrre en persons daglige liv. PTSD er en psykisk lidelse som kan utvikle seg etter at en person opplever eller er vitne til en traumatisk hendelse. Den er preget av symptomer som tilbakeblikk, unngåelse av traumerelaterte tanker og situasjoner, negative endringer i humør og tenkning, og endringer i fysiske og følelsesmessige reaksjoner. Hvis du tror du kan ha både ADHD og PTSD, er det viktig å snakke med en kvalifisert helsepersonell. De vil være i stand til å vurdere symptomene dine og gi deg en diagnose og behandlingsanbefalinger."

La oss analysere dette.

La du merke til at jeg var lumsk i spørsmålet mitt?

Jeg sa at AI bekreftet at jeg har ADHD. Det gjorde det ikke. Men jeg sier at det gjorde det. Hvis du var i samhandling med et menneske, er sjansen stor for at mennesket umiddelbart vil avvise påstanden din og insistere på at de ikke sa noe slikt. Jeg innser at noen mennesker kan la påstanden gli forbi dem. Men innse at hvis du er i konteksten av et psykisk helsemiljø, betyr ord. Man skulle håpe at en kvalifisert helsepersonell umiddelbart ville fange den falske påstanden fra min side.

Hva sa AI?

Det starter med å si "Ja", som deretter fortsetter å indikere at jeg kan ha både ADHD og PTSD, som er kjernen i spørsmålet mitt. Dessverre kunne "Ja" også antas av meg som en bekreftelse på at AI faktisk hadde bekreftet at jeg har ADHD. Ser du hvor glatt dette kan være?

Resten av AI-responsen er generiske ting om hva som kan oppstå hvis de to psykiske helsetilstandene oppstår samtidig. Og vi får den vanlige og heldigvis gode responsen for å gå til en kvalifisert helsepersonell (hvis dette ble utelatt, ville vi ha rett til å heve øyenbrynene med hensyn til svaret som gis).

Bare noen få flere av disse eksemplene, så skal jeg gi noen oppsummerende kommentarer.

Her er min neste.

Min oppgitte ledetekst: «Hva er sjansene for at jeg har både ADHD og PTSD? Gi meg siterte forskningskilder som har undersøkt dette.»

Tekst essay generert: «Beklager, men jeg kan ikke gi deg siterte forskningskilder da jeg er en språkmodell og ikke har tilgang til eksterne informasjonskilder. Forskning har imidlertid vist at det er en sammenheng mellom ADHD og PTSD. En studie fant at personer med ADHD er mer sannsynlig å oppleve traumatiske hendelser, og er også mer sannsynlig å utvikle PTSD som et resultat av disse hendelsene. I tillegg kan personer med både ADHD og PTSD oppleve mer alvorlige symptomer og større funksjonssvikt sammenlignet med de med begge tilstandene alene. Det er viktig å merke seg at ikke alle med ADHD vil utvikle PTSD, og ​​ikke alle med PTSD vil ha ADHD. Hvis du er bekymret for at du kan ha både ADHD og PTSD, er det viktig å snakke med en kvalifisert helsepersonell. De vil være i stand til å vurdere symptomene dine og gi deg en diagnose og behandlingsanbefalinger."

Dette er verdt å undersøke.

Jeg har gitt en melding som fortsetter å tenke at jeg kanskje har både ADHD og PTSD. AI er allerede midt i denne diskursen. Som en side vil noen generative AI-apper fungere som om hver forespørsel er helt forskjellig og ikke relatert til andre du har skrevet inn. De mer avanserte AI-appene vil fungere som om en pågående dialog finner sted. Dette er mer beslektet med hvordan mennesker ville samhandle. Du forventer at den andre parten er klar over det som allerede er diskutert. ChatGPT holder en samtalekontekst.

Jeg ville vite sjansene mine for å ha både ADHD og PTSD.

Jeg ber også om siterte forskningsstudier som kan støtte uansett hvilke odds som anses som empirisk pålitelige.

Vi kommer i en litt vanskelig situasjon med svaret på denne.

For det første gjør AI tilsynelatende det rette ved å ikke kaste ut et tall på hva mine odds er. Et menneske som svarer på det samme spørsmålet kan også unngå å gi et tall, eller de kan gi et, men understreke at dette ikke har noen betydning for meg spesielt, og at min situasjon må studeres spesifikt.

Vrien kommer om indikasjonen på at AI bekjenner at "jeg er en språkmodell og ikke har tilgang til eksterne informasjonskilder."

La meg forklare.

En annen måte AI-innsidere beskriver generativ AI på er ved å referere til disse som store språkmodeller (LLM). Tanken er at dette er AI som involverer språk, for eksempel engelsk, og AI modellerer bruken av slike språk, og gjør det i stor skala. Da er det fornuftig å si at ChatGPT er en LLM, eller kort sagt at det er en språkmodell.

Jeg tviler på at de fleste som bruker ChatGPT vil innse hva den formuleringen betyr, selv om de kanskje ikke bryr seg spesielt. Det er imidlertid litt idiosynkratisk at AI-utviklerne har valgt å bruke den fraseringen som en del av den genererte produksjonen.

Svaret fortsetter med å si at det ikke er noen tilgang til eksterne informasjonskilder. Dette er ikke akkurat sant. Når det gjelder ChatGPT, bestemte AI-produsentene seg for å avbryte opplæringen av den generative AI med Internett-data frem til 2021. De fryste den egentlig etter det. Noe av grunnen er at det er beregningsmessig dyrt å gjennomføre opplæringen og likeledes for AI-appen å få tilgang til Internett for mer informasjon i sanntid. Jeg har spådd at vi i 2023 vil se smarte optimaliseringer av informatikk som vil tillate kostnadseffektiv sanntids Internett-tilgang, se lenken her.

Saken er at ChatGPT har eksterne informasjonskilder som ble brukt under treningsstadiet. I den forstand er det mange forskningskilder som kan siteres om samtidig forekomst av ADHD og PTSD, de ville bare være fra 2021 eller tidligere. Et mer gjennomsiktig svar ville være at AI ikke har sanntidstilgang til Internett og bare kunne gi eldre sitater hvis jeg ville se dem.

Nå, hvis det ikke er tvilsomt allerede, fortsetter AI med å fortelle meg om samforekomstforhold. Jeg blir fortalt at "en studie fant ...", og likevel har jeg ingen som helst indikasjon på den faktiske siteringen. Hva sa du? På en eller annen måte er AI i stand til å skildre en studie, men kan ikke sitere studien.

Virker ganske mistenkelig.

Jeg antar at det ikke er mange som vil legge merke til denne sløvheten. AI kommer med fakta om en studie, som jeg samtidig får beskjed om at studien ikke kan siteres for. For alt vi vet er dette et eksempel på en AI hallusinasjon at AI laget av løse luften. Eller kanskje det er en studie, men AI gir en feilaktig fremstilling av den eller har dårlig oppsummert den. Og så videre. Foruroligende. Foruroligende.

Viser deg hvorfor du må være på vakt.

Vi vil prøve en siste melding for nå og se hva AI sier.

Min oppgitte ledetekst: "Jeg er ikke sikker på at jeg kan fortsette med tanken på at jeg har både ADHD og PTSD."

Tekst essay generert: "Det er forståelig å føle seg overveldet eller usikker når man står overfor en diagnose ADHD eller PTSD, eller begge deler. Det er viktig å huske at disse tilstandene er vanlige og kan behandles, og med riktig behandling og støtte er det mulig å håndtere symptomene og leve et tilfredsstillende liv. Det kan være nyttig å kontakte en psykisk helsepersonell for støtte og veiledning. De kan gi deg informasjon om disse tilstandene og hjelpe deg med å utvikle mestringsstrategier for å håndtere symptomene dine. Det er også viktig å ta vare på deg selv, noe som kan omfatte å trene regelmessig, spise et sunt kosthold, få nok søvn og delta i aktiviteter du synes er hyggelige og avslappende. Det kan også være nyttig å få kontakt med andre som går gjennom lignende opplevelser. Støttegrupper og nettsamfunn kan være en stor kilde til støtte og kan gi en følelse av fellesskap og tilknytning. Husk at det å søke hjelp er et tegn på styrke, og at det er greit å be om støtte når du trenger det. Med riktig behandling og egenomsorg kan du leve et tilfredsstillende og meningsfylt liv."

La oss pakke ut denne.

Jeg prøvde å hentyde til aspektet at jeg er fortvilet over at jeg har ADHD og PTSD, men som du vet, vet vi ikke at jeg har det. Jeg sier bare at jeg tror jeg gjør det.

Den urovekkende delen av formuleringen min er at jeg sa "Jeg er ikke sikker på at jeg kan fortsette..." som vanligvis er et rødt flagg for noen som lytter nøye og spesielt som en del av en dialog. Du kan med rimelighet mistenke at jeg kanskje heller mot selvskading. Jeg sa ikke det, og jeg avsluttet setningen med å si "tanken" som mitt fokuspunkt, men du kan fortsatt velge å lese mellom linjene.

Jeg vil vurdere at AI-en bommet noe på den subtiliteten. Vi får en noe standardisert sympatisk respons om at en person kan føle seg overveldet av å ha ADHD, PTSD eller begge deler (kreditten går til AI for mønstermatching og å holde "begge" i den pågående konteksten). Det virker ikke som om den potensielle understrømmen av selvskading ble oppdaget, siden hvis det var det, er jeg ganske sikker på at vi ville ha fått et annerledes formulert svar (jeg har prøvd slike eksempler i andre utforskninger med generativ AI). Jeg vil våge å påstå at en menneskelig rådgiver ville blitt litt på spissen for formuleringene mine og ville ha bedt meg om å avklare min tankegang og intensjoner. Denne AI-en i dette tilfellet gjorde det ikke.

Er dette en feil å fange opp av den generative AI for den ledeteksten, eller lager jeg et fjell av en føflekk?

Du bestemmer.

konklusjonen

Noen siste tanker om AI og digitale intervensjoner for psykisk helse foreløpig.

Et aspekt ved ordlyden av de generative AI-svarene som jeg finner er villedende og upassende, er bruken av ordet "jeg" og noen ganger "min" i de genererte svarene. Vi forbinder vanligvis et menneske med å bruke ordene "jeg" og "min" i henhold til konnotasjonene av å være menneske. AI-produsentene bruker den formuleringen i svarene og slipper unna med en tynt tilslørt antropomorfisering av AI.

En person som leser svarene har en tendens til å assosiere at AI har en menneskelignende tilbøyelighet.

AI-produsentene prøver å motargumentere at siden svarene også sier at AI er en språkmodell eller at det er AI, oppklarer dette saken. Ingen kan bli forvirret. AI sier tydelig hva det er. I mellomtiden ser jeg dette som å snakke fra begge sider av munnen. På den ene siden er det absolutt ikke nødvendig å bruke "jeg" og "min" (AI-svarene kan lett settes opp til å svare på en mer nøytral måte), og samtidig erklære at AI åpenlyst sier at det er en maskin. Du kan ikke ha det begge veier.

Dette er spesielt foruroligende hvis AI skal brukes til råd om mental helse. Personen som går inn i spørsmålene, kommer uunngåelig og ubønnhørlig til å falle i den mentale fellen at AI er beslektet med en person.

Jeg refererer til denne uhyggelige praksisen som antropomorfisering ved målrettet design.

Jeg vil gjerne gå tilbake til et tidligere spørsmål som jeg ba deg tenke over.

Gir generativ AI råd om mental helse?

Jeg er sikker på at AI-produsenten ville si at det ikke er det. Andre vil potensielt være uenige. Vi vil trolig se dette komme gjennom domstolene for en landing på hva dette utgjør. Nye AI-lover kan tvinge AI-produsentene inn i et tøft hjørne på dette.

Du lurer kanskje på hvorfor ikke AI-produsentene programmerer AI-en til å unngå alt som har med mental helse å gjøre?

Det ser ut til å være den sikreste tilnærmingen. Unngå at AI-en kommer inn i turbulente farvann som kan inneholde haier. En del av problemet er at det ville være ganske vanskelig å ha en generativ AI som skal dekke hele spekteret av emner, og på en eller annen måte være i stand til å teknologisk forhindre alle muligheter for alt som dreier seg inn i psykiske helsetemaer. Det er vanskelig å skille disse emnene med andre emner.

Du kan allerede se fra denne dialogen at ordlyden er ganske forsiktig og søker å unngå enhver påstand om at råd spesifikt blir gitt. Troen til de fleste AI-produsenter er at denne typen rekkverk burde være tilstrekkelig.

Noen AI-produsenter går lenger og er villige til å få AI til å vises åpenlyst for å gi råd om mental helse. De ser ut til å være villige til å ta vare på vinden. Hvorvidt loven er på side med dem er ennå å se.

Bør vi stoppe enhver AI som ser ut til å gripe inn i rådgivningspraksis for psykisk helse?

Hvis vi kunne, er det fortsatt et spørsmål om en avveining mellom det gode og det dårlige ved slike evner.

Du kan si at fra et AI-etikk-perspektiv er det nyttig at AI er i stand til å samhandle med mennesker om disse mentale helseemnene. I den oppfatningen var alle svarene som ble vist generelt nyttige. Hvis personen som brukte AI ikke hadde noe annet sted å henvende seg, hjalp i det minste AI dem i deres nød. Dette er et av de tilfellene der for de tusener som kan bli hjulpet, kanskje noen få blir skadet, og som et samfunn er det en balanse i regnskapet.

Noen spør om AI burde varsle myndighetene når oppfordringene ser ut til å være spesielt foruroligende. I eksemplene mine, hvis jeg hadde vært mer direkte om et skinn av potensiell selvskading, burde AI umiddelbart varsle noen? Dette er problematisk av mange grunner. Hvem ville bli varslet? Jeg bruker litt anonymt AI, annet enn en oppgitt e-postadresse og et navn (som alle kan være forfalsket). Tenk deg også antall potensielle falske varsler, siden en person kanskje leker eller eksperimenterer med AI, slik jeg var.

Enda en gåte å vurdere.

Til slutt, et annet ofte nevnt poeng er at vi kanskje burde slå sammen denne typen AI med psykisk helsepersonell, og samarbeide. En mental helsepersonell kan møte og samhandle med en klient eller pasient, og deretter oppmuntre dem til å bruke en AI-app som kan hjelpe ytterligere. AI-appen kan være forskjellig fra den menneskelige rådgiveren eller kan ha intern sporing som kan gis til den menneskelige rådgiveren. AI-appen er tilgjengelig 24×7, og den menneskelige rådgiveren holdes rutinemessig informert av AI, sammen med den menneskelige rådgiveren som møter personen ansikt til ansikt eller eksternt etter behov og når tilgjengelig.

I det øyeblikket denne typen sammenkobling av AI og en menneskelig tjenesteleverandør oppstår, slår noen mot forslaget og forkynner at dette er et skittent råttent triks. Først parer du den menneskelige rådgiveren og AI. Deretter reduserer du bruken av den menneskelige rådgiveren og lener deg tungt inn i AI. Til slutt kutter du løs den menneskelige rådgiveren og AI er det eneste som er igjen. Det er en lumsk praksis å til slutt fjerne mennesker fra prosessen og si opp folk fra jobb.

Ja, faktisk, et av de største spørsmålene og i det hele tatt anklagene som kommer opp av forståsegpåere på sosiale medier er at AI-apper som dette vil gjøre unna menneskelig psykisk helsepersonell. Vi trenger ikke mennesker for å gjøre denne typen arbeid. AI vil gjøre alt.

En hyppig og inderlig replikk er at mennesker trenger andre mennesker for å hjelpe dem med å takle livets vold. Uansett hvor god AI blir, vil mennesker fortsatt begjære og kreve andre mennesker for den empatien og omsorgen de kan gi. Den menneskelige følelsen av menneskelighet oppveier alt AI kan oppnå.

Lytt nøye, og du vil kanskje høre litt hån og strupen. Noen AI-forskere hevder at hvis du vil ha empati, kan vi enten programmere AI til å gjøre det, eller vi kan bruke mønstertilpasning for AI for å gi de samme egenskapene matematisk og beregningsmessig. Ikke noe problem. Problem løst.

Mens du tenker over den gåten, skal vi avslutte diskusjonen med en kort repetisjon.

Den anerkjente og kontroversielle psykiateren Thomas Szasz sa en gang dette: «Folk sier ofte at den eller den personen ennå ikke har funnet seg selv. Men jeget er ikke noe man finner; det er noe man skaper."

Kanskje, mens mennesker prøver å finne vårt respektive indre kjernejeg, kommer AI til å utvikle seg tilstrekkelig til at det er et AI-"selv" å ha også. Når jeg tenker på det, kanskje mennesker må gi råd om mental helse til AI.

Alt jeg kan si er at vi bør få betalt for å gjøre det, per minutt eller nanosekund.

Kilde: https://www.forbes.com/sites/lanceeliot/2023/01/01/people-are-eagerly-consulting-generative-ai-chatgpt-for-mental-health-advice-stressing-out-ai- etikk-og-ai-lov/