AI-etikk og AI-indusert psykologisk inokulering for å hjelpe mennesker med desinformasjon

Hva skal vi gjøre med den enorme mengden av desinformasjon og feilinformasjon?

Det hele blir beviselig verre og verre for hver dag som går.

Kanskje kan kunstig intelligens (AI) komme oss til unnsetning. Ja, det stemmer, vi kan kanskje utnytte den fordelaktige bruken av AI for å takle vår nådeløse tsunami av desinformasjon og feilinformasjon. Vi kan være lurt å prøve å gjøre det. Hver vei med potensielle løsninger vil virke verdig å forfølge.

Som en side, vil jeg umiddelbart erkjenne og merke at AI utvilsomt kommer til å også være en del av problemet også. Det er ingen tvil om at mennesker lett kan utnytte AI for å generere desinformasjon og feilinformasjon. Videre kan AI snikende brukes til å få desinformasjon og feilinformasjon til å se ut til å være utrolig gyldig og lure mennesker til å tro at den presenterte informasjonen er forlokkende nøyaktig og saklig. En desidert trist side av det AI bringer til bordet. Vi vil komme tilbake til denne ulempen mot slutten av denne diskusjonen.

For nå, la oss ta på oss smilefjes og utforske hvordan AI er fordelaktig for å bringe desinformasjon og feilinformasjon til sine mektige knær. En viktig understrøm vil være at alt dette henger sammen med viktige elementer i AI-etikken. Min spaltedekning av AI-etikk og etisk AI er pågående og omfattende, inkludert lenken her og lenken her, bare for å nevne noen få.

Tenk på disse hjørnesteinene som AI kan være en spesielt nyttig alliert i krigen mot desinformasjon og feilinformasjon:

  • Stopp ved start: AI kan brukes til å oppdage og prøve å fjerne desinformasjon og feilinformasjon før den løsner
  • Filtrer før sett: AI kan brukes til å filtrere desinformasjon og feilinformasjon slik at du ikke trenger å bekymre deg for å se den
  • Forbered deg på å være immun: AI kan brukes til å styrke din beredskap og evne til å kjempe med desinformasjon og feilinformasjon (kjent noe formelt som å gi en slags psykologisk inokulering)
  • Annen

Det første oppførte punktpunktet innebærer å prøve å stoppe desinformasjon og feilinformasjon på et tidligst mulig tidspunkt, før innholdet kommer ut i verden.

Dette er en svært problematisk tilnærming. Noen vil hevde høyt at dette kan være et Big Brother-forsøk på å undertrykke ytringsfriheten. Hvor langt vil denne AI kunne gå? Kan det hindre folk i å uttrykke sine synspunkter fritt? Dette kan på uhyggelig vis bli en glatt bakke av AI som til slutt blir det verste marerittet med onde resultater som uskyldig startet med de beste intensjoner.

Jeg er sikker på at du skjønner bildet.

Det andre kulepunktet er litt mer moderat og antyder at vi kan bruke AI til å filtrere innhold for oss.

Du kan ha en AI-filterbot som skanner alle dine innkommende datastrømmer fra forskjellige nyheter og andre kilder. AI er skreddersydd for å fange opp eventuell desinformasjon eller feilinformasjon som passer dine personlige kriterier. Derfor, i et slikt scenario, er det ikke en Big Brother-sensursituasjon. Du kontrollerer AI og hvordan den filtrerer den veritable innboksen din med informasjon på dine vegne.

Høres ganske bra ut.

Det er imidlertid noen bemerkelsesverdige bekymringer.

For eksempel er vi allerede sterkt polarisert i våre synspunkter, og denne bruken av AI kan gjøre den polariseringen dypere og mørkere. Tenk deg at med denne glatte AI-en som jobber uavbrutt 24×7, trenger du aldri å se et snev av informasjon som du har klassifisert som potensielt desinformasjon og feilinformasjon. Ditt polariserte perspektiv er nå nesten garantert å forbli intakt. Hele dagen lang, og når du prøver å ta en titt på informasjonen som venter på din oppmerksomhet, er den alltid fullstendig forhåndsvalgt, og ingen sjanse til å se på såkalt desinformasjon og feilinformasjon.

Jeg sier at desinformasjon og feilinformasjon kan være såkalte fordi det er en enorm mengde kontroverser om hva som faktisk utgjør desinformasjon og feilinformasjon. Noen forståsegpåere insisterer på at det er et absolutt grunnlag for å fastslå hva som er desinformasjon og hva som er feilinformasjon. Det er rett og galt. Alt kan beregnes uten å feile at noe er enten desinformasjon eller feilinformasjon.

Det er ikke alle som ser på ting som så tydelige.

Den ordspråklige på-eller-av gjensidig utelukkende dikotomikontrasten sies å være en misvisende sinnstilstand. En persons desinformasjon kan ikke anses som desinformasjon til en annen person. Likeså om feilinformasjon. Påstanden er at desinformasjon og feilinformasjon varierer i form av natur og omfang. Å prøve å klassifisere all informasjon definitivt i den ene eller den andre haugen er mye vanskeligere enn håndvifting antyder.

Hovedpoenget er at det andre kulepunktet om bruk av AI som en filtreringsmekanisme har sine avveininger. Det er liten tvil om at AI i økende grad kommer til å bli brukt til denne bruken. Samtidig må vi være oppmerksomme på utfordringene som slik AI kommer til å bringe frem. AI som et filter for desinformasjon og feilinformasjon er ikke noen sølvkule eller slam dunk.

Det tar oss til det tredje punktet, nemlig muligheten for å bruke AI for å gjøre mennesker bedre til å håndtere desinformasjon og feilinformasjon.

Jeg tviler på at du sikkert har hørt mye om denne tredje måten å bruke AI i denne sammenhengen. Det begynner bare å dukke opp. Du er nå i forkant av noe som sannsynligvis vil vokse og gradvis bli tatt i bruk. Vær imidlertid oppmerksom på at etter hvert som denne populariteten øker, vil kontroversen om hvorvidt det er en passende tilnærming også bli svært synlig.

En del av problemet er at kunstig intelligens til en viss grad blir brukt til det noen på en nedsettende måte vil referere til som spille tankespill med mennesker.

Det virker illevarslende.

Dette bringer oss også til AI-etikkens rike.

Alt dette er også knyttet til nøkternt fremvoksende bekymringer rundt dagens AI og spesielt bruken av Machine Learning og Deep Learning som en form for teknologi og hvordan den blir utnyttet. Du skjønner, det er bruk av ML/DL som har en tendens til å innebære at AI blir antropomorfisert av allmennheten, ved å tro eller velge å anta at ML/DL enten er sansende AI eller nær (det er det ikke). I tillegg kan ML/DL inneholde aspekter ved beregningsmønstermatching som er uønskede eller direkte upassende, eller ulovlige fra etiske eller juridiske perspektiver.

Det kan være nyttig å først avklare hva jeg mener når jeg refererer til AI generelt og også gi en kort oversikt over Machine Learning og Deep Learning. Det er stor forvirring om hva kunstig intelligens betyr. Jeg vil også introdusere forskriftene til AI-etikk for deg, som vil være spesielt integrert i resten av denne diskursen.

Oppgi posten om AI

La oss sørge for at vi er på samme side om naturen til dagens AI.

Det er ingen AI i dag som er sansende.

Vi har ikke dette.

Vi vet ikke om sentient AI vil være mulig. Ingen kan med rette forutsi om vi vil oppnå sansende AI, og heller ikke om sansende AI på en eller annen måte mirakuløst spontant vil oppstå i en form for beregningsmessig kognitiv supernova (vanligvis referert til som The Singularity, se min dekning på lenken her).

Innse at dagens AI ikke er i stand til å "tenke" på noen måte på linje med menneskelig tenkning. Når du samhandler med Alexa eller Siri, kan samtalekapasiteten virke som menneskelig kapasitet, men realiteten er at den er beregningsmessig og mangler menneskelig erkjennelse. Den siste æraen av AI har gjort omfattende bruk av maskinlæring og dyp læring, som utnytter beregningsmønstermatching. Dette har ført til AI-systemer som ser ut som menneskelignende tilbøyeligheter. I mellomtiden er det ingen kunstig intelligens i dag som har et skinn av sunn fornuft, og heller ikke noe av den kognitive undringen til robust menneskelig tenkning.

En del av problemet er vår tendens til å antropomorfisere datamaskiner og spesielt AI. Når et datasystem eller AI ser ut til å handle på måter som vi forbinder med menneskelig atferd, er det en nesten overveldende trang til å tilskrive menneskelige egenskaper til systemet. Det er en vanlig mental felle som kan gripe tak i selv den mest uforsonlige skeptikeren til sjansene for å oppnå sansning.

Til en viss grad er det derfor AI-etikk og etisk AI er et så viktig tema.

Forskriftene til AI-etikk får oss til å være årvåkne. AI-teknologer kan til tider bli opptatt av teknologi, spesielt optimalisering av høyteknologi. De vurderer ikke nødvendigvis de større samfunnsmessige konsekvensene. Å ha en AI-etikk-tankegang og gjøre det integrert i AI-utvikling og feltarbeid er avgjørende for å produsere passende AI, inkludert vurderingen av hvordan AI-etikk blir tatt i bruk av firmaer.

I tillegg til å bruke AI-etiske forskrifter generelt, er det et tilsvarende spørsmål om vi bør ha lover som regulerer ulike bruk av AI. Nye lover blir slått rundt på føderalt, statlig og lokalt nivå som angår rekkevidden og arten av hvordan AI bør utformes. Arbeidet med å utarbeide og vedta slike lover er gradvis. AI-etikk fungerer i det minste som et betraktet stopp, og vil nesten helt sikkert til en viss grad bli direkte innlemmet i de nye lovene.

Vær oppmerksom på at noen hevder hardt at vi ikke trenger nye lover som dekker AI, og at våre eksisterende lover er tilstrekkelige. De advarer om at hvis vi vedtar noen av disse AI-lovene, vil vi drepe gullgåsen ved å slå ned på fremskritt innen AI som gir enorme samfunnsmessige fordeler. Se for eksempel min dekning på lenken her.

I tidligere spalter har jeg dekket de ulike nasjonale og internasjonale innsatsene for å lage og vedta lover som regulerer AI, se lenken her, for eksempel. Jeg har også dekket de ulike AI-etikkprinsippene og -retningslinjene som ulike nasjoner har identifisert og vedtatt, inkludert for eksempel FNs innsats som UNESCO-settet med AI-etikk som nesten 200 land vedtok, se lenken her.

Her er en nyttig nøkkelsteinsliste over etiske AI-kriterier eller egenskaper angående AI-systemer som jeg tidligere har utforsket nøye:

  • Åpenhet
  • Rettferdighet og rettferdighet
  • Ikke-ondsinnethet
  • Ansvar
  • Privatliv
  • godgjør
  • Frihet og autonomi
  • Stol
  • Bærekraft
  • Verdighet
  • Solidaritet

Disse AI-etikk-prinsippene er oppriktig ment å bli brukt av AI-utviklere, sammen med de som styrer AI-utviklingsinnsatsen, og til og med de som til slutt jobber med og utfører vedlikehold på AI-systemer. Alle interessenter gjennom hele livssyklusen for utvikling og bruk av kunstig intelligens anses innenfor rammen av å overholde de etablerte normene for etisk kunstig intelligens. Dette er et viktig høydepunkt siden den vanlige antagelsen er at "bare kodere" eller de som programmerer AI-en er underlagt AI-etikkens forestillinger. Som tidligere understreket her, krever det en landsby for å utvikle og sette i gang AI, og som hele landsbyen må være kjent med og overholde AI-etiske forskrifter.

La oss holde ting nede på jorden og fokusere på dagens beregningsbaserte ikke-følende AI.

ML/DL er en form for beregningsmønstermatching. Den vanlige tilnærmingen er at du samler data om en beslutningsoppgave. Du mater dataene inn i ML/DL-datamodellene. Disse modellene søker å finne matematiske mønstre. Etter å ha funnet slike mønstre, hvis det er funnet, vil AI-systemet bruke disse mønstrene når de møter nye data. Ved presentasjon av nye data brukes mønstrene basert på de "gamle" eller historiske dataene for å gi en gjeldende beslutning.

Jeg tror du kan gjette hvor dette er på vei. Hvis mennesker som har tatt de mønstrede avgjørelsene har inkorporert uheldige skjevheter, er sjansen stor for at dataene reflekterer dette på subtile, men betydelige måter. Maskinlæring eller Deep Learning beregningsmønstermatching vil ganske enkelt prøve å matematisk etterligne dataene tilsvarende. Det er ingen antydning av sunn fornuft eller andre sansende aspekter ved AI-laget modellering i seg selv.

Dessuten er det kanskje ikke sikkert at AI-utviklerne skjønner hva som skjer. Den mystiske matematikken i ML/DL kan gjøre det vanskelig å fjerne de nå skjulte skjevhetene. Du vil med rette håpe og forvente at AI-utviklerne vil teste for potensielt begravde skjevheter, selv om dette er vanskeligere enn det kan virke. Det er en solid sjanse for at selv med relativt omfattende testing vil det fortsatt være skjevheter innebygd i mønstertilpasningsmodellene til ML/DL.

Du kan litt bruke det berømte eller beryktede ordtaket om søppel-inn søppel-ut. Saken er at dette er mer beslektet med skjevheter-in som snikende blir tilført som skjevheter nedsenket i AI. Algoritmen beslutningstaking (ADM) til AI blir aksiomatisk full av ulikheter.

Ikke bra.

Jeg tror at jeg nå har satt scenen for tilstrekkelig å diskutere rollen til AI som et middel til å fremkalle psykologisk inokulering knyttet til håndtering av desinformasjon og feilinformasjon.

Komme inn i hodet til mennesker

La oss starte med det grunnleggende eller grunnleggende som ligger til grunn for feilinformasjon og desinformasjon.

Vanligvis refererer feilinformasjon til falsk eller villedende informasjon.

Desinformasjon er omtrent det samme, men består av det ekstra elementet hensikt. Vi tolker vanligvis informasjon som desinformasjon når det er informasjonen tiltenkt å feilinformere.

Jeg kan fortelle deg at klokken er 10 om natten, som la oss si er falsk fordi klokken egentlig er midnatt. Hvis jeg hadde fortalt deg klokken 10 som en anelse og ikke prøvde å lure, ville vi vanligvis si at jeg hadde feilinformert deg. Jeg hadde formidlet feilinformasjon. Kanskje jeg var lat, eller kanskje jeg virkelig trodde at klokken var 10. På den annen side, hvis jeg hadde nevnt klokken 10 fordi jeg med vilje ønsket å lure deg til å tro at klokken var 10 og at jeg visste at klokken faktisk var midnatt, kan dette sies å være en form for desinformasjon .

Et bemerkelsesverdig aspekt ved informasjon generelt er at vi vanligvis er i stand til å spre informasjon og dermed kan informasjon bli noe utbredt. Informasjon kan sannelig flyte som vann, i vid forstand.

Jeg sier deg at klokken er 10 om natten. Du har nå den spesielle informasjonen. Du kan rope høyt til en gruppe mennesker i nærheten at klokken er 10 om natten. De har nå også den samme informasjonen. Kanskje noen av disse menneskene setter seg på mobiltelefonen og ringer andre for å fortelle dem at klokken er 10. Alt i alt kan informasjon spres eller deles, og noen ganger gjøres det så raskt, mens det i andre tilfeller gjøres så sakte.

På en måte kan du hevde at informasjon kan gå viralt.

Det er et oppfunnet ord eller terminologi som du kanskje ikke har sett eller brukt spesielt som hjelper til med å beskrive dette fenomenet med informasjon som går viralt, ordet er infodemisk. Dette ordet er en blanding av både informasjon og det å være en epidemi. Stort sett er en infodemi forbundet med omstendigheter som involverer spredning av feilinformasjon eller desinformasjon. Tanken er at falsk eller villedende informasjon kan gå viralt, uønsket, lik uønsket spredning av sykdom eller sykdommer.

I eksemplet om klokken 10 om natten, var dette tilsynelatende faktum en opplysning som ble spredt til den nærliggende gruppen mennesker. De sprer på sin side fakta til andre. Hvis klokken 10 var falsk, ble denne spesielle forekomsten av desinformasjon eller feilinformasjon spredt til mange andre. De vet kanskje ikke at informasjonen var feilinformasjon eller muligens desinformasjon.

Jeg stoler på at alle disse definisjonene og grunnleggende virker fornuftige og at du er ombord så langt.

Flott, la oss fortsette.

Jeg har ført deg litt i det skjulte inn i noe som opptar mye fascinasjon og også angst. Hovedpoenget er at det uten tvil er rimelige paralleller mellom hva sykdommer gjør viralt og hva feilinformasjon eller desinformasjon gjør viralt.

Ikke alle er enige i disse påståtte parallellene. Ikke desto mindre er de spennende og verdt å vurdere.

Tillat meg å utdype.

Du skjønner, vi kan prøve å utnytte den praktiske analogien med å referere til menneskebårne sykdommer og sykdommer som sprer seg, og gjøre det for å sammenligne en lignende mulighet med spredning av feilinformasjon og desinformasjon. For å prøve å stoppe spredningen av sykdommer, kan vi ta sikte på å tidlig oppdage og forsøke å begrense en ny syk kilde til potensiell spredning av sykdommen. En annen tilnærming til å håndtere en spredende sykdom vil være å beskytte seg mot å få den ved forsiktig bruk av maske eller verneutstyr. En tredje tilnærming kan bestå av å ta vaksinasjoner for å prøve å bygge immunitet knyttet til sykdommen.

Vi har nå kommet full sirkel ved at de samme tilnærmingene til mestring av sykdommer eksplisitt kan sammenlignes med å håndtere feilinformasjon og desinformasjon. Jeg nevnte tidligere at det pågår lignende anstrengelser for å bruke kunstig intelligens for å prøve å takle desinformasjon og feilinformasjon, spesielt (som nevnt tidligere):

  • Stopp ved start: AI kan brukes til å oppdage og prøve å fjerne desinformasjon og feilinformasjon før den løsner
  • Filtrer før sett: AI kan brukes til å filtrere desinformasjon og feilinformasjon slik at du ikke trenger å bekymre deg for å se den
  • Forbered deg på å være immun: AI kan brukes til å styrke din beredskap og evne til å kjempe med desinformasjon og feilinformasjon (kjent noe formelt som å gi en slags psykologisk inokulering)
  • Annen

Det tredje aspektet vil være av størst interesse her.

Her er avtalen.

Vi vet at sykdommer vanligvis rammer menneskekroppen. Med analogien til hvordan feilinformasjon og desinformasjon oppstår, kan vi foreslå at stygg informasjon rammer menneskelig sinn. Ja, du kan antagelig komme i kontakt med desinformasjon eller feilinformasjon som strømmer inn i tankene dine. Desinformasjonen eller feilinformasjonen kan potensielt ødelegge eller forgifte din måte å tenke på.

En menneskekropp kan vaksineres for å prøve å forberede seg på å komme i kontakt med sykdommer. Et stort spørsmål oppstår om vi kan gjøre det samme for menneskesinnet. Er det mulig å prøve å inokulere sinnet slik at når desinformasjon eller feilinformasjon dukker opp, er du klar for det og har blitt inokulert deretter?

Et fagfelt kjent som psykologisk inokulering antyder at sinnet faktisk kan inokuleres i den forstand at det er forberedt på å håndtere feilinformasjon eller desinformasjon.

Tenk på denne beskrivelsen i en nylig forskningsstudie angående psykologisk inokulering og hva som noen ganger kalles å gjøre prebunking:

  • "Å avsløre feilinformasjon er også problematisk fordi å korrigere feilinformasjon ikke alltid opphever effektene helt, et fenomen kjent som den fortsatte påvirkningseffekten. Følgelig, i motsetning til debunking, har prebunking fått en fremtredende rolle som et middel til forebyggende å bygge motstandskraft mot forventet eksponering for feilinformasjon. Denne tilnærmingen er vanligvis forankret i inokulasjonsteori. Inokulasjonsteorien følger en medisinsk immuniseringsanalogi og antyder at det er mulig å bygge psykologisk motstand mot uønskede overtalelsesforsøk, omtrent som medisinske inokulasjoner bygger fysiologisk motstand mot patogener.Vitenskap Fremskritt24. august 2022, "Psykologisk inokulering forbedrer motstandskraften mot feilinformasjon på sosiale medier" av medforfatterne Jon Roozenbeek, Sander van der Linden, Beth Goldberg, Steve Rathje og Stephan Lewandowsky).

For å gå tilbake til eksempelet mitt om klokken 10 om natten, anta at jeg tidligere hadde fortalt deg at noen ganger er den påståtte tiden ikke den faktiske tiden. Du har heretter en form for inokulering for å være på vakt mot påkrevde tider. Denne inokuleringen har forberedt deg på å komme i kontakt med påståtte tidspunkter som er desinformasjon eller feilinformasjon.

Hvis jeg hadde advart deg for flere år siden om påståtte tider som ikke er faktiske tider, er det en sjanse for at du kanskje ikke tenker på den advarselen for lenge siden. Dermed har den tidligere inokulasjonen (skal vi si) slitt ut. Min inokulasjon for deg må kanskje forsterkes.

Det er også en sjanse for at inokulasjonen ikke var spesifikk nok til at du kunne bruke den når det var nødvendig. Hvis jeg hadde advart deg for mange år siden om påståtte tider kontra faktiske tider, kan det være for bredt. Inokuleringen fungerer kanskje ikke i det spesifikke tilfellet du blir fortalt rundt klokken 10. Sånn sett burde kanskje inokulasjonen min vært at du skal være på vakt når en påstått tid på 10-tiden brukes. Selvsagt er inokulasjoner ved sykdommer noe likt, til tider svært spesifikke for kjente plager, mens det i andre tilfeller er et bredt spekter.

En ofte sitert forskningsstudie utført i 1961 på psykologisk inokulering av William McGuire fra Columbia University, regnes nå generelt som en klassiker innen dette studiefeltet. Du kan være interessert i disse nøkkelpunktene han gjorde på den tiden:

  • "Slik generalisert immunisering kan stamme fra en av to mekanismer. Forhåndseksponering kan sjokkere personen til å innse at "truismene" han alltid har akseptert faktisk er sårbare, og dermed provosere ham til å utvikle et forsvar for sin tro, med det resultat at han er mer motstandsdyktig mot de sterke motargumentene når de kommer. Alternativt kan tilbakevisningene involvert i forhåndseksponeringen få alle senere presenterte motargumenter mot troen til å virke mindre imponerende" (William McGuire, "Resistance To Persuasion Conferred By Active And Passive Preor Refutation Of The Same And Alternative Counterarguments", Journal of Abnormal and Sosialpsykologi, 1961).

Synes du denne analogien av inokulering og immunisering er en nyttig og passende sammenligning med riket av feilinformasjon og desinformasjon?

Noen gjør det, noen gjør det ikke.

For formålet med denne diskusjonen, vennligst aksepter at forutsetningen er rimelig og passende.

Hvordan skal vi prøve å inokulere eller immunisere folks sinn?

Vi kunne få folk til å lese bøker som kan opplyse deres sinn. Vi kan fortelle dem om det, eller få dem til å se videoer eller lytte til lydbånd. Etc.

Og vi kan bruke AI til å gjøre det samme.

Et AI-system kan være utviklet for å være din inokulator. Hver gang du begynner å gå på nettet, for eksempel å se på Internett, kan en AI-basert app forberede deg på reisen din på nettet. AI kan gi deg en bitteliten mengde desinformasjon som er merket som sådan, slik at du kan innse at du er i ferd med å se noe som med vilje er falskt.

Etter å ha blitt utsatt for denne AI-matede desinformasjonen, begynner tankene dine nå å takle desinformasjon eller feilinformasjon som du kan møte i naturen på Internett. Sinnet ditt er gjort klar. Voila, du ser en blogg på Internett som fremhever et påstått faktum at fremmede skapninger fra Mars allerede er her på jorden og gjemmer seg i synlige øyne, men denne tilsynelatende desinformasjonen eller feilinformasjonen blir lett avvist av sinnet ditt på grunn av den tidligere inokuleringen (vel, så igjen, kanskje det er sannferdig og de virkelig er her!).

Uansett håper jeg at du er i stand til å se hvordan det er at AI kan hjelpe til med å inokulere eller immunisere mennesker med hensyn til desinformasjon eller feilinformasjon.

Ulike AI-apper blir utviklet som vil fungere som desinformasjon eller feilinformasjonsinokulatorer. AI kan søke å gi inokulering som er bred og gir et generelt utseende av immunisering. AI kan også utvikles for mer spesifikke former for inokulering. Videre kan AI arbeide på en personlig basis som er tilpasset dine spesielle behov eller interesser. Avansert AI i dette området vil også prøve å bestemme ditt toleransenivå, mentale absorpsjonshastighet, retensjonskapasitet og andre faktorer når du komponerer og presenterer såkalte immuniseringsskudd.

Virker ganske praktisk.

AI som farlig tankespillspiller

AI brukt på denne måten ville ved første øyekast virke ganske nyttig (hei, jeg nevnte det for bare et sekund siden).

Det er en rekke potensielle ulemper og problemer som er bekymringsfulle og kanskje skremmende.

I mine spalter diskuterer jeg ofte dual-use kapasiteten til AI, se for eksempel lenken her. AI kan være en viktig bidragsyter til menneskeheten. Akk, AI er også beheftet med mange farer og uheldige fallgruver.

For tilfellet med AI som en inculcator, la oss vurdere disse demonstrative AI-etikkrelaterte problemene:

  • Bivirkninger fra mennesker
  • Ikke-responsive reaksjoner fra mennesker
  • AI feilmålretting
  • AI undermålretting
  • Cyberbrudd på AI
  • Annen

Vi vil kort undersøke disse bekymringene.

Bivirkninger av mennesker

Anta at et menneske som mottar denne typen AI-basert inokulering har en negativ reaksjon eller gir en negativ effekt.

Personen kan misforstå immuniseringen og plutselig bli ufølsom for all informasjon de mottar. De blokkerer all informasjon. AI har på en eller annen måte trigget dem til å kaste ut babyen med badevannet (et gammelt ordtak, kanskje verdt å trekke seg tilbake). I stedet for bare å prøve å takle desinformasjon og feilinformasjon, har personen reagert med å bestemme at all informasjon alltid er falsk.

Jeg tror ikke vi vil at folk skal gå så overhånd.

Det er en mengde uønskede reaksjoner som AI kan fremme. Dette skyldes delvis hvordan AI forsøkte å utføre inokuleringen, men vi må også legge en del av problemet til føttene til mennesket som mottok inokuleringen. De kan ha reagert på ville eller bisarre måter at andre som mottok den samme AI-inokulasjonen ikke gjorde det.

Igjen, du kan sammenligne dette med analogien til inokulasjoner for sykdommer.

Kort sagt, det vil være viktig at når slik AI-innsats blir brukt, gjøres de på ansvarlige måter som søker å minimere uønskede effekter. Det bør også være et oppfølgingsaspekt av AI for å prøve å finne ut om en bivirkning har oppstått. Hvis det oppdages en uønsket reaksjon, bør AI-en utformes for å prøve å hjelpe personen i deres uønskede reaksjon og forsøke å overvinne eller lindre responsen.

Ikke-responsive reaksjoner fra mennesker

En annen mulighet er at den AI-matede inokulasjonen ikke har noen innvirkning på mottakeren.

En person får en AI-basert inokulering relatert til feilinformasjon eller desinformasjon. Mens de fleste "får det" og blir vaksinert, er det garantert mennesker som ikke vil reagere i det hele tatt. De lærer ingenting av inokuleringen. De reagerer ikke på AI-forsøket på å immunisere dem for enten all eller visse typer feilinformasjon eller desinformasjon.

Nok en gang kan dette sammenlignes med inokulasjoner for sykdommer.

AI burde være utviklet for å takle en slik omstendighet.

AI feilsøking

Tenk deg at en AI håper å immunisere folk angående et bestemt emne som vi vil si er emne X, men det viser seg at emne Y i stedet blir dekket. AI er feilmålrettet.

Dette er et todelt problem. For det første har emne X da ikke blitt dekket som det antatte og håpede formålet med AI-inokulatoren. For det andre er tema Y dekket, men vi ville kanskje ikke at folk skulle vaksineres mot det emnet.

Oops.

Spørsmål florerer. Kunne dette vært forhindret fra å skje? Hvis det skjer, kan vi angre temaet Y-vaksinering? Kan vi forsøke å dekke emnet X inokulering, eller vil personen være mindre mottakelig eller ikke-mottakelig på grunn av feilmålrettingen av AI opprinnelig?

Mange problematiske bekymringer oppstår.

AI-undermålretting

En AI gir en inokulering om emnet Z. Personene som mottar inokuleringen ser ut til å ha en minimal eller nesten ubetydelig reaksjon. Inokulasjonen var utilstrekkelig til å feste seg.

Du kan bli fristet til raskt å hevde at dette er enkelt å løse. Alt du trenger å gjøre er å gjenta inokuleringen. Kanskje ja, kanskje nei.

AI-inokulationen kan være av så begrenset verdi at uansett om du har folk som opplever det hundre ganger, er resultatet fortsatt et marginalt resultat. Du må kanskje øke inokuleringen i stedet for bare å gjenta den.

I mellomtiden kan du forestille deg at det gjøres et forsøk på å øke den AI-matede inokulasjonen, men dette går over bord. Den forsterkede versjonen forårsaker hyperreaksjoner. Jepp, vi har kommet fra vondt til verre.

Cyberbrudd på AI

Se for deg at AI brukes mye for å hjelpe folk med å bli inokulert fra desinformasjon og feilinformasjon.

En generell tillit tar tak i folk. De vet og forventer at AI kommer til å presentere dem med utdrag som vil åpne øynene deres for det som er kjent som desinformasjon og feilinformasjon.

Alt er vel og bra, ser det ut til.

En ondskapsmann er på en eller annen måte i stand til å gjøre et cyberbrudd på AI. De tvinger snikende inn i AI noe ønsket desinformasjon som de vil at folk skal tro ikke er desinformasjon. AI er arrangert for å få den faktiske desinformasjonen til å se ut til å være sann informasjon. I tillegg er den sanne informasjonen laget for å fremstå som desinformasjon.

Folk er fullstendig snookered. De blir desinformert av AI. På toppen av det, fordi de var blitt avhengige av AI-en, og på grunn av tilliten til at AI-en gjorde det rette, faller de på kroken, linen og synker for denne brutte AI-en. Uten å nøle.

Gitt hvor lett desinformasjon kan spre seg videre, kan den onde gjerningsmannen nyte at eksistensen av denne typen AI er deres enkleste og raskeste måte å få deres lumske løgner til å gå verden rundt. Ironisk nok, selvfølgelig, etter å ha utnyttet AI-inokulatoren til å spre sykdommen.

konklusjonen

Bør vi ha AI til å spille tankespill med oss?

Kan AI for desinformasjon og inokulering av feilinformasjon være en truende trojansk hest?

Du kan gjøre en saklig sak for å bekymre deg for et slikt mareritt.

Andre håner en slik mulighet. Folk er smarte nok til å vite når AI prøver å lure dem. Folk vil ikke falle for slike driblinger. Bare idioter ville bli villedet av slik kunstig intelligens. Det er de vanlige replikkene og motargumentene.

Jeg vil ikke virke mindre enn å beundre mennesker og den menneskelige natur, men jeg vil bare foreslå at det er god indikasjon på at mennesker kan falle for AI som villeder dem.

Det er et enda større problem som kanskje ruver over alt dette.

Hvem lager AI og hvordan bestemmer AI algoritmisk hva som anses som desinformasjon og feilinformasjon?

En hel brannkamp foregår i dag i verden for øvrig om hva som spesifikt utgjør desinformasjon og feilinformasjon. Noen hevder at fakta er fakta, og derfor kan det aldri være noen forvirring om hva riktig informasjon versus upassende informasjon er. Selv om djevelen til tider er i detaljene, det er helt sikkert.

En siste bemerkning foreløpig. Abraham Lincoln sa berømt: "Du kan lure alle mennesker noen ganger og noen av menneskene hele tiden, men du kan ikke lure alle mennesker hele tiden."

Vil AI som brukes for å hjelpe til med inokulering av menneskeheten fra desinformasjon og feilinformasjon være et viktig verktøy for å sikre at ikke alle mennesker kan bli lurt hele tiden? Eller kan det brukes til å lure flere av folket mer av tiden?

Tiden vil vise.

Og det er garantert ingen desinformasjon eller feilinformasjon.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-induced-psychological-inoculation-to-help-humans-with-disinformation/