AI-etikk ryker om at The Rising Hot Potato Syndrome blir brukt av AI-produsenter som tilsynelatende prøver å unngå ansvarlighet for deres livsavgjørende autonome systemer

Vi vet alle at du skal sørge for at du ikke ender opp med den velkjente varme poteten.

Den varme potetgambiten ser ut til å spore sine røtter til i det minste slutten av 1800-tallet da et salongspill med tente lys på en måte fikk ballen til å rulle. Folk ville vanligvis satt i en serie trestoler som var relativt ved siden av hverandre og spilte et totalt spennende spill i den tiden. Et tent lys ble gitt fra person til person av spillerne og representerte det vi senere valgte å uttrykke som å overlevere en varm potet.

Det var vanlig at hver person ble pålagt å snakke høyt et populært rim før de kunne passere det gradvis brennende stearinlyset. Rimet gikk tydeligvis slik:

«Jack er i live og vil sannsynligvis leve;

Hvis han dør i hånden din, har du tapt å gi."

Denne rimresitalen vil antagelig gi lyset litt tid til å fortsette å brenne ned mot den endelige konklusjonen. Den som ble sittende fast med stearinlyset i sin besittelse ved den naturlige slukkingen på slutten, var personen som tapte kampen (ordspill!).

I henhold til ordene som er angitt i rimet, måtte taperen betale "tap" og måtte derfor vanligvis avslutte eventuelle ytterligere runder av spillet. Dette kan da kombineres med det vi i dag betrakter som hverdagsmusikalske stoler, slik at personen som har tapt runden ikke lenger vil delta i påfølgende runder (som om musikken stoppet og de ikke klarte å få et ledig sete). Til syvende og sist ville det bare være to personer til overs som passerte det tente stearinlyset og sa rimet, helt til en endelig vinner ble kåret i den endelige slukkingen.

Du lurer kanskje på hvorfor vi ikke lenger spiller dette spillet med et tent stearinlys, og hvorfor vi i stedet vanligvis refererer til dette som en varm potet i stedet for å fremstille dette som et "tent stearinlys"-opplegg. Forskere har kommet opp med mange teorier om hvordan dette gradvis skjedde. Historien virker uklar og usikker på hvordan ting utviklet seg i denne saken. Jeg antar at vi kan være lettet over at tente stearinlys ikke ofte brukes på denne måten, siden sjansene for at noe går påtagelig galt vil virke svært bekymringsfullt (noen slipper lyset og setter opp en brann, eller noen blir brent av lyset når de får det fra en annen spiller osv.).

Når det gjelder den varme poteten som en potensiell erstatning for det tente stearinlyset, kan du generelt hevde at poteten vil være noe tryggere totalt sett. Ingen åpen flamme. Ingen smeltende voks. Det potensielle grunnlaget for å bruke poteter i denne sammenhengen er at de er kjent for å holde på varmen når de er varmet opp. Du kan sende poteten rundt og den holder seg varm en stund. Man antar at det å bestemme seg for når den varme poteten ikke lenger er varm og i stedet blir vurdert som kald ville være et heftig diskutabelt forslag.

Selvfølgelig er forestillingen om en velkjent varm potet mer en frittstående vurdering i disse dager. Alt som er vurdert eller rangert som en varm potet er vanligvis av en seriøst kvitt-kvalitet. Du vil ikke holde en varm potet. Du vil være sikker på at den går et annet sted. Til en viss grad er du kanskje ikke overdrevent bekymret over hvor den går, bare at den ikke lenger er i din besittelse.

Du vil virke ganske følelsesløs for potensielt å gi en varm potet til en kjær venn eller lignende bekjent. Dette vil virke helt ute av stand. Kanskje finne noen andre eller et annet sted å sette den varme poteten, hvis du kan gjøre det. Et desperat trekk kan være å tvinge den varme poteten over på en kjærlig kollega, men dette gjøres forhåpentligvis bare som en siste utvei.

Den andre siden av den mynten er at du kan glede deg over å gi en varm potet til noen du ikke liker eller som du søker hevn på. Jada, en varm potet kan være nesten fantastisk nyttig hvis du har som mål å undergrave en person som har behandlet deg dårlig. La dem finne ut hva de skal gjøre med den varme poteten. God riddance til poteten og verst lykke til den du har tagget den med.

I en varm potetscenario som involverer bare to personer, er det mulighet for en rask frem-og-tilbake-strid om hvilken person som holder den ubehagelige og uvelkomne gjenstanden. For eksempel gir jeg den varme poteten til deg, og du gir den raskt tilbake til meg. Forutsatt at vi ikke trenger å annonsere et barnerim mellom hver overlevering, kan vi stort sett bare passere poteten så fort som armene våre tillater oss å gjøre det.

Du er kanskje nysgjerrig på hvorfor jeg har valgt å gjøre et dypdykk i den ærede og ofte siterte varme poteten.

Her er hvorfor.

Det viser seg at den varme potetformen i økende grad blir brukt innen kunstig intelligens (AI).

De fleste vet ingenting om det. De har aldri hørt om det. De er helt uvitende om hva det er. Selv mange AI-utviklere er ikke klar over saken. Ikke desto mindre eksisterer den og ser ut til å bli brukt i virkelig tvilsomme omgivelser, spesielt tilfeller som involverer liv-eller-død-omstendigheter.

Jeg refererer til dette som AI Hot Potato Syndrome.

Det er mange alvorlige konsekvenser som ligger til grunn for dette syndromet, og vi må sørge for at vi tar på oss AI Ethics-tenkehettene og vurderer hva som bør gjøres. Det er nøkterne etiske hensyn. Det er garantert bemerkelsesverdige juridiske implikasjoner også (som ennå ikke har nådd samfunnssynlighet, selv om jeg spår at de snart vil gjøre det). For min pågående og omfattende dekning av AI-etikk, etisk AI og juridiske AI-spørsmål, se lenken her og lenken her, bare for å nevne noen få.

La oss pakke ut AI Hot Potato Syndrome.

Se for deg et AI-system som jobber sammen med et menneske. AI-en og mennesket passerer kontroll over en pågående aktivitet, slik at til tider har mennesket kontroll, mens andre ganger har AI-en kontroll. Dette kan først gjøres på en veloppdragen eller rimelig måte. Av forskjellige grunner, som vi skal komme inn på et øyeblikk, kan AI-en beregningsmessig fastslå at kontrollen raskt må overføres til mennesket.

Dette er varm potet som kommer til å sette livet i fare i den virkelige verden i stedet for bare å tjene som et lærerikt barnespill.

Problemet med en forhastet overføring av kontroll fra AI til mennesket er at dette kan gjøres på en rimelig måte eller kan oppnås på en ganske urimelig måte. Hvis mennesket ikke spesielt forventer overleveringen, er dette sannsynligvis et problem. Hvis mennesket generelt er i orden med å overføre kontrollen, kan omstendighetene som ligger til grunn for overdragelsen være skremmende når mennesket får utilstrekkelig tid eller utilstrekkelig bevissthet om hvorfor kontrollen blir tvangsmatet i menneskehender.

Vi vil utforske eksempler på hvordan dette kan skape liv-eller-død-fare for mennesket og muligens andre nærliggende mennesker. Det er alvorlige greier. Punktum, punktum.

Før du kommer inn på noen flere av de kjøttfulle fasettene til de ville og ullene hensyn som ligger til grunn for AI Hot Potato Syndrome, la oss legge ut noen ekstra grunnleggende om svært viktige emner. Vi trenger et kort dykk i AI-etikk og spesielt bruken av Machine Learning (ML) og Deep Learning (DL).

Du er kanskje vagt klar over at en av de høyeste stemmene i disse dager i AI-feltet og til og med utenfor AI-feltet består av å rope etter et større utseende av etisk AI. La oss ta en titt på hva det betyr å referere til AI-etikk og etisk AI. På toppen av det vil vi utforske hva jeg mener når jeg snakker om maskinlæring og dyplæring.

Et bestemt segment eller del av AI-etikken som har fått mye oppmerksomhet i media, består av AI som viser uheldige skjevheter og ulikheter. Du er kanskje klar over at da den siste æraen med kunstig intelligens kom i gang var det et stort utbrudd av entusiasme for det noen nå kaller AI For Good. Dessverre begynte vi å være vitne til etter den fossende spenningen AI for Bad. For eksempel har forskjellige AI-baserte ansiktsgjenkjenningssystemer blitt avslørt å inneholde rasemessige skjevheter og kjønnsskjevheter, som jeg har diskutert på lenken her.

Anstrengelser for å kjempe tilbake mot AI for Bad er aktivt i gang. Dessuten høyrøstet lovlig jakten på å tøyle urettferdighetene, er det også et betydelig løft mot å omfavne AI-etikk for å rette opp AI-eiendommen. Tanken er at vi bør ta i bruk og støtte viktige etiske AI-prinsipper for utvikling og felt av AI for å undergrave AI for Bad og samtidig varsle og fremme det som er å foretrekke AI For Good.

På en beslektet oppfatning er jeg en talsmann for å prøve å bruke AI som en del av løsningen på AI-problemer, og bekjempe ild med ild på den måten å tenke på. Vi kan for eksempel bygge inn etiske AI-komponenter i et AI-system som vil overvåke hvordan resten av AI gjør ting og dermed potensielt fange opp i sanntid enhver diskriminerende innsats, se diskusjonen min på lenken her. Vi kan også ha et eget AI-system som fungerer som en type AI Ethics-monitor. AI-systemet fungerer som en tilsynsmann for å spore og oppdage når en annen AI går inn i den uetiske avgrunnen (se min analyse av slike evner på lenken her).

Om et øyeblikk vil jeg dele med deg noen overordnede prinsipper som ligger til grunn for AI-etikk. Det er mange slike lister som flyter rundt her og der. Du kan si at det ennå ikke er en enestående liste over universell appell og samtidighet. Det er den uheldige nyheten. Den gode nyheten er at det i det minste er lett tilgjengelige AI Ethics-lister, og de pleier å være ganske like. Alt i alt tyder dette på at vi ved en form for begrunnet konvergens finner veien mot en generell fellestrekk av hva AI-etikk består av.

Først, la oss kort dekke noen av de generelle etiske AI-reglene for å illustrere hva som bør være en viktig vurdering for alle som lager, driver med eller bruker AI.

For eksempel, som uttalt av Vatikanet i Roma oppfordrer til AI-etikk og som jeg har dekket i dybden på lenken her, dette er deres identifiserte seks primære AI-etiske prinsipper:

  • Åpenhet: I prinsippet må AI-systemer kunne forklares
  • Inkludering: Alle menneskers behov må tas i betraktning slik at alle kan komme til nytte, og alle kan tilbys best mulige forutsetninger for å uttrykke seg og utvikle seg.
  • Ansvar: De som designer og distribuerer bruken av AI må fortsette med ansvar og åpenhet
  • Opartiskhet: Ikke skap eller handle i henhold til partiskhet, og dermed ivareta rettferdighet og menneskeverd
  • Pålitelighet: AI-systemer må kunne fungere pålitelig
  • Sikkerhet og personvern: AI-systemer må fungere sikkert og respektere brukernes personvern.

Som uttalt av det amerikanske forsvarsdepartementet (DoD) i deres Etiske prinsipper for bruk av kunstig intelligens og som jeg har dekket i dybden på lenken her, dette er deres seks primære AI-etiske prinsipper:

  • Ansvarlig: DoD-personell vil utøve passende nivåer av dømmekraft og omsorg mens de fortsatt er ansvarlige for utvikling, distribusjon og bruk av AI-evner.
  • Rettferdig: Avdelingen vil ta bevisste skritt for å minimere utilsiktet skjevhet i AI-evner.
  • Sporbar: Avdelingens AI-evner vil bli utviklet og distribuert slik at relevant personell har en passende forståelse av teknologien, utviklingsprosessene og operasjonelle metoder som gjelder for AI-evner, inkludert transparente og reviderbare metoder, datakilder og designprosedyre og dokumentasjon.
  • Pålitelig: Avdelingens AI-evner vil ha eksplisitte, veldefinerte bruksområder, og sikkerheten, sikkerheten og effektiviteten til slike evner vil være gjenstand for testing og forsikring innenfor de definerte bruksområdene gjennom hele livssyklusen.
  • Styres: Avdelingen vil designe og konstruere AI-evner for å oppfylle deres tiltenkte funksjoner samtidig som den har evnen til å oppdage og unngå utilsiktede konsekvenser, og evnen til å koble ut eller deaktivere utplasserte systemer som viser utilsiktet oppførsel.

Jeg har også diskutert ulike kollektive analyser av AI-etiske prinsipper, inkludert å ha dekket et sett utviklet av forskere som undersøkte og kondenserte essensen av en rekke nasjonale og internasjonale AI-etiske prinsipper i en artikkel med tittelen "The Global Landscape Of AI Ethics Guidelines" (publisert i Natur), og at dekningen min utforsker kl lenken her, som førte til denne keystone-listen:

  • Åpenhet
  • Rettferdighet og rettferdighet
  • Ikke-ondsinnethet
  • Ansvar
  • Privatliv
  • godgjør
  • Frihet og autonomi
  • Stol
  • Bærekraft
  • Verdighet
  • Solidaritet

Som du direkte kan gjette, kan det være ekstremt vanskelig å prøve å finne de spesifikke underliggende prinsippene. Enda mer så er innsatsen for å gjøre disse brede prinsippene til noe helt håndfast og detaljert nok til å brukes når man lager AI-systemer, også en tøff nøtt å knekke. Det er lett generelt å vinke litt med hånden om hva AI-etiske forskrifter er og hvordan de generelt skal overholdes, mens det er en mye mer komplisert situasjon i AI-kodingen som må være den veritable gummien som møter veien.

AI-etikkprinsippene skal brukes av AI-utviklere, sammen med de som styrer AI-utviklingsinnsatsen, og til og med de som til slutt arbeider med og utfører vedlikehold på AI-systemer. Alle interessenter gjennom hele livssyklusen for utvikling og bruk av kunstig intelligens anses innenfor rammen av å overholde de etablerte normene for etisk kunstig intelligens. Dette er et viktig høydepunkt siden den vanlige antagelsen er at "bare kodere" eller de som programmerer AI-en er underlagt AI-etikkens forestillinger. Som tidligere nevnt, kreves det en landsby for å utforme og sette opp AI, og som hele landsbyen må være kjent med og etterleve AI-etiske forskrifter.

La oss også sørge for at vi er på samme side om naturen til dagens AI.

Det er ingen AI i dag som er sansende. Vi har ikke dette. Vi vet ikke om sentient AI vil være mulig. Ingen kan med rette forutsi om vi vil oppnå sansende AI, og heller ikke om sansende AI på en eller annen måte mirakuløst spontant vil oppstå i en form for beregningsmessig kognitiv supernova (vanligvis referert til som singulariteten, se min dekning på lenken her).

Den typen AI som jeg fokuserer på består av den ikke-sansende AI som vi har i dag. Hvis vi ville spekulere vilt om selvbevisst AI, denne diskusjonen kan gå i en radikalt annen retning. En sansende AI ville visstnok være av menneskelig kvalitet. Du må vurdere at den sansende AI er den kognitive ekvivalenten til et menneske. Mer så, siden noen spekulerer i at vi kan ha superintelligent AI, er det tenkelig at slik AI kan ende opp med å bli smartere enn mennesker (for min utforskning av superintelligent AI som en mulighet, se dekningen her).

La oss holde ting mer jordnære og vurdere dagens beregningsbaserte ikke-følende AI.

Innse at dagens AI ikke er i stand til å "tenke" på noen måte på linje med menneskelig tenkning. Når du samhandler med Alexa eller Siri, kan samtalekapasiteten virke som menneskelig kapasitet, men realiteten er at den er beregningsmessig og mangler menneskelig erkjennelse. Den siste æraen av AI har gjort omfattende bruk av Machine Learning (ML) og Deep Learning (DL), som utnytter beregningsmønstermatching. Dette har ført til AI-systemer som ser ut som menneskelignende tilbøyeligheter. I mellomtiden er det ingen kunstig intelligens i dag som har et skinn av sunn fornuft, og heller ikke noe av den kognitive undringen til robust menneskelig tenkning.

ML/DL er en form for beregningsmønstermatching. Den vanlige tilnærmingen er at du samler data om en beslutningsoppgave. Du mater dataene inn i ML/DL-datamodellene. Disse modellene søker å finne matematiske mønstre. Etter å ha funnet slike mønstre, hvis det er funnet, vil AI-systemet bruke disse mønstrene når de møter nye data. Ved presentasjon av nye data brukes mønstrene basert på de "gamle" eller historiske dataene for å gi en gjeldende beslutning.

Jeg tror du kan gjette hvor dette er på vei. Hvis mennesker som har tatt de mønstrede avgjørelsene har inkorporert uheldige skjevheter, er sjansen stor for at dataene reflekterer dette på subtile, men betydelige måter. Maskinlæring eller Deep Learning beregningsmønstermatching vil ganske enkelt prøve å matematisk etterligne dataene tilsvarende. Det er ingen antydning av sunn fornuft eller andre sansende aspekter ved AI-laget modellering i seg selv.

Dessuten er det kanskje ikke sikkert at AI-utviklerne skjønner hva som skjer. Den mystiske matematikken i ML/DL kan gjøre det vanskelig å fjerne de nå skjulte skjevhetene. Du vil med rette håpe og forvente at AI-utviklerne vil teste for potensielt begravde skjevheter, selv om dette er vanskeligere enn det kan virke. Det er en solid sjanse for at selv med relativt omfattende testing vil det fortsatt være skjevheter innebygd i mønstertilpasningsmodellene til ML/DL.

Du kan litt bruke det berømte eller beryktede ordtaket om søppel-inn søppel-ut. Saken er at dette er mer beslektet med skjevheter-in som snikende blir tilført som skjevheter nedsenket i AI. Algoritmen beslutningstaking (ADM) til AI blir aksiomatisk full av ulikheter.

Ikke bra.

La oss gå tilbake til fokuset vårt på den varme poteten og dens potensielt katastrofale bruk i AI. Det er også en djevelskhet som kan lure i det varme potetgrepet.

Som en rask oppsummering om AI-manifestasjonen av den varme potetgambiten:

  • AI og et menneske-i-løkken jobber sammen med en gitt oppgave
  • AI har kontroll noen av tiden
  • Mennesket-i-løkka har kontroll noen av tiden
  • Det er en form for overleveringsprotokoll mellom AI og mennesket
  • Overleveringen kan være svært synlig, eller den kan være subtil og nesten skjult
  • Alt dette er vanligvis innenfor en sanntidskontekst (noe aktivt er i gang)

Hovedfokuset her er når overleveringen i hovedsak er en varm potet og AI velger å plutselig overlate kontrollen til mennesket. Vær oppmerksom på at jeg også senere her vil dekke den andre fasetten, nemlig at mennesket overlater kontrollen til AI som en varm potet.

Tenk først på hva som kan skje når AI gjør en varm potetoverlevering til et menneske-i-løkken.

Jeg kommer til å referere til mennesket som mennesket-i-løkken fordi jeg sier at mennesket allerede er en del av den pågående aktiviteten. Vi kunne ha andre scenarier der et menneske som ikke var spesielt involvert i aktiviteten, kanskje en fremmed for hele saken, får den varme poteten av AI, så husk at andre smaker av dette miljøet finnes.

Hvis jeg ga deg en varm potet og ønsket å gjøre det på en rimelig måte, ville jeg kanskje varslet deg om at jeg kommer til å overlate ting til deg. Dessuten ville jeg prøvd å gjøre dette hvis jeg virkelig trodde at det var bedre å ha den varme poteten generelt enn at jeg hadde den. Jeg ville mentalt regnet ut om du skulle ha det eller om jeg skulle fortsette med det.

Se for deg en basketballkamp. Du og jeg er på samme lag. Vi jobber forhåpentligvis sammen for å prøve å vinne kampen. Det er bare noen få sekunder igjen på klokken, og vi trenger desperat å score, ellers taper vi kampen. Jeg kommer i posisjon for å ta det siste skuddet. Skal jeg gjøre det, eller skal jeg sende ballen til deg og få deg til å ta det siste skuddet?

Hvis jeg er en bedre basketballspiller og har større sjanse til å synke skuddet, burde jeg sannsynligvis beholde basketballen og prøve å gjøre skuddet. Hvis du er en bedre basketballspiller enn meg, bør jeg sannsynligvis gi ballen til deg og la deg ta skuddet. Andre hensyn kommer i forgrunnen, som hvem av oss som er i en bedre posisjon på banen for å ta skuddet, pluss om en av oss er utslitt siden kampen er nesten over og kan være utslitt og ikke opp til pari på skytingen deres. Etc.

Med alle disse faktorene midt i det hektiske øyeblikket, må jeg bestemme meg for om jeg skal beholde ballen eller gi den videre til deg.

Innse at i dette scenariet er klokken avgjørende. Du og jeg blir begge konfrontert med et ekstremt tidsriktig svar. Hele spillet er nå på spill. Når klokken går ut, har vi enten vunnet fordi en av oss gjorde skuddet, eller så har vi tapt siden vi ikke senket det. Jeg kunne kanskje vært helten hvis jeg senker kurven. Eller du kan være helten hvis jeg sender ballen til deg og du senker den.

Det er geitesiden eller ulempene med dette også. Hvis jeg beholder ballen og bommer skuddet, kan alle beskylde meg for å være bukken eller svikte hele laget. På den annen side, hvis jeg sender ballen til deg og du bommer på skuddet, så blir du geiten. Dette kan være helt urettferdig for deg ved at jeg tvang deg til å være den siste skytteren og ta det siste skuddet.

Du ville definitivt vite at jeg satte deg i den off-putting-posisjonen. Og selv om alle kunne se meg gjøre dette, er de nødt til å bare konsentrere seg om den siste personen som hadde ballen. Jeg ville muligens skatet fri. Ingen ville huske at jeg ga deg ballen i siste øyeblikk. De ville bare huske at du hadde ballen og tapte spillet fordi du ikke gjorde skuddet.

Ok, så jeg sender ballen over til deg.

Hvorfor gjorde jeg det?

Det er ingen enkel måte å bestemme dette på.

Mine sanne intensjoner kan være at jeg ikke ønsket å bli sittende fast som bukken, og derfor valgte jeg å legge alt presset på deg. På spørsmål om hvorfor jeg ga ballen, kunne jeg hevde at jeg gjorde det fordi jeg trodde du er en bedre skytter enn meg (men la oss late som om jeg ikke tror det i det hele tatt). Eller jeg trodde at du var i en bedre posisjon enn meg (la oss late som om jeg ikke trodde dette heller). Ingen ville noen gang vite at jeg faktisk bare prøvde å unngå å bli sittende fast med den varme poteten.

Fra utsiden av ting, kunne ingen lett skjelne min sanne begrunnelse for å sende ballen til deg. Kanskje jeg uskyldig gjorde det fordi jeg trodde du var den beste spilleren. Det er én vinkel. Kanskje jeg gjorde det fordi jeg ikke ville at alle skulle kalle meg en taper fordi jeg muligens bommet på skuddet, så jeg fikk ballen til deg og tenkte at det var en stor lettelse for meg. Om jeg virkelig brydde meg om deg er en helt annen sak.

Vi kan nå legge til noen ytterligere detaljer til den AI-relaterte varme poteten:

  • AI velger å gi kontroll til mennesket-i-løkken i siste øyeblikk
  • Det siste øyeblikket kan allerede være langt forbi enhver menneskelig levedyktig handling
  • Mennesket-i-løkken har kontroll, men noe feilaktig på grunn av overleveringstidspunktet

Tenk over dette et øyeblikk.

Anta at et AI-system og et menneske-i-løkken jobber sammen om en sanntidsoppgave som innebærer å kjøre en storskala maskin på en fabrikk. AI-en oppdager at maskineriet går for fullt. I stedet for at AI fortsetter å beholde kontrollen, overlater AI kontrollen brått til mennesket. Maskineriet i denne fabrikken går raskt mot ren kaos, og det er ingen tid igjen for mennesket til å iverksette korrigerende tiltak.

AI har overlevert den varme poteten til mennesket-i-løkken og jamt mennesket med den veritable varme poteten slik at omstendighetene ikke lenger er menneskelig mulig å takle. Tag, du er det, går den gamle linjen når du spiller tag-spill som barn. Mennesket er skal vi si tagget med rotet.

Akkurat som mitt eksempel om basketballkampen.

Hvorfor gjorde AI overleveringen?

Vel, i motsetning til når et menneske brått overlater en basketball og deretter vinker litt vilt om hvorfor de gjorde det, kan vi vanligvis undersøke AI-programmeringen og finne ut hva som førte til at AI-en gjorde denne typen hot potetoverlevering.

En AI-utvikler kan ha bestemt seg på forhånd at når AI-en havner i en virkelig dårlig knipe, bør AI-en fortsette å gi kontroll til mennesket-i-løkken. Dette virker helt fornuftig og fornuftig. Mennesket kan være "den bedre spilleren" på banen. Mennesker kan bruke sine kognitive evner til å potensielt løse et hvilket som helst problem. AI har muligens nådd grensene for programmeringen, og det er ikke noe annet konstruktivt den kan gjøre i situasjonen.

Hvis AI-en hadde gjort overleveringen med et minutt igjen før maskineriet gikk kablam, er kanskje et minutt heads-up lenge nok til at mennesket-i-løkka kan rette opp ting. Tenk deg imidlertid at AI-en gjorde overleveringen med tre sekunder igjen. Tror du et menneske kan reagere i den tidsrammen? Usannsynlig. I alle fall, bare for å gjøre ting enda mindre kranglete, anta at overleveringen til mennesket-i-sløyfen skjedde med noen få nanosekunder igjen (et nanosekund er en milliarddels sekund, som til sammenligning et raskt blink av øyet er trege 300 millisekunder langt).

Kunne et menneske-in-the-loop reagere tilstrekkelig hvis AI-en har gitt den varme poteten med bare brøkdelsekunder igjen til å ta noen åpenlyst handling?

Nei.

Overleveringen er mer falsk enn den ellers kan se ut til å være.

I virkeligheten kommer ikke overleveringen til å gjøre noe godt når det kommer til den alvorlige situasjonen. AI har klemt mennesket til å bli geiten.

Noen AI-utviklere tenker ikke på dette når de lager AI. De tar (feilaktig) lykksalig ikke hensyn til at tid er en avgjørende faktor. Alt de gjør er å velge å programmere en overlevering når ting blir vanskelig. Når det ikke er noe igjen for AI å gjøre konstruktivt, kast ballen til den menneskelige spilleren.

AI-utviklere kan unnlate å tenke over dette på tidspunktet for koding av AI, og de feiler ofte dobbelt ved å unnlate å gjøre tester som bringer dette frem i lyset. Alt som testingen deres viser er at AI "pliktoppfyllende" gjorde en overlevering når grensene for AI ble nådd. Voila, AI antas å være god og klar til bruk. Testingen inkluderte ikke et faktisk menneske som ble plassert i den lite misunnelsesverdige og umulige posisjonen. Det var ikke en skikkelig testprosess for mennesker i sløyfen som kunne ha protestert mot at dette blinkende øyeoverleveringen i siste øyeblikk, eller faktisk forbi siste øyeblikk, gjorde dem lite eller ingen nytte.

Selvfølgelig vil noen AI-utviklere på en klok måte ha vurdert denne typen vanskeligheter.

Etter å ha fundert over gåten, vil de fortsette å programmere AI til å opptre på denne måten uansett.

Hvorfor?

For det er ikke noe annet å gjøre, i hvert fall i tankene deres. Når alt annet feiler, håndkontroll til mennesket. Kanskje vil det skje et mirakel. Poenget er imidlertid at dette ikke bekymrer AI-utvikleren, og de gir mennesket den siste sjansen til å takle rotet for hånden. AI-utvikleren vasker hendene for hva som skjer etterpå.

Jeg vil presisere at AI-utviklere ikke er de eneste som har utviklet disse varme potetdesignene. Det er en rekke andre interessenter som kommer til bordet for dette. Kanskje en systemanalytiker som gjorde spesifikasjonene og kravanalysen hadde uttalt at dette er hva AI skal gjøre. De involverte AI-utviklerne laget AI deretter. AI-prosjektlederen kan ha utviklet dette. Lederne og ledelsen som overvåker AI-utviklingen kan ha utviklet dette.

Alle gjennom hele livssyklusen for AI-utvikling kan ha båret frem den samme utformingen av den varme poteten. Om noen la merke til det, kan vi ikke si sikkert. Hvis de la merke til det, kan de ha blitt stemplet som nektere og shuntet til side. Andre kunne ha fått saken påpekt, men de skjønte ikke konsekvensene. De følte at det var en liten teknisk detalj som ikke var innenfor deres omfang.

Jeg vil legge til denne uformelle listen over "grunner" en mye mer ond mulighet.

Noen ganger brukes et AI Hot Potato-syndrom med vilje fordi de som lager AI ønsket å ha sin lidenskapelige påstand om plausibel benektelse.

Gjør deg klar for denne delen av historien.

Når det gjelder fabrikkmaskineriet som går i stykker, er det garantert mye fingerpeking om hvem som er ansvarlig for det som skjedde. Når det gjelder betjening av maskineriet, hadde vi et AI-system som gjorde det, og vi hadde et menneske-i-løkken som gjorde det. Dette er våre to basketballspillere, metaforisk.

Klokken gikk ned og maskineriet var på nippet til å gå kaboom. La oss si at du og jeg vet at AI gjorde en overlevering til mennesket-i-løkken, og gjorde det med utilstrekkelig tid igjen for mennesket til å iverksette tilstrekkelige tiltak for å rette opp eller unngå katastrofen. Ingen andre skjønner at dette er hva som skjedde.

Firmaet som lager AI kan uansett umiddelbart erklære at de ikke har noen feil fordi mennesket hadde kontroll. I følge deres upåklagelige opptegnelser hadde ikke AI kontroll på tidspunktet for kaboomen. Mennesket var. Derfor er det åpenbart åpenbart at det er et menneske som har feil.

Lyver AI-selskapet i utgangspunktet når de kommer med denne frittalende påstanden?

Nei, de ser ut til å fortelle sannheten.

På spørsmål om de er sikre på at AI ikke hadde kontroll, ville selskapet høyt og stolt proklamere at AI ikke hadde kontroll i det hele tatt. De har dokumentert bevis for denne påstanden (forutsatt at AI førte en logg over hendelsen). Faktisk kan AI-selskapets ledere heve øyenbrynene i avsky for at noen ville utfordre deres integritet på dette punktet. De ville være villige til å sverge på sin hellige ed at AI var ikke i kontroll. Mennesket-i-løkka hadde kontroll.

Jeg stoler på at du ser hvor misvisende dette kan være.

Ja, mennesket fikk kontrollen. I teorien hadde mennesket kontroll. AI hadde ikke lenger kontroll. Men mangelen på tilgjengelig timing og varsling gjør dette til en ekstremt hul påstand.

Det fine med dette, fra AI-produsentens perspektiv, ville være at få kunne utfordre påstandene som tilbys. AI-produsenten slipper kanskje ikke loggene over hendelsen. Å gjøre det kan gi bort den riggede situasjonen. Loggene argumenteres for å være intellektuell eiendom (IP) eller på annen måte av proprietær og konfidensiell karakter. Firmaet vil sannsynligvis hevde at hvis loggene ble vist, ville dette vise frem den hemmelige sausen til deres AI og tømme deres dyrebare IP.

Se for deg situasjonen til det stakkars mennesket-i-løkka. De er forvirret over at alle klandrer dem for å la ting gå ut av hånden. AI "gjorde det rette" og overlot kontrollen til mennesket. Dette kan ha vært hva spesifikasjonene sa å gjøre (igjen, men spesifikasjonene var mangelfulle fordi de ikke tok hensyn til timing og gjennomførbarhetsfaktorer). Loggene som ikke har blitt utgitt, men som hevdes å være jernkledde av AI-produsenten, vitner om det absolutte faktum at mennesket hadde fått kontroll av AI.

Du kan erklære dette som en ynkelig slam-dunk på det forvirrede mennesket som nesten helt sikkert kommer til å ta fallet.

Oddsen er at bare hvis dette går til retten ville virkeligheten av det som skjedde ende opp med å bli avslørt. Hvis de kloke juridiske beaglene er klar over denne typen spillejobber, ville de prøve å få tak i loggene på lovlig vis. De måtte få et ekspertvitne (noe jeg hadde gjort fra tid til annen) for å tyde loggene. Loggene alene er kanskje ikke nok. Loggene kan manipuleres eller endres, eller med vilje utviklet for ikke å vise detaljene tydelig. Som sådan kan det hende at AI-koden også må fordypes.

I mellomtiden, gjennom hele denne pinefulle og langvarige prosessen med juridisk oppdagelse, ville mennesket-i-løkka se veldig dårlig ut. Media ville male personen som uansvarlig, mistet hodet, unnlatt å være flittig og burde bli holdt fullt ansvarlig. Muligens i måneder eller år, i løpet av denne prosessen, ville den personen fortsatt være den som alle pekte en anklagende finger mot. Stanken kan aldri bli fjernet.

Husk også at denne samme omstendigheten lett kan skje igjen. Og igjen. Forutsatt at AI-produsenten ikke endret AI-en, når en lignende situasjon i siste øyeblikk oppstår, kommer AI til å gjøre den ingen-tid-venstre-overleveringen. Man skulle håpe at disse situasjonene ikke skjer ofte. I de sjeldne tilfellene hvor det forekommer, er mennesket-i-løkka fortsatt den praktiske høstfyren.

Det er et djevelsk triks.

Du vil kanskje insistere på at AI-produsenten ikke har gjort noe galt. De forteller sannheten. AI ga opp kontrollen. Mennesket ble da ansett som kontroll. Det er fakta. Ingen vits i å bestride det.

Enten noen vet og stiller de vanskelige spørsmålene, pluss om AI-produsenten svarer på disse spørsmålene på en enkel måte, er dette noe som ser ut til å skje sjelden.

Spørsmål inkluderer:

  • Når gjorde AI overdragelsen til mennesket-i-løkken?
  • På hvilket programmert grunnlag utførte AI overleveringen?
  • Fikk mennesket-i-løkka tilstrekkelig tid til å ta over kontrollen?
  • Hvordan ble AI designet og utviklet for disse quandaries?
  • Og så videre.

Til en viss grad er det derfor AI-etikk og etisk AI er et så viktig tema. Forskriftene til AI-etikk får oss til å være årvåkne. AI-teknologer kan til tider bli opptatt av teknologi, spesielt optimalisering av høyteknologi. De vurderer ikke nødvendigvis de større samfunnsmessige konsekvensene. Å ha en AI-etikk-tankegang og gjøre det integrert i AI-utvikling og feltarbeid er avgjørende for å produsere passende AI, inkludert (kanskje overraskende eller ironisk nok) vurderingen av hvordan AI-etikk blir tatt i bruk av firmaer.

I tillegg til å bruke AI-etiske forskrifter generelt, er det et tilsvarende spørsmål om vi bør ha lover som regulerer ulike bruk av AI. Nye lover blir slått rundt på føderalt, statlig og lokalt nivå som angår rekkevidden og arten av hvordan AI bør utformes. Arbeidet med å utarbeide og vedta slike lover er gradvis. AI-etikk fungerer i det minste som et betraktet stopp, og vil nesten helt sikkert til en viss grad bli direkte innlemmet i de nye lovene.

Vær oppmerksom på at noen hevder hardt at vi ikke trenger nye lover som dekker AI, og at våre eksisterende lover er tilstrekkelige. Faktisk varsler de at hvis vi vedtar noen av disse AI-lovene, vil vi drepe gullgåsen ved å slå ned på fremskritt innen AI som gir enorme samfunnsmessige fordeler.

På dette tidspunktet av denne tungtveiende diskusjonen vil jeg vedde på at du ønsker noen ekstra illustrative eksempler som kan vise frem dette emnet. Det er et spesielt og sikkert populært sett med eksempler som ligger meg nært på hjertet. Du skjønner, i min egenskap som ekspert på AI, inkludert de etiske og juridiske konsekvensene, blir jeg ofte bedt om å identifisere realistiske eksempler som viser AI-etikk-dilemmaer, slik at emnets noe teoretiske natur lettere kan forstås. Et av de mest stemningsfulle områdene som levende presenterer dette etiske AI-kvandalet, er fremkomsten av AI-baserte ekte selvkjørende biler. Dette vil tjene som en praktisk brukssak eller eksempel for rikelig diskusjon om emnet.

Her er et bemerkelsesverdig spørsmål som er verdt å vurdere: Belyser fremkomsten av AI-baserte ekte selvkjørende biler noe om AI Hot Potato Syndrome, og i så fall, hva viser dette?

Tillat meg et øyeblikk å pakke ut spørsmålet.

Først, merk at det ikke er en menneskelig sjåfør involvert i en ekte selvkjørende bil. Husk at ekte selvkjørende biler kjøres via et AI-kjøresystem. Det er ikke behov for en menneskelig sjåfør ved rattet, og det er heller ikke en bestemmelse om at et menneske kan kjøre kjøretøyet. For min omfattende og pågående dekning av autonome kjøretøy (AV) og spesielt selvkjørende biler, se lenken her.

Jeg vil gjerne forklare hva som menes når jeg refererer til ekte selvkjørende biler.

Forstå nivåene av selvkjørende biler

Som en avklaring er sanne selvkjørende biler de hvor AI kjører bilen helt alene, og det ikke er noen menneskelig assistanse under kjøreoppgaven.

Disse førerløse kjøretøyene regnes som nivå 4 og nivå 5 (se min forklaring på denne lenken her), mens en bil som krever en menneskelig sjåfør for å dele kjøreinnsatsen vanligvis vurderes på nivå 2 eller nivå 3. Bilene som deler kjøreoppgaven beskrives som semi-autonome, og inneholder vanligvis en rekke automatiserte tillegg som omtales som ADAS (Advanced Driver-Assistance Systems).

Det er ennå ikke en ekte selvkjørende bil på nivå 5, og vi vet ennå ikke engang om dette vil være mulig å oppnå, og heller ikke hvor lang tid det vil ta å komme dit.

I mellomtiden prøver nivå 4-innsatsen gradvis å få litt trekkraft ved å gjennomgå veldig smale og selektive offentlige kjørebaneprøver, selv om det er kontrovers om denne testen skal være tillatt i seg selv (vi er alle liv-eller-død marsvin i et eksperiment. som foregår på våre motorveier og motorveier, noen hevder, se dekning min på denne lenken her).

Siden semi-autonome biler krever en menneskelig sjåfør, vil ikke adopsjonen av disse typer biler være markant annerledes enn å kjøre konvensjonelle kjøretøyer, så det er ikke mye nytt per se å dekke om dem om dette emnet (skjønt, som du vil se på et øyeblikk er poengene som blir gjort neste, generelt anvendelige).

For semi-autonome biler er det viktig at publikum må varsles om et urovekkende aspekt som har oppstått i det siste, nemlig at til tross for de menneskelige sjåførene som fortsetter å legge ut videoer av seg som sovner ved rattet på en nivå 2 eller nivå 3-bil , vi alle trenger å unngå å bli villedet til å tro at sjåføren kan fjerne oppmerksomheten fra kjøreoppgaven mens han kjører en semi-autonom bil.

Du er den ansvarlige parten for kjøringen av kjøretøyet, uavhengig av hvor mye automatisering som kan kastes i et nivå 2 eller nivå 3.

Selvkjørende biler og AI Hot Potato Syndrome

For sanne selvkjørende kjøretøyer på nivå 4 og nivå 5 vil det ikke være en menneskelig sjåfør involvert i kjøreoppgaven.

Alle beboere vil være passasjerer.

AI driver kjøringen.

Et aspekt å umiddelbart diskutere innebærer det faktum at AI involvert i dagens AI-kjøresystemer ikke er viktig. Med andre ord, AI er helt en samling av databasert programmering og algoritmer, og absolutt ikke i stand til å resonnere på samme måte som mennesker kan.

Hvorfor er denne ekstra vekt om at AI ikke er følsom?

Fordi jeg vil understreke at når jeg diskuterer AI-kjøresystemets rolle, tilskriver jeg ikke menneskelige kvaliteter til AI. Vær oppmerksom på at det i disse dager er en pågående og farlig tendens til å antropomorfisere AI. I hovedsak tildeler folk menneskelig følsomhet til dagens AI, til tross for det ubestridelige og ubestridelige faktum at ingen slik AI eksisterer ennå.

Med den avklaringen kan du se for deg at AI-kjøresystemet ikke på en eller annen måte "vet" om fasettene ved kjøring. Kjøring og alt det innebærer må programmeres som en del av maskinvaren og programvaren til den selvkjørende bilen.

La oss dykke ned i de mange aspektene som kommer til å spille om dette emnet.

For det første er det viktig å innse at ikke alle AI selvkjørende biler er like. Hver bilprodusent og selvkjørende teknologifirma tar sin tilnærming til å utvikle selvkjørende biler. Som sådan er det vanskelig å komme med omfattende utsagn om hva AI-kjøresystemer vil gjøre eller ikke.

Når du sier at et AI -kjøresystem ikke gjør noen spesielle ting, kan dette senere bli forbikjørt av utviklere som faktisk programmerer datamaskinen til å gjøre akkurat det. Steg for steg blir AI -kjøresystemer gradvis forbedret og utvidet. En eksisterende begrensning i dag eksisterer kanskje ikke lenger i en fremtidig iterasjon eller versjon av systemet.

Jeg håper det gir en tilstrekkelig litani av forbehold til å ligge til grunn for det jeg skal fortelle.

For helt autonome kjøretøyer er det kanskje ikke noen sjanse for en overlevering mellom AI og et menneske, på grunn av muligheten for at det ikke er noe menneske-i-løkken å begynne med. Aspirasjonen for mange av dagens selvkjørende bilprodusenter er å fjerne den menneskelige sjåføren fullstendig fra kjøreoppgaven. Kjøretøyet vil ikke engang inneholde mennesketilgjengelige kjørekontroller. I så fall vil en menneskelig sjåfør, hvis tilstede, ikke kunne delta i kjøreoppgaven siden de mangler tilgang til noen kjørekontroller.

For noen helt autonome kjøretøy tillater noen design fortsatt at et menneske kan være i løkken, selv om mennesket ikke trenger å være tilgjengelig eller delta i kjøreprosessen i det hele tatt. Dermed kan et menneske delta i kjøringen, dersom personen ønsker det. Imidlertid er AI ikke på noe tidspunkt avhengig av mennesket for å utføre noen av kjøreoppgavene.

Når det gjelder semi-autonome kjøretøy, er det et hånd-i-hånd forhold mellom den menneskelige sjåføren og AI. For noen design kan den menneskelige sjåføren ta over kjørekontrollene helt og i det vesentlige stoppe AI fra å delta i kjøringen. Hvis den menneskelige sjåføren ønsker å gjeninnføre AI i førerrollen, kan de gjøre det, selv om dette noen ganger tvinger mennesket til å gi fra seg kjørekontrollene.

En annen form for semi-autonom operasjon vil innebære at den menneskelige sjåføren og AI arbeider sammen på en måte. AI kjører og mennesket kjører. De kjører sammen. AI kan henge til mennesket. Mennesket kan utsette seg for AI.

På et tidspunkt kan AI-kjøresystemet regnemessig fastslå at den selvkjørende bilen er på vei inn i en uholdbar situasjon og at det autonome kjøretøyet kommer til å krasje.

Som en side, går noen forståsegpåere rundt og hevder at selvkjørende biler vil være uncrashable, som er rent tull og en opprørende og feilaktig ting å si, se min dekning på lenken her.

For å fortsette scenariet med en selvkjørende bil på vei mot en kollisjon eller bilulykke, kan AI-kjøresystemet programmeres til å overlate kjørekontrollene til den menneskelige sjåføren. Hvis det er nok tid tilgjengelig for den menneskelige sjåføren til å gjøre unnvikende handlinger, kan dette faktisk være en fornuftig og riktig ting for AI å gjøre.

Men anta at AI gjør overleveringen med en brøkdel av et brøkdel sekund igjen. Reaksjonstiden til den menneskelige sjåføren er ikke i nærheten av rask nok til å reagere tilstrekkelig. I tillegg, hvis mennesket mirakuløst var raskt nok, er oddsen at det ikke er noen levedyktige unnvikende handlinger som kan utføres med den begrensede tiden som gjenstår før krasjet. Dette er en todeler: (1) utilstrekkelig tid for den menneskelige sjåføren til å iverksette tiltak, (2) utilstrekkelig tid til at hvis handling var mulig av den menneskelige sjåføren, kunne handlingen utføres i løpet av den mangelfulle tiden som ble gitt.

Alt i alt er dette beslektet med min tidligere diskusjon om basketball-summersituasjonen og fabrikkmaskineriet som gikk amok.

La oss legge til den uhyggelige ingrediensen til dette.

En bilprodusent eller et selvkjørende teknologifirma ønsker ikke å bli merket med ulike bilulykker som har skjedd i flåten deres. AI-kjøresystemet er programmert til å alltid kaste kontrollen over til den menneskelige sjåføren, uavhengig av om det er nok tid for den menneskelige sjåføren til å gjøre noe med situasjonen. Hver gang en bilulykke inntreffer av denne typen, kan bilprodusenten eller det selvkjørende teknologiselskapet vokalt insistere på at den menneskelige sjåføren var ved kontrollene, mens AI ikke var det.

Deres merittliste for AI-kjøresystemer ser ut til å være fantastisk.

Ikke en eneste gang er AI-kjøresystemet "feil" for disse bilulykkene. Det er alltid de forbannede menneskelige sjåførene som ikke ser ut til å holde øynene på veien. Vi kan ha en tendens til å svelge denne uklarheten og tro at den helt nøyaktige AI sannsynligvis aldri er feil. Vi kan ha en tendens til å tro (siden vi vet av erfaring) at menneskelige sjåfører er slurvete og gjør massevis av kjørefeil. Den logiske konklusjonen er at de menneskelige sjåførene må være den skyldige, og AI-kjøresystemet er helt uskyldig.

Før noen selvkjørende talsmenn blir opprørt over denne karakteriseringen, la oss absolutt erkjenne at den menneskelige sjåføren meget vel kan ha skylden og at de burde ha tatt grep tidligere, for eksempel å overta kjørekontrollene fra AI. Det er også en sjanse for at den menneskelige sjåføren kunne ha gjort noe vesentlig da AI-en overlot kjørekontrollene. Etc.

Fokuset her har vært på omstendighetene der AI ble ansett som føreren av kjøretøyet, og deretter brått og med liten oppmerksomhet til hva en menneskelig sjåfør kan gjøre, kaster den varme poteten til den menneskelige sjåføren. Dette er også grunnen til at så mange er bekymret for den doble kjørerollen til semi-autonome kjøretøy. Du kan kanskje si at det er for mange sjåfører ved rattet. Målet ser ut til å være å avgjøre saken ved å ha helt autonome kjøretøyer som ikke har behov for et menneske ved rattet, og AI kjører alltid kjøretøyet.

Dette bringer opp det allierte spørsmålet om hva eller hvem som er ansvarlig når AI-en kjører, som jeg har tatt opp mange ganger i mine spalter, som f.eks. lenken her og lenken her.

konklusjonen

Vi må være forsiktige når vi hører eller leser om bilulykker som involverer halvautonome kjøretøy. Vær på vakt mot de som prøver å lure oss ved å proklamere at deres AI-kjøresystem har en plettfri rekord. Det lurende trikset til AI Hot Potato Syndrome kan være i blandingen.

For selskaper som prøver å være vanskelige i disse sakene, kan vi kanskje holde hjertene våre den berømte linjen av Abraham Lincoln: «Du kan lure alle folk noen ganger og noen av folket hele tiden, men du kan ikke lure alle menneskene hele tiden."

Jeg har forsøkt å avsløre her AI-magien skjult bak skjermen og til tider plassert under panseret, som jeg har belyst slik at flere mennesker ikke vil bli lurt mer av tiden.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/08/01/ai-ethics-fuming-about-the-rising-hot-potato-syndrome-being-employed-by-ai-makers- tilsynelatende-prøver-å-unngå-ansvar-for-sine-livsavgjørende-autonome-systemer/