AI Etikk og autonome systemer Leksjoner hentet fra det nylige Alaska Airlines-flyet der piloten og co-piloten var uenige før de tok av og brått valgte å taxi tilbake til terminalen og gå hver sin vei

Flyselskaper har vært mye i nyhetene i det siste.

Vi er inne i sommertiden med flyreiser. Slitne og frustrerte passasjerer står overfor alle slags flyforstyrrelser og flyselskapenes tidsplaner. Flyreiser kanselleres uventet. Flyreiser er forsinket. Passasjerer ryker. Dessverre har det vært mange tilfeller av passasjerer som lar disse irritasjonene bryte ut, og vi har sett sørgelig altfor mange virale videoer av konfrontasjoner fra hverandre og noen ganger knallharde knep.

Sjeldnere får vi vite om uenighet mellom en pilot og andrepilot som kan oppstå mens de er i cockpiten.

Det er litt av en overraskelse.

Faktisk er vi naturligvis overrasket over å tro at en pilot og en annenpilot vil ha noen form for alvorlig uenighet under alle stadier av en flytur. Hvis uenigheten gjelder hvilket kaffemerke som er best, er vår antagelse at dette ikke vil trenge inn i arbeidsinnsatsen med å fly flyet. De to ville ganske enkelt trekke på skuldrene fra seg mangelen på øye-til-øye om et tilsynelatende fly-irrelevant tema. Deres profesjonelle væremåte og langvarige pilotopplæring ville slå inn, og de ville nagle fokuset tilbake til flyopplysningene.

Tenk imidlertid på når en faglig uenighet griper inn.

Jeg skal kort dele med deg en nyhetsartikkel som er mye publisert om et nylig tilfelle av noe som skjedde under en flytur i USA knyttet til en påstått faglig uenighet i cockpiten.

Dette blir hovedsakelig sitert her slik at vi kan utforske et relatert emne som er av stor betydning for fremkomsten av kunstig intelligens (AI). Du skjønner, det kan være en form for skal vi si faglig uenighet mellom ikke bare mennesker i en menneske-til-menneske uenighet, men vi kan også ha noe lignende oppstå midt i bruken av AI og ergo resulterende menneske-mot-AI-faglige uenigheter . Alle slags AI Etikk-hensyn dukker opp. For min omfattende og pågående dekning av AI-etikk og etiske AI-spørsmål, se lenken her og lenken her, bare for å nevne noen.

Gjør deg klar for en fascinerende historie.

Som nylig rapportert i nyhetene, oppsto det tilsynelatende et tilfelle av "faglig uenighet" under et fly fra Alaska Airline som gikk fra Washington til San Francisco. I følge nyhetsrapportene hadde flyet beveget seg bort fra gate og ventet på asfalten på tillatelse til å taxi og ta fly. En storm var i gang og førte til en flyforsinkelse på mer enn halvannen time. Det viser seg at flyet til slutt snudde og satte kursen tilbake til porten, noe noen av passasjerene normalt kunne ha antatt var ganske enkelt en stormrelatert sikkerhetsforanstaltning.

I følge ulike tweets ser det ut til at piloten og andrepiloten hadde en slags usynlig feide mens de var der i cockpiten og på en eller annen måte kom til den konklusjonen at den mest fornuftige tilnærmingen ville være å skrubbe flyet og returnere til terminalen. . Tweets antydet at kapteinen og førstebetjenten tilsynelatende ikke kunne komme overens med hverandre. Flyselskapet ga senere en erklæring om at situasjonen var uheldig (situasjonen ble ikke eksplisitt oppgitt eller forklart i seg selv), de to flyoffiserene ble evaluert av ledelsen og ansett som skikket til å fly, mannskaper ble byttet, og flyturen endte opp med å finne sted og nådde senere San Francisco.

På en måte, hvis piloten og andrepiloten faktisk hadde en faglig uenighet, for eksempel om flyet var passende klar for å ta fly eller om risikoen for å fly gjennom en storm var innenfor et passende sikkerhetsområde, burde disse passasjerene avlastes og takknemlig for at flyet ble returnert til gate. Bedre å være trygg enn beklager. Å ha en ekstra forsinkelse er vel verdt den antatte reduksjonen av risiko forbundet med en vurdert røff eller ugunstig flyreise.

Noen mennesker vil kanskje bli overrasket over at en slik faglig uenighet kan oppstå.

Vi har kanskje et feilaktig inntrykk av at alt som skjer i cockpiten er helt presist og velskrevet. All form for menneskelig skjønn har tilsynelatende blitt vridd ut av prosessen. Basert på nøyaktige og grundig beregnede diagrammer, er en flytur enten greit å fortsette eller ikke. Det kan ikke være noen uenighet når hele settet og caboodle antas å være basert på ugjendrivelig beregning av fakta og tall.

Det er ikke hele sannheten i saken. Jada, det er en rekke protokoller og alle slags kontroller og balanser, men dette presser ikke ut alt av menneskelig dømmekraft. Piloter og andrepiloter utøver fortsatt menneskelig dømmekraft. Heldigvis er denne menneskelige dommen finpusset av årevis med flying. Oddsen er at en pilot og en annenpilot i et kommersielt passasjerfly har massevis av tidligere flyerfaring og lett utnytter sine mange år med dybderesonnering og dømmekraft knyttet til å være ved flykontrollene.

Gitt den bemerkelsesverdige rollen til menneskelig dømmekraft, kan vi logisk forutse at en pilot og en annenpilot noen ganger kommer til å ha faglige uenigheter. Mesteparten av tiden er det antagelig svært lite slik uenighet. Piloten og andrepiloten for daglige flyvninger vil sannsynligvis være godt tilpasset tidens overvekt. Bare når et flyscenario kan gå utenfor konvensjonelle grenser, vil vi forvente at det vil oppstå sterkere friksjon.

Hvis det er sterk meningsforskjell mellom de to, vil jeg tørre å si at vi vil at de skal hash det ut.

Se for deg en situasjon der piloten intenst ønsker å fortsette, men copiloten oppfatter at risikoen er for høy. Bare å ha copiloten kowtow til piloten ville virke uønsket. Copiloten er en sjekk-og-balanse til hva en pilot kan tenke på å gjøre. For de som vil at en andrepilot skal holde kjeft og utelukkende opptrer tankeløst etter hva piloten bestemmer, vel, det er ikke mye av en forsikring. En copilot er ikke bare en ekstra "pilot" som kommer inn i bildet bare når piloten er fullstendig ufør. Det er en misforstått forståelse av verdien av å ha en pilot og andrepilot i cockpiten.

Det er en annen vinkel på dette.

Tenk på tilfellet med en pilot som ikke tror at en flytur bør fortsette, og i mellomtiden er andrepiloten ivrig på å komme seg opp i luften. Hva da? Etter det forventede hierarkiet er det meningen at piloten konvensjonelt skal seire over copiloten. Den utpekte rollen som hovedansvarlig gjør piloten til den største av det som ellers er noe likt. Normalt har piloten mer samlet flytidskrydder enn copiloten og ergo er copiloten hierarkisk ment å følge pilotens ønsker (når det er innenfor rimelighetens grenser).

Uansett tror jeg vi alle kan være enige om at det å velge å ikke fly er et sikkert mindre risikabelt valg enn å bestemme seg for å fly. Når flyet først er i luften, blir risikonivået enormt sammenlignet med å være på et hvilket som helst vanlig stabilt underlag. En vanlig kommersiell flytur som ganske enkelt drosjer tilbake til terminalen uten å ha kommet i luften, ville være en ganske minnelig løsning på enhver opphetet bitter debatt om å fly.

La oss skifte gir og bruke denne spunky nyheten til et helt annet, men relatert formål.

Vi har gradvis blant oss en utbredelse av AI-baserte autonome systemer. Noen ganger kjører AI showet, som det var. AI gjør alt fra A til Å, og vi kan tolke dette som AI som er fullstendig autonom eller nesten det. I andre tilfeller kan vi ha AI som samhandler med og til en viss grad er programmert til å være avhengig av å ha et menneske-i-løkken.

Jeg vil gjerne konsentrere meg om spørsmålet om et AI-basert autonomt eller semi-autonomt system som fra begynnelsen har et menneske i løkken. AI og mennesket er med vilje presset sammen og skal jobbe sammen med hverandre. De er kohorter i å utføre en bestemt oppgave. AI alene er ikke ment å handle på oppgaven. AI-en må samhandle med det utpekte mennesket-i-løkken.

Jeg tar opp denne karakteriseringen for å skille fra situasjoner der mennesket-i-løkken anses som en valgfri fasett. I hovedsak får AI frie tøyler. Hvis AI velger å gjøre bruk av mennesket, så gjør det det. Det er ingen krav om at AI-en må berøre basen med eller jobbe hånd i hånd med det utpekte mennesket. Analysene jeg er i ferd med å fortelle er absolutt relevante for den slags valgfritt samhandlingsordning, men det er ikke det jeg spesifikt driver med i denne diskusjonen.

Ok, så vi har en slags oppgave som et menneske og en AI skal jobbe sammen om, uatskillelig fra hverandre. I abstrakt forstand har vi et menneske som sitter i det ene setet og et AI-system som sitter i det andre medfølgende setet. Jeg sier dette frekt fordi vi ikke begrenser denne diskusjonen til for eksempel en robot som faktisk kan sitte i et sete. Jeg refererer metaforisk til forestillingen om at AI er et sted som deltar i oppgaven, og det samme er mennesket. Fysisk er deres oppholdssted ikke spesielt viktig for diskusjonen.

Du kan være usikker på når en slik omstendighet kan oppstå.

Easy-peasy.

Jeg vil senere diskutere fremkomsten av autonome kjøretøy og selvkjørende biler. På visse nivåer av autonomi, er AI og mennesket ment å fungere sammen. AI kan kjøre bilen og be om at mennesket tar over kjørekontrollene. Mennesket kan kjøre bilen og aktivere AI for å ta over kontrollene. De bytter på kjørekontrollene.

I tillegg har noen design at AI-en i hovedsak er aktiv hele tiden (eller, med mindre den er slått av), slik at AI-en alltid er klar. Videre kan AI gripe direkte inn, selv uten at mennesket spør, avhengig av situasjonen som utspiller seg. Anta for eksempel at mennesket ser ut til å ha sovnet ved rattet. Siden mennesket tilsynelatende ikke kan aktivere AI-en (fordi personen sover), kan AI-en være programmert til å ta over kontrollene fra mennesket.

Noen design bringer AI og mennesker inn i en dobbel kjørestilnærming. AI kjører og mennesket kjører. Eller, hvis du foretrekker det, er det mennesket som kjører og AI kjører også. Hver av dem kjører kjøretøyet. Jeg sammenligner dette med de spesialriggede bilene som du kanskje brukte når du tok føreropplæring og det var to sett med kjørekontroller i kjøretøyet, ett for elevsjåføren og ett for kjørelæreren.

Det er bare ett eksempel på en setting der AI og mennesker kan jobbe sammen med en oppgave. Alle slags muligheter finnes. Andre typer autonome kjøretøy kan være utviklet på samme måte, for eksempel fly, droner, nedsenkbare fartøyer, overflateskip, tog og så videre. Vi trenger ikke bare vurdere kjøretøy- og transportinnstillinger. Se for deg det medisinske domenet og operasjoner som utføres i fellesskap av en lege og et AI-system. Listen er uendelig.

Jeg får nesten lyst til å referere til den klassisk opprørte vitsen om et menneske og en AI som går inn i en bar sammen. Det er ganske latterlig for dem som liker AI.

Seriøst, la oss gå tilbake til fokuset til et menneske og et AI-system som jobber sammen om en gitt oppgave. For det første vil jeg unngå å antropomorfisere AI, noe jeg vil legge vekt på hele veien. AI er ikke sansende. Vær så snill å ha det i bakhodet.

Her er noe å tenke over: Vil et utpekt menneske-i-løkken alltid være fullstendig enig med en AI i samarbeid?

For enhver kompleks oppgave vil det virke usannsynlig at mennesket og AI-en helt og alltid vil være helt i lås og takt. Mennesket vil ved noen anledninger muligens være uenig med AI. Vi kan ta den antagelsen helt til banken.

Jeg vil at du også vurderer denne kanskje overraskende muligheten: Vil AI alltid være fullstendig enig med et utpekt menneske-i-løkken?

Igjen, for enhver kompleks oppgave, ville det virke ganske tenkelig at AI ikke vil være i samsvar med mennesker ved noen anledninger. Hvis du allerede lener deg mot ideen om at AI alltid må være feil mens mennesker alltid må ha rett, vil du gjøre klokt i å revurdere den forhastede konklusjonen. Se for deg en bil som har et menneske og AI som i fellesskap kjører det semi-autonome kjøretøyet. Mennesket styrer mot en murvegg. Hvorfor? Vi vet ikke, kanskje mennesket er beruset eller har sovnet, men vi vet at det ikke er en god idé å krasje inn i en murvegg, alt annet likt. AI kan oppdage den kommende ulykken og forsøke å styre unna den forestående barrieren.

Alt i alt kommer vi til å ha den distinkte muligheten for at AI og mennesket er uenige med hverandre. Den andre måten å si det samme på er at mennesker og AI er uenige med hverandre. Merk at jeg ikke vil at sekvenseringen av AI-og-menneske versus menneske-og-AI skal antyde noe om retningen eller plausibiliteten til uenigheten.

De to arbeiderne, en menneskelig og en som er AI, er uenige med hverandre.

Vi kan på forhånd erklære at når det oppstår uenighet mellom en gitt AI og et gitt menneske, erklærer vi på forhånd at mennesket seier over AI. Når det er sagt, synes mitt illustrative eksempel om bilen som er på vei inn i en murvegg å fraråde oss at mennesket alltid nødvendigvis kommer til å ha rett.

Vi kan derimot velge å på forhånd erklære at når en uenighet oppstår, vil vi på forhånd ha fastslått at AI er rett og mennesket har feil. Heller ikke dette er en fornuftig generaliserbar bestemmelse. Se for deg en bil der AI-en har en innebygd programvarefeil eller feil, og AI-en prøver å styre kjøretøyet av veien og ned i en grøft. Forutsatt at alt annet er likt, burde mennesket være i stand til å overvinne denne AI-kjøringen og hindre kjøretøyet i å lande i sluken.

La oss gjøre en rask oppsummering av dette:

  • Vil et menneske-in-the-loop alltid være fullstendig enig med AI? Svar: Nei.
  • Vil AI alltid være fullstendig enig med et menneske-i-løkken? Svar: Nei.
  • Vil et menneske-i-løkken alltid ha rett i forhold til AI? Svar: Ikke nødvendigvis.
  • Vil AI alltid være riktig i forhold til mennesket-i-løkken? Svar: Ikke nødvendigvis.

Du kan absolutt sette opp AI til å bli ansett som standard som "feil" eller svakere part og derfor alltid henvende deg til mennesket hver gang en uenighet dukker opp. På samme måte kan du sette opp AI til å anta at AI anses som "riktig" når et menneske er uenig med AI. Jeg vil presisere at vi kan programmessig gjøre det hvis vi ønsker å gjøre det. Jeg hevder imidlertid at dette generelt sett ikke alltid vil være tilfelle. Det er garantert innstillinger der vi ikke på forhånd vet om AI er "riktig" eller mennesket har "rett" når det gjelder å velge det ene eller det andre i en uenighet knyttet til en gitt oppgave.

Jeg har ledet deg til et veldig viktig og svært komplisert spørsmål.

Hva bør vi gjøre når det oppstår en faglig uenighet mellom mennesket-i-løkken og AI (eller tilsvarende kan vi formulere dette som å være mellom AI og mennesket-i-løkken)?

Ikke prøv å unngå spørsmålet.

Noen vil kanskje hevde at dette aldri ville skje, men som jeg har sagt i eksemplet mitt om bilen, kan det sikkert skje. Noen vil kanskje hevde at et menneske åpenbart er overlegent og må være vinneren av enhver uenighet. Mitt eksempel med bilen og murveggen slår den ned. Det er AI-tilhengere som kan insistere på at AI må være vinneren, på grunn av tilsynelatende å overvinne menneskelige følelser og hensynsløs tenkning av disse tilfeldige uklart-tenkende menneskene. Nok en gang, mitt andre eksempel med at bilen er på vei ned i grøfta undergraver denne påstanden.

I den virkelige verden kommer AI og mennesker til å være uenige, selv når de to med vilje bringes inn i en samarbeidssituasjon for å utføre en felles oppgave. Det vil skje. Vi kan ikke stikke hodet i sanden og late som om det ikke vil skje.

Vi så at menneskene som styrte flyet kom i tilsynelatende uenighet. Heldigvis ble de enige om å være uenige, så det virker. De brakte flyet tilbake til terminalen. De fant et middel til å håndtere uenigheten. Løsningen på deres uenighet fungerte bra, sammenlignet med om de kanskje hadde gått til tull i cockpiten eller kanskje fløyet opp i luften og fortsatte å kjempe mot hverandre. Det er et sørgelig scenario som er uholdbart, og vi kan være takknemlige for at det ikke skjedde.

Tillat meg å gi min liste over de ulike måtene AI og menneske-i-løkken (eller menneske-i-løkken og AI)-uenigheter kan løses på:

  • AI og det sammenslåtte mennesket løser ting (i minnelighet eller ikke)
  • Mennesket råder over AI, som standard
  • AI råder over mennesket, som standard
  • Noen annen forhåndsbestemt fast oppløsning råder, som standard
  • Tredjepartsmenneske er koblet inn og deres indikasjon råder over partene
  • Tredjeparts AI er sløyfet og indikasjonen råder over partene
  • Tredjepartsmenneske erstatter det eksisterende mennesket, ting fortsetter på nytt
  • Tredjeparts AI erstatter eksisterende AI, ting fortsetter på nytt
  • Tredjeparts menneske erstatter den eksisterende AI, ting fortsetter på nytt (nå menneske-til-menneske)
  • Tredjeparts AI erstatter det eksisterende mennesket, ting fortsetter på nytt (nå AI-til-AI)
  • Annen

De er rikelig verdt å bli pakket ut.

Før vi går inn på litt mer kjøtt og poteter om de ville og ullaktige betraktningene som ligger til grunn for hvordan man skal håndtere AI og menneskelige uenigheter, la oss legge ut noen ekstra grunnleggende om svært viktige emner. Vi trenger et kort dykk i AI-etikk og spesielt bruken av Machine Learning (ML) og Deep Learning (DL).

Du er kanskje vagt klar over at en av de høyeste stemmene i disse dager i AI-feltet og til og med utenfor AI-feltet består av å rope etter et større utseende av etisk AI. La oss ta en titt på hva det betyr å referere til AI-etikk og etisk AI. På toppen av det vil vi utforske hva jeg mener når jeg snakker om maskinlæring og dyplæring.

Et bestemt segment eller del av AI-etikken som har fått mye oppmerksomhet i media, består av AI som viser uheldige skjevheter og ulikheter. Du er kanskje klar over at da den siste æraen med kunstig intelligens kom i gang var det et stort utbrudd av entusiasme for det noen nå kaller AI For Good. Dessverre begynte vi å være vitne til etter den fossende spenningen AI for Bad. For eksempel har forskjellige AI-baserte ansiktsgjenkjenningssystemer blitt avslørt å inneholde rasemessige skjevheter og kjønnsskjevheter, som jeg har diskutert på lenken her.

Anstrengelser for å kjempe tilbake mot AI for Bad er aktivt i gang. Dessuten høyrøstet lovlig jakten på å tøyle urettferdighetene, er det også et betydelig løft mot å omfavne AI-etikk for å rette opp AI-eiendommen. Tanken er at vi bør ta i bruk og støtte viktige etiske AI-prinsipper for utvikling og felt av AI for å undergrave AI for Bad og samtidig varsle og fremme det som er å foretrekke AI For Good.

På en beslektet oppfatning er jeg en talsmann for å prøve å bruke AI som en del av løsningen på AI-problemer, og bekjempe ild med ild på den måten å tenke på. Vi kan for eksempel bygge inn etiske AI-komponenter i et AI-system som vil overvåke hvordan resten av AI gjør ting og dermed potensielt fange opp i sanntid enhver diskriminerende innsats, se diskusjonen min på lenken her. Vi kan også ha et eget AI-system som fungerer som en type AI Ethics-monitor. AI-systemet fungerer som en tilsynsmann for å spore og oppdage når en annen AI går inn i den uetiske avgrunnen (se min analyse av slike evner på lenken her).

Om et øyeblikk vil jeg dele med deg noen overordnede prinsipper som ligger til grunn for AI-etikk. Det er mange slike lister som flyter rundt her og der. Du kan si at det ennå ikke er en enestående liste over universell appell og samtidighet. Det er den uheldige nyheten. Den gode nyheten er at det i det minste er lett tilgjengelige AI Ethics-lister, og de pleier å være ganske like. Alt i alt tyder dette på at vi ved en form for begrunnet konvergens finner veien mot en generell fellestrekk av hva AI-etikk består av.

Først, la oss kort dekke noen av de generelle etiske AI-reglene for å illustrere hva som bør være en viktig vurdering for alle som lager, driver med eller bruker AI.

For eksempel, som uttalt av Vatikanet i Roma oppfordrer til AI-etikk og som jeg har dekket i dybden på lenken her, dette er deres identifiserte seks primære AI-etiske prinsipper:

  • Åpenhet: I prinsippet må AI-systemer kunne forklares
  • Inkludering: Alle menneskers behov må tas i betraktning slik at alle kan komme til nytte, og alle kan tilbys best mulige forutsetninger for å uttrykke seg og utvikle seg.
  • Ansvar: De som designer og distribuerer bruken av AI må fortsette med ansvar og åpenhet
  • Opartiskhet: Ikke skap eller handle i henhold til partiskhet, og dermed ivareta rettferdighet og menneskeverd
  • Pålitelighet: AI-systemer må kunne fungere pålitelig
  • Sikkerhet og personvern: AI-systemer må fungere sikkert og respektere brukernes personvern.

Som uttalt av det amerikanske forsvarsdepartementet (DoD) i deres Etiske prinsipper for bruk av kunstig intelligens og som jeg har dekket i dybden på lenken her, dette er deres seks primære AI-etiske prinsipper:

  • Ansvarlig: DoD-personell vil utøve passende nivåer av dømmekraft og omsorg mens de fortsatt er ansvarlige for utvikling, distribusjon og bruk av AI-evner.
  • Rettferdig: Avdelingen vil ta bevisste skritt for å minimere utilsiktet skjevhet i AI-evner.
  • Sporbar: Avdelingens AI-evner vil bli utviklet og distribuert slik at relevant personell har en passende forståelse av teknologien, utviklingsprosessene og operasjonelle metoder som gjelder for AI-evner, inkludert transparente og reviderbare metoder, datakilder og designprosedyre og dokumentasjon.
  • Pålitelig: Avdelingens AI-evner vil ha eksplisitte, veldefinerte bruksområder, og sikkerheten, sikkerheten og effektiviteten til slike evner vil være gjenstand for testing og forsikring innenfor de definerte bruksområdene gjennom hele livssyklusen.
  • Styres: Avdelingen vil designe og konstruere AI-evner for å oppfylle deres tiltenkte funksjoner samtidig som den har evnen til å oppdage og unngå utilsiktede konsekvenser, og evnen til å koble ut eller deaktivere utplasserte systemer som viser utilsiktet oppførsel.

Jeg har også diskutert ulike kollektive analyser av AI-etiske prinsipper, inkludert å ha dekket et sett utviklet av forskere som undersøkte og kondenserte essensen av en rekke nasjonale og internasjonale AI-etiske prinsipper i en artikkel med tittelen "The Global Landscape Of AI Ethics Guidelines" (publisert i Natur), og at dekningen min utforsker kl lenken her, som førte til denne keystone-listen:

  • Åpenhet
  • Rettferdighet og rettferdighet
  • Ikke-ondsinnethet
  • Ansvar
  • Privatliv
  • godgjør
  • Frihet og autonomi
  • Stol
  • Bærekraft
  • Verdighet
  • Solidaritet

Som du direkte kan gjette, kan det være ekstremt vanskelig å prøve å finne de spesifikke underliggende prinsippene. Enda mer så er innsatsen for å gjøre disse brede prinsippene til noe helt håndfast og detaljert nok til å brukes når man lager AI-systemer, også en tøff nøtt å knekke. Det er lett generelt å vinke litt med hånden om hva AI-etiske forskrifter er og hvordan de generelt skal overholdes, mens det er en mye mer komplisert situasjon i AI-kodingen som må være den veritable gummien som møter veien.

AI-etikkprinsippene skal brukes av AI-utviklere, sammen med de som styrer AI-utviklingsinnsatsen, og til og med de som til slutt arbeider med og utfører vedlikehold på AI-systemer. Alle interessenter gjennom hele livssyklusen for utvikling og bruk av kunstig intelligens anses innenfor rammen av å overholde de etablerte normene for etisk kunstig intelligens. Dette er et viktig høydepunkt siden den vanlige antagelsen er at "bare kodere" eller de som programmerer AI-en er underlagt AI-etikkens forestillinger. Som tidligere nevnt, kreves det en landsby for å utforme og sette opp AI, og som hele landsbyen må være kjent med og etterleve AI-etiske forskrifter.

La oss også sørge for at vi er på samme side om naturen til dagens AI.

Det er ingen AI i dag som er sansende. Vi har ikke dette. Vi vet ikke om sentient AI vil være mulig. Ingen kan med rette forutsi om vi vil oppnå sansende AI, og heller ikke om sansende AI på en eller annen måte mirakuløst spontant vil oppstå i en form for beregningsmessig kognitiv supernova (vanligvis referert til som singulariteten, se min dekning på lenken her).

Den typen AI som jeg fokuserer på består av den ikke-sansende AI som vi har i dag. Hvis vi ville spekulere vilt om selvbevisst AI, denne diskusjonen kan gå i en radikalt annen retning. En sansende AI ville visstnok være av menneskelig kvalitet. Du må vurdere at den sansende AI er den kognitive ekvivalenten til et menneske. Mer så, siden noen spekulerer i at vi kan ha superintelligent AI, er det tenkelig at slik AI kan ende opp med å bli smartere enn mennesker (for min utforskning av superintelligent AI som en mulighet, se dekningen her).

La oss holde ting mer jordnære og vurdere dagens beregningsbaserte ikke-følende AI.

Innse at dagens AI ikke er i stand til å "tenke" på noen måte på linje med menneskelig tenkning. Når du samhandler med Alexa eller Siri, kan samtalekapasiteten virke som menneskelig kapasitet, men realiteten er at den er beregningsmessig og mangler menneskelig erkjennelse. Den siste æraen av AI har gjort omfattende bruk av Machine Learning (ML) og Deep Learning (DL), som utnytter beregningsmønstermatching. Dette har ført til AI-systemer som ser ut som menneskelignende tilbøyeligheter. I mellomtiden er det ingen kunstig intelligens i dag som har et skinn av sunn fornuft, og heller ikke noe av den kognitive undringen til robust menneskelig tenkning.

ML/DL er en form for beregningsmønstermatching. Den vanlige tilnærmingen er at du samler data om en beslutningsoppgave. Du mater dataene inn i ML/DL-datamodellene. Disse modellene søker å finne matematiske mønstre. Etter å ha funnet slike mønstre, hvis det er funnet, vil AI-systemet bruke disse mønstrene når de møter nye data. Ved presentasjon av nye data brukes mønstrene basert på de "gamle" eller historiske dataene for å gi en gjeldende beslutning.

Jeg tror du kan gjette hvor dette er på vei. Hvis mennesker som har tatt de mønstrede avgjørelsene har inkorporert uheldige skjevheter, er sjansen stor for at dataene reflekterer dette på subtile, men betydelige måter. Maskinlæring eller Deep Learning beregningsmønstermatching vil ganske enkelt prøve å matematisk etterligne dataene tilsvarende. Det er ingen antydning av sunn fornuft eller andre sansende aspekter ved AI-laget modellering i seg selv.

Dessuten er det kanskje ikke sikkert at AI-utviklerne skjønner hva som skjer. Den mystiske matematikken i ML/DL kan gjøre det vanskelig å fjerne de nå skjulte skjevhetene. Du vil med rette håpe og forvente at AI-utviklerne vil teste for potensielt begravde skjevheter, selv om dette er vanskeligere enn det kan virke. Det er en solid sjanse for at selv med relativt omfattende testing vil det fortsatt være skjevheter innebygd i mønstertilpasningsmodellene til ML/DL.

Du kan litt bruke det berømte eller beryktede ordtaket om søppel-inn søppel-ut. Saken er at dette er mer beslektet med skjevheter-in som snikende blir tilført som skjevheter nedsenket i AI. Algoritmen beslutningstaking (ADM) til AI blir aksiomatisk full av ulikheter.

Ikke bra.

La oss gå tilbake til vårt fokus på uenigheter mellom AI og et menneske.

Jeg har tidligere angitt at dette er noen av de uenighetsløse strategiene:

  • AI og det sammenslåtte mennesket løser ting (i minnelighet eller ikke)
  • Mennesket råder over AI, som standard
  • AI råder over mennesket, som standard
  • Noen annen forhåndsbestemt fast oppløsning råder, som standard
  • Tredjepartsmenneske er koblet inn og deres indikasjon råder over partene
  • Tredjeparts AI er sløyfet og indikasjonen råder over partene
  • Tredjepartsmenneske erstatter det eksisterende mennesket, ting fortsetter på nytt
  • Tredjeparts AI erstatter eksisterende AI, ting fortsetter på nytt
  • Tredjeparts menneske erstatter den eksisterende AI, ting fortsetter på nytt (nå menneske-til-menneske)
  • Tredjeparts AI erstatter det eksisterende mennesket, ting fortsetter på nytt (nå AI-til-AI)
  • Annen

På tide å pakke ut disse.

Tenk først på at dette handler om profesjonell uenigheter.

En faglig uenighet er løst definert som en uenighet knyttet til en arbeidsrelatert oppgave.

For eksempel kan en uenighet som oppstår mellom en pilot og en annenpilot om å fortsette med en flygning som står overfor en storm med rimelighet betegnes som en faglig uenighet. I motsetning til dette kan en voldsom uenighet om hvilket kaffemerke piloten går inn for kontra merket som copiloten foretrekker lett kategoriseres som en ikke-profesjonell uenighet i denne spesielle sammenhengen.

Selvfølgelig, hvis en ikke-profesjonell uenighet ormer seg inn i en profesjonell uenighet, kan vi til slutt være interessert i den ikke-profesjonelle uenigheten som en antatt kilde eller gnist for den profesjonelle. Tenk deg at en pilot og en annenpilot krangler bittert om hvilket kaffemerke som er best, som deretter dessverre går over i flyspesifikke bekymringer (ordspill!), for eksempel om de skal ta av eller ikke.

For det andre må vi huske på omfanget av den faglige uenigheten.

Kanskje piloten og andrepiloten eller i mild uenighet om å fortsette å fly. De er ikke i konflikt og vurderer bare fordeler og ulemper ved å ta av. Dette er ikke kaliberet eller omfanget av en faglig uenighet som vi vanligvis vurderer her. Saken er at det kan være at den faglige uenigheten er forbigående og at begge parter finner en løsning hjertelig eller i det minste i tide. Generelt er fokuset for faglig uenighet innenfor rammen de som er tilsynelatende uoverkommelige, og de to partene er fortsatt uenige.

For det tredje må det vanligvis være noe seriøst på banen for at disse retningslinjene skal spille inn.

Å velge å fly eller ikke fly er en bestemt avgjørelse på liv eller død hvis flyet er i fare på grunn av en storm eller flyet anses som ikke fullt forberedt for en slik reise. Dette er seriøs virksomhet. Vi kan fortsatt bruke retningslinjene på de mindre virkningsfulle faglige uenighetene, selv om det kan være mer plagsomt enn det er verdt.

Ok, våre betraktninger er at:

  • Uenigheten er i hovedsak faglig orientert snarere enn om noe ikke-profesjonelt
  • Uenigheten er av vedvarende karakter og ikke bare forbigående eller på annen måte lett løst
  • Uenigheten forutsier alvorlige konsekvenser og har vanligvis et virkningsfullt resultat
  • Partene står i strid, og de virker vanskelige

La oss nå se nærmere på hver av mine foreslåtte retningslinjer eller tilnærminger angående hvordan man skal takle slike faglige uenigheter.

AI og det sammenslåtte mennesket løser ting (i minnelighet eller ikke)

Jeg begynner listen med den enkle muligheten for at AI og mennesket-i-løkken er i stand til å løse den faglige uenigheten seg imellom. Det ser ut til at kanskje tilfellet med de to menneskene, piloten og copiloten, illustrerer denne typen omstendigheter. De bestemte seg på en eller annen måte for å gå tilbake til terminalen og gå hver til sitt. Det kan være at et AI-system og et menneske er i stand til å finne ut en løsningsmetode som generelt er tilfredsstillende for begge parter, og saken er dermed tilfredsstillende konkludert.

Mennesket råder over AI, som standard

Når vi setter opp AI, kan vi programmere en regel som sier at mennesket-i-løkken alltid skal råde når det oppstår en faglig uenighet. Dette vil være den eksplisitt kodede standarden. Vi kan også tillate en eller annen form for overstyring, bare i tilfelle, selv om den stående regelen vil være at mennesket råder.

AI råder over mennesket, som standard

Når du setter opp AI, kan vi programmere en regel som sier at AI alltid skal seire over mennesket-i-løkken når det oppstår en faglig uenighet. Dette er den eksplisitt kodede standarden. Vi kan også tillate en form for overstyring, bare i tilfelle, selv om den stående regelen vil være at AI råder.

Noen annen forhåndsbestemt fast oppløsning råder, som standard

Når du setter opp AI, kan vi programmere en regel som sier at en annen forhåndsbestemt fast oppløsning vil gjelde når det oppstår en profesjonell uenighet med mennesket-i-løkken. Mennesket-i-løkken råder ikke som standard. AI råder ikke som standard. Det er en annen forhåndsidentifisert oppløsning. For eksempel er det kanskje kasting av en mynt som skal brukes til å avgjøre hvilken av de to partene som anses som den rette veien å gå. Det ville åpenbart virke ganske vilkårlig; En annen eksempeltilnærming vil derfor være at en spesialisert regel starter som beregner en verdi basert på innspill fra de to partene og kommer til et resultat som et tiebreak.

Tredjepartsmenneske er koblet inn og deres indikasjon råder over partene

Ved en faglig uenighet kan en regel være at en tredjepart som er et menneske blir påkalt og sluppet inn i innstillingen for å ta en beslutning om å løse uenigheten. AI er programmert til å utsette seg for hva tredjepartsmennesket bestemmer seg for. Mennesket som allerede er i mennesket-i-løkken har på forhånd blitt instruert om at hvis en slik situasjon oppstår, skal de også henvende seg til tredjepartsmennesket. Som en side kan du sannsynligvis forutse at mennesket-i-løkken kan ha angst for å gå med på hva tredjepartsmennesket bestemmer seg for hvis avgjørelsen er uenig med mennesket-i-løkken-stilling.

Tredjeparts AI er sløyfet og indikasjonen råder over partene

Ved en faglig uenighet kan en regel være at en tredjepart som er et annet AI-system blir påkalt og koblet inn i innstillingen for å ta en beslutning om å løse uenigheten. Den originale AI er programmert til å utsette seg for hva tredjeparts AI bestemmer. Mennesket som allerede er i mennesket-i-løkken, har blitt instruert på forhånd om at hvis en slik situasjon oppstår, skal de også henvende seg til tredjeparts AI. Som en side kan du sannsynligvis forutse at mennesket-i-sløyfen kan ha angst for å gå med på hva tredjeparts AI bestemmer hvis avgjørelsen er uenig med menneske-i-løkken-stilling.

Tredjepartsmenneske erstatter det eksisterende mennesket, ting fortsetter på nytt

Ved en faglig uenighet erstattes mennesket-i-løkka med en tredjepart som er et menneske og som heretter blir menneske-i-løkken. Mennesket som var det opprinnelige mennesket-i-løkka for oppgaven regnes ikke lenger som en del av oppgaven. Det er et åpent aspekt om hva som ellers skjer med det nå erstattede menneske-i-løkka, men vi sier at de helt sikkert ikke lenger har noen pågående rolle i arbeidsoppgaven.

Tredjeparts AI erstatter eksisterende AI, ting fortsetter på nytt

Ved faglig uenighet erstattes AI med en tredjeparts AI, og det blir heretter AI som brukes til arbeidsoppgaven. AI-en som opprinnelig ble brukt til oppgaven regnes ikke lenger som en del av oppgaven. Det er et åpent aspekt om hva som ellers skjer med den nå erstattede AI-en, men vi sier at AI-en ikke lenger har noen pågående rolle i arbeidsoppgaven.

Tredjeparts menneske erstatter den eksisterende AI, ting fortsetter på nytt (nå menneske-til-menneske)

Ved en faglig uenighet blir AI erstattet av et tredjepartsmenneske som den personen nå blir den ansett som samarbeidspartner for som vil bli brukt til arbeidsoppgaven. AI-en som opprinnelig ble brukt til oppgaven regnes ikke lenger som en del av oppgaven. Det er et åpent aspekt om hva som ellers skjer med den nå erstattede AI-en, men vi sier at AI-en ikke lenger har noen pågående rolle i arbeidsoppgaven. Kort sagt, dette blir nå en to-parts menneske-til-menneske utført oppgave.

Tredjeparts AI erstatter det eksisterende mennesket, ting fortsetter på nytt (nå AI-til-AI)

Ved faglig uenighet erstattes mennesket-i-løkken med en tredjeparts AI, og denne AI-en blir heretter utfyllingen for den foregående menneske-i-løkken. Mennesket som var det opprinnelige mennesket-i-løkka for oppgaven regnes ikke lenger som en del av oppgaven. Det er et åpent aspekt om hva som ellers skjer med den nå erstattede menneske-i-løkken, men vi sier at de helt sikkert ikke lenger har noen pågående rolle i arbeidsoppgaven. Kort sagt, dette blir nå en toparts AI-til-AI for å utføre oppgaven.

Annen

Andre varianter kan tenkes ut for å takle en faglig uenighet, men vi har dekket noen av nøkkelsteinene her.

Hvordan skal vi bestemme hvilken av disse tilnærmingene som vil være den rette for en gitt situasjon?

Et bredt spekter av problemstillinger er knyttet til et slikt valg. Det er teknologiske hensyn. Det er forretningsmessige hensyn. Det er juridiske og etiske hensyn.

Til en viss grad er det derfor AI-etikk og etisk AI er et så viktig tema. Forskriftene til AI-etikk får oss til å være årvåkne. AI-teknologer kan til tider bli opptatt av teknologi, spesielt optimalisering av høyteknologi. De vurderer ikke nødvendigvis de større samfunnsmessige konsekvensene. Å ha en AI-etikk-tankegang og gjøre det integrert i AI-utvikling og feltarbeid er avgjørende for å produsere passende AI, inkludert (kanskje overraskende eller ironisk nok) vurderingen av hvordan AI-etikk blir tatt i bruk av firmaer.

I tillegg til å bruke AI-etiske forskrifter generelt, er det et tilsvarende spørsmål om vi bør ha lover som regulerer ulike bruk av AI. Nye lover blir slått rundt på føderalt, statlig og lokalt nivå som angår rekkevidden og arten av hvordan AI bør utformes. Arbeidet med å utarbeide og vedta slike lover er gradvis. AI-etikk fungerer i det minste som et betraktet stopp, og vil nesten helt sikkert til en viss grad bli direkte innlemmet i de nye lovene.

Vær oppmerksom på at noen hevder hardt at vi ikke trenger nye lover som dekker AI, og at våre eksisterende lover er tilstrekkelige. Faktisk varsler de at hvis vi vedtar noen av disse AI-lovene, vil vi drepe gullgåsen ved å slå ned på fremskritt innen AI som gir enorme samfunnsmessige fordeler.

På dette tidspunktet i denne tungtveiende diskusjonen vil jeg vedde på at du ønsker noen illustrative eksempler som kan vise frem dette emnet. Det er et spesielt og sikkert populært sett med eksempler som ligger meg nært på hjertet. Du skjønner, i min egenskap som ekspert på AI, inkludert de etiske og juridiske konsekvensene, blir jeg ofte bedt om å identifisere realistiske eksempler som viser AI-etikk-dilemmaer, slik at emnets noe teoretiske natur lettere kan forstås. Et av de mest stemningsfulle områdene som på en levende måte presenterer dette etiske AI-kvandalet, er fremkomsten av AI-baserte ekte selvkjørende biler. Dette vil tjene som en praktisk brukssak eller eksempel for rikelig diskusjon om emnet.

Her er et bemerkelsesverdig spørsmål som er verdt å vurdere: Belyser fremkomsten av AI-baserte ekte selvkjørende biler noe om løsninger på AI og menneskelig uenighet, og i så fall, hva viser dette?

Tillat meg et øyeblikk å pakke ut spørsmålet.

Først, merk at det ikke er en menneskelig sjåfør involvert i en ekte selvkjørende bil. Husk at ekte selvkjørende biler kjøres via et AI-kjøresystem. Det er ikke behov for en menneskelig sjåfør ved rattet, og det er heller ikke en bestemmelse om at et menneske kan kjøre kjøretøyet. For min omfattende og pågående dekning av autonome kjøretøy (AV) og spesielt selvkjørende biler, se lenken her.

Jeg vil gjerne forklare hva som menes når jeg refererer til ekte selvkjørende biler.

Forstå nivåene av selvkjørende biler

Som en avklaring er sanne selvkjørende biler de hvor AI kjører bilen helt alene, og det ikke er noen menneskelig assistanse under kjøreoppgaven.

Disse førerløse kjøretøyene regnes som nivå 4 og nivå 5 (se min forklaring på denne lenken her), mens en bil som krever en menneskelig sjåfør for å dele kjøreinnsatsen vanligvis vurderes på nivå 2 eller nivå 3. Bilene som deler kjøreoppgaven beskrives som semi-autonome, og inneholder vanligvis en rekke automatiserte tillegg som omtales som ADAS (Advanced Driver-Assistance Systems).

Det er ennå ikke en ekte selvkjørende bil på nivå 5, og vi vet ennå ikke engang om dette vil være mulig å oppnå, og heller ikke hvor lang tid det vil ta å komme dit.

I mellomtiden prøver nivå 4-innsatsen gradvis å få litt trekkraft ved å gjennomgå veldig smale og selektive offentlige kjørebaneprøver, selv om det er kontrovers om denne testen skal være tillatt i seg selv (vi er alle liv-eller-død marsvin i et eksperiment. som foregår på våre motorveier og motorveier, noen hevder, se dekning min på denne lenken her).

Siden semi-autonome biler krever en menneskelig sjåfør, vil ikke adopsjonen av disse typer biler være markant annerledes enn å kjøre konvensjonelle kjøretøyer, så det er ikke mye nytt per se å dekke om dem om dette emnet (skjønt, som du vil se på et øyeblikk er poengene som blir gjort neste, generelt anvendelige).

For semi-autonome biler er det viktig at publikum må varsles om et urovekkende aspekt som har oppstått i det siste, nemlig at til tross for de menneskelige sjåførene som fortsetter å legge ut videoer av seg som sovner ved rattet på en nivå 2 eller nivå 3-bil , vi alle trenger å unngå å bli villedet til å tro at sjåføren kan fjerne oppmerksomheten fra kjøreoppgaven mens han kjører en semi-autonom bil.

Du er den ansvarlige parten for kjøringen av kjøretøyet, uavhengig av hvor mye automatisering som kan kastes i et nivå 2 eller nivå 3.

Selvkjørende biler og AI-mot-menneskelig uenighet

For sanne selvkjørende kjøretøyer på nivå 4 og nivå 5 vil det ikke være en menneskelig sjåfør involvert i kjøreoppgaven.

Alle beboere vil være passasjerer.

AI driver kjøringen.

Et aspekt å umiddelbart diskutere innebærer det faktum at AI involvert i dagens AI-kjøresystemer ikke er viktig. Med andre ord, AI er helt en samling av databasert programmering og algoritmer, og absolutt ikke i stand til å resonnere på samme måte som mennesker kan.

Hvorfor er denne ekstra vekt om at AI ikke er følsom?

Fordi jeg vil understreke at når jeg diskuterer AI-kjøresystemets rolle, tilskriver jeg ikke menneskelige kvaliteter til AI. Vær oppmerksom på at det i disse dager er en pågående og farlig tendens til å antropomorfisere AI. I hovedsak tildeler folk menneskelig følsomhet til dagens AI, til tross for det ubestridelige og ubestridelige faktum at ingen slik AI eksisterer ennå.

Med den avklaringen kan du se for deg at AI-kjøresystemet ikke på en eller annen måte "vet" om fasettene ved kjøring. Kjøring og alt det innebærer må programmeres som en del av maskinvaren og programvaren til den selvkjørende bilen.

La oss dykke ned i de mange aspektene som kommer til å spille om dette emnet.

For det første er det viktig å innse at ikke alle AI selvkjørende biler er like. Hver bilprodusent og selvkjørende teknologifirma tar sin tilnærming til å utvikle selvkjørende biler. Som sådan er det vanskelig å komme med omfattende utsagn om hva AI-kjøresystemer vil gjøre eller ikke.

Når du sier at et AI -kjøresystem ikke gjør noen spesielle ting, kan dette senere bli forbikjørt av utviklere som faktisk programmerer datamaskinen til å gjøre akkurat det. Steg for steg blir AI -kjøresystemer gradvis forbedret og utvidet. En eksisterende begrensning i dag eksisterer kanskje ikke lenger i en fremtidig iterasjon eller versjon av systemet.

Jeg håper det gir en tilstrekkelig litani av forbehold til å ligge til grunn for det jeg skal fortelle.

For helt autonome kjøretøy er det kanskje ikke noen sjanse for en faglig uenighet mellom et menneske og AI på grunn av muligheten for at det ikke er noe menneske-i-løkken å begynne med. Aspirasjonen for mange av dagens selvkjørende bilprodusenter er å fjerne den menneskelige sjåføren fullstendig fra kjøreoppgaven. Kjøretøyet vil ikke engang inneholde mennesketilgjengelige kjørekontroller. I så fall vil en menneskelig sjåfør, hvis tilstede, ikke kunne delta i kjøreoppgaven siden de mangler tilgang til noen kjørekontroller.

For noen helt autonome kjøretøy tillater noen design fortsatt at et menneske kan være i løkken, selv om mennesket ikke trenger å være tilgjengelig eller delta i kjøreprosessen i det hele tatt. Dermed kan et menneske delta i kjøringen, dersom personen ønsker det. Imidlertid er AI ikke på noe tidspunkt avhengig av mennesket for å utføre noen av kjøreoppgavene.

Når det gjelder semi-autonome kjøretøy, er det et hånd-i-hånd forhold mellom den menneskelige sjåføren og AI. Den menneskelige sjåføren kan overta kjørekontrollene helt og i det vesentlige stoppe AI fra å delta i kjøringen. Hvis den menneskelige sjåføren ønsker å gjeninnføre AI i førerrollen, kan de gjøre det, selv om dette noen ganger tvinger mennesket til å gi fra seg kjørekontrollene.

En annen form for semi-autonom operasjon vil innebære at den menneskelige sjåføren og AI arbeider sammen på en måte. AI kjører og mennesket kjører. De kjører sammen. AI kan henge til mennesket. Mennesket kan utsette seg for AI.

På et tidspunkt kan AI-kjøresystemet og den menneskelige sjåføren i løkken komme til et tidspunkt av en "profesjonell uenighet" angående kjøreoppgaven.

For å illustrere hvordan noen av de nevnte reglene for håndtering av en faglig uenighet kan være utfordrende å implementere, bør du vurdere forekomsten av å påkalle en tredjepart for å gå inn i saken og gi en beslutning om å løse det uløste problemet.

Anta at en bilprodusent eller et selvkjørende teknologifirma har sørget for at eksterne menneskelige operatører har tilgang til kjørekontrollene til kjøretøyene i flåten deres. Den menneskelige operatøren sitter på et fjerntliggende kontor eller lignende omgivelser. Via et datasystem kan de se kjørescenen via tilgang til kameraer og andre sensorenheter som er lastet inn i den selvkjørende bilen. For dem er dette nesten som å spille et nettbasert videospill, selv om de virkelige omstendighetene har potensielt alvorlige konsekvenser.

Et AI-system og en menneskelig sjåfør inne i bilen kjører et semi-autonomt kjøretøy nedover en lang motorvei. Plutselig vil AI-en styre i en grøft. Den menneskelige sjåføren ønsker ikke å gjøre dette. De to maser over kjørekontrollene.

Hvordan vil dette løses?

Vi kunne kanskje ha innstiftet på forhånd at mennesket alltid vinner. Men anta at vi valgte å ikke gjøre det.

Vi kunne ha innført på forhånd at AI alltid vinner. Anta at vi valgte å ikke gjøre det. Alt i alt vedtok vi ikke noen av disse reglene, annet enn at vi bestemte oss for å tillate et tredjepartsmenneske å gripe inn og løse en faglig uenighet av noen som helst substans.

I dette tilfellet kjemper AI og den menneskelige sjåføren ved rattet om kjørekontrollene. Dette er la oss si formidlet til den eksterne menneskelige operatøren (vår tredjepartsmenneske). Den eksterne menneskelige operatøren undersøker hva som skjer og bestemmer seg for å styre unna grøften, og tilsynelatende avverge det AI-en prøvde å gjøre. Anta samtidig at den eksterne menneskelige operatøren styrer inn i møtende trafikk, noe som kanskje verken AI eller den menneskelige sjåføren inne i bilen hadde ønsket å gjøre.

Poenget er at måten denne regelen har blitt implementert på er at den menneskelige tredjepartsoperatøren er i stand til å fullstendig overstyre både AI og mennesket-i-løkken. Om dette kommer til å gi et godt resultat er garantert ikke sikkert.

Jeg vil bruke dette eksemplet til å fremheve noen ekstra innsikter om disse sakene.

Du kan ikke gjøre den frekke antagelsen at bare fordi en av disse reglene er satt på plass, er utfallet av den løste uenigheten nødvendigvis et garantert godt resultat. Det er det kanskje ikke. Det er ingen jernbelagt alltid-riktig type regel som kan velges.

Deretter kan det hende at noen av disse reglene ikke er gjennomførbare.

Tenk på eksemplet med den eksterne menneskelige operatøren som griper inn når AI og den menneskelige sjåføren krangler over kjørekontrollene. Det kan ta mange sekunder før den eksterne menneskelige operatøren finner ut hva som skjer. Da kan kjøretøyet allerede ha havnet i grøfta eller hatt et annet negativt utfall. Anta også at plasseringen av kjøretøyet utelukker ekstern tilgang, for eksempel å være et sted der det ikke er noen elektronisk nettverkstilkobling. Eller kanskje nettverksfunksjonene til kjøretøyet ikke fungerer i det aktuelle øyeblikket.

Som du kan se, kan regelen se flott ut på papiret, selv om det kan være en svært vanskelig eller svært tilfeldig tilnærming å sette regelen i bruk. Se min dekning med kritiske øyne på fjernoperatøren av autonome kjøretøy og selvkjørende biler på lenken her.

Jeg vil kort dekke et annet relatert emne som jeg vil dekke i større dybde i en kommende analyse.

En av de økende bekymringene rundt autonome kjøretøy og selvkjørende biler som er semi-autonome er den s.k. Hot Potato Syndrome.

Her er avtalen.

Et AI-kjøresystem og et menneske kjører sammen. En forferdelig knipe oppstår. AI-en er programmert til å droppe kjøreoppgaven og overlate ting til mennesket når et forferdelig øyeblikk inntreffer. Dette virker kanskje "fornuftig" ved at vi ser ut til å påberope oss regelen om mennesket som standard "vinner" i enhver potensiell faglig uenighet.

Men AI som dropper ut kan være for mer ondsinnede eller betraktet lumske formål. Det kan være at bilprodusenten eller det selvkjørende teknologiselskapet ikke vil at deres AI skal anses som "parten som har feil" når en bilulykke inntreffer. For å tilsynelatende unngå å bli fastklemt på den måten, overlater AI brått kontrollene til mennesket. Voila, mennesket er nå antagelig fullstendig ansvarlig for kjøretøyet.

Kickeren er at anta at AI gjør denne overleveringen med la oss si ett sekund igjen før en krasj inntreffer.

Ville mennesket virkelig ha noen tilgjengelig tid til å avverge krasjen?

Sannsynligvis ikke.

Anta at AI utfører overleveringen med noen få millisekunder eller nanosekunder igjen. Jeg tør påstå at mennesket i hovedsak har null sjanse til å gjøre noe for å avverge krasjen.

Fra bilprodusentens eller selvkjørende bilfirmaets perspektiv kan de prøve å oppføre seg som om hendene deres var rene når en slik bilulykke inntreffer. Bilen ble kjørt av et menneske. AI-en kjørte ikke bilen. Den eneste "logiske" konklusjonen ser ut til å være at mennesket må ha feil og AI må være fullstendig ulastelig.

Det er en crock.

Jeg vil diskutere dette mer i dybden i en kommende spalte.

konklusjonen

Faglige uenigheter kommer til å oppstå.

Det er vanskelig å forestille seg en kompleks oppgave som har to parter som utfører oppgaven sammen, og som det aldri noen gang vil være noen faglige uenigheter om. Dette virker som et fantasiland eller i det minste en stor sjeldenhet.

I dag har vi massevis av menneske-til-menneske tilfeller av faglig uenighet, som på en daglig basis løser fredelig og fornuftig på en eller annen måte. Faktisk setter vi ofte opp situasjoner med vilje for å fremme og synliggjøre faglige uenigheter. Du kan kanskje argumentere for at dette viser den berømte visdommen at noen ganger er to hoder bedre enn ett.

Etter hvert som AI blir mer utbredt, kommer vi til å ha mange AI-til-menneske eller menneske-til-AI topartsoppgaveutøvere, og det kommer til å bli faglige uenigheter som vil skje. Den late tilnærmingen er å alltid forholde seg til mennesket. Dette er kanskje ikke den mest passende tilnærmingen. AI kan være det bedre valget. Eller en av de andre nevnte reglene kan være en sunnere tilnærming.

Det er den vismannslinjen som ofte gjentok at vi alle generelt burde være i stand til å være enige om å være uenige, men når det kommer til stykket, noen ganger må en uenighet løses utvetydig, ellers vil saken føre til ufattelig katastrofe. Vi kan ikke bare la en uenighet forsvinne på vintreet. Tid kan være av essensen og liv kan stå på spill.

Det er et klart krav til noen fornuftige måter å løse uenigheter selv om det ikke nødvendigvis er tilfredsstillende, inkludert når AI og et menneske-i-løkken ikke ser øye-til-øye eller byte-til-byte.

Jeg stoler på at du ikke vil være uenig i den helt behagelige påstanden.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- piloten-og-co-piloten var uenige før de tok-av-og-brått-valgte-taxi-tilbake-til-terminalen-og-gå hver sin vei/