AI-etikk bryting med uunngåelig AI-ulykker, som også ruver over autonome selvkjørende biler

Kjenner du kanskje noen som ser ut til å være spesielt utsatt for ulykker?

Det virker som vi alle gjør det.

Kanskje personen er den typen som er tilbøyelig til å skli på et bananskall eller velte en dyrebar vase i stuen din. De er en menneskelig magnet for ulykker av et eller annet slag. Det kan være så ille at du til og med avskyr å være i nærheten av dem til tider. Du kan få det illevarslende overløpet eller lider av det uhyggelige etterspillet av en av deres ubehagelige ulykker.

Men kanskje er vi altfor harde når vi antyder at noen er mer utsatt for ulykker enn andre er. Det kan argumenteres for at ulykker kan skje med hvem som helst av oss. Vi er alle underlagt muligheten for å begå eller bli involvert i en ulykke. De beste av oss inkludert.

La oss legge på toppen av denne diskusjonen et ekstra irriterende spørsmål.

Er ulykker uunngåelige?

Med andre ord, uansett hvor hardt vi prøver å forhindre ulykker, kan det uløselig være at det likevel fortsatt er en sjanse for og en endelig sikkerhet for at ulykker vil inntreffe. Du kan søke å beskytte verden mot ulykker. Det virker utvilsomt forsvarlig. Men på en eller annen måte vil ulykker fortsatt trekke sitt stygge hode.

Som de sier, ulykker venter på å skje.

Det kan være nyttig å klargjøre hva som menes med å referere til en hendelse som passende stemplet som en ulykke. Den vanlige ordbokdefinisjonen er at en ulykke er en type hendelse som inntreffer uventet og utilsiktet, hvor det er et uheldig resultat som består av et skinn av skade eller skade.

Pakk den definisjonen forsiktig ut.

Den nevnte hendelsen er uventet. Dette innebærer at vi ikke så ut til å innse at selve ulykken ville oppstå.

Den nevnte hendelsen er utilsiktet. Dette tilsier at vi bør utelukke omstendighetene der noen med vilje forsøkte å få hendelsen til å skje. Hvis en skøyer legger et bananskall på gulvet der de vet at en uheldig og intetanende uskyldig vil tråkke, ville du bli hardt presset til å hevde at personen som snublet over den hadde vært utsatt for en ulykke. De ble i stedet lurt og lumsk ført i en felle.

Definisjonen inkluderer også kriteriet om at resultatet er uheldig. En ulykke i dette lyset må føre til et surt utfall. Personen som ved et uhell veltet en vase har sprukket og muligens skadet den pålyste gjenstanden uten å kunne repareres. Eieren av vasen tar skade av verditapet. Personen som løp inn i vasen kan nå skylde eieren for tapet. Himmelen forby at noen kan ha blitt kuttet eller skrotet av at vasen knuste.

For likevekts skyld kan det være lurt å merke seg at det også er såkalte "gode" ulykker. En person kan finne seg selv i stor formue eller oppnå en annen viktig fordel på grunn av resultatet av en ulykke. Et av de mest siterte eksemplene består av Sir Alexander Fleming og hans anerkjente oppdagelse av penicillin. Historien forteller at han var litt uforsiktig i laboratoriet sitt, og da han kom tilbake fra en to ukers ferie, fant han en form på en av kulturplatene hans. Etter sigende sa han dette om saken: «Man finner noen ganger det man ikke leter etter. Da jeg våknet like etter daggry den 28. september 1928, hadde jeg absolutt ikke tenkt å revolusjonere all medisin ved å oppdage verdens første antibiotika, eller bakteriedreper. Men jeg antar at det var akkurat det jeg gjorde.»

Vi skal sette til side de gunstige ulykkene og fokusere her på de triste ulykkene. Ulykker med rynket ansikt er der disse uheldige utfallene kan være spesielt livstruende eller ha tunge resultater. Så mye som mulig, downside-ulykkene vi ønsker å minimere (og, selvfølgelig, upside-ulykkene vi ønsker å maksimere, hvis det er mulig å gjøre, selv om jeg skal dekke den smilefjesvarianten i en senere spalte).

Jeg vil gjerne omformulere det tidligere spørsmålet om uunngåelsen av ulykker. Så langt har vi holdt oppmerksomheten på ulykker som skjer i det spesielle tilfellet med en enkeltperson. Det er ingen tvil om at ulykker også kan ramme en mengde mennesker på en gang. Dette kan oppstå spesielt når folk er nedsenket i et komplekst system av en eller annen type.

Gjør deg klar for en variant av det tidligere stilte spørsmålet.

Er systemulykker uunngåelige?

Vi bør tenke over dette.

Anta at det legges ut et fabrikkgulv for å lage deler til biler. De som designet fabrikken er for eksempel ekstremt bekymret for arbeidsulykker som kan oppstå. Fabrikkarbeidere er pålagt å bruke hjelm til enhver tid. Skilt på fabrikken oppfordrer til å se opp for ulykker og være oppmerksom i arbeidet ditt. Alle slags forholdsregler tas for å unngå at ulykker skjer.

I dette systemet håper vi kanskje at ingen noen gang vil bli utsatt for en ulykke. Tror du at det er null sjanse for at en ulykke skal skje? Jeg vil tørre å antyde at ingen fornuftig tenker ville satse på at sjansen for en ulykke er null i dette tilfellet. Oddsen kan være veldig lav for en ulykke, men vi vet og antar fortsatt at til tross for alle forholdsregler er det fortsatt en liten risiko for at en ulykke vil finne sted.

Alt dette peker på ideen om at i et system med tilstrekkelig kompleksitet er vi nødt til å tro at ulykker fortsatt vil skje, uavhengig av hvor hardt vi prøver å forhindre dem. Vi støtter oss motvillig inn i bestemmelsen om at systemulykker faktisk er uunngåelige. En storslått uttalelse av dette kaliberet kan ha et forbehold om at systemet må være av en eller annen kompleksitetsterskel, slik at det i hovedsak er umulig å dekke alle basene for å forhindre ulykker totalt.

Du har nå blitt pent steg-for-steg introdusert for en bredt skissert teori om ulykker som kan betegnes som Normal Accidents eller Normal Accident Theory (NAT). Her er en praktisk beskrivelse av forskere som har undersøkt denne forestillingen: «I stor nok skala vil ethvert system produsere 'normale ulykker'. Dette er uunngåelige ulykker forårsaket av en kombinasjon av kompleksitet, kobling mellom komponenter og potensiell skade. En normal ulykke er forskjellig fra mer vanlige komponentfeilulykker ved at hendelsene og interaksjonene som fører til en normal ulykke ikke er forståelige for operatørene av systemet" (som angitt i "Understanding and Avoiding AI Failures: A Practical Guide" av Robert Williams og Roman Yampolskiy, filosofier tidsskrift).

Grunnen til at jeg har brakt deg til landet med såkalte vanlige ulykker er at vi kanskje må nøye bruke denne teorien på noe som gradvis og uunngåelig blir allestedsnærværende i samfunnet vårt, nemlig fremkomsten av kunstig intelligens (AI).

La oss grave i dette.

Noen mennesker antar feilaktig at AI kommer til å være perfeksjon. AI-systemer vil ikke gjøre feil og vil ikke få oss i trøbbel, lyder spekulasjonene. Alt du trenger å gjøre er å sørge for at disse AI-utviklerne gjør en god nok jobb, og vips, AI vil aldri gjøre noe som kan tolkes som tilfeldig eller forårsake en ulykke.

Ikke så raskt på den hypotetiske troen. Hvis du er villig til å kjøpe deg inn i teorien om vanlige ulykker, vil enhver AI av noen vesentlig kompleksitet uunngåelig føre til en ulykke. Uansett hvor mye triksing disse AI-utviklerne gjør for å forhindre en ulykke, vil AI på et tidspunkt bli involvert i en ulykke. Det er måten kaken smuldrer opp. Og det er ingen pusterom ved å gråte i melken vår om det.

Tenk på blandingen av AI og de konseptuelle prinsippene til vanlige ulykker.

Se for oss at vi har et AI-system som kontrollerer atomvåpen. AI er nøye laget. Hver tenkelig sjekk og balanse er kodet inn i AI-systemet. Er vi trygge for en AI-basert ulykke som kan oppstå? De som støtter det normale ulykkessynspunktet vil si at vi ikke er fullt så sikre som man kan anta. Gitt at AI sannsynligvis vil være spesielt kompleks, venter en normal ulykke stille der inne for å dukke opp en dag, kanskje i det verst mulige øyeblikket.

Hovedpoenget i disse vanskelige spørsmålene og betenkeligheter er at vi må være på tærne for at AI er bundet til å være ulykkesbelastet, og menneskeheten må gjøre noe fornuftig og proaktivt med farene som kan oppstå. Som du vil se om et øyeblikk eller to, er dette en truende vurdering når det gjelder bruk av AI, og feltet AI Ethics and Ethical AI bryter ganske mye om hva de skal gjøre. For min pågående og omfattende dekning av AI-etikk og etisk AI, se lenken her og lenken her, bare for å nevne noen få.

Før vi går ned i et kaninhull, la oss sørge for at vi er på samme side om arten av AI. Det er ingen AI i dag som er sansende. Vi har ikke dette. Vi vet ikke om sentient AI vil være mulig. Ingen kan med rette forutsi om vi vil oppnå sansende AI, og heller ikke om sansende AI på en eller annen måte mirakuløst spontant vil oppstå i en form for beregningsmessig kognitiv supernova (vanligvis referert til som singulariteten, se min dekning på lenken her).

Den typen AI som jeg fokuserer på består av den ikke-sansende AI som vi har i dag. Hvis vi ville spekulere vilt om selvbevisst AI, denne diskusjonen kan gå i en radikalt annen retning. En sansende AI ville visstnok være av menneskelig kvalitet. Du må vurdere at den sansende AI er den kognitive ekvivalenten til et menneske som gir deg råd. Mer så, siden noen spekulerer i at vi kan ha superintelligent AI, er det tenkelig at slik AI kan ende opp med å bli smartere enn mennesker (for min utforskning av superintelligent AI som en mulighet, se dekningen her). Alle fortalte at disse scenariene ville øke vurderingen av kilden.

La oss holde ting mer jordnære og vurdere dagens beregningsbaserte ikke-følende AI.

Innse at dagens AI ikke er i stand til å "tenke" på noen måte på linje med menneskelig tenkning. Når du samhandler med Alexa eller Siri, kan samtalekapasiteten virke som menneskelig kapasitet, men realiteten er at den er beregningsmessig og mangler menneskelig erkjennelse. Den siste æraen av AI har gjort omfattende bruk av Machine Learning (ML) og Deep Learning (DL), som utnytter beregningsmønstermatching. Dette har ført til AI-systemer som ser ut som menneskelignende tilbøyeligheter. I mellomtiden er det ingen kunstig intelligens i dag som har et skinn av sunn fornuft, og heller ikke noe av den kognitive undringen til robust menneskelig tenkning.

Du er kanskje klar over at da den siste æraen med kunstig intelligens kom i gang var det et stort utbrudd av entusiasme for det noen nå kaller AI For Good. Dessverre begynte vi å være vitne til etter den fossende spenningen AI for Bad. For eksempel har forskjellige AI-baserte ansiktsgjenkjenningssystemer blitt avslørt å inneholde rasemessige skjevheter og kjønnsskjevheter, som jeg har diskutert på lenken her.

Anstrengelser for å kjempe tilbake mot AI for Bad er aktivt i gang. Dessuten høyrøstet lovlig jakten på å tøyle urettferdighetene, er det også et betydelig løft mot å omfavne AI-etikk for å rette opp AI-eiendommen. Tanken er at vi bør ta i bruk og støtte viktige etiske AI-prinsipper for utvikling og felt av AI for å undergrave AI for Bad og samtidig varsle og fremme det som er å foretrekke AI For Good.

På en beslektet oppfatning er jeg en talsmann for å prøve å bruke AI som en del av løsningen på AI-problemer, og bekjempe ild med ild på den måten å tenke på. Vi kan for eksempel bygge inn etiske AI-komponenter i et AI-system som vil overvåke hvordan resten av AI gjør ting og dermed potensielt fange opp i sanntid enhver diskriminerende innsats, se diskusjonen min på lenken her. Vi kan også ha et eget AI-system som fungerer som en type AI Ethics-monitor. AI-systemet fungerer som en tilsynsmann for å spore og oppdage når en annen AI går inn i den uetiske avgrunnen (se min analyse av slike evner på lenken her).

Alt i alt, et generelt håp er at ved å etablere en følelse av AI-etiske forskrifter vil vi i det minste være i stand til å øke den samfunnsmessige bevisstheten om hva AI både med fordel kan gjøre og også kan produsere negativt. Jeg har grundig diskutert ulike kollektive analyser av AI-etiske prinsipper, inkludert å ha dekket et sett utviklet av forskere som undersøkte og kondenserte essensen av en rekke nasjonale og internasjonale AI-etiske grunnsetninger i en artikkel med tittelen "The Global Landscape Of AI Ethics Guidelines" (publisert i Natur), og at dekningen min utforsker kl lenken her, som førte til denne keystone-listen:

  • Åpenhet
  • Rettferdighet og rettferdighet
  • Ikke-ondsinnethet
  • Ansvar
  • Privatliv
  • godgjør
  • Frihet og autonomi
  • Stol
  • Bærekraft
  • Verdighet
  • Solidaritet

Som du direkte kan gjette, kan det være ekstremt vanskelig å prøve å finne de spesifikke underliggende prinsippene. Enda mer så er innsatsen for å gjøre disse brede prinsippene til noe helt håndfast og detaljert nok til å brukes når man lager AI-systemer, også en tøff nøtt å knekke. Det er lett generelt å vinke litt med hånden om hva AI-etiske forskrifter er og hvordan de generelt skal overholdes, mens det er en mye mer komplisert situasjon i AI-kodingen som må være den veritable gummien som møter veien.

AI-etikkprinsippene skal brukes av AI-utviklere, sammen med de som styrer AI-utviklingsinnsatsen, og til og med de som til slutt arbeider med og utfører vedlikehold på AI-systemer. Alle interessenter gjennom hele livssyklusen for utvikling og bruk av kunstig intelligens anses innenfor rammen av å overholde de etablerte normene for etisk kunstig intelligens. Dette er et viktig høydepunkt siden den vanlige antagelsen er at "bare kodere" eller de som programmerer AI-en er underlagt AI-etikkens forestillinger. Som tidligere nevnt, kreves det en landsby for å utforme og sette opp AI, og som hele landsbyen må være kjent med og etterleve AI-etiske forskrifter.

Vi må kanskje legge til de hyllede AI Ethics-oppføringene som vi må eksplisitt vurdere og iverksette åpenbare handlinger for å forhindre eller i det minste strengt redusere AI-basert vanlige ulykker som kan oppstå. De som utvikler AI må gjøre sitt beste på den fronten. De som distribuerer AI må gjøre det samme. De som bruker eller på en eller annen måte er underlagt AI, bør være på vakt og være på vakt for muligheten for AI-ulykker som tilsynelatende kommer til å oppstå.

Du kan bli fristet til å tro at nok forholdsregler kan bygges inn i AI til at sjansene for en ulykke skal falle til null. For de som er teknologer, er den vanlige hybrisen at hvis et stykke teknologi kan generere et problem, kan en annen teknologi sikkert løse problemet. Bare fortsett å kaste mer og mer teknologi til problemet forsvinner.

Vel, de som har studert systemorienterte ulykker vil ha en tendens til å være uenige og høflig gi tilbakemelding til den antatte teknologiske pompøsiteten ved å komme med et standpunkt kjent som den sveitsiske ostemodellen (SCM): «I SCM er sikkerhetslagene modellert som skiver av ost med hull i dem som representerer svake punkter i hvert lag av sikkerhet. Over tid endrer hull form og beveger seg rundt. Til slutt, uansett hvor mange skiver ost (sikkerhetslag) det er, vil hullene justeres slik at et rett skudd gjennom alle osteskivene (en ulykke inntreffer)" (i henhold til den tidligere siterte artikkelen av Robert Williams og Roman Yampolskiy ).

Jeg vil ikke henge meg ned i denne sidetangenten om hvorvidt det er en garantert måte å programmere AI for å fullstendig og alltid avverge enhver sjanse for en ulykke. Det er alle slags matematiske og beregningsmessige bevismetoder som blir prøvd. Jeg synes det er rimelig og rettferdig å erklære at vi i dag ikke har en skalerbar arbeidsmetode eller teknologier som kan garantere en slik null sjanse, pluss at vi definitivt er bekledd med tonn på tonn med AI som blir produsert som vi vet med sikkerhet ikke har forsøkt å etterleve slik praksis. Det siste punktet er avgjørende siden selv om vi kan lage noe i et AI-laboratorium, er det et knotete problem å skalere det til millionvis av ville og bekymringsløse AI-innsats som pågår, og som vil fortsette å dukke opp, og sannsynligvis ikke løst selv om en beregningstestende maskin sølv. kule eksisterte.

Et annet poeng som jeg mener fortjener en kort omtale består av kunstig intelligens som blir omgjort til å gjøre uønskede handlinger som et resultat av ondsinnede menneskelige aktører. Jeg kommer ikke til å plassere disse tilfellene i riket av AI-ulykker. Husk at åpningsdiskusjonen antydet at ordbokdefinisjonen av en ulykke var en hendelse av en utilsiktet natur. Hvis en menneskelig cyberskurk klarer å få et AI-system til å gjøre dårlige ting, klassifiserer jeg ikke den AI-en som å ha opplevd en ulykke. Jeg stoler på at du vil gå med på den formodningen.

Et interessant spørsmål dukker opp om hvor mye av ulike AI-uheldige handlinger som kan tilskrives en ren AI-ulykke versus en cyberkriminells utspekulerte handling. I følge noen av de eksisterende AI-hendelsesrapporteringsdatabasene ser det ut til at AI-ulykkene skjer mer enn de ondsinnet ansporede hendelsene, selv om du må ta den tanken med en heftig dose salt. Jeg sier dette fordi det er en stor fristelse å ikke rapportere når et AI-system ble angrepet, og kanskje være noe mer villig til å rapportere når en AI-ulykke inntreffer.

Det er et ekstremt viktig forbehold vi må diskutere angående AI-ulykker.

Å bruke slagordet "AI-ulykker" er generelt uønsket og vil skape et stort rot for oss alle, noe som betyr for hele samfunnet. Når et menneske kanskje har en ulykke, trekker vi ofte på skuldrene og er sympatiske med personen som var utsatt for ulykken. Vi ser ut til å behandle ordet "ulykke" som om det betyr at ingen er ansvarlig for det som skjedde.

La oss ta eksemplet med å havne i en bilulykke. En bil svinger bredt i en høyresving og ramler ved et uhell inn i en annen bil som skulle rett frem. Jøss, det var bare et uhell og skjedde ved et uhell. De som ikke var involvert i hendelsen, kommer kanskje til å la saken gli hvis hendelsen blir uttrykt som bare en ulykke som har skjedd.

Jeg har en følelse av at hvis du satt i bilen som ble påkjørt, ville du ikke vært så sympatisk med sjåføren som gjorde den altfor brede svingen. Din mening vil helt sikkert være at den andre sjåføren var en elendig sjåfør og at enten en tilsynelatende ulovlig eller uklokt kjørehandling førte til bilulykken. Ved å stemple hendelsen som en "ulykke" har sjåføren som satt fast nå en litt ulempe siden det ser ut til at det hele skjedde ved en tilfeldighet alene, i stedet for via hendene til sjåføren som rotet til.

Faktisk er ordet "ulykke" så fylt med forskjellige konnotasjoner at i det store og hele refererer myndighetenes statistikk over bilulykker til saken som bilkollisjoner eller bilulykker, i stedet for å bruke uttrykket bilulykker. En bilkollisjon eller en bilulykke ser ikke ut til å ha noen betydning for hvordan hendelsen oppsto. I mellomtiden får fraseringen av en "bilulykke" oss nesten til å tro at det var skjebnens innfall eller på en eller annen måte utenfor menneskehetens hender.

Du kan rikelig se hvordan denne konnotasjonsbetraktningen kommer til å spille når du refererer til AI-ulykker. Vi vil ikke at AI-utviklere skal gjemme seg bak konnotasjonsskjoldet om at AI ved et uhell forårsaket noen skade. Det samme gjelder for de som distribuerer AI. Du kan argumentere for at formuleringen "AI-ulykker" nesten er en antropomorfisering av AI som vil villede samfunnet til å la menneskene som var bak kulissene til AI-en unnslippe ansvarlighet. For min diskusjon om den økende betydningen av å holde mennesker ansvarlige for deres AI, se diskusjonen min på denne lenken her og denne lenken her.

Jeg skal heretter bruke slagordet AI-ulykker, men jeg gjør det motvillig og bare fordi det er den konvensjonelle måten å referere til dette fenomenet på. Forsøk på å ordlegge dette annerledes har en tendens til å være dessverre mer oppsvulmet og ikke like lettlest. Sørg for å tolke slagordet på en måte som ikke får deg til å se den andre veien og ikke innse at menneskene som ligger til grunn for AI er skyldige når AI går galt.

For å hjelpe til med å illustrere den sannsynlige forvirringen eller misvisende aspektene ved å referere til AI som å pådra seg ulykker, kan vi gå tilbake til mine kommentarer om å velte en vase. Tenk på dette eksemplet på AI som gjør det: "Dette problemet har å gjøre med ting som er gjort ved et uhell eller likegyldighet av AI. En rengjøringsrobot som velter en vase er ett eksempel på dette. Komplekse miljøer har så mange typer 'vaser' at vi neppe vil være i stand til å programmere inn en straff for alle bivirkninger» (i henhold til avisen av Robert Williams og Roman Yampolskiy).

Et AI-system som tas i bruk i en husholdning og deretter "tilfeldigvis" velter en vase, ser ut til å antyde at ingen burde klandres for denne uønskede virkningen av AI. Det var bare en ulykke, kan man beklagelig fordømme. På den annen side bør vi med rette spørre hvorfor AI-systemet ikke var programmert til å håndtere vase-omstendighetene generelt. Selv om AI-utviklerne ikke forutså at en vase i seg selv var innenfor rekkevidden av objektene som kunne påtreffes, kan vi sikkert stille spørsmål ved hvorfor det ikke var noen overordnet objektunnvikelse som ville ha forhindret AI-systemet fra å slå over vase (således kan AI riktignok ikke klassifisere vasen som en vase, men kunne likevel ha unngått den som et påvisbart objekt som skal unngås).

Jeg har spådd og fortsetter å forutsi at vi gradvis er på vei mot en enorm juridisk kamp om fremveksten av AI-systemer som havner i "AI-ulykker" og forårsaker en form for skade. Frem til nå har ikke samfunnet reagert på noen nevneverdig måte på lovlig pushback av AI som skyves ut på markedet og gir uheldige konsekvenser, enten med vilje eller utilsiktet. Dagens AI-vogn, som har blitt et gullrus av halvferdige AI-produsenter og de som i all hast vedtar AI-utplasseringen, har heldige akkurat nå og forblir relativt uberørt av sivile søksmål og straffeforfølgelser.

Det AI-drevne juridiske tilbakeslaget kommer for å komme, før eller siden.

Går videre, hvordan skal vi prøve å takle det uunngåelige av såkalte AI-ulykker?

En ting vi kan gjøre med en gang er å prøve å forutse hvordan AI-ulykker kan oppstå. Ved å forutse AI-ulykkene kan vi i det minste forsøke å finne midler for å begrense dem eller minimere sannsynligheten for at de inntreffer. Videre kan vi forsøke å sette på rekkverk slik at når en AI-ulykke skjer, reduseres sjansene for demonstrativ skade.

Et nyttig sett med faktorer som ble beskrevet i den tidligere siterte forskningsartikkelen Forstå og unngå AI-feil: En praktisk veiledning inkluderer disse egenskapene (som sitert fra forskningsartikkelen):

  • Systemet som påvirkes av utgangene til AI.
  • Tidsforsinkelse mellom AI-utganger og det større systemet, systemobservabilitet, nivå av menneskelig oppmerksomhet og operatørers evne til å korrigere for funksjonsfeil i AI.
  • Maksimal skade mulig ved ondsinnet bruk av systemene AI kontrollerer.
  • Kobling av komponentene i nærheten av AI og kompleksiteten til interaksjoner.
  • Kunnskapsgap for AI og andre teknologier som brukes og energinivået til systemet.

På dette tidspunktet i denne heftige diskusjonen vil jeg vedde på at du ønsker noen illustrative eksempler som kan belyse AI-ulykkestemaet ytterligere. Det er et spesielt og sikkert populært sett med eksempler som ligger meg nært på hjertet. Du skjønner, i min egenskap som ekspert på AI, inkludert de etiske og juridiske konsekvensene, blir jeg ofte bedt om å identifisere realistiske eksempler som viser AI-etikk-dilemmaer, slik at emnets noe teoretiske natur lettere kan forstås. Et av de mest stemningsfulle områdene som levende presenterer dette etiske AI-kvandalet, er fremkomsten av AI-baserte ekte selvkjørende biler. Dette vil tjene som en praktisk brukssak eller eksempel for rikelig diskusjon om emnet.

Her er et bemerkelsesverdig spørsmål som er verdt å vurdere: Belyser fremkomsten av AI-baserte ekte selvkjørende biler noe om fremkomsten av såkalte AI-ulykker, og i så fall, hva viser dette?

Tillat meg et øyeblikk å pakke ut spørsmålet.

Først, merk at det ikke er en menneskelig sjåfør involvert i en ekte selvkjørende bil. Husk at ekte selvkjørende biler kjøres via et AI-kjøresystem. Det er ikke behov for en menneskelig sjåfør ved rattet, og det er heller ikke en bestemmelse om at et menneske kan kjøre kjøretøyet. For min omfattende og pågående dekning av autonome kjøretøy (AV) og spesielt selvkjørende biler, se lenken her.

Jeg vil gjerne forklare hva som menes når jeg refererer til ekte selvkjørende biler.

Forstå nivåene av selvkjørende biler

Som en avklaring er sanne selvkjørende biler de hvor AI kjører bilen helt alene, og det ikke er noen menneskelig assistanse under kjøreoppgaven.

Disse førerløse kjøretøyene regnes som nivå 4 og nivå 5 (se min forklaring på denne lenken her), mens en bil som krever en menneskelig sjåfør for å dele kjøreinnsatsen vanligvis vurderes på nivå 2 eller nivå 3. Bilene som deler kjøreoppgaven beskrives som semi-autonome, og inneholder vanligvis en rekke automatiserte tillegg som omtales som ADAS (Advanced Driver-Assistance Systems).

Det er ennå ikke en ekte selvkjørende bil på nivå 5, og vi vet ennå ikke engang om dette vil være mulig å oppnå, og heller ikke hvor lang tid det vil ta å komme dit.

I mellomtiden prøver nivå 4-innsatsen gradvis å få litt trekkraft ved å gjennomgå veldig smale og selektive offentlige kjørebaneprøver, selv om det er kontrovers om denne testen skal være tillatt i seg selv (vi er alle liv-eller-død marsvin i et eksperiment. som foregår på våre motorveier og motorveier, noen hevder, se dekning min på denne lenken her).

Siden semi-autonome biler krever en menneskelig sjåfør, vil ikke adopsjonen av disse typer biler være markant annerledes enn å kjøre konvensjonelle kjøretøyer, så det er ikke mye nytt per se å dekke om dem om dette emnet (skjønt, som du vil se på et øyeblikk er poengene som blir gjort neste, generelt anvendelige).

For semi-autonome biler er det viktig at publikum må varsles om et urovekkende aspekt som har oppstått i det siste, nemlig at til tross for de menneskelige sjåførene som fortsetter å legge ut videoer av seg som sovner ved rattet på en nivå 2 eller nivå 3-bil , vi alle trenger å unngå å bli villedet til å tro at sjåføren kan fjerne oppmerksomheten fra kjøreoppgaven mens han kjører en semi-autonom bil.

Du er den ansvarlige parten for kjøringen av kjøretøyet, uavhengig av hvor mye automatisering som kan kastes i et nivå 2 eller nivå 3.

Selvkjørende biler og AI-hendelser

For sanne selvkjørende kjøretøyer på nivå 4 og nivå 5 vil det ikke være en menneskelig sjåfør involvert i kjøreoppgaven.

Alle beboere vil være passasjerer.

AI driver kjøringen.

Et aspekt å umiddelbart diskutere innebærer det faktum at AI involvert i dagens AI-kjøresystemer ikke er viktig. Med andre ord, AI er helt en samling av databasert programmering og algoritmer, og absolutt ikke i stand til å resonnere på samme måte som mennesker kan.

Hvorfor er denne ekstra vekt om at AI ikke er følsom?

Fordi jeg vil understreke at når jeg diskuterer AI-kjøresystemets rolle, tilskriver jeg ikke menneskelige kvaliteter til AI. Vær oppmerksom på at det i disse dager er en pågående og farlig tendens til å antropomorfisere AI. I hovedsak tildeler folk menneskelig følsomhet til dagens AI, til tross for det ubestridelige og ubestridelige faktum at ingen slik AI eksisterer ennå.

Med den avklaringen kan du se for deg at AI-kjøresystemet ikke på en eller annen måte "vet" om fasettene ved kjøring. Kjøring og alt det innebærer må programmeres som en del av maskinvaren og programvaren til den selvkjørende bilen.

La oss dykke ned i de mange aspektene som kommer til å spille om dette emnet.

For det første er det viktig å innse at ikke alle AI selvkjørende biler er like. Hver bilprodusent og selvkjørende teknologifirma tar sin tilnærming til å utvikle selvkjørende biler. Som sådan er det vanskelig å komme med omfattende utsagn om hva AI-kjøresystemer vil gjøre eller ikke.

Når du sier at et AI -kjøresystem ikke gjør noen spesielle ting, kan dette senere bli forbikjørt av utviklere som faktisk programmerer datamaskinen til å gjøre akkurat det. Steg for steg blir AI -kjøresystemer gradvis forbedret og utvidet. En eksisterende begrensning i dag eksisterer kanskje ikke lenger i en fremtidig iterasjon eller versjon av systemet.

Jeg stoler på at det gir en tilstrekkelig mengde forbehold for å ligge til grunn for det jeg skal forholde meg til.

Vi er klar til å gjøre et dypdykk i selvkjørende biler og de etiske AI-mulighetene som medfører fremkomsten av såkalte AI-ulykker.

Se for deg at en AI-basert selvkjørende bil er på vei i nabolagets gater og ser ut til å kjøre trygt. Til å begynne med hadde du viet spesiell oppmerksomhet til hver gang du klarte å få et glimt av den selvkjørende bilen. Det autonome kjøretøyet skilte seg ut med sitt stativ med elektroniske sensorer som inkluderte videokameraer, radarenheter, LIDAR-enheter og lignende. Etter mange uker med den selvkjørende bilen som cruiser rundt i samfunnet ditt, merker du det knapt nå. Så langt du er bekymret, er det bare en annen bil på de allerede trafikkerte offentlige veiene.

For at du ikke skal tro at det er umulig eller usannsynlig å bli kjent med å se selvkjørende biler, har jeg ofte skrevet om hvordan lokalitetene som er innenfor rammen av selvkjørende bilprøver, gradvis har blitt vant til å se de oppgraderte kjøretøyene. Mange av lokalbefolkningen skiftet etter hvert fra munn-gapende henført stirring til nå å gi ut et ekspansivt gjesp av kjedsomhet for å se de meandrerende selvkjørende bilene.

Sannsynligvis hovedårsaken akkurat nå til at de kanskje legger merke til de autonome kjøretøyene, er på grunn av irritasjons- og irritasjonsfaktoren. De bokførte AI-kjøresystemene sørger for at bilene overholder alle fartsgrenser og kjøreregler. For hektiske menneskelige sjåfører i sine tradisjonelle menneskedrevne biler, blir du irritert til tider når du sitter fast bak de strengt lovlydige AI-baserte selvkjørende bilene.

Det er noe vi alle kanskje trenger å venne oss til, med rette eller urett.

Tilbake til historien vår.

En dag havner den selvkjørende bilen i en ulykke.

Mens du svingte til høyre, svingte AI-kjøresystemet det autonome kjøretøyet bredt og en menneskedrevet bil ble truffet. Den menneskedrevne bilen kjørte rett frem i riktig kjørefelt. Det var ingen spesiell mulighet for den menneskelige sjåføren til å svinge eller unngå å bli påkjørt. I tillegg var det ingen advarsel eller indikasjon fra den selvkjørende bilen om at den kom til å gjøre en stor høyresving.

Er dette en ulykke?

Vi kan absolutt si at det er omfattet av rubrikken for å være en AI-ulykke. Grunnlaget for en slik påstand er at det var et AI-kjøresystem ved rattet på den selvkjørende bilen. På en eller annen måte, uansett grunn, valgte AI å gjøre en bred sving når han tok en høyresving. Resultatet førte til at den selvkjørende bilen traff en menneskedrevet bil.

Husk den tidligere diskusjonen om konnotasjonene knyttet til ordet "ulykke" og se hvordan slike undertoner kommer til å spille i dette scenariet. Husk også at vi diskuterte tilfellet med en menneskelig sjåfør som tok en bred høyresving og kjørte inn i en medmenneskedrevet bil. Vi innså at forestillingen om at denne handlingen er en "ulykke" er villedende og forvirrende. Den menneskelige sjåføren som gjorde den brede svingen kunne gjemme seg bak ideen om at en ulykke bare skjedde som tilsynelatende var ved en tilfeldighet eller skjebnens luner.

I stedet for å merke scenariet som en "AI-ulykke" i tilfellet at den AI-baserte selvkjørende bilen går bredt og treffer den menneskedrevne bilen, burde vi kanskje si at det var en bilulykke eller en bilkollisjon som involverte en selvkjørende bil. kjørende bil og en menneskedrevet bil. Vi kan da avstå fra den tomme forvirringen om at det er en ulykke med ukjente midler.

Hva tror du den offentlige reaksjonen på hendelsen ville vært?

Vel, hvis bilprodusenten eller selvkjørende teknologifirmaet kan holde seg til merkingen av saken som en ulykke, kan de kanskje skjøre rundt det potensielle tilbakeslaget fra samfunnet for øvrig. En følelse av sympati for alle ulykker vil muligens strømme over på den spesielle omstendigheten. For mer om hvordan byer, fylker og statsledere potensielt vil reagere på AI autonome kjøretøyhendelser, se diskusjonen om en Harvard-studie som jeg ledet og som beskrevet på lenken her.

Hvis situasjonen tydelig beskrives som en bilulykke eller bilkollisjon, kan det kanskje gjøre det mulig å innse at noen eller noe kanskje har skylden for hendelsen. Et knefall kan være at AI skal holdes ansvarlig. Saken er at inntil eller hvis vi noen gang bestemmer oss for å salve AI til å ha et utseende av juridisk personlighet, vil du ikke være i stand til å legge ansvaret på AI-en i seg selv (se min diskusjon om AI og juridisk personskap på lenken her).

Vi kan inspisere AI-kjøresystemet for å prøve å finne ut hva som førte til den tilsynelatende upassende kjøringen og den påfølgende bilulykken. Det betyr imidlertid ikke at AI kommer til å bli holdt ansvarlig. De ansvarlige inkluderer AI-utviklerne, flåteoperatøren av den selvkjørende bilen og andre. Jeg inkluderer også andre siden det er en mulighet for at byen kan bli holdt delvis ansvarlig for utformingen av hjørnet der svingen fant sted. I tillegg, anta at en fotgjenger sprang ut av hjørnet og at AI-kjøresystemet valgte å unngå personen og likevel ble fanget inn i bilulykken.

Og så videre.

konklusjonen

Vi vil gjerne vite hva AI beregnet utregningsmessig og hva den var programmert til å gjøre. Gjorde AI som ble kodet? Kanskje oppdaget AI en feil eller feil i programmeringen, som ikke unnskylder handlingene, men gir mer en pekepinn på hvordan krasjet oppsto.

Hva slags AI-rekkverk ble programmert inn i AI-kjøresystemet? Hvis det fantes autovern, ville vi ønsket å finne ut hvorfor de ikke så ut til å forhindre bilulykken. Kanskje AI-kjøresystemet kunne ha stoppet i stedet for å ta svingen. Vi ønsker å vite hvilke alternativer AI beregnet vurdert i løpet av hendelsen.

Foruten å komme til bunns i den spesielle hendelsen, er en annen rettmessig problemstilling om AI-kjøresystemet har en feil eller et annet innebygd aspekt som vil gjøre lignende typer uønskede handlinger. I hovedsak kan denne hendelsen være en avslørende indikator på mer som kommer. Hvordan ble datamaskinbaserte simuleringer av kjøresituasjoner brukt for å prøve å forutse denne typen AI-kjøresystemer? Var det tilstrekkelig med kjøretester på veien til å ha fjernet AI-problemene som kan ha ført til bilulykken?

Dette scenariet fremhever en omstridt gåte som står overfor fremveksten av AI-baserte selvkjørende biler.

Det går slik.

På den ene siden er det et samfunnsmessig ønske om å ta i bruk selvkjørende biler raskt på grunn av håpet om at AI-kjøresystemer skal være like trygge eller muligens tryggere enn menneskelige sjåfører. Bare i USA har vi for tiden nesten 40,000 2.5 dødsulykker årlig på grunn av bilulykker og rundt XNUMX millioner menneskeskader. Analyser tyder på at en betydelig del av disse bilulykkene kan tilskrives menneskelige feil som kjøring i beruset tilstand, kjøring mens du er distrahert osv. (se min vurdering av slik statistikk på lenken her).

AI-kjøresystemer vil ikke drikke og kjøre. De trenger ikke hvile, og de blir ikke utslitte mens de sitter ved rattet. Antakelsen er at ved å etablere selvkjørende biler som en levedyktig transportmåte, kan vi redusere antallet menneskelige sjåfører. Dette skulle igjen bety at vi totalt sett vil redusere antall årlige dødsfall og skader fra bilulykker.

Noen forståsegpåere har sagt at vi vil ende opp med null dødsulykker og null skader, og de selvkjørende bilene vil visstnok være uncrashable, men dette er et helt absurd og fullstendig falsk sett med forventninger. Jeg har forklart hvorfor dette er så uoppriktig lenken her.

I alle fall, anta at vi kommer til å ha en viss mengde bilulykker som selvkjørende biler blir involvert i. Anta også at disse bilulykkene vil ha en viss mengde dødsfall og skader. Spørsmålet som plages er om vi som samfunn er villige til å tolerere slike tilfeller i det hele tatt. Noen sier at hvis bare ett dødsfall eller en skade skjer som følge av ekte selvkjørende biler, bør hele settet og kaboodlen stenges.

Det motstridende synspunktet er at hvis liv som reddes reduserer de årlige tellingene, bør vi fortsette å oppmuntre til selvkjørende biler og ikke reagere på en så ulogisk måte. Vi må akseptere forutsetningen om at en viss mengde dødsfall og skadde fortsatt vil eksistere, selv med selvkjørende biler, og likevel innse at den årlige tellingen hvis den reduseres tyder på at vi er på rett vei.

Noen hevder selvfølgelig at vi ikke bør ha selvkjørende biler på våre offentlige veier før de enten er klarert for slik bruk som følge av omfattende og uttømmende databaserte simuleringer eller som via privat lukket sportesting. Motargumentet er at den eneste levedyktige og raskeste måten å få selvkjørende biler i gang er ved å bruke offentlige veier, og at eventuelle forsinkelser i å ta i bruk selvkjørende biler ellers vil tillate de grufulle tellingene av menneskedrevne bilkrasj. Jeg har dekket denne debatten mer i spaltene mine og oppfordrer leserne til å se på disse diskusjonene for å få full forståelse av perspektivene på denne kontroversielle saken.

La oss avslutte ting for nå.

AI-ulykker kommer til å skje. Vi må motstå impulsen til å tolke en AI-ulykke som tilsynelatende utilsiktet og ergo feilaktig la skaperne og de som distribuerer AI være kategorisk av kroken.

Det er en ekstra vri som jeg gir deg som en siste spennende tanke for dagen din.

Komikeren Dane Cook skal ha fortalt denne vitsen om bilulykker: «For et par dager siden havnet jeg i en bilulykke. Ikke min feil. Selv om det ikke er din feil, går den andre personen ut av bilen sin og ser på deg som om det er din feil: Hvorfor stoppet du på rødt lys og lot meg slå deg med 80!»

Der vrien kommer i forgrunnen er muligheten for at et AI-system kan velge å insistere på at når en AI-ulykke inntreffer som involverer den bestemte AI-en, hevder AI at hendelsen var menneskets feil og garantert ikke AI-ens skyld. Forresten, dette kan være rikelig sant, og mennesket kan prøve å syndebukk AI ved å hevde at det var feilen til AI.

Eller kanskje prøver AI å syndebukk mennesket.

Du skjønner, AI-en vi lager kan være vanskelig på den måten, enten ved et uhell eller ikke.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents-which-wooms-over-autonomous-self- kjører-biler-også/