Etisk AI håper ambisiøst å få AI til å lære etisk oppførsel av seg selv, slik som tilfellet med AI i autonome selvkjørende biler

Aristoteles sa berømt at det å utdanne sinnet uten å utdanne hjertet ikke er noen utdanning i det hele tatt.

Du kan tolke den innsiktsfulle kommentaren til å antyde at det å lære om etikk og moralsk oppførsel er svært viktig for menneskeheten. I den klassiske natur versus pleie-debatten må man spørre hvor mye av våre etiske skikker som er instinktivt innfødte, mens hvor mye som læres i løpet av våre levedager. Småbarn er observante på medmennesker og antar antagelig sitt etiske grunnlag basert på det de ser og hører. Det samme kan sies om tenåringer. For fordomsfrie voksne vil de også fortsette å justere og utvikle seg i sin etiske tenkning som et resultat av å oppleve hverdagens verden.

Å eksplisitt lære noen om etikk er selvfølgelig også par for kurset. Folk er bundet til å lære om etiske måter ved å delta på kurs om emnet eller kanskje ved å gå til arrangementer og praksiser av interesse for dem. Etiske verdier kan tydelig identifiseres og deles som et middel til å hjelpe andre med å formulere sin egen etikkstruktur. I tillegg kan etikk være subtilt skjult i historier eller andre instruksjonsmodi som til slutt bærer et budskap om hva etisk atferd består av.

Det er slik mennesker ser ut til å gjennomsyre etikk.

Hva med kunstig intelligens (AI)?

Jeg skjønner at et slikt spørsmål kan virke rart. Vi forventer absolutt at mennesker inkorporerer etikk og går gjennom livet med et utseende av en moralsk kode. Det er et enkelt og åpenbart faktum. På den annen side ser det ikke ut til at en maskin eller datamaskin passer innenfor den samme referanserammen. Din magreaksjon kan være at det er langsøkt eller merkelig å betrakte AI som å ha en legemliggjøring av etikk og moralske koder.

Det beste vi ser ut til å være i stand til å gjøre med AI er å lage det slik at det ikke avviker fra etisk oppførsel. AI-utviklere og de som driver med AI skal holdes ansvarlige for å sikre at AI-en slik den er designet og implementert allerede er i samsvar med etiske forskrifter. Utenfor porten, så å si, burde AI-en allerede være uberørt og klar til å gå som et fullt etisk riktig utspill.

Du vil garantert ha rett når du tenker at AI-systemer faktisk burde være laget for å allerede passe fullstendig innenfor et etisk grunnlag. Samfunnet var ganske begeistret da den siste bølgen av AI-systemer først ble utgitt og så ut til å demonstrere at vi var i en tid med AI For Good. AI vil hjelpe til med å løse mange av verdens mest utfordrende problemer. Fremskritt innen teknologi ble utnyttet for å supplere menneskelige evner med kognitiv-lignende fasiliteter, men la meg understreke at vi ennå ikke har noen sansende AI, og vi vet ikke om sansende AI vil bli oppnådd.

Problemet med det pell-mell-rushet for å få AI til verden har gradvis avslørt den stygge underlivet til AI kjent som AI for Bad. Det har vært mange overskrifter om AI-systemer som bruker algoritmisk beslutningstaking (ADM) som er full av skjevheter og ulikheter. På toppen av det lider mye av den moderne AI av mangel på åpenhet, har en tendens til å være uforklarlig når det gjelder å forklare beregningsmessige beslutninger, viser ofte mangel på rettferdighet, og har tillatt noen å avlede deres menneskelige ansvarlighet ved å peke fingre på AI.

Jeg har grundig dekket etisk kunstig intelligens og etikken til kunstig intelligens i mine skrifter, inkludert lenken her og lenken her, bare for å nevne noen få.

Hvordan kan det være AI for Bad hvis vi tar som en uttalt konstruksjon at AI burde lages fra begynnelsen for å unngå uetiske handlinger?

Svaret er flerfoldig.

For det første er mange AI-utviklere og selskaper som driver med AI selv uvitende om viktigheten av å forme AI for å holde seg innenfor etiske grenser. Konseptet er ikke på radaren deres i det hele tatt. Tillokkelsen ved å tjene raske penger får noen til å gå videre med de ville AI-forestillingene de ønsker å produsere med vilje. Du trenger ikke å finne ut noen etiske ting. Bare bygg AI og få det i gang.

For det andre er det de som lager AI som pynter på en klar bevissthet om de etiske konsekvensene, men som åpenlyst bagatelliserer eller ignorerer de etiske AI-betraktningene. Et vanlig perspektiv er det klassiske teknologimantraet om å sikte på å feile raskt og ofte mislykkes. Bare fortsett å gjenta til ting forhåpentligvis ordner seg på en passende måte. Sjansene for å presse ut en systematisk og gjennomtenkt inkorporering av AI-etikk i disse raske AI-arbeidene er dessverre små. Jeg diskuterer behovet for styrking av lederskap mot etisk AI på lenken her.

For det tredje eksisterer det mye uklarhet om hvilke etiske rekkverk som bør underholdes når man utformer AI. Jada, det er i dag mange AI-etiske retningslinjer, se min dekning på lenken her, selv om disse praktiske teoretiske forskriftene er vanskelige å nødvendigvis gjøre om til spesifikasjoner for et gitt AI-system som bygges. Jeg har antydet at vi sakte vil se en fremvekst av AI-byggeverktøy og -metoder som inkluderer etisk AI-kodingspraksis, som bidrar til å lukke gapet mellom de abstrakte aspektene og de velkjente gummi-møter-veien-fasettene.

For det fjerde, i henhold til vektleggingen her, utforsker vi det berørte tilfellet av AI som, selv om det i utgangspunktet komponert innenfor etiske grenser, deretter bukter seg forbi de antatte etisk kodede parametrene mens de er i bruk.

Det må vi pakke ut.

Mye av dagens AI benytter seg av Machine Learning (ML) og Deep Learning (DL). Dette er teknikker og teknologier for matching av beregningsmønster. Generelt er ideen at du samler sammen massevis av relevante data for hva AI skal kunne gjøre, du mater disse dataene inn i den valgte beregningsmønstermatcheren, og mønstermatchingen prøver matematisk å finne nyttige mønstre. Legg merke til at det ikke er noen sans fra denne AI-en (som igjen ikke eksisterer ennå). Det er heller ikke noe fornuftig resonnement involvert. Det er alt matematikk og beregninger.

Det kan være at dataene som er matet inn i ML/DL allerede er tilført skjevheter og ulikheter. I så fall er oddsen at beregningsmønstermatchingen bare vil etterligne de samme tilbøyelighetene. Hvis du oppgir data som favoriserer en rase fremfor en annen eller favoriserer ett kjønn fremfor det andre, er det en stor sjanse for at mønstertilpasningen vil feste seg til det som det oppdagede mønsteret.

Et stort problem med den typen låsing er at vi kan ha vanskeligheter med å finne ut at mønstrene er basert på det aspektet av dataene. Den tornete og komplekse matematikken kan gjøre overflaten av slike funnet mønstre ganske problematisk. Selv testing av AI kommer ikke nødvendigvis til å avsløre disse tendensene, avhengig av rekkevidden og dybden på testene som brukes.

Så la oss anta at du har bygget et AI-system og gjort leksene dine ved først å prøve å unngå å bruke data som hadde forhåndseksisterende skjevheter. Deretter testet du resultatene etter at maskinlæringen og deep Learning hadde blitt utført for å se om noen skjevheter eller ulikheter oppsto. La oss anta at du ikke kan finne slike uheldige tilbøyeligheter.

Alt fortalt er det nå gitt grønt lys for å gå videre og ta AI i bruk. Folk vil begynne å bruke AI og sannsynligvis anta at det er etisk riktig. Dette mener utviklerne også. Selskapet som stiller med AI mener dette. Vi går alle sammen.

Her er hva som kan skje.

En anelse om en skjevhet som ikke ble funnet i de originale dataene og som ikke ble fanget opp under testingen av AI-en er muligens aktivert. Kanskje skjer dette bare sjelden. Du kan tro at så lenge det er sjeldent, er alt bra. Jeg tviler imidlertid på at de som er sårbare for den nevnte skjevheten er villige til å se ting på den måten. Jeg tør påstå at AI-systemet og de som har formulert det kommer til å møte konsekvenser, enten i de juridiske domstolene eller i den åpne domstolen for samfunnsoppfatning.

En annen variant er den velkjente forestillingen om å ta en tomme og ta en mil. Antydningen kan i utgangspunktet være liten. Under bruken av AI kan AI ha blitt utviklet for å endre seg selv etter hvert som ting går. Denne typen "læring" eller "selvlæring" kan være ganske nyttig. I stedet for å kreve at menneskelige AI-utviklere kontinuerlig modifiserer og justerer AI-systemet, er AI bygget for å gjøre det av seg selv. Ingen forsinkelser, ingen dyr arbeidskraft osv.

Ulempen med denne praktiske selvjusteringen er at tanken kan heves til å bli større og større innenfor omfanget av bruk av AI. Mens skjevheten kan ha vært i et trangt lite hjørne, er det nå gitt rom for å utvide. AI ser ikke ut til at dette er "feil" og utvider bare beregningsmessig noe som ser ut til å fungere.

Hvis det får håret til å reise seg på hodet, må du sette deg ned for neste variant.

Anta at skjevheten ikke eksisterte fra starten, og vi har all begrunnet tro på at AI er helt uten skjevheter. Enten var vi heldige, eller tilfeldigvis sørget vi systematisk for at ingen skjevheter var noe sted i dataene og at ingen oppsto via beregningsmønstermatchingen. Til tross for det lettelsens sukk, får AI-en justere seg mens den er i bruk. Pandoras dør åpnes og AI-en velger å gravitere beregningsmessig mot skjevheter som finnes under hva det enn er AI-en gjør.

En nyvunnet skjevhet blir slukt inn i AI, og ingen er spesielt klokere på at det har skjedd. Jepp, vi har skapt et monster, en veritabel Frankenstein.

Hvordan kan denne fremveksten muligens forhindres eller i det minste flagges?

En tilnærming som vinner gjennomslag består i å bygge inn en etikk-innhentingskomponent i AI. AI-en er konstruert for å inkludere etiske AI-elementer. Disse elementene ser eller overvåker deretter resten av AI-en mens AI-en justerer seg over tid. Når AI ser ut til å ha gått utover de programmerte etiske forskriftene, prøver den etiske AI å gjøre disse justeringene eller varsle utviklerne om at noe har gått galt.

Du kan prøve å programmere denne etiske AI-overvåkingskapasiteten og håpe at den vil seire mens AI-en er i bruk.

En annen litt kontroversiell innfallsvinkel ville være å bruke Machine Learning og Deep Learning for å trene de etiske AI-aspektene inn i AI-systemet.

Si hva?

Ja, det kanskje uortodokse konseptet er at i stedet for at en menneskelig programmerer direkte koder for et sett med AI-etiske forskrifter, er AI formet til å prøve å "lære" dem i stedet. Husk at jeg kort bemerket at bruken av ML/DL vanligvis er avhengig av å mate data inn i algoritmene og en beregningsmønstermatching finner sted. Million-dollar-spørsmålet er om vi kan bruke den samme mekanismen for å legge etiske verdier inn i et AI-system.

Jeg antar at du kan sammenligne dette med diskusjonen min ved åpningen av hvordan mennesker blir oppmerksomme på etiske prinsipper, men vær så snill å ikke antropomorfisere dagens AI som å være sammenlignbar med menneskelig tenkning (det er det ikke, og jeg skal gjenta den oppfordringen snart). AI-en kan programmeres "medfødt" med etiske AI-forskrifter. Eller AI kan "lære" etiske AI-forskrifter. Du kan selvfølgelig gjøre begge deler, noe jeg har dekket andre steder lenken her.

Ta deg tid til å tenke på det tilsynelatende oppsiktsvekkende konseptet at AI kan "lære" etikk og ergo antagelig følge etisk oppførsel.

Disse forskerne bruker et eksempel på et AI-system som finner ut ønsket temperatur i et hus for å illustrere hvordan dette kan fungere: «Det 'observerte' først oppførselen til folk i forskjellige husholdninger i bare en uke og trakk konklusjoner om deres preferanser. Den brukte deretter en bevegelsesdeteksjonssensor for å finne ut om noen var hjemme. Da huset var tomt gikk den smarte termostaten inn i en høy energisparemodus; når folk var hjemme, justerte termostaten temperaturen for å passe deres preferanser. Denne termostaten oppfyller helt klart de to kravene til en etikkrobot, om enn en veldig enkel. Den vurderer folks preferanser og pålegger dem kontrollene til varme- og kjølesystemet. Man kan spørre seg hva dette har med sosiale moralske verdier å gjøre. Denne termostaten gjør det mulig for personer med forskjellige verdier å ha de temperaturinnstillingene de foretrekker. Beboerne i boligen trenger ikke å nullstille termostaten hver dag når de kommer og går. Denne enkle etikkroboten reduserer også samfunnets totale energiavtrykk" (i henhold til avisen av Amitai Etzioni og Oren Etzioni med tittelen "AI Assisted Ethics" i bindet om Etikk og informasjonsteknologi).

Før jeg graver videre i vendingene ved å ha AI som "lærer" etisk oppførsel, vil jeg gjerne si noe mer om statusen til AI.

AI kan bestå av disse mulige tilstandene:

1. Ikke-sansende vanlig gammel AI av i dag

2. Sentient AI av menneskelig kvalitet (vi har ikke dette ennå)

3. Sentient AI som er superintelligent (et stykke utover #2)

Jeg kommer til å fokusere på den eksisterende tilstanden som er ikke-sansende vanlig AI. Mye av det du kan lese om etisk kunstig intelligens til tider dekker sansende kunstig intelligens og er derfor svært spekulativt. Jeg sier det er spekulativt fordi ingen kan feste halen på eselet om hva sansende AI vil være. Enda lenger utenfor riket av menneskelig kvalitetsfølende AI er den mye ballyhoote superintelligente AI. Det er mange sci-fi-historier og betenkeligheter om hvordan disse smakene av AI kan bestemme seg for å slavebinde menneskeheten, eller kanskje bare utslette oss alle. Dette er kjent som den eksistensielle risikoen ved AI. Noen ganger blir dilemmaet også formulert som den katastrofale risikoen for AI.

Noen hevder at vi kan ha det bra så lenge vi holder AI til den ikke-sansende, gamle AI som vi har i dag. La oss anta at vi ikke kan nå sansende AI. Tenk deg at uansett hvor hardt vi prøver å lage sansende AI, mislykkes vi med å gjøre det. Anta også for diskusjonens skyld at sansende AI ikke oppstår ved en mystisk spontan prosess.

Er vi da ikke sikre på at denne mindre kaliber AI, som er den forestilte eneste mulige typen AI, vil være i bruk?

Ikke egentlig.

De samme generelle problemene vil sannsynligvis oppstå. Jeg antyder ikke at AI "tenker" sin måte å ville ødelegge oss. Nei, den vanlige ikke-sansende AI er bare plassert i maktposisjoner som får oss til å fastlåse i selvdestruksjon. For eksempel legger vi ikke-sansende AI inn i masseødeleggelsesvåpen. Disse autonome våpnene er ikke i stand til å tenke. Samtidig holdes ikke mennesker fullt ut i løkken. Som et resultat ender AI som en form for autonom automatisering opp med å utilsiktet forårsake katastrofale resultater, enten ved en menneskelig kommando om å gjøre det, eller ved en feil eller feil, eller ved implantert ondskap, eller ved selvjusteringer som fører ned saker stygg sti osv.

Jeg vil påstå at det etiske problemet med AI eksisterer for alle tre av disse AI-bestemte statene, nemlig at vi har AI-etiske problemer med ikke-sansende ren gammel AI, og med sansende AI som enten bare er menneskelig nivå eller den utstrakte AI som når det anerkjente superintelligensnivået.

Gitt denne nøkterne uttalelsen, kan vi garantert diskutere omfanget og vanskeligheten forbundet med de etiske problemene på hvert av de respektive nivåene av AI. Det vanlige synspunktet er at AI-etiske vanskeligheter er mindre uoverkommelige ved ikke-sansende AI, tøffere på det sansende menneske-like AI-nivået, og en ekte hodeskraper i det sansende superintelligente AI-stadiet.

Jo bedre AI-en blir, jo verre blir AI-etikkproblemet.

Kanskje det er en ukrenkelig naturlov.

For å gå tilbake til fokuset på dagens AI, prøver å få AI til å "lære" etisk atferd via moderne maskinlæring og dyp læring er full av bekymringer og vanskelige problemer. Anta at AI ikke klarer å samle de ønskede etiske forskriftene? Hvordan vil vi med sikkerhet vite at den vaklet ved å gjøre det? Vil også andre deler av et AI-system potensielt overstyre de innhentede etiske konstruksjonene? Legg til dette at hvis AI justerer seg i farten, kan justeringene tynne ned de etiske aspektene eller utilsiktet overvelde dem helt.

For å gjøre vondt verre, kan "læringen" føre til at AI lander på virkelig uetisk oppførsel. Mens vi trodde at vi gjorde det rette ved å motivere AI-en til å være etisk, viser det seg at AI-en gled inn i mønstermatching på de uetiske aspektene i stedet. Snakk om å skyte vår egen fot, det kan absolutt skje.

På dette tidspunktet av denne diskusjonen vil jeg vedde på at du ønsker noen ekstra eksempler fra den virkelige verden som kan fremheve hvordan AI "læring" av etikk kan gjelde for dagens AI (annet enn den velsmakende teaseren til termostateksemplet).

Jeg er glad du spurte.

Det er et spesielt og sikkert populært sett med eksempler som ligger meg nært på hjertet. Du skjønner, i min egenskap som ekspert på AI, inkludert de etiske og juridiske konsekvensene, blir jeg ofte bedt om å identifisere realistiske eksempler som viser AI-etikk-dilemmaer, slik at emnets noe teoretiske natur lettere kan forstås. Et av de mest stemningsfulle områdene som på en levende måte presenterer dette etiske AI-kvandalet, er fremkomsten av AI-baserte ekte selvkjørende biler. Dette vil tjene som en praktisk brukssak eller eksempel for rikelig diskusjon om emnet.

Her er et bemerkelsesverdig spørsmål som er verdt å vurdere: Belyser fremkomsten av AI-baserte ekte selvkjørende biler noe om at AI kan "lære" etiske AI-forskrifter, og i så fall, hva viser dette?

Tillat meg et øyeblikk å pakke ut spørsmålet.

Først, merk at det ikke er en menneskelig sjåfør involvert i en ekte selvkjørende bil. Husk at ekte selvkjørende biler kjøres via et AI-kjøresystem. Det er ikke behov for en menneskelig sjåfør ved rattet, og det er heller ikke en bestemmelse om at et menneske kan kjøre kjøretøyet. For min omfattende og pågående dekning av autonome kjøretøy (AV) og spesielt selvkjørende biler, se lenken her.

Jeg vil gjerne forklare hva som menes når jeg refererer til ekte selvkjørende biler.

Forstå nivåene av selvkjørende biler

Som en avklaring er ekte selvkjørende biler de som AI kjører bilen helt alene, og det er ingen menneskelig assistanse under kjøreoppgaven.

Disse førerløse kjøretøyene regnes som nivå 4 og nivå 5 (se min forklaring på denne lenken her), mens en bil som krever en menneskelig sjåfør for å dele kjøreinnsatsen vanligvis vurderes på nivå 2 eller nivå 3. Bilene som deler kjøreoppgaven beskrives som semi-autonome, og inneholder vanligvis en rekke automatiserte tillegg som omtales som ADAS (Advanced Driver-Assistance Systems).

Det er ennå ikke en ekte selvkjørende bil på nivå 5, som vi ennå ikke en gang vet om dette vil være mulig å oppnå, og heller ikke hvor lang tid det vil ta å komme dit.

I mellomtiden prøver nivå 4-innsatsen gradvis å få litt trekkraft ved å gjennomgå veldig smale og selektive offentlige kjørebaneprøver, selv om det er kontrovers om denne testen skal være tillatt i seg selv (vi er alle liv-eller-død marsvin i et eksperiment. som foregår på våre motorveier og motorveier, noen hevder, se dekning min på denne lenken her).

Siden semi-autonome biler krever en menneskelig sjåfør, vil ikke adopsjonen av disse typer biler være markant annerledes enn å kjøre konvensjonelle kjøretøyer, så det er ikke mye nytt per se å dekke om dem om dette emnet (skjønt, som du vil se på et øyeblikk er poengene som blir gjort neste, generelt anvendelige).

For semi-autonome biler er det viktig at publikum må varsles om et urovekkende aspekt som har oppstått i det siste, nemlig at til tross for de menneskelige sjåførene som fortsetter å legge ut videoer av seg som sovner ved rattet på en nivå 2 eller nivå 3-bil , vi alle trenger å unngå å bli villedet til å tro at sjåføren kan fjerne oppmerksomheten fra kjøreoppgaven mens han kjører en semi-autonom bil.

Du er den ansvarlige parten for kjøringen av kjøretøyet, uavhengig av hvor mye automatisering som kan kastes i et nivå 2 eller nivå 3.

Selvkjørende biler og etisk AI-inokulering

For sanne selvkjørende kjøretøyer på nivå 4 og nivå 5 vil det ikke være en menneskelig sjåfør involvert i kjøreoppgaven.

Alle beboere vil være passasjerer.

AI driver kjøringen.

Et aspekt å umiddelbart diskutere innebærer det faktum at AI involvert i dagens AI-kjøresystemer ikke er viktig. Med andre ord, AI er helt en samling av databasert programmering og algoritmer, og absolutt ikke i stand til å resonnere på samme måte som mennesker kan.

Hvorfor er denne ekstra vekt om at AI ikke er følsom?

Fordi jeg vil understreke at når jeg diskuterer AI-kjøresystemets rolle, tilskriver jeg ikke menneskelige kvaliteter til AI. Vær oppmerksom på at det i disse dager er en pågående og farlig tendens til å antropomorfisere AI. I hovedsak tildeler folk menneskelig følsomhet til dagens AI, til tross for det ubestridelige og ubestridelige faktum at ingen slik AI eksisterer ennå.

Med den avklaringen kan du se for deg at AI-kjøresystemet ikke på en eller annen måte "vet" om fasettene ved kjøring. Kjøring og alt det innebærer må programmeres som en del av maskinvaren og programvaren til den selvkjørende bilen.

La oss dykke ned i de mange aspektene som kommer til å spille om dette emnet.

For det første er det viktig å innse at ikke alle AI selvkjørende biler er like. Hver bilprodusent og selvkjørende teknologifirma tar sin tilnærming til å utvikle selvkjørende biler. Som sådan er det vanskelig å komme med omfattende utsagn om hva AI-kjøresystemer vil gjøre eller ikke.

Når du sier at et AI -kjøresystem ikke gjør noen spesielle ting, kan dette senere bli forbikjørt av utviklere som faktisk programmerer datamaskinen til å gjøre akkurat det. Steg for steg blir AI -kjøresystemer gradvis forbedret og utvidet. En eksisterende begrensning i dag eksisterer kanskje ikke lenger i en fremtidig iterasjon eller versjon av systemet.

Jeg stoler på at det gir en tilstrekkelig mengde forbehold for å ligge til grunn for det jeg skal forholde meg til.

Vi er klar til å gjøre et dypdykk i selvkjørende biler og etiske AI-muligheter, som innebærer den øyenbrynshevende påstanden om at vi kan få AI til å "lære" om etisk atferd av seg selv.

La oss bruke et enkelt eksempel. En AI-basert selvkjørende bil er på vei i nabolagets gater og ser ut til å kjøre trygt. Til å begynne med hadde du viet spesiell oppmerksomhet til hver gang du klarte å få et glimt av den selvkjørende bilen. Det autonome kjøretøyet skilte seg ut med sitt stativ med elektroniske sensorer som inkluderte videokameraer, radarenheter, LIDAR-enheter og lignende. Etter mange uker med den selvkjørende bilen som cruiser rundt i samfunnet ditt, merker du det knapt nå. Så langt du er bekymret, er det bare en annen bil på de allerede trafikkerte offentlige veiene.

For at du ikke skal tro at det er umulig eller usannsynlig å bli kjent med å se selvkjørende biler, har jeg ofte skrevet om hvordan lokalitetene som er innenfor rammen av selvkjørende bilprøver, gradvis har blitt vant til å se de oppgraderte kjøretøyene, se min analyse på denne lenken her. Mange av lokalbefolkningen skiftet etter hvert fra munn-gapende henført stirring til nå å gi ut et ekspansivt gjesp av kjedsomhet for å se de meandrerende selvkjørende bilene.

Sannsynligvis hovedårsaken akkurat nå til at de kanskje legger merke til de autonome kjøretøyene, er på grunn av irritasjons- og irritasjonsfaktoren. De bokførte AI-kjøresystemene sørger for at bilene overholder alle fartsgrenser og kjøreregler. For hektiske menneskelige sjåfører i sine tradisjonelle menneskedrevne biler, blir du irritert til tider når du sitter fast bak de strengt lovlydige AI-baserte selvkjørende bilene.

Det er noe vi alle kanskje trenger å venne oss til, med rette eller urett.

Tilbake til historien vår. En dag, anta at en selvkjørende bil i byen eller byen din kjører og kommer over en situasjon der en fotgjenger venter på å krysse veien. Anta at fotgjengeren ikke har forkjørsrett i seg selv. En menneskedrevet bil kan gå forbi fotgjengeren og være helt lovlig ved å gjøre det. På samme måte er AI-kjøresystemet lovlig i stand til å gå forbi den ventende fotgjengeren.

Å bestemme om han skal stoppe og la fotgjengeren gå over gaten er helt skjønnsmessig for sjåføren, uavhengig av om han er en menneskelig sjåfør eller et AI-kjøresystem.

Jeg er sikker på at du har vært borti denne typen situasjoner utallige ganger. Kanskje du har det travelt, så du stopper ikke for å la fotgjengeren krysse. Ved en annen anledning har du god tid til å komme deg til målet ditt, og derfor velger du å stoppe og la den ventende personen gå over gaten. Humøret ditt og de spesielle omstendighetene dikterer hva du velger å gjøre.

Ingenting ved dette scenariet virker uvanlig eller irriterende.

Før jeg undersøker AI-siden av ting, kan du være interessert i å vite at dette spesielle aspektet ved diskresjon som lar en fotgjenger krysse en gate har blitt nøye studert. Forskere har identifisert at til tider kan valget som blir tatt av sjåføren tilsynelatende avhenge av rasemessige eller kjønnsmessige skjevheter. En menneskelig sjåfør kan dimensjonere den ventende fotgjengeren og velge å la personen krysse som tilsynelatende basert på sjåførens iboende skjevheter. Hvorvidt sjåføren i det hele tatt innser at de gjør det, er et spørsmål om pågående forskning. Se min dekning på denne lenken her.

Jeg har satt scenen for å utforske hva et AI-kjøresystem kan gjøre i fotgjengeroverganger.

Konvensjonell programmering av AI kan medføre at AI-utviklerne bestemmer seg for å alltid la AI-kjøresystemet stoppe og la fotgjengeren krysse. Dette ser ut til å være den etisk riktige eller sivile tingen å gjøre. Den selvkjørende bilen hengir seg til det ventende mennesket som vil krysse gaten.

Jeg tør påstå at hvis du var en passasjer i en selvkjørende bil og AI-en alltid stoppet for alle diskresjonære avventende fotgjengere, kan du bli gal. Din raske tur til matbutikken kan ta mange ganger lengre tid før du finner sted. Husk også at vi ikke sikter til fotgjengere som har den fromme juridiske retten til å krysse, siden disse tilfellene antagelig allerede vil ha AI programmert til å alltid tillate. Vi fokuserer kun på de skjønnsmessige omstendighetene.

Det er flere ulemper med denne erklæringen om å alltid stoppe for å la diskresjonære fotgjengere krysse gaten.

De som lager og stiller med AI-baserte selvkjørende biler vil at folk skal kjøre i dem. Tanken er at ved å ha selvkjørende biler kan vi redusere antallet årlige bilulykker, som for tiden produserer rundt 40,000 2.5 årlige dødsulykker og XNUMX millioner skader i USA alene, se statistikksamlingen min på denne lenken her. Foruten dette ærede samfunnsmålet, håper bilprodusentene og selvkjørende teknologiprodusentene å tjene penger på AI-kreasjonene deres også, naturligvis.

Jeg tar dette opp fordi folk kanskje bestemmer seg for å ikke kjøre i selvkjørende biler hvis AI-kjøresystemet gjør ting som unødvendig ende opp med å forsinke turer. Enhver vanlig person vil tenke at ved å i stedet velge en menneskelig sjåfør kan reisen bli raskere, og derfor kan det å velge en AI selvkjørende bil for en tur bli plassert veldig lavt på listen over valgene de har. Dette vil igjen bety at vi ikke vil ha den ønskede reduksjonen i bilulykker, og også at produsentene potensielt vil finne varene sine som ulønnsomme.

Gitt det settet med argumenter, kan du bli påvirket til å tro at AI aldri bør stoppe når det oppstår et skjønnsmessig tilfelle av en fotgjenger som ønsker å krysse gaten. Bare programmer AI-kjøresystemet til å gjøre det som er strengt lovlig. Hvis det ikke er lovkrav om å la en fotgjenger krysse, så tøff lykke for den ventende fotgjengeren. Kanskje personen burde ta seg til et kryssingspunkt som muliggjør et rettslig grunnlag for at AI stopper den selvkjørende bilen.

Kan du forestille deg skriket på dette?

Folk i byen eller byen din oppdager gradvis at AI-selvkjørende biler aldri vil tillate en diskresjonær fotgjenger å krysse. Den forbannet rasende AI! Det er som om AI-en tomler nesen mot mennesker. En dårlig oppførsel av et stykke ikke-god automatisering. For å toppe dette, forestill deg at det er dokumenterte omstendigheter med fotgjengere som desperat trenger å krysse, og AI-en ville ikke stoppe i det hele tatt.

I mellomtiden stoppet menneskelige sjåfører villig for å la de "desperate" menneskene komme seg trygt over gaten.

Som et resultat av denne forargelsen er AI-selvkjørende biler ikke lenger velkommen på gatene og sideveiene i ditt område. Tillatelser som hadde blitt gitt av byens ledere er tilbakekalt. Å få de utakknemlige dyrene bort fra veiene våre er det vokale ropet.

Ok, vi ser ut til å være mellom stein og hard. AI-en skal ikke alltid la den skjønnsmessige fotgjengeren krysse (ikke alltid stoppe). AI-en skal ikke alltid hindre en skjønnsmessig fotgjenger i å krysse (ikke alltid zoom forbi). Hva å gjøre?

Det åpenbare svaret ville være å programmere AI til å handle på en skjønnsmessig måte.

Jeg ber deg vurdere ADM (algoritmisk beslutningstaking) som dette burde bestå av. Vil AI forsøke å oppdage fotgjengerens natur og bruke de kjente egenskapene som grunnlag for å avgjøre om den selvkjørende bilen skal stoppes eller ikke? Kanskje noen som ser eldre er veien å velge. Men er det aldersdiskriminering på gang? Og så videre.

Kanskje AI-kjøresystemet er programmert til å stoppe i dagslys og aldri stoppe om natten. Logikken er muligens at det antas tryggere for syklistene i den selvkjørende bilen at det autonome kjøretøyet stopper på dagtid, men ikke på de mer skånsomme timene på kveldstid.

Det høres kanskje fornuftig ut. En del av problemet vil være forventningene til fotgjengere. Her er hva jeg mener. Fotgjengere ser de selvkjørende AI-bilene stoppe for skjønnsmessige kryssinger, som skjer i dagslys. Fotgjengerne vet ikke hvilke kriterier AI bruker for å bestemme seg for å stoppe. Noen fotgjengere antar at AI alltid vil stoppe (ikke innser at dagslys versus natt er den sanne avgjørelsen). Som et resultat vil de fotgjengerne som tror at den selvkjørende bilen alltid vil stoppe, ta en sjanse og begynne å krysse når AI-kjøresystemet ikke i det hele tatt har som mål å stoppe (som AI-en sannsynligvis ville stoppet hvis fotgjengeren går inn på gaten, selv om dette kan være vanskelig, og fysikk kan hindre AI fra å stoppe den selvkjørende bilen, ikke nok tid til å unngå å treffe den tilsynelatende "villfarne" fotgjengeren).

Anta at AI-utviklerne og firmaene som setter sammen og stiller med de selvkjørende bilene i byen din er usikre på hvordan de skal få AI oppdatert i denne saken.

De bestemmer seg for å "trene" AI på data samlet inn fra hele lokaliteten. Det viser seg at det er mange bymonterte kameraer som har fanget komme og gå til biler i hele township. Disse dataene viser mange tilfeller av fotgjengere som ønsker å krysse gaten på en skjønnsmessig måte. Alle dataene mates inn i et maskinlærings- og dyplæringssystem for å utlede det som anses som vanlig i den jurisdiksjonen.

Trener vi AI til å gjøre det som lokale etiske sedvaner viser som skal gjøres?

Med andre ord, hvis en gitt by hadde en lokal kulturell mer tilbøyelighet til å stoppe og la fotgjengere gå over som bevist av menneskelige sjåførhandlinger, ville ML/DL potensielt plukket opp beregningsmessig på dette mønsteret. AI vil da bli opplært til å gjøre det samme. I den andre ytterligheten, hvis de menneskelige sjåførene sjelden stopper, vil AI potensielt få den "lærdommen" ved å analysere dataene. AI vil gjøre som mennesker, liksom.

Påstanden er at den etiske atferden til mennesker fanges opp i dataene, og at AI kommer til å gjennomsyre de samme etiske forskriftene ved beregningsanalyse. En etiker vil generelt beskrive dette som en kommunitær tilnærming til etikk. Fellesskapets delte verdier gjenspeiles i fellesskapets innsats for øvrig.

Dette kan virke som en flott løsning.

Dessverre er det mange fallgruver.

Et kanskje åpenbart problem er at de menneskelige sjåførene kanskje allerede utøver en form for skjevhet når de velger å stoppe eller ikke stoppe (som nevnt tidligere). AI vil da være en kopi av disse skjevhetene. Vil vi at det skal være tilfelle?

Vurder et annet problem. Anta at menneskelige sjåfører ikke lett aksepterer hvordan de selvkjørende AI-bilene fungerer. Bare fordi menneskelige sjåfører var la oss si villige til å stoppe, er dette kanskje ikke like antatt for selvkjørende biler. Det kan være at menneskelige sjåfører blir irritert over de selvkjørende AI-bilene som fortsetter å stoppe for fotgjengere, selv om det samme skjer i hendene til menneskelige sjåfører, men det ser ikke ut til å forstyrre menneskelige sjåfører.

I tillegg til å være urovekkende, kan du også trylle frem muligheten for at menneskelige sjåfører utilsiktet bakoverkjører selvkjørende biler. Hvis en menneskelig sjåfør ikke forventet at den selvkjørende bilen skulle stoppe for en fotgjenger, og hvis den menneskedrevne bilen er rett bak den selvkjørende bilen, kan det oppstå et alvorlig misforhold mellom forventningene. AI-kjøresystemet får den selvkjørende bilen til å stoppe. Den menneskelige sjåføren forutså ikke denne handlingen. Den menneskelige sjåføren smeller inn i den selvkjørende bilen. Skader og muligens dødsfall følger.

Jeg påpekte med vilje sjansene for menneskelig skade.

Fotgjengeren som krysser gaten kan ved et raskt blikk virke som et trivielt spørsmål. Det ser ut til at ingen kan bli skadet av hvilken metode AI velger å stoppe eller ikke stoppe. Feil! Det er fare for at fotgjengeren blir påkjørt. Det er en sjanse for at en menneskedrevet bil ramler inn i den selvkjørende bilen. Fører og passasjerer i den menneskedrevne bilen kan komme til skade. Førerne inne i den selvkjørende bilen kan komme til skade. Ytterligere permutasjoner av mulig menneskelig skade er lett sett for seg.

konklusjonen

Når vi snakker om menneskelig skade, skal jeg gi deg noe annet for å få tankene dine til å gå rundt med denne etiske AI-gåten.

En nyhetsartikkel rapporterte at en mann kjørte en bil inn i et veikryss og hadde grønt lys for å gjøre det. En annen menneskedrevet bil valgte å kjøre på rødt lys i krysset og kjørte ulovlig og usikkert uhindret inn i krysset, og truet med å påkjøre den lovlige bilen.

Sjåføren fortalte journalister at han måtte velge mellom å ta påkjørselen, eller han kunne svinge bilen sin for å forhåpentligvis unngå å bli påkjørt, men det var fotgjengere i nærheten og svingehandlingen kunne sette disse menneskene i fare. Hva ville du gjort? Du kan velge å bli påkjørt av denne truende bilen og kanskje leve for å fortelle historien. Eller du kan forsøke å unngå å bli påkjørt, men i mellomtiden kan du kjøre ned uskyldige fotgjengere.

Mye av vår daglige kjøring har slike etisk enorme og umiddelbare beslutninger som skal tas. Jeg har diskutert dette grundig, sammen med å relatere disse kjøreavgjørelsene på liv eller død til det berømte eller noen si beryktede Trolley-problemet, se min utdypning på lenken her.

Bytt ut den menneskelige sjåføren i dette scenariet med et AI-kjøresystem.

Hva vil du at AI skal gjøre?

Det er et forvirrende spørsmål.

En tilnærming er å programmere AI-en til å kjøre direkte rett frem, og dermed ikke engang regnemessig vurdere andre alternativer som å vende seg bort fra den sannsynlige krasjen. Jeg forventer at syklister i selvkjørende biler kommer til å bli opprørt over å finne ut at AI ikke ble utviklet for å gjøre noe annet enn å ta støtet. Du kan forvente søksmål og bråk.

En annen tilnærming ville være å prøve å programmere AI for å vurdere de ulike mulighetene. Hvem får etablere ADM-en som bestemmer hvilken vei AI-kjøresystemet skal gå? Det ser ut til at det å la AI-utviklere ta slike tungtveiende avgjørelser på egenhånd er fylt med rikelig bekymring.

Du kan prøve å la AI "lære" av menneskelige kjøredata samlet inn av daglige trafikksituasjoner. Dette er beslektet med fotgjengerovergang-dilemmaet og den tidligere foreslåtte ideen om å bruke sammensatte data for å få AI til å samle opp hva de lokale etiske skikkene så ut til å være. Det er mange forbehold om det, for eksempel om ML/DL-oppdagede mønstre er passende eller ikke, etc.

Jeg hadde også advart om at det er en sjanse for at AI-en fanger opp kanskje uetisk oppførsel, avhengig av de etiske moralene som er involvert. Anta for eksempel at AI-en på en eller annen måte landet på et beregningsmønster for å alltid sikte på fotgjengerne når en annen bil truet med å treffe den selvkjørende bilen.

Oi, pass på fotgjengere, dere kommer til å bli ferdige mål.

På tide å avslutte diskusjonen for nå og gjøre det med en oppmuntrende siste tanke.

Du er kanskje klar over at Isaac Asimov foreslo sine "Three Laws Of Robotics" i 1950, og vi er fortsatt den dag i dag begeistret for de proklamerte reglene. Selv om reglene ser ut til å være lett etterkommelige, for eksempel at et AI-system eller en robot ikke skal skade et menneske og heller ikke la et menneske komme til skade, er det mange avgjørende nyanser som gjør dette komplekse og til tider uholdbart, se min analyse på lenken her.

Uansett, her er noe annet som Asimov også er kjent for, men i mindre grad: "La aldri moralen din komme i veien for å gjøre det som er riktig."

For den etiske AI-en som vi alle håper å utvikle, må vi huske på at AI-etikken kanskje ikke er det vi forventet, og at AI-en på en eller annen måte fortsatt må gjøre det som er riktig. Asimov sa det bra. Lenge før så det ut til at Aristoteles tenkte ganske like følelser.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/03/20/ethical-ai-ambitiously-hoping-to-have-ai-learn-ethical-behavior-by-itself-such-as- saken-med-ai-i-autonome-selvkjørende-biler/