AI-etikk funderer over fordelene ved å lovlig pålegge forsoningsmidler for å sikre ansvarlighet for AI som oppfører seg dårlig

Hvem skal klandre?

Det kan virke som et enkelt spørsmål, men i tilfellet med den berømte komedien av den legendariske duoen Abbott og Costello om et baseballlag, kan "hvem" være forvirrende. Du er kanskje vagt kjent med Hvem er først komisk rutine som de gjorde til en av tidenes mest varige sketsjer (spoilervarsling for de av dere som ikke har hørt den).

Abbott forteller Costello at Who's on first, What's on the second, and I Don't Know er på tredjeplass. Det smarte trikset er at den første basemannen heter Hvem, den andre kjelleren heter Hva, og den tredje basemannen heter I Don't Know. Selvfølgelig har disse frasene også sin konvensjonelle betydning, og det kan derfor være helt forvirrende å prøve å tolke det Abbott sier. Faktisk stiller Costello det tilsynelatende ufarlige spørsmålet om hvem som er først, og svaret er et bestemt ja. Men dette gir ikke mening for Costello siden han ventet et navn og i stedet fikk et forvirrende ja som svar.

Å skifte gir, når det kommer til fremveksten av kunstig intelligens (AI), et av de mest irriterende spørsmålene som stadig blir stilt, innebærer hvem eller kanskje hva som kommer til å bli holdt ansvarlig når AI kommer på avveie.

Jeg har tidligere diskutert det kriminelle ansvaret for når AI fører til eller gjennomfører kriminelle handlinger, se min dekning på lenken her. Det er også spørsmål om sivil ansvarlighet, for eksempel hvem eller hva du kan saksøke når AI har gjort deg feil, som er temaet jeg skal diskutere her. Alt dette har betydelige AI-etiske hensyn. For min pågående og omfattende dekning av AI-etikk og etisk AI, se lenken her og lenken her, bare for å nevne noen få.

Forskriftene til AI-etikk får oss til å være årvåkne. AI-teknologer kan til tider bli opptatt av teknologi, spesielt optimalisering av høyteknologi. De vurderer ikke nødvendigvis de større samfunnsmessige konsekvensene. Å ha en AI-etikk-tankegang og gjøre det integrert i AI-utvikling og feltarbeid er avgjørende for å produsere passende AI, inkludert (kanskje overraskende eller ironisk nok) vurderingen av hvordan AI-etikk blir tatt i bruk av firmaer.

I tillegg til å bruke AI-etiske forskrifter generelt, er det et tilsvarende spørsmål om vi bør ha lover som regulerer ulike bruk av AI. Nye lover blir slått rundt på føderalt, statlig og lokalt nivå som angår rekkevidden og arten av hvordan AI bør utformes. Arbeidet med å utarbeide og vedta slike lover er gradvis. AI-etikk fungerer i det minste som et betraktet stopp, og vil nesten helt sikkert til en viss grad bli direkte innlemmet i de nye lovene.

Vær oppmerksom på at noen hevder hardt at vi ikke trenger nye lover som dekker AI, og at våre eksisterende lover er tilstrekkelige. Faktisk varsler de at hvis vi vedtar noen av disse AI-lovene, vil vi drepe gullgåsen ved å slå ned på fremskritt innen AI som gir enorme samfunnsmessige fordeler.

En heftig debatt som finner sted er om eksisterende lover er i stand til å håndtere fremveksten av AI-systemer i hele samfunnet. Juridisk ansvar krever vanligvis at du kan feste halen på eselet om hvem som er ansvarlig for skadelig oppførsel. Når det gjelder AI, kan det være en ganske uklar vei som knytter en bestemt person eller personer til AI-en som utførte en skadelig handling. AI-en kan stort sett ikke spores til kilden eller oppfinneren som komponerte AI-en.

En annen vurdering er at selv om røttene til AI-en kan spores til noen, er spørsmålet om personen eller personene kanskje ikke med rimelighet kunne forutse det uheldige resultatet som AI-en til slutt ga. Kjernen av forutsigbarhet er en vanlig bemerkelsesverdig faktor ved vurderingen av juridisk ansvar.

Du kan bli fristet til å tro at du ganske enkelt kan gå etter AI-en selv og navngi AI-en som den juridiske parten som er ansvarlig eller ansvarlig for den skaden som angivelig er pådratt. I det store og hele er det rådende juridiske synet at AI ennå ikke har nådd et nivå av juridisk personlighet. Dermed vil du strengt tatt ikke kunne søke å få AI-en til å betale seg og vil trenge å finne mennesker som jobbet med spakene bak kulissene, som det var (for min analyse av juridisk personskap for AI, se lenken her).

Inn i alt dette potensielle juridiske morasset skritt en idé som blir fløt som et mulig middel, enten på kortsiktig basis eller muligens på lang sikt. Tanken er at det kanskje burde opprettes et eget kompensasjonsfond for å gi økonomisk lettelse til de som har blitt skadet av AI. Hvis du ellers ikke er i stand til å få AI til å kompensere deg, og du ikke kan finne personene som antagelig bør holdes ansvarlige, kan det nest beste alternativet være å bruke et kompensasjonsfond som har som mål å hjelpe de som er skadet av AI.

Et slikt fond vil være beslektet med en slags forsikring, som det heter i en tankevekkende forskningsartikkel: «Dette ville i hovedsak være en forsikringsmekanisme mot usikkerhet: Et klart og gjennomsiktig rammeverk for rask erstatning i tilfeller der en erstatningssak har usikker eller ingen utsikter til suksess på grunn av den uforutsigbare karakteren av den skadelige oppførselen, (typen av) skaden i seg selv, eller de overdrevne kostnadene og/eller kompleksiteten til prosedyren" (artikkel av Olivia Erdelyi og Gabor Erdelyi, "The AI ​​Liability Puzzle Og en fondsbasert løsning", Journal of Artificial Intelligence Research, 2021).

Kompensasjonsfondet vil være en del av en overordnet AI-garantiordning (AIGS) og være ledsaget av noen enkle endringer i eksisterende lover om juridisk ansvar. Den lette berøringen ville antagelig vært lettere å vedta og ikke kreve den vanskelige typen juridiske og samfunnsmessige angst hvis det ble gjort en mer mageløs serie med demonstrative endringer i de eksisterende juridiske regimene. Per forskerne: «Dette gjenspeiler vår tro på at – til tross for appellen til en slik hurtigløsning – den uendret anvendelse av eksisterende ansvarsregler på AI eller a proteksjonistisk motivert bruk av objektivt ansvar med sikte på å etablere ansvar for enhver pris er ikke de riktige svarene av tre grunner: For det første, og ignorerer at disse reglene har blitt skreddersydd til forskjellige omstendigheter og derfor kan være upassende for AI, strider de mot de delikat balanserte målene til juridisk ansvarssystem. For det andre hemmer de AI-innovasjon ved å ta i bruk en unødig straffende tilnærming. For det tredje omgår utilbørlig ty til objektivt ansvar bare forutsigbarhet og feilproblemer på en dogmatisk inkonsekvent måte i stedet for å avhjelpe dem» (som i artikkel sitert ovenfor).

Argumenter for slike AI-kompenserende midler inkluderer:

  • Reduserer behovet for langvarige og kostbare juridiske rettssaker for å takle AI-påført skade
  • Forsikrer mennesker om at de kan bruke AI og bli kompensert hvis de blir skadet
  • Fremmer AI-innovasjon ved å redusere juridisk usikkerhet som AI-innovatører står overfor
  • Kan tas i bruk langt raskere enn å gjøre massive endringer i eksisterende lover
  • Tilbyr et relativt klart middel som er pålitelig og lett tilgjengelig
  • Annen

I mellomtiden sier de som er imot tilnærmingen til AI-kompenserende midler dette:

  • La oss AI-produsenter overdrevent overdrevent og la dem slippe ansvar
  • Vil oppmuntre AI-produsenter til å lage AI som mangler pliktoppfyllende sikkerhet og riktige kontroller
  • Kan anspore folk til å feilaktig hevde AI-skader slik at de kan bruke pengene
  • Omgår og undergraver det sanne behovet for å revidere lovene våre for å styre AI tilstrekkelig
  • Kan bli et byråkratisk mareritt som bunner og misbruker midlene
  • Annen

Som det kan være tydelig, er det både tilhengere og motstandere av denne totalt kontroversielle forestillingen.

Du vil bli hardt presset til å utelukke summarisk AI-kompensasjonsfondet som en potensiell tilnærming til de økende bekymringene om AI som forårsaker skade. Heller ikke den foreslåtte løsningen er en slam dunk.

Et synspunkt er at AI-produsenter må sette inn penger i fondene som en del av deres innsats når de utarbeider og publiserer AI. Dette kan tolkes som en slags avgift eller skatt som de er pålagt å bære som en del av å kunne frigi AI til verden. Men undertrykker denne ekstra kostnaden potensielt innsats fra oppstartsbedrifter som prøver å presse grensene for dagens AI? Og hvordan ville håndhevelsen av å sikre at AI-produsenter betalte avgiften eller skatten bli håndtert?

En rekke spørsmål dukker opp og må utdypes:

  • Hvilke land ville et AI-kompensasjonsfond være best mulig i?
  • Kan det etableres et globalt utseende av sammenkoblede AI-kompensasjonsfond?
  • Hva ville være de detaljerte og gjennomførbare mekanismene knyttet til slike midler?
  • Hvordan skal AI-kompensasjonsmidlene finansieres (offentlige, private, veldedige)?
  • Ville dette være et forsikringsgrunnlag uten feil eller ville en annen tilnærming bli tatt?
  • Etc.

Et rike som allerede har hatt ideen om AI-kompenserende midler, består av autonome systemer som autonome kjøretøy og selvkjørende biler. For min dekning av selvkjørende biler og AI autonome systemer, se lenken her.

Her er en skisse av hvordan dette kan fungere for AI-baserte selvkjørende biler.

Anta at en selvkjørende bil kolliderer med en syklist. Sykkelføreren er skadet. Sykkelrytteren kan søke rettslig oppreisning ved å forfølge bilprodusenten av det autonome kjøretøyet. Eller de kan sikte på det selvkjørende teknologifirmaet som laget AI-kjøresystemet. Hvis den selvkjørende bilen drives som en flåte, vil en annen lovlig vei være å forfølge flåteoperatøren. Å prøve å saksøke AI er ikke et alternativ på dette tidspunktet, siden AIs juridiske personlighet ennå ikke er etablert.

I stedet for å ta rettslige skritt mot noen av disse partene, ville en annen utvei være å sende inn en søknad eller et krav til et passende AI-kompensasjonsfond. Fondet ville ha formaliserte prosesser som involverer gjennomgang av kravet, og deretter bestemme hva om eventuelle kompensasjonsbetalinger kan gis til fordringshaveren. Det kan være en klageprosess som hjelper saksøkere som mener at de enten feilaktig ble avvist av fondet eller utilstrekkelig kompensert av fondet.

I teorien vil AI-kompensasjonsfondet være en mye raskere vei mot å få kompensert for skaden som er påført. Du kan forestille deg hvor arbeidskrevende en rettssak kan være, der firmaene som blir saksøkt kan prøve å trekke ut saken.

Advokater kan imidlertid understreke at AI-kompensasjonsfondet kunne la de andre partene, som AI-produsentene, tilsynelatende unngå en klar straff for å ha sluppet løs sin selvkjørende bil på offentlige veier som endte opp med å treffe en syklist. Hva annet kan disse firmaene velge å "uforsiktig" gjøre? Uten det truende spøkelset til det juridiske sverdet som dingler over hodet på dem, kan vi daglig konfrontere AI som er full av truende kapasiteter.

Rundt og rundt går argumentene.

konklusjonen

AI-etikk minner oss om at vi alltid bør vurdere de etiske og juridiske konsekvensene av AI. I dette tilfellet med AI-kompensasjonsfondene virker den foreslåtte ideen om en forsikringslignende pool av midler for å kompensere de som er skadet av AI forlokkende. Midlene ville tilsynelatende ventet der, klare til å bli utnyttet og gi raskest mulig kompensasjon.

Avveiningene om hvorvidt dette kan åpne slusene for å lage AI som har færre og færre sikkerhetskontroller, er en skremmende og altfor reell bekymring. Vi trenger nok ikke fylle på en brann som kanskje allerede er litt i gang.

Kan vi på en eller annen måte fortsatt holde AI-produsenter til å utvikle passende etisk AI og samtidig etablere disse AI-kompensasjonsfondene?

Noen vil si at ja, det kan vi. Ved å endre eksisterende lover for å tilpasse seg AI-kompensasjonsfondene, vil de som blir skadet av AI potensielt ha en dobbel vei for å søke sin rettferdige kompensasjon.

Hvem er først på?

Ja, det er de (som i oss alle) med første varsel om at vi burde tenke over den potensielle bruken av AI-kompensasjonsmidler og modifisere eksisterende lover selv om det bare er lett, og gi et middel til å håndtere angrepet av både god AI og dårlig AI.

Det er ingen forvirring om det viktige hensynet.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legaly-mandating-atonement-funds-to-ensure-ai- ansvarlighet/