Å implantere juridiske resonnementer i AI kan på en smart måte oppnå samsvar mellom menneskelige verdier sier AI-etikk og AI-lov

I dagens spalte skal jeg veve sammen et mylder av tilsynelatende forskjellige AI-relaterte emner til ett pent vevd stoff.

Er du klar?

Tenk deg at du bruker en AI-drevet app som hjelper deg mens du utfører en slags betydelig oppgave. Kanskje saken er økonomisk eller kan være helserelatert. Essensen er at du er avhengig av AI for å gjøre det rette og prestere på en antatt trygg og forsvarlig måte.

Anta at AI beveger seg inn i uetisk territorium.

Du er kanskje ikke klar over at AI gjør det.

For eksempel kan AI være avhengig av potensielt skjulte diskriminerende faktorer som rase eller kjønn, selv om du kanskje ikke har noen levedyktige midler til å skjelne den uheldige bruken. Der er du, helt alene, å få den korte enden av pinnen via en AI som enten har blitt utviklet fra starten på en problematisk måte eller har klart å styre inn i vanskelig og grenseoverskridende etisk fare (jeg skal si mer om dette på et øyeblikk).

Hva kan du gjøre eller hva kan gjøres med kunstig intelligens som velger å gå en uetisk vei?

I tillegg til å prøve å konstruere AI-en på forhånd slik at den ikke utfører denne typen lumske handlinger, har jeg også tidligere beskrevet at det er en økende interesse for å bygge inn en AI etikksjekking komponent i det gryende myrdet av ellers ville vesten alt-goes AI-systemer som blir kastet inn på markedet. Tanken er at for å prøve å forhindre en AI-infundert app fra å gå utenfor etiske dimensjoner, kan vi bruke ekstra AI for å gjøre en sjekk-og-balansering. Denne tilførte AI-en kan være utenfor den målrettede AI-appen eller kan være en komponent innebygd eller implantert direkte i AI-en som vi ønsker å dobbeltsjekke.

Som jeg har sagt før, se lenken her: «En nylig fremvoksende trend består i å prøve å bygge etiske rekkverk i AI-en som vil fange når resten av et AI-system begynner å gå utover forhåndsinnstilte etiske grenser. På en måte er målet å bruke AI i seg selv for å forhindre at det går etisk galt. Du kan si at vi har som mål å få AI til å helbrede seg selv" (Lance Eliot, "Crafting Ethical AI That Monitors Unethical AI And Trys To Deer Bad AI From Acting Up", Forbes28. mars 2022).

Du kan også finne av relevant interesse boken min om AI Guardian-roboter, noen ganger referert til som skytsengler, som dekker det tekniske grunnlaget for denne toppmoderne AI-innen-AI innebygde dobbeltsjekker, se lenken her.

Hovedpoenget er at baconet ditt heldigvis kan bli reddet ved bruk av et innebygd AI-dobbeltsjekkende etikkmålerelement som er utviklet og implantert i en AI-app du bruker. Men vil det være nok av en vokter til å virkelig sørge for at AI ikke helt stivner deg og våger deg inn i enda hasjer skadelig grunn?

Du skjønner, AI-appen kan tilsynelatende fungere ulovlig fungerer.

Det er én ting å ha AI som går inn i en gråsone for hva vi anser som etisk eller uetisk atferd. En like foruroligende oppførsel og sannsynligvis tiltagende bekymring medfører AI som bare hopper haien som det var og går ned i det skumle mørket av direkte ulovlige handlinger.

Ulovlig AI er dårlig. Å la ulovlig AI gå uten tilsyn er dårlig. Noen juridiske forskere er åpenlyst bekymret for at fremkomsten og utbredelsen av AI gradvis og skremmende kommer til å undergrave vårt utseende av rettsstaten, se min analyse på lenken her.

Vent litt, sier du kanskje.

Du kan bli fristet til å tro at AI-utviklere ville aldri programmere sin AI til å gå mot loven. Ufattelig. Bare onde skurker ville gjøre det (som forresten husker på at det er de som med vilje utformer og bruker AI til onde formål, et voksende område av interesse for kriminelle og andre som ønsker å bruke AI til ondsinnede aktiviteter).

Beklager, men det er ønsketenkning å anta at alle ikke-onde AI-utviklere strengt tatt skal sørge for at deres AI er fullstendig lovlydig. Det kan være at AI selv justerer seg og vandrer inn i ulovlig aktivitet. Selvfølgelig er det også potensialet for at AI-utviklerne enten ønsket at AI-en skulle handle ulovlig, eller at de ikke var klar over hva som utgjorde ulovlige kontra juridiske handlinger da de laget AI-en (ja, dette er fullt mulig, nemlig at en heads-down, all-tech AI-team kan være uvitende om de juridiske skjellshetene til deres AI, noe som ikke er unnskyldelig og likevel skjer med alarmerende hyppighet).

Hva kan gjøres om dette?

Nok en gang, i tillegg til å prøve å sikre at AI-en utenfor porten er jernbelagt og lovlig, innebærer en ekstra tilnærming for å få damp innebygging eller implantering av en AI-komponent som gjør lovlig dobbeltsjekking for resten av AI-appen. Denne ekstra AI-en sitter stille og ofte ukjent og observerer resten av AI-en for å prøve å finne ut om AI-en kommer til å bli useriøs eller i det minste gå forbi grensene for lovlige eller regulatoriske restriksjoner.

Vi har nå to typer AI-dobbeltsjekking som potensielt er innebygd i en AI-app:

  • AI Etikk dobbeltsjekker: I sanntid vurderer denne komponenten eller AI-tillegget resten av AI-en for etisk og uetisk atferd som AI-en viser
  • AI juridisk dobbeltsjekker: I sanntid vurderer denne komponenten eller AI-tillegget resten av AI-en for å sikre at de holder seg innenfor lovlige nøkkelsteiner og for å fange opp nye ulovlige aktiviteter av AI

For å avklare, dette er relativt nye forestillinger, og som sådan kan AI-en du bruker i dag være i noen av disse nåværende forholdene:

  • AI som ikke har dobbeltsjekker inkludert i det hele tatt
  • AI som har en AI Ethics-dobbeltsjekker inkludert, men ingen andre dobbeltsjekkere
  • AI som har en AI Legal dobbeltsjekker inkludert, men ingen andre dobbeltsjekkere
  • AI som har både en AI Ethics-dobbeltsjekker og en AI Legal-dobbeltsjekker
  • Annen

Det er noen utpreget vanskelige aspekter ved å ha både AI Ethics-dobbeltsjekkeren og AI Legal-dobbeltsjekkeren som jobber side ved side i en AI-app som slektninger av bror og søster. Dette er en type dualisme som kan være vanskeligere å koordinere enn du kanskje så antar (jeg tror vi alle vet at brødre og søstre kan ha de tetteste båndene, selv om de også kan kjempe som drittsekkene fra tid til annen og har kraftig motstand. visninger).

Jeg har diskutert lenge denne typen vanskelig dualisme: «En forsømt dualisme forekommer i AI for Social Good som involverer mangelen på å omfatte både rollen til kunstig moralsk byrå og kunstig juridisk resonnement i avanserte AI-systemer. Innsats fra AI-forskere og AI-utviklere har hatt en tendens til å fokusere på hvordan man kan lage og bygge inn kunstige moralske agenter for å veilede moralsk beslutningstaking når et AI-system opererer i feltet, men har ikke også fokusert på og koblet bruken av kunstige juridiske resonneringsevner , som er like nødvendig for robuste moralske og juridiske utfall" (Lance Eliot, "The Neglected Dualism Of Artificial Moral Agency And Artificial Legal Reasoning In AI For Social Good," Harvard University CRCS Annual Conference 2020, Harvard Center for Research and Computation Society)

Hvis du vil diskutere hvorfor det kan være spenning mellom en AI Ethics-dobbeltsjekker og en AI Legal-dobbeltsjekker, kan du finne dette bemerkelsesverdige sitatet om tankevekkende konseptuell verdighet: «Loven kan tillate en bestemt handling, selv om den handlingen er umoralsk; og loven kan forby en handling, selv om den handlingen er moralsk tillatt, eller til og med moralsk påkrevd» (Shelly Kagan, Moralens grenser, 1998).

La oss endre fokuset litt og se hvordan disse dobbeltsjekkerne føyer seg inn i et annet svært gransket AI-emne, nemlig Ansvarlig AI eller en samordnet vurdering av samordningen av menneskelige verdier og AI.

Den generelle oppfatningen er at vi ønsker AI som følger riktige og ønskelige menneskelige verdier. Noen omtaler dette som Ansvarlig AI. Andre diskuterer på samme måte Ansvarlig AI, Pålitelig AIog AI-justering, som alle berører det samme hjørnesteinsprinsippet. For min diskusjon om disse viktige spørsmålene, se lenken her og lenken her, bare for å nevne noen få.

Hvordan kan vi få AI til å samsvare med menneskelige verdier?

Som tidligere foreslått, håper vi at AI-utviklere vil være klar over å utvikle AI som oppnår ansvarlig AI-tilslutning. Dessverre kan det hende de ikke, som per årsakene tidligere belyst. I tillegg kan de prøve å gjøre det, og likevel ender AI med å justere seg selv utover det fremtredende området for etisk oppførsel eller muligens inn i ulovlig farvann.

Greit, vi må da vurdere våre praktiske, flotte dobbeltsjekkere som et middel til å støtte opp om disse risikoene og eksponeringene. Bruken av en velutviklet AI-etikk-dobbeltsjekker kan bidra vesentlig til å tilpasse AI med menneskelige verdier. På samme måte kan bruken av en godt utformet AI Legal dobbeltsjekker i vesentlig grad hjelpe til med å tilpasse AI med menneskelige verdier.

Et avgjørende og ennå ikke velkjent middel for å søke å komme frem til ansvarlig AI, pålitelig AI, ansvarlig AI, AI Alignment osv., vil innebære bruk av AI-dobbeltsjekkere som en AI-etikk-dobbeltsjekker og en AI Juridisk dobbeltsjekker som ville fungere utrettelig som en dobbeltsjekk på AI som de er innebygd i.

I denne diskusjonen vil jeg gå litt mer i detalj om arten og konstruksjonene til AI Legal-dobbeltsjekkere som kan være innebygd i AI. For å gjøre det kan det være nyttig å dele litt ekstra bakgrunn med deg om det overordnede emnet AI og jus.

For en no-nonsense undersøkelse av hvordan AI og loven blander seg med hverandre, se min diskusjon på lenken her. I mitt kresne blikk på AI og jus kobling, gir jeg denne enkle oppfatningen av to hovedmåter å koble AI og loven sammen:

  • (1) Lov-anvendt på AI: Utforming, vedtakelse og håndhevelse av lover som anvendes på regulering eller styring av kunstig intelligens i samfunnet vårt
  • (2) AI-anvendt på lov: Kunstig intelligens-teknologi utviklet og brukt i loven, inkludert AI-basert juridisk resonnement (AILR) infundert i LegalTech høyteknologiske apper for å autonomt eller semi-autonomt utføre advokatoppgaver

Det første oppførte synspunktet består i å vurdere hvordan eksisterende og nye lover skal styre AI. Det andre oppførte perspektivet har å gjøre med å bruke AI på loven.

Denne sistnevnte kategorien innebærer vanligvis bruk av AI-basert juridisk resonnement (AILR) i ulike nettverktøy som brukes av advokater. For eksempel kan AI være en del av en Contract Life Cycle Management (CLM)-pakke som hjelper advokater ved å identifisere kontraktsspråk som vil være nyttig for å utarbeide nye kontrakter, eller som kan oppdage kontrakter som har et lovlig uønsket språk som tillater uhell eller juridiske smutthull (for min titt på såkalte "lovlukter" som kan skjelnes av AI, se lenken her).

Vi vil uunngåelig ha AI brukt på loven som blir tilgjengelig for bruk av allmennheten og som ikke krever at en advokat er i løkken. Akkurat nå, som et resultat av ulike restriksjoner, inkludert UPL (Uautorisert Practical of Law), er det en vanskelig og kontroversiell sak å gjøre tilgjengelig AI-baserte juridiske rådgivingsapper, se diskusjonen min på lenken her.

Jeg tok opp denne introduksjonen om AI & Law for å påpeke at en annen instrumentell bruk av AI brukt på loven ville være å lage AI Legal-dobbeltsjekkere.

Ja, den samme typen teknologiske dyktighet som er involvert i å anvende AI på loven, er i stand til å tjene som en dobbel plikt ved å bruke AI for å tjene som en innebygd eller implantert AI Legal dobbeltsjekker. AI Legal dobbeltsjekker er en komponent som må være bevandret i juridiske fasetter. Når resten av AI-appen utfører forskjellige handlinger, måler AI Legal-dobbeltsjekkeren om AI-appen gjør det lovlig og innenfor lovlige begrensninger.

En AI Legal-dobbeltsjekker-komponent trenger ikke nødvendigvis å dekke hele spekteret av alt som er å vite om loven. Avhengig av arten av AI-appen med hensyn til formålet og handlingene til AI-en generelt, kan AI Legal-dobbeltsjekkeren være mye smalere når det gjelder den juridiske ekspertisen den inneholder.

Jeg har identifisert et nyttig rammeverk for å vise hvordan AI i det juridiske domenet spenner over en rekke autonome kapasiteter, kjent som Levels of Autonomy (LoA). For en oversikt se min Forbes spalteinnlegg av 21. november 2022, "The No-Nonsense Comprehensive Compelling Case For Why Lawyers Need To Know About AI And The Law" på lenken her, og for en detaljert teknisk skildring se min dyptgående forskningsartikkel i MIT Computational Law Journal av 7. desember 2021, se lenken her.

Rammeverket belyser fem nivåer av AI som brukes i juridiske bestrebelser:

  • Nivå 0: Ingen automatisering for AI-basert juridisk arbeid
  • Nivå 1: Enkel assistanseautomatisering for AI-basert juridisk arbeid
  • Nivå 2: Avansert assistanseautomatisering for AI-basert juridisk arbeid
  • Nivå 3: Semi-autonom automatisering for AI-basert juridisk arbeid
  • Nivå 4: Domene autonomt for AI-basert juridisk arbeid
  • Nivå 5: Fullstendig autonom for AI-basert juridisk arbeid

Jeg skal kort beskrive dem her.

Nivå 0 regnes som ingen automatiseringsnivå. Juridiske resonnementer og juridiske oppgaver utføres via manuelle metoder og skjer hovedsakelig via papirbaserte tilnærminger.

Nivå 1 består av enkel assistanseautomatisering for AI juridisk resonnement. Eksempler på denne kategorien vil omfatte bruk av dagligdags databasert tekstbehandling, bruk av hverdagslige databaserte regneark, tilgang til juridiske dokumenter på nett som lagres og hentes elektronisk, og så videre.

Nivå 2 består av avansert assistanseautomatisering for AI juridisk resonnement. Eksempler på denne kategorien vil inkludere bruken av rudimentær Natural Language Processing (NLP), forenklede elementer av maskinlæring (ML), statistiske analyseverktøy for juridiske saksforutsigelser, etc.

Nivå 3 består av semi-autonom automatisering for AI-rettslige resonnement. Eksempler på denne kategorien vil inkludere bruk av avanserte kunnskapsbaserte systemer (KBS) for juridiske resonnementer, bruk av maskinlæring og dyp læring (ML/DL) for juridisk resonnement, avansert NLP, og så videre.

Nivå 4 består av domene autonome datamaskinbaserte systemer for AI-rettslig resonnement. Dette nivået gjenbruker den konseptuelle forestillingen om Operational Design Domains (ODDs), som brukes for selvkjørende biler, men som brukes på det juridiske domenet. Juridiske domener kan klassifiseres etter funksjonsområder, som familierett, eiendomsrett, konkurslovgivning, miljørett, skatterett, etc.

Nivå 5 består av fullstendig autonome datamaskinbaserte systemer for AI-rettslig resonnement. På en måte er nivå 5 supersettet av nivå 4 når det gjelder å omfatte alle mulige juridiske domener. Vær oppmerksom på at dette er en ganske høy ordre.

Du kan tenke deg disse autonominivåene på nivå med lignende bruk når du diskuterer selvkjørende biler og autonome kjøretøy (også basert på den offisielle SAE-standarden, se min dekning på lenken her). Vi har ennå ikke SAE Level 5 selvkjørende biler. Vi er på vei inn i SAE Level 4 selvkjørende biler. De fleste konvensjonelle biler er på SAE Level 2, mens noen av de nyere bilene er på vei inn i SAE Level 3.

På det juridiske domenet har vi ennå ikke nivå 5 AILR. Vi berører noen nivå 4, men i ekstremt smale ODDs. Nivå 3 begynner å se dagens lys, mens bærebjelken i AILR i dag først og fremst er på nivå 2.

En nyere forskningsartikkel om AI som anvendt på loven har angitt en typifisering kjent som Loven informerer koden. Forskeren uttaler dette: "Et av hovedmålene for Loven informerer koden agenda er å lære AI å følge lovens ånd" (John J. Nay, "Law Informs Code: A Legal Informatics Approach to Justing Artificial Intelligence with Humans", Northwestern Journal of Technology and Intellectual Property, bind 20, kommer). Det er noen vesentlige hensyn som Loven informerer koden mantraet kommer opp, og jeg vil lede deg gjennom flere av disse keystone-forskriftene.

Før jeg dykker inn i emnet, vil jeg først legge et viktig grunnlag om AI og spesielt AI-etikk og AI-lov, for å sikre at diskusjonen blir kontekstuelt fornuftig.

Den økende bevisstheten om etisk AI og også AI-lov

Den siste tiden med AI ble opprinnelig sett på som å være AI For Good, noe som betyr at vi kunne bruke AI for å forbedre menneskeheten. I hælene på AI For Good kom erkjennelsen av at vi også er fordypet i AI for Bad. Dette inkluderer AI som er utviklet eller selvforandret til å være diskriminerende og gjør beregningsmessige valg som gir unødige skjevheter. Noen ganger er AI bygget på den måten, mens den i andre tilfeller svinger inn i det ugunstige territoriet.

Jeg vil være helt sikker på at vi er på samme side om naturen til dagens AI.

Det er ingen AI i dag som er sansende. Vi har ikke dette. Vi vet ikke om sentient AI vil være mulig. Ingen kan med rette forutsi om vi vil oppnå sansende AI, og heller ikke om sansende AI på en eller annen måte mirakuløst spontant vil oppstå i en form for beregningsmessig kognitiv supernova (vanligvis referert til som singulariteten, se min dekning på lenken her).

Den typen AI som jeg fokuserer på består av den ikke-sansende AI som vi har i dag. Hvis vi ville spekulere vilt om sansende AI, kan denne diskusjonen gå i en radikalt annen retning. En sansende AI ville visstnok være av menneskelig kvalitet. Du må vurdere at den sansende AI er den kognitive ekvivalenten til et menneske. Mer så, siden noen spekulerer i at vi kan ha superintelligent AI, er det tenkelig at slik AI kan ende opp med å bli smartere enn mennesker (for min utforskning av superintelligent AI som en mulighet, se dekningen her).

Jeg vil på det sterkeste foreslå at vi holder ting nede på jorden og vurderer dagens beregningsbaserte ikke-følende AI.

Innse at dagens AI ikke er i stand til å "tenke" på noen måte på linje med menneskelig tenkning. Når du samhandler med Alexa eller Siri, kan samtalekapasiteten virke som menneskelig kapasitet, men realiteten er at den er beregningsmessig og mangler menneskelig erkjennelse. Den siste æraen av AI har gjort omfattende bruk av Machine Learning (ML) og Deep Learning (DL), som utnytter beregningsmønstermatching. Dette har ført til AI-systemer som ser ut som menneskelignende tilbøyeligheter. I mellomtiden er det ingen kunstig intelligens i dag som har et skinn av sunn fornuft, og heller ikke noe av den kognitive undringen til robust menneskelig tenkning.

Vær veldig forsiktig med å antropomorfisere dagens AI.

ML/DL er en form for beregningsmønstermatching. Den vanlige tilnærmingen er at du samler data om en beslutningsoppgave. Du mater dataene inn i ML/DL-datamodellene. Disse modellene søker å finne matematiske mønstre. Etter å ha funnet slike mønstre, hvis det er funnet, vil AI-systemet bruke disse mønstrene når de møter nye data. Ved presentasjon av nye data brukes mønstrene basert på de "gamle" eller historiske dataene for å gi en gjeldende beslutning.

Jeg tror du kan gjette hvor dette er på vei. Hvis mennesker som har tatt de mønstrede avgjørelsene har inkorporert uheldige skjevheter, er sjansen stor for at dataene reflekterer dette på subtile, men betydelige måter. Maskinlæring eller Deep Learning beregningsmønstermatching vil ganske enkelt prøve å matematisk etterligne dataene tilsvarende. Det er ingen antydning av sunn fornuft eller andre sansende aspekter ved AI-laget modellering i seg selv.

Dessuten kan AI-utviklerne kanskje ikke skjønne hva som skjer heller. Den mystiske matematikken i ML/DL kan gjøre det vanskelig å fjerne de nå skjulte skjevhetene. Du vil med rette håpe og forvente at AI-utviklerne vil teste for potensielt begravde skjevheter, selv om dette er vanskeligere enn det kan virke. Det er en solid sjanse for at selv med relativt omfattende testing vil det fortsatt være skjevheter innebygd i mønstertilpasningsmodellene til ML/DL.

Du kan litt bruke det berømte eller beryktede ordtaket om søppel-inn søppel-ut. Saken er at dette er mer beslektet med skjevheter-in som snikende blir tilført som skjevheter nedsenket i AI. Algoritmen beslutningstaking (ADM) til AI blir aksiomatisk full av ulikheter.

Ikke bra.

Alt dette har spesielt betydelige AI-etiske implikasjoner og gir et praktisk vindu til lærdom (selv før alle leksjonene skjer) når det kommer til å prøve å lovfeste AI.

I tillegg til å bruke AI-etiske forskrifter generelt, er det et tilsvarende spørsmål om vi bør ha lover som regulerer ulike bruk av AI. Nye lover blir slått rundt på føderalt, statlig og lokalt nivå som angår rekkevidden og arten av hvordan AI bør utformes. Arbeidet med å utarbeide og vedta slike lover er gradvis. AI-etikk fungerer i det minste som et betraktet stopp, og vil nesten helt sikkert til en viss grad bli direkte innlemmet i de nye lovene.

Vær oppmerksom på at noen hevder hardt at vi ikke trenger nye lover som dekker AI, og at våre eksisterende lover er tilstrekkelige. De advarer om at hvis vi vedtar noen av disse AI-lovene, vil vi drepe gullgåsen ved å slå ned på fremskritt innen AI som gir enorme samfunnsmessige fordeler.

I tidligere spalter har jeg dekket de ulike nasjonale og internasjonale innsatsene for å lage og vedta lover som regulerer AI, se lenken her, for eksempel. Jeg har også dekket de ulike AI-etikkprinsippene og -retningslinjene som ulike nasjoner har identifisert og vedtatt, inkludert for eksempel FNs innsats som UNESCO-settet med AI-etikk som nesten 200 land vedtok, se lenken her.

Her er en nyttig nøkkelsteinsliste over etiske AI-kriterier eller egenskaper angående AI-systemer som jeg tidligere har utforsket nøye:

  • Åpenhet
  • Rettferdighet og rettferdighet
  • Ikke-ondsinnethet
  • Ansvar
  • Privatliv
  • godgjør
  • Frihet og autonomi
  • Stol
  • Bærekraft
  • Verdighet
  • Solidaritet

Disse AI-etikk-prinsippene er oppriktig ment å bli brukt av AI-utviklere, sammen med de som styrer AI-utviklingsinnsatsen, og til og med de som til slutt jobber med og utfører vedlikehold på AI-systemer.

Alle interessenter gjennom hele livssyklusen for utvikling og bruk av kunstig intelligens anses innenfor rammen av å overholde de etablerte normene for etisk kunstig intelligens. Dette er et viktig høydepunkt siden den vanlige antagelsen er at "bare kodere" eller de som programmerer AI-en er underlagt AI-etikkens forestillinger. Som tidligere understreket her, krever det en landsby for å utvikle og sette i gang AI, og som hele landsbyen må være kjent med og overholde AI-etiske forskrifter.

Jeg har også nylig undersøkt AI Bill of Rights som er den offisielle tittelen på det amerikanske regjeringens offisielle dokument med tittelen "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People" som var resultatet av en årelang innsats fra Office of Science and Technology Policy (OSTP) ). OSTP er en føderal enhet som tjener til å gi råd til den amerikanske presidenten og det amerikanske eksekutivkontoret om ulike teknologiske, vitenskapelige og tekniske aspekter av nasjonal betydning. I den forstand kan du si at denne AI Bill of Rights er et dokument godkjent av og godkjent av det eksisterende amerikanske hvite hus.

I AI Bill of Rights er det fem hovedkategorier:

  • Sikre og effektive systemer
  • Algoritmisk diskrimineringsbeskyttelse
  • Datasikkerhet
  • Merknad og forklaring
  • Menneskelige alternativer, omtanke og tilbakefall

Jeg har nøye gjennomgått disse forskriftene lenken her.

Nå som jeg har lagt et nyttig grunnlag for disse relaterte AI-etikk- og AI-lov-emnene, er vi klare til å hoppe inn i det heftige emnet AI Legal-dobbeltsjekkere og riket av Loven informerer koden.

AI Legal Double-Checkers innebygd i AI for menneskelig verdijustering

Jeg refererer noen ganger til AI Legal Double-Checkers via et akronym av AI-LDC. Dette er litt visuelt skurrende for de som ikke er kjent med akronymet. Som sådan vil jeg ikke bruke dette spesielle akronymet i denne diskusjonen, men ville nevne det for deg som en heads-up.

For å pakke ut noen av kompleksiteten til AI Legal-dobbeltsjekkere, la oss ta opp disse hovedpunktene:

  • Bruk av AI Legal dobbeltsjekker som en mekanisme for justering av menneskelige verdier for AI
  • Mer ekspansiv AI vil tilsvarende kreve mer robuste AI Legal dobbeltsjekkere
  • AI Juridiske dobbeltsjekkere vedtar loven og lager ikke lov (antagelig)
  • Delikat balanse mellom AI Juridisk utforming av loven som regler kontra standarder
  • Krever bevis på puddingen når det gjelder AI som følger loven

På grunn av plassbegrensninger vil jeg bare dekke disse fem punktene foreløpig, men vær på vakt for ytterligere dekning i spalten min som dekker ytterligere og like bemerkelsesverdige betraktninger om disse raskt utviklende og fremovergående sakene.

Akkurat nå kobler du inn sikkerhetsbeltet og gjør deg klar for en forfriskende reise.

  • Bruk av AI Legal dobbeltsjekker som en mekanisme for justering av menneskelige verdier for AI

Det er mange måter å prøve å oppnå en harmonisk tilpasning mellom AI og menneskelige verdier.

Som tidligere nevnt, kan vi produsere og kunngjøre AI-etikk-forskrifter og søke å få AI-utviklere og de som driver med og driver AI til å følge disse nøkkelsteinene. Dessverre vil ikke dette alene gjøre susen. Du har noen designere som uunngåelig ikke vil få beskjeden. Du har noen oppfinnere som vil fremheve etisk kunstig intelligens og forsøke å omgå de noe løsaktige foreskrevne prinsippene. Og så videre.

Bruken av "myk lov"-tilnærminger som innebærer AI-etikk må nesten ubønnhørlig sammenkobles med "hard law"-veier som å vedta lover og forskrifter som vil sende et kraftig signal til alle som skaper eller bruker AI. Lovens lange arm kan komme for å få deg hvis du ikke fornuftig utnytter AI. Lyden av klirrende fengselsdører kan vekke skarp oppmerksomhet.

Et stort problem er imidlertid at noen ganger har fjøsdøren allerede sluppet hestene ut. En kunstig intelligens som er felt, vil potensielt produsere alle slags ulovlige handlinger og fortsette å gjøre det til den ikke bare blir fanget, men også når noen håndhevelse endelig trapper opp for å hindre strømmen av ulovlige handlinger. Alt dette kan ta tid. I mellomtiden blir mennesker skadet på en eller annen måte.

Inn i dette forsøket kommer AI Legal-dobbeltsjekkeren.

Ved å bo i en AI-app kan AI Legal-dobbeltsjekkeren umiddelbart oppdage når AI-en ser ut til å bryte med loven. AI Legal-dobbeltsjekkeren kan stoppe AI-en i sine spor. Eller komponenten kan varsle mennesker om de oppdagede ulovlige aktivitetene, ved å gjøre det på en betimelig basis som kan få tilsynsmenn til å gjøre akutte korrigerende handlinger. Det er også den betraktede formaliserte loggingen som komponenten kan skape, og gir et håndgripelig utseende av et revisjonsspor med det formål å kodifisere de negative handlingene til AI.

Lovene våre sies å være en form for multi-agent konglomerasjon slik at lovene uunngåelig er en blanding av det samfunnet har forsøkt å finne som en balanse mellom sannsynlige motstridende syn på riktig og upassende samfunnsadferd. En AI Legal-dobbeltsjekker basert på våre lover er derfor en del av denne blandingen.

Spesielt er dette mer enn bare å programmere en liste over definitive juridiske regler. Lover har en tendens til å være mer formbare og streber mot overordnede standarder, i stedet for å spesifisere de minste mikroskopiske regler. Kompleksitetene er rikelig.

For å gå tilbake til den tidligere bemerkede forskningsartikkelen, her er hvordan disse betraktningene også kan sees på angående AI Alignment-jakten: "Law, den anvendte filosofien om multi-agent alignment, oppfyller unikt disse kriteriene. Justering er et problem fordi vi ikke kan på forhånd spesifisere regler som fullt ut og beviselig styrer god AI-adferd. På samme måte kan ikke partene i en juridisk kontrakt forutse enhver betingelse av forholdet deres, og lovgivere kan ikke forutsi de spesifikke omstendighetene som deres lover vil bli brukt under. Det er derfor mye av jussen er en konstellasjon av standarder» (ibid).

Å inkorporere lov i en AI Legal-dobbeltsjekker er mye mer utfordrende enn du kanskje først antar.

Etter hvert som AI utvikler seg, må vi utnytte slike fremskritt tilsvarende. Det viser seg at det som er bra for gåsen, også er bra for ganderen. De av oss som gjør fremskritt i AI som anvendt på loven, presser rammen på AI og utvilsomt smir nye fremskritt som til slutt kan gi AI-fremgang helt og holdent.

  • Mer ekspansiv AI vil tilsvarende kreve mer robuste AI Legal dobbeltsjekkere

En katt-og-mus-gambit konfronterer dette emnet.

Sjansen er at etter hvert som AI blir ytterligere avansert, vil enhver AI Legal-dobbeltsjekker-komponent finne saker vanskeligere og vanskeligere å takle. For eksempel kan en AI-app som blir gransket ha nyutviklede super-lumske måter å skjule de ulovlige handlingene som AI utfører. Selv om AI ikke tar en underhendt rute, kan den generelle kompleksiteten til AI alene være et skremmende hinder for å få AI Legal-dobbeltsjekkeren til å vurdere.

Her er hvordan dette blir spesielt viktig.

Anta at en AI-utvikler eller et firma som bruker AI proklamerer at det er en AI Legal-dobbeltsjekker som er innebygd i den AI-baserte appen. Voila, de ser ut til å ha vasket hendene for ytterligere bekymringer. AI Legal-dobbeltsjekkeren tar seg av alt.

Ikke så.

AI Legal-dobbeltsjekkeren kan være utilstrekkelig for arten av AI-appen som er involvert. Det er også mulighet for at AI Legal-dobbeltsjekkeren blir utdatert, kanskje ikke oppdatert med de nyeste lovene knyttet til AI-appen. En rekke årsaker kan forutses hvorfor bare tilstedeværelsen av en AI Legal-dobbeltsjekker ikke vil være en sølvkule.

Vurder denne innsikten fra den tidligere siterte forskningen: «Som det nyeste innen kunstig intelligens er fremme, kan vi sette iterativt høyere barer for demonstrerte juridiske forståelsesevner. Hvis en utvikler hevder at systemet deres har avanserte funksjoner for oppgaver, bør de demonstrere tilsvarende avansert juridisk forståelse og juridiske resonneringsevner til AI, som praktisk talt ikke har noen vanskelighetsgrense når de vurderer myrdet av lover og forskrifter over tid, presedens og jurisdiksjon " (ibid).

  • AI Juridiske dobbeltsjekkere vedtar loven og lager ikke lov (antagelig)

Jeg er sikker på at noen av dere er forferdet over ideen om å ha disse AI Legal-dobbeltsjekkerne.

En ofte uttalt bekymring er at vi tilsynelatende kommer til å la AI bestemme lovene våre for oss. Herregud, tenker du kanskje, et stykke automatisering vil innhente menneskeheten. De forbannet innebygde AI Legal-dobbeltsjekkerne vil bli standardkongene av lovene våre. Uansett hva de kan gjøre vil være slik loven ser ut til å være.

Mennesker vil bli styrt av AI.

Og disse AI Legal-dobbeltsjekkerne er den glatte bakken som bringer oss dit.

Et motargument er at slik prat er stoffet i konspirasjonsteorier. Du postulerer vilt og får deg selv i en tizzy. Realiteten er at disse AI Legal-dobbeltsjekkerne ikke er sansende, de kommer ikke til å ta over planeten, og hyping om deres eksistensielle risiko er rett og slett absurd og enormt overdrevet.

Alt i alt, forbli med en rolig og begrunnet holdning, må vi være oppmerksomme på at AI Legal-dobbeltsjekkerne tjener til å gjenspeile loven på en passende måte og ikke ved utforming, og heller ikke ved et uhell går videre til å på en eller annen måte gå inn i det ærede riket å gjøre lov. Sett til side sansningsekstrapoleringene, kan vi absolutt være enige om at det er en reell og presserende bekymring for at AI Legal-dobbeltsjekkeren kan ende opp med å feilrepresentere den sanne naturen til en gitt lov.

På sin side kan du hevde at derfor den spesielle "feilrepresenterte" loven i hovedsak blir laget på nytt siden den ikke lenger på riktig måte betegner det som var ment med den faktiske loven. Jeg stoler på at du ærlig kan se hvordan dette er en subtil, men talende vurdering. På et hvilket som helst tidspunkt kan AI Legal-dobbeltsjekkeren på virtuell basis ved å lage eller skal vi si "hallusinere" nye lover ganske enkelt ved hvordan AI-komponenten tolker loven slik den opprinnelig ble angitt eller nedfelt i AI (for min dekning av AI såkalte hallusinasjoner, Se lenken her).

Forsiktighet på dette må utvises strengt.

Når det gjelder dette emnet, gir den nevnte forskningsstudien denne parallelle tanken når det gjelder å forsøke å unngå å krysse den hellige linjen: «Vi har ikke som mål at AI skal ha legitimitet til å lage lov, sette juridisk presedens eller håndheve lov. Faktisk ville dette undergrave vår tilnærming (og vi bør investere betydelig innsats i å forhindre det). Det mest ambisiøse målet med Law Informing Code er snarere å kode og bygge inn generaliserbarheten til eksisterende juridiske konsepter og standarder i validert AI-ytelse» (ibid).

  • Delikat balanse mellom AI Juridisk utforming av loven som regler kontra standarder

Lover er rotete.

For omtrent enhver lov på bøkene, er det sannsynligvis et mangfold av tolkninger om hva loven fastsetter i faktisk praksis. På AI-feltets språkbruk omtaler vi lover som semantisk tvetydige. Det er det som gjør utviklingen av AI som anvendt i loven til en så spennende og samtidig irriterende utfordring. I motsetning til den nøyaktige tallknusingen som du kanskje ser for for eksempel finansorienterte AI-applikasjoner, innebærer ønsket om å legemliggjøre lovene våre i AI å håndtere en tsunami av semantiske tvetydigheter.

I min stiftelses bok om det grunnleggende om AI Legal Reasoning (AILR), diskuterer jeg hvordan tidligere forsøk på å bare kodifisere lover til et sett av begrensede regler ikke førte oss så langt som vi ønsker å gå i det juridiske domenet (se lenken her). Dagens AILR må omfatte en integrasjon mellom bruk av regler og det som kan kalles overordnede standarder som loven representerer.

Denne viktige balansen kan uttrykkes på denne måten: "I praksis lander de fleste lovbestemmelser et sted på et spekter mellom ren regel og ren standard, og juridisk teori kan bidra til å estimere den rette kombinasjonen av "regel-het" og "standard-het" når man spesifiserer mål for AI-systemer» (ibid).

  • Krever bevis på puddingen når det gjelder AI som følger loven

Å ønske noe er annerledes enn å ha noe.

Den biten av visdom kommer opp når vi foreslår at selv om vi kanskje ønsker å ha AI Legal-dobbeltsjekkere, må vi rikelig forsikre at de fungerer og fungerer riktig. Legg merke til at dette presenterer enda et tøft og slitsomt hinder. Jeg har tidligere dekket de siste fremskrittene og utfordringene innen verifisering og validering av AI, se lenken her.

Som bemerket i forskningsartikkelen: "For å løse gapet, før AI-modeller distribueres i stadig mer agentskaper, f.eks. helt autonome kjøretøy på større veier, bør den utplasserende parten demonstrere systemets forståelse av menneskelige mål, policyer og juridiske standarder. En valideringsprosedyre kan illustrere AIs 'forståelse' av 'meningen' av juridiske konsepter» (ibid).

konklusjonen

Jeg oppfordrer deg til å vurdere å bli med meg på denne edle søken etter å bygge og stille med AI Legal dobbeltsjekkere. Vi trenger mer oppmerksomhet og ressurser viet til denne dydige streben.

Dette gir også dobbelt plikt, som nevnt tidligere, for å oppnå AI Legal Reasoning (AILR) som kan brukes til å hjelpe advokater og potensielt brukes direkte av allmennheten. Noen hevder faktisk heftig at den eneste levedyktige måten å nå frem til en bedre følelse av tilgang til rettferdighet (A2J) vil være gjennom utforming av AI som legemliggjør juridisk kapasitet og kan nås av alle.

Et raskt siste poeng for nå.

Diskusjonen så langt har understreket at AI Legal-dobbeltsjekkeren ville bli innebygd eller implantert i AI. Dette er faktisk hovedfokuset til de som forsker på og gjennomfører dette fremvoksende riket.

Her er et spørsmål verdt å tenke over.

Ta på deg tenkehetten.

Hvorfor ikke bruke AI Legal dobbeltsjekker i all programvare?

Poenget er at i stedet for utelukkende å bruke AI Legal-dobbeltsjekkerne i AI, bør vi kanskje utvide vårt synspunkt. All slags programvare kan komme lovlig på avveie. AI har riktignok fått brorparten av oppmerksomheten på grunn av måtene AI vanligvis tas i bruk på, for eksempel å ta magebrytende beslutninger som påvirker mennesker i hverdagen deres. Du kan imidlertid lett hevde at det er mange ikke-AI-systemer som gjør det samme.

I hovedsak bør vi ikke la noen programvare få en gratis tur for å unngå eller avverge loven.

Husk også tidligere at jeg nevnte de to kategoriene for å kombinere AI og loven. Vi har her fokusert på bruken av AI slik det er brukt i loven. På den andre siden av mynten er lovens anvendelse på AI. Anta at vi vedtar lover som krever bruk av AI Legal dobbeltsjekker.

Dette kan først være begrenset til AI-systemer, spesielt de som er vurdert som spesielt høyrisiko. Gradvis kan det samme AI Legal dobbeltsjekkerkravet utvides til ikke-AI-programvare også. Igjen, ingen gratisturer.

Mens du ser på det ovenfor, vil jeg krydre ting som en avsluttende teaser. Hvis vi skal prøve å kreve AI Legal dobbeltsjekkere, kan vi like gjerne også gjøre det samme om AI Ethics dobbeltsjekkere. Bruken av en AI Legal-dobbeltsjekker er bare halve historien, og vi kan heller ikke neglisjere eller glemme bekymringene om AI-etikk.

Jeg avslutter denne muntre diskursen med et av mine favorittsitater. Ifølge de kloke ordene til Earl Warren, den berømte juristen som fungerte som sjefsjef i USA: «I det siviliserte livet flyter loven i et hav av etikk.»

Det kan være best å iherdig bruke de spirende og sprudlende AI-juridiske dobbeltsjekkerne og AI-etikk-dobbeltsjekkerne hvis vi ønsker å holde hodet over potensielt truende tung sjø fra sure AI og tøffe ikke-AI-systemer som setter vår sikkerhet i fare .

De kan være menneskehetens redningsvest.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- og-ai-lov/