AI-etikk og AI-lov som veier nøkkelmåter å implementere den nylig utgitte AI-rettighetserklæringen, inkludert og forbløffende nok ved å bruke AI direkte

Det er liten tvil om at vi trenger tegninger i hverdagen.

Hvis du skal bygge det lenge forestilte drømmehuset ditt, vil du være lurt å først sette sammen en brukbar plan.

En blåkopi viser på en håndgripelig og dokumentert måte hvilket vidsynt visjonært perspektiv som måtte være innelåst i din kropp. De som kommer til å bli bedt om å bygge din kjære gård, vil kunne referere til planen og finne detaljene om hvordan du får jobben gjort. Tegninger er nyttige. Fraværet av en blåkopi er garantert problematisk for å takle enhver form for kompleks oppgave eller prosjekt.

La oss flytte denne noe sentimentale, men ekte hyllesten til tegninger til kunstig intelligens (AI).

De av dere som er substantielt inn i AI kan være vagt klar over at en viktig policy-orientert blåkopi ble nylig utgitt i USA som påviselig angår fremtiden til AI. Uformelt kjent som AI Bill of Rights, er den offisielle tittelen på den proklamerte hvitboken "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People" og er lett tilgjengelig på nettet.

Dokumentet er resultatet av en årelang innsats og oppmerksom studie fra Office of Science and Technology Policy (OSTP). OSTP er en føderal enhet som ble etablert på midten av 1970-tallet og tjener til å gi råd til den amerikanske presidenten og US Executive Office om ulike teknologiske, vitenskapelige og tekniske aspekter av nasjonal betydning. I den forstand kan du si at denne AI Bill of Rights er et dokument godkjent av og godkjent av det eksisterende amerikanske hvite hus.

AI Bill of Rights skildrer menneskerettigheter som menneskeheten burde ha med hensyn til bruken av kunstig intelligens i våre daglige liv. Jeg understreker dette tungtveiende poenget fordi noen mennesker til å begynne med var forvirret over at dette kanskje var en slags anerkjennelse av at AI har juridisk personlighet, og at dette var en litani av rettigheter for sansende AI og humanoide roboter. Nei, vi er ikke der ennå. Som du vil se om et øyeblikk, er vi ikke i nærheten av sansende AI, til tross for banneroverskriftene som ser ut til å fortelle oss noe annet.

Ok, så trenger vi en blåkopi som forklarer menneskerettighetene i en tidsalder med AI?

Ja, det gjør vi garantert.

Du må nesten være innelåst i en hule og være fraværende Internett-tilgang for ikke å vite at AI allerede og i økende grad gjør inngrep i våre rettigheter. Den siste tiden med AI ble opprinnelig sett på som å være AI For Good, noe som betyr at vi kunne bruke AI for å forbedre menneskeheten. I hælene på AI For Good kom erkjennelsen av at vi også er fordypet i AI for Bad. Dette inkluderer AI som er utviklet eller selvforandret til å være diskriminerende og gjør beregningsmessige valg som gir unødige skjevheter. Noen ganger er AI bygget på den måten, mens den i andre tilfeller svinger inn i det ugunstige territoriet.

For min pågående og omfattende dekning og analyse av AI-lov, AI-etikk og andre sentrale AI-teknologiske og samfunnsmessige trender, se lenken her og lenken her, bare for å nevne noen få.

Pakker ut The AI ​​Bill Of Rights

Jeg har tidligere diskutert AI Bill of Rights og vil gjøre en rask oppsummering her.

Som en side, hvis du ønsker å vite mine dyptgående fordeler og ulemper med den nylig utgitte AI Bill of Rights, har jeg detaljert analysen min i et innlegg på jurist, Se lenken her. De jurist er et bemerkelsesverdig nettsted for juridiske nyheter og kommentarer, kjent som en prisvinnende juridisk nyhetstjeneste drevet av et globalt team av jusstudentreportere, redaktører, kommentatorer, korrespondenter og innholdsutviklere, og har hovedkontor ved University of Pittsburgh School of Law i Pittsburgh, hvor det begynte for over 25 år siden. Shoutout til det fremragende og hardtarbeidende teamet kl jurist.

I AI Bill of Rights er det fem hovedkategorier:

  • Sikre og effektive systemer
  • Algoritmisk diskrimineringsbeskyttelse
  • Datasikkerhet
  • Merknad og forklaring
  • Menneskelige alternativer, omtanke og tilbakefall

Legg merke til at jeg ikke nummererte dem fra én til fem siden dette kan innebære at de er i en bestemt sekvens eller at en av rettighetene tilsynelatende er viktigere enn den andre. Vi vil anta at de er hver for seg. De er alle på en måte like meritterte.

Som en kort indikasjon på hva hver enkelt består av, her er et utdrag fra den offisielle hvitboken:

  • Sikre og effektive systemer: «Du bør beskyttes mot usikre eller ineffektive systemer. Automatiserte systemer bør utvikles med konsultasjon fra ulike miljøer, interessenter og domeneeksperter for å identifisere bekymringer, risikoer og potensielle virkninger av systemet."
  • Algoritmisk diskrimineringsbeskyttelse: «Du bør ikke møte diskriminering av algoritmer og systemer bør brukes og utformes på en rettferdig måte. Algoritmisk diskriminering oppstår når automatiserte systemer bidrar til uberettiget forskjellsbehandling eller påvirker mennesker til ugunst basert på rase, farge, etnisitet, kjønn (inkludert graviditet, fødsel og relaterte medisinske tilstander, kjønnsidentitet, intersex status og seksuell legning), religion, alder , nasjonal opprinnelse, funksjonshemming, veteranstatus, genetisk informasjon eller annen klassifisering som er beskyttet av loven."
  • Datasikkerhet: "Du bør være beskyttet mot misbruk av datapraksis via innebygde beskyttelser, og du bør ha myndighet over hvordan data om deg brukes. Du bør beskyttes mot brudd på personvernet gjennom designvalg som sikrer at slik beskyttelse er inkludert som standard, inkludert å sikre at datainnsamlingen er i samsvar med rimelige forventninger og at kun data som er strengt nødvendig for den spesifikke konteksten samles inn.»
  • Merknad og forklaring: "Du bør vite at et automatisert system blir brukt og forstå hvordan og hvorfor det bidrar til utfall som påvirker deg. Designere, utviklere og distribuere av automatiserte systemer bør gi generelt tilgjengelig dokumentasjon i klarspråk, inkludert klare beskrivelser av den generelle systemfunksjonen og rollen automatisering spiller, legge merke til at slike systemer er i bruk, personen eller organisasjonen som er ansvarlig for systemet, og forklaringer på resultater som er klare, rettidige og tilgjengelige."
  • Menneskelige alternativer, omtanke og fallback: «Du bør kunne velge bort, der det er hensiktsmessig, og ha tilgang til en person som raskt kan vurdere og rette på problemer du støter på. Du bør kunne velge bort automatiserte systemer til fordel for et menneskelig alternativ, der det er hensiktsmessig.»

I det store og hele er dette fasetter av menneskerettighetene som har vært slått rundt en stund i sammenheng med AI-etikk og AI-lov, se min dekning som på lenken her. Hvitboken trekker tilsynelatende ikke på magisk vis en kanin opp av hatten når det gjelder en nyoppdaget eller avdekket rettighet som hittil ikke har blitt belyst i en AI-æra-kontekst.

Det er ok.

Du kan hevde at sammenstillingen av dem i en pent pakket og formalisert samling gir en viktig tjeneste. Pluss, ved å bli salvet som en anerkjent AI Bill of Rights, dette legger ytterligere hele saken åpenlyst og dyktig inn i den offentlige sfærens bevissthet. Det samler en eksisterende mengde ulike diskusjoner til et enkelt sett som nå kan utbasuneres og formidles på tvers av alle slags interessenter.

Tillat meg å tilby denne listen over positive reaksjoner på den annonserte AI Bill of Rights:

  • Gir en viktig samling av keystone-prinsipper
  • Fungerer som en blåkopi eller grunnlag å bygge videre på
  • Fungerer som en vokalisert oppfordring til handling
  • Spurs interesse og viser at dette er seriøse hensyn
  • Samler en mengde ulike diskusjoner
  • Gir og bidrar til etisk AI-adopsjon
  • Vil utvilsomt bidra til etableringen av AI-lover
  • Annen

Vi må også vurdere de mindre enn gunstige reaksjonene, med tanke på at det er mye mer arbeid som må gjøres, og at dette bare er starten på en lang reise på den vanskelige veien med å styre AI.

Som sådan inkluderer noe hard eller skal vi si konstruktiv kritikk mot AI Bill of Rights:

  • Ikke rettskraftig og fullstendig uforpliktende
  • Kun rådgivende og ikke betraktet som statlig politikk
  • Mindre omfattende sammenlignet med andre publiserte verk
  • Består primært av brede begreper og mangler gjennomføringsdetaljer
  • Kommer til å bli utfordrende å gjøre om til faktiske levedyktige praktiske lover
  • Tilsynelatende stille om det truende spørsmålet om å muligens forby AI i noen sammenhenger
  • Marginalt erkjenner fordelene ved å bruke AI som er godt utformet
  • Annen

Den kanskje mest fremtredende skarpe kommentaren har sentrert seg om det faktum at denne AI Bill of Rights ikke er juridisk håndhevbar og dermed ikke holder vann når det gjelder å etablere klare målstolper. Noen har sagt at selv om hvitboken er nyttig og oppmuntrende, mangler den definitivt tenner. De stiller spørsmål ved hva som kan komme ut av et sies å være hultannet sett med fiffige forskrifter.

Jeg vil ta for meg de bitende bemerkningene om et øyeblikk.

I mellomtiden sier hvitboken rikelig begrensningene for hva denne AI Bill of Rights innebærer:

  • "Blueprint for an AI Bill of Rights er ikke-bindende og utgjør ikke amerikanske myndigheters politikk. Den erstatter, modifiserer eller styrer ikke en tolkning av eksisterende lover, forskrifter, retningslinjer eller internasjonale instrumenter. Den utgjør ikke bindende veiledning for det offentlige eller føderale byråer og krever derfor ikke overholdelse av prinsippene beskrevet her. Det er heller ikke avgjørende for hva den amerikanske regjeringens posisjon vil være i noen internasjonale forhandlinger. Vedtakelse av disse prinsippene oppfyller kanskje ikke kravene i eksisterende lover, forskrifter, retningslinjer eller internasjonale instrumenter, eller kravene til føderale byråer som håndhever dem. Disse prinsippene er ikke ment å forby eller begrense noen lovlig aktivitet til et offentlig organ, inkludert rettshåndhevelse, nasjonal sikkerhet eller etterretningsvirksomhet» (i henhold til hvitboken).

For de som har vært raske til å undergrave AI Bill of Rights som juridisk ikke-bindende, la oss gjøre litt av et tankeeksperiment på den stikkende påstanden. Anta at hvitboken ble utgitt og hadde lovens fulle kraft. Jeg tør påstå at resultatet ville bli noe katastrofalt, i det minste i graden av både juridiske og samfunnsmessige reaksjoner på forkynnelsen.

Lovgivere ville være oppe i armene over at innsatsen ikke hadde gjennomført de normative prosessene og juridiske prosedyrene for å sette sammen slike lover. Bedrifter ville bli rasende, med rette, for å få nye lover som dukker opp uten tilstrekkelig varsling og bevissthet om hva disse lovene er. All slags bestyrtelse og raseri ville følge.

Ikke en god måte å gravitere mot å styrke menneskehetens rettigheter i en AI-æra.

Husk at jeg tidligere hadde startet denne diskusjonen ved å ta opp verdien og vitaliteten til tegninger.

Tenk deg at noen hoppet forbi trinnet med å lage tegninger og hoppet umiddelbart i gang med å bygge drømmehuset ditt. Hvordan tror du huset vil se ut? Det virker som en rimelig innsats at huset ikke vil passe spesielt godt til det du hadde i tankene dine. Den resulterende gården kan være et fullstendig rot.

Hovedpoenget er at vi trenger tegninger, og vi har nå en for å komme videre med å finne ut fornuftige AI-lover og styrke etiske AI-adopsjoner.

Jeg vil derfor ta for meg måtene denne AI Bill of Rights-planen kan gjøres om til et hus, så å si. Hvordan skal vi bruke planen? Hva er de passende neste trinnene? Kan denne planen være tilstrekkelig, eller trenger den mer kjøtt på beina?

Før vi går inn i de tunge sakene, vil jeg først sørge for at vi alle er på samme side om arten av AI og hva dagens status består av.

Setter rekorden om dagens AI

Jeg vil gjerne komme med en ekstremt ettertrykkelig uttalelse.

Er du klar?

Det er ingen AI i dag som er sansende.

Vi har ikke dette. Vi vet ikke om sentient AI vil være mulig. Ingen kan med rette forutsi om vi vil oppnå sansende AI, og heller ikke om sansende AI på en eller annen måte mirakuløst spontant vil oppstå i en form for beregningsmessig kognitiv supernova (vanligvis referert til som singulariteten, se min dekning på lenken her).

Den typen AI som jeg fokuserer på består av den ikke-sansende AI som vi har i dag. Hvis vi ville spekulere vilt om sansende AI, kan denne diskusjonen gå i en radikalt annen retning. En sansende AI ville visstnok være av menneskelig kvalitet. Du må vurdere at den sansende AI er den kognitive ekvivalenten til et menneske. Mer så, siden noen spekulerer i at vi kan ha superintelligent AI, er det tenkelig at slik AI kan ende opp med å bli smartere enn mennesker (for min utforskning av superintelligent AI som en mulighet, se dekningen her).

Jeg vil på det sterkeste foreslå at vi holder ting nede på jorden og vurderer dagens beregningsbaserte ikke-følende AI.

Innse at dagens AI ikke er i stand til å "tenke" på noen måte på linje med menneskelig tenkning. Når du samhandler med Alexa eller Siri, kan samtalekapasiteten virke som menneskelig kapasitet, men realiteten er at den er beregningsmessig og mangler menneskelig erkjennelse. Den siste æraen av AI har gjort omfattende bruk av Machine Learning (ML) og Deep Learning (DL), som utnytter beregningsmønstermatching. Dette har ført til AI-systemer som ser ut som menneskelignende tilbøyeligheter. I mellomtiden er det ingen kunstig intelligens i dag som har et skinn av sunn fornuft, og heller ikke noe av den kognitive undringen til robust menneskelig tenkning.

Vær veldig forsiktig med å antropomorfisere dagens AI.

ML/DL er en form for beregningsmønstermatching. Den vanlige tilnærmingen er at du samler data om en beslutningsoppgave. Du mater dataene inn i ML/DL-datamodellene. Disse modellene søker å finne matematiske mønstre. Etter å ha funnet slike mønstre, hvis det er funnet, vil AI-systemet bruke disse mønstrene når de møter nye data. Ved presentasjon av nye data brukes mønstrene basert på de "gamle" eller historiske dataene for å gi en gjeldende beslutning.

Jeg tror du kan gjette hvor dette er på vei. Hvis mennesker som har tatt de mønstrede avgjørelsene har inkorporert uheldige skjevheter, er sjansen stor for at dataene reflekterer dette på subtile, men betydelige måter. Maskinlæring eller Deep Learning beregningsmønstermatching vil ganske enkelt prøve å matematisk etterligne dataene tilsvarende. Det er ingen antydning av sunn fornuft eller andre sansende aspekter ved AI-laget modellering i seg selv.

Dessuten kan AI-utviklerne kanskje ikke skjønne hva som skjer heller. Den mystiske matematikken i ML/DL kan gjøre det vanskelig å fjerne de nå skjulte skjevhetene. Du vil med rette håpe og forvente at AI-utviklerne vil teste for potensielt begravde skjevheter, selv om dette er vanskeligere enn det kan virke. Det er en solid sjanse for at selv med relativt omfattende testing vil det fortsatt være skjevheter innebygd i mønstertilpasningsmodellene til ML/DL.

Du kan litt bruke det berømte eller beryktede ordtaket om søppel-inn søppel-ut. Saken er at dette er mer beslektet med skjevheter-in som snikende blir tilført som skjevheter nedsenket i AI. Algoritmen beslutningstaking (ADM) til AI blir aksiomatisk full av ulikheter.

Ikke bra.

Alt dette har spesielt betydelige AI-etiske implikasjoner og gir et praktisk vindu til lærdom (selv før alle leksjonene skjer) når det kommer til å prøve å lovfeste AI.

I tillegg til å bruke AI-etiske forskrifter generelt, er det et tilsvarende spørsmål om vi bør ha lover som regulerer ulike bruk av AI. Nye lover blir slått rundt på føderalt, statlig og lokalt nivå som angår rekkevidden og arten av hvordan AI bør utformes. Arbeidet med å utarbeide og vedta slike lover er gradvis. AI-etikk fungerer i det minste som et betraktet stopp, og vil nesten helt sikkert til en viss grad bli direkte innlemmet i de nye lovene.

Vær oppmerksom på at noen hevder hardt at vi ikke trenger nye lover som dekker AI, og at våre eksisterende lover er tilstrekkelige. De advarer om at hvis vi vedtar noen av disse AI-lovene, vil vi drepe gullgåsen ved å slå ned på fremskritt innen AI som gir enorme samfunnsmessige fordeler.

I tidligere spalter har jeg dekket de ulike nasjonale og internasjonale innsatsene for å lage og vedta lover som regulerer AI, se lenken her, for eksempel. Jeg har også dekket de ulike AI-etikkprinsippene og -retningslinjene som ulike nasjoner har identifisert og vedtatt, inkludert for eksempel FNs innsats som UNESCO-settet med AI-etikk som nesten 200 land vedtok, se lenken her.

Her er en nyttig nøkkelsteinsliste over etiske AI-kriterier eller egenskaper angående AI-systemer som jeg tidligere har utforsket nøye:

  • Åpenhet
  • Rettferdighet og rettferdighet
  • Ikke-ondsinnethet
  • Ansvar
  • Privatliv
  • godgjør
  • Frihet og autonomi
  • Stol
  • Bærekraft
  • Verdighet
  • Solidaritet

Disse AI-etikk-prinsippene er oppriktig ment å bli brukt av AI-utviklere, sammen med de som styrer AI-utviklingsinnsatsen, og til og med de som til slutt jobber med og utfører vedlikehold på AI-systemer.

Alle interessenter gjennom hele livssyklusen for utvikling og bruk av kunstig intelligens anses innenfor rammen av å overholde de etablerte normene for etisk kunstig intelligens. Dette er et viktig høydepunkt siden den vanlige antagelsen er at "bare kodere" eller de som programmerer AI-en er underlagt AI-etikkens forestillinger. Som tidligere understreket her, krever det en landsby for å utvikle og sette i gang AI, og som hele landsbyen må være kjent med og overholde AI-etiske forskrifter.

Nå som jeg har lagt et nyttig grunnlag, er vi klare til å dykke videre inn i AI Bill of Rights.

Fire viktige måter å implementere AI Bill of Rights på

Noen gir deg en blåkopi og ber deg gå på jobb.

Hva gjør du?

I tilfellet med AI Bill of Rights som en blåkopi, vurder disse fire viktige trinnene for å komme videre:

  • Tjen som innspill til å formulere AI-lover: Bruk planen til å hjelpe til med å formulere AI-lover, og gjør det forhåpentligvis på en koordinert basis på føderalt, statlig og lokalt nivå (kanskje hjelpe internasjonal AI-lovgivning også).
  • Hjelp til å få AI-etikk mer utbredt: Bruk planen for å fremme AI-etikkformuleringer (noen ganger referert til som "myke lover" sammenlignet med juridisk bindende "harde lover"), gjør det for å inspirere og veilede bedrifter, enkeltpersoner, statlige enheter og andre valgkretser mot bedre og mer konsistent etisk AI-resultater.
  • Shape AI-utviklingsaktiviteter: Bruk planen for å stimulere til utvikling av AI-utviklingsmetodologier og treningsaspekter, og gjør det for å prøve å få AI-utviklere og de som jobber med eller bruker AI til å bli mer bevisste på hvordan man kan utvikle AI i tråd med ønskelige AI-etikk-forskrifter og i påvente. av forestående AI-lover som blir vedtatt.
  • Motivere bruken av AI for å hjelpe til med å kontrollere AI: Bruk blåkopien til å utvikle AI som vil bli brukt til å prøve å tjene som en sjekk-og-balanse mot annen AI som kan være på vei inn i det uheldige territoriet. Dette er et av de makroskopiske synspunktene der vi kan bruke det som vi synes er tilsynelatende bekymringsfullt til også (ironisk nok, kan man si) hjelpe til med å beskytte oss.

Jeg har diskutert hvert av de nevnte fire trinnene gjennom spalteinnleggene mine.

For denne diskusjonen her vil jeg fokusere på det fjerde oppførte trinnet, nemlig at AI Bill of Rights kan tjene som en motivator mot fremkomsten av AI for å hjelpe til med å kontrollere AI. Dette er et noe sjokkerende eller overraskende skritt for mange som ennå ikke har kommet helt inn i dette AI-fremskrittsriket.

Tillat meg å utdype.

En enkel analogi burde gjøre susen. Vi er alle i disse dager vant til brudd på nettsikkerhet og hackerinnbrudd. Nesten hver dag hører vi om eller blir påvirket av et siste smutthull i datamaskinene våre som vil tillate ondskapsfulle ugjerningsmenn å snappe opp dataene våre eller plassere en elendig løsepengevare på våre bærbare datamaskiner.

En måte å bekjempe disse avskyelige forsøkene på består i å bruke spesialisert programvare som prøver å forhindre disse innbruddene. Du har nesten helt sikkert en antivirusprogramvare på datamaskinen hjemme eller på jobb. Det er sannsynligvis noe lignende på smarttelefonen din, enten du skjønner at det er der eller ikke.

Poenget mitt er at noen ganger må du bekjempe ild med ild (se min dekning om dette, for eksempel kl lenken her og lenken her).

I tilfelle av AI som lander inn i verboten riket av AI for Bad, kan vi søke å bruke AI For Good som kjemper med det ondsinnede AI for Bad. Dette er selvsagt ikke en mirakelkur. Som du vet, foregår det en kontinuerlig katt-og-mus-gambit mellom ugjerningsmenn som prøver å bryte seg inn på datamaskinene våre og fremskrittene som gjøres innen nettsikkerhetsbeskyttelse. Det er et nesten uendelig spill.

Vi kan bruke AI til å prøve å håndtere AI som har gått en forbudt vei. Å gjøre det vil hjelpe. Det vil ikke spesielt være en sølvkule siden den uønskede AI som er målrettet nesten helt sikkert vil bli utviklet for å unngå slike beskyttelser. Dette vil være pågående katt-og-mus av AI versus AI.

Uansett vil AI-en vi bruker for å beskytte oss selv gi en viss grad av beskyttelse mot dårlig AI. Derfor må vi utvilsomt utvikle AI som kan beskytte eller beskytte oss. Og vi bør også forsøke å lage den beskyttende AI for å justere etter hvert som den dårlige AI justerer seg. Det vil være et voldsomt utseende av lynraskt katt-og-mus.

Ikke alle liker denne utvidelsen av rollen til AI.

De som allerede oppfatter AI som en homogen amorf konglomerasjon, vil få gåsehud og mareritt ved denne forestilte AI-mot-AI-gambiten. Hvis vi prøver å sette ild mot ild, lager vi kanskje bare et enda større bål. AI kommer til å bli et massivt bål, et som vi ikke lenger kontrollerer og vil velge å slavebinde menneskeheten eller utslette oss fra planeten. Når det gjelder å diskutere AI som en eksistensiell risiko, blir vi vanligvis ledet til å tro at all AI vil slå seg sammen, se min diskusjon om disse problemene på lenken her. Du skjønner, vi blir fortalt at hver del av AI vil gripe tak i sine brødre AI og bli en stor overherre enhetlig familie.

Det er det fryktelige og desidert foruroligende scenariet med sansende AI som sømløs alt-for-en- og en-for-alle-mafia.

Selv om du er velkommen til å komme med slike antagelser om at dette kan skje en dag, kan jeg forsikre deg om at foreløpig består AI-en vi har i dag av lastebillass med frakoblede forskjellige AI-programmer som ikke har noen spesiell måte å konspirere med hverandre på.

Når det er sagt, er jeg sikker på at de som inderlig tror på AI-konspirasjonsteorier vil insistere på at jeg har sagt dette målrettet for å skjule sannheten. Aha! Kanskje jeg blir betalt av dagens AI som allerede planlegger den store AI-overtakelsen (ja siree, jeg vil bade i rikdommer når AI-overherrene hersker). Eller, og jeg foretrekker absolutt ikke denne andre vinkelen, kanskje jeg er blindt uvitende om hvordan AI i all hemmelighet plotter bak ryggen vår. Jeg antar at vi må vente og se om jeg er en del av AI-kuppet eller en AI-abjekt patsy (au, det gjør vondt).

For å komme tilbake til jordiske betraktninger, la oss kort utforske hvordan moderne AI kan brukes til å hjelpe implementeringen av AI Bill of Rights. Jeg vil beleilig og oppsummert referere til dette som God AI.

Vi vil bruke de fem hjørnesteinene som er nedfelt i AI Bill of Rights:

  • God AI for promotering Sikre og effektive systemer: Når du er underlagt eller bruker et AI-system, prøver Good AI å finne ut om AI-en som brukes er usikker eller ineffektiv. Ved slik deteksjon kan den gode AI varsle deg eller utføre andre handlinger, inkludert blokkering av dårlig AI.
  • God AI for å gi Algoritmisk diskrimineringsbeskyttelse: Mens du bruker et AI-system som kan inneholde diskriminerende algoritmer, God AI forsøker å finne ut om det er utilstrekkelig beskyttelse for deg og prøver å finne ut om det faktisk eksisterer unødige skjevheter i den AI som brukes. Den gode AI-en kan informere deg og også potensielt automatisk rapportere den andre AI-en til ulike myndigheter, som kan være fastsatt av AI-lover og juridiske krav.
  • God AI for å bevare Datasikkerhet: Denne typen Good AI prøver å beskytte deg mot invasjoner av personvern. Når en annen AI søker å be om data som kanskje ikke er virkelig nødvendig fra deg, vil Good AI gjøre deg oppmerksom på overskridelsen. The Good AI kan også potensielt maskere dataene dine på en måte som vil bevare personvernrettighetene dine etter å ha blitt matet til den andre AIen. Etc.
  • God AI for etablering Merknad og forklaring: Det er sannsynlig at vi alle vil møte AI-systemer som i stor grad mangler i å gi riktige og passende varsler, og som dessverre ikke klarer å vise frem en tilstrekkelig forklaring på handlingene deres. God AI kan prøve å tolke eller avhøre den andre AI-en, ved å gjøre det for potensielt å identifisere varsler og forklaringer som burde vært gitt. Selv om det ikke er mulig å gjøre i et gitt tilfelle, vil den gode AI-en i det minste varsle deg om feilene til den andre AI-en, og muligens rapportere AI-en til utpekte myndigheter basert på fastsatte AI-lover og juridiske krav.
  • God AI å tilby Menneskelige alternativer, omtanke og tilbakefall: Anta at du bruker et AI-system og AI-en tilsynelatende ikke er opp til oppgaven. Du er kanskje ikke klar over at ting går surt, eller du kan være litt på vakt og usikker på hva du skal gjøre med situasjonen. I et slikt tilfelle vil Good AI i det stille undersøke hva den andre AI gjør og kunne advare deg om viktige bekymringer rundt den AI-en. Du vil da bli bedt om å be om et menneskelig alternativ til AI (eller Good AI kan gjøre det på dine vegne).

For å forstå videre hvordan denne typen God AI kan utvikles og felt, se min populære og høyt rangerte AI-bok (beæret over å si at den har blitt notert som en "topp ti") om det jeg generelt har referert til som AI-vernengler, se lenken her.

konklusjonen

Jeg vet hva du tenker. Hvis vi har god AI som er utviklet for å beskytte oss, anta at den gode AI blir ødelagt til å bli dårlig AI. Den berømte eller beryktede latinske stikkordet virker fullt relevant for denne muligheten: Vil du ha ipsos depot?

Uttrykket tilskrives den romerske poeten Juvenal og kan finnes i hans verk med tittelen satirer, og kan løst oversettes til hvem som skal vokte eller se på vaktene selv. Mange filmer og TV-serier som f.eks Star Trek har utnyttet denne linjen gjentatte ganger.

Det er sikkert fordi det er et utmerket poeng.

Visst nok, alle AI-lover som vedtas må omfatte både den dårlige AI og til og med den gode AI som går dårlig. Derfor vil det være avgjørende å skrive fornuftige og omfattende AI-lover. Lovgivere som bare prøver å kaste tilfeldige legalese i veggen og håper at det holder seg med hensyn til AI-lover, kommer til å oppleve at de savner målet dypt.

Det trenger vi ikke.

Vi har verken tid eller kan bære de samfunnsmessige utgiftene til å takle utilstrekkelig utformede AI-lover. Jeg har påpekt at vi dessverre til tider er vitne til nye AI-relaterte lover som er dårlig sammensatt og fylt med alle slags juridiske sykdommer, se for eksempel min sonderende analyse av New York City (NYC) AI Biases revisjonslov på lenken her.

La oss sørge for at vi bruker AI Bill of Rights blåkopi som vi nå har i hånden angående AI. Hvis vi ignorerer planen, har vi tapt på å ha trappet opp spillet vårt. Hvis vi feilaktig implementerer planen, skam oss for å ha tilranet oss et nyttig grunnlag.

Den aktede romerske poeten Juvenal sa noe annet som vi kan utnytte i denne omstendigheten: Anima sana in corpore sano.

Generelt sett oversetter dette til påstanden om at det ville være forsvarlig å ha både et sunt eller sunt sinn og en sunn eller sunn kropp. Dette tillater oss å tåle enhver form for slit, ifølge Juvenal, og vil garantert være den eneste veien til et liv i fred eller dyd.

På tide at vi bruker et sunt sinn og en sunn kropp for å sikre at vi sikrer at menneskeheten vil ha våre menneskerettigheter bevart og solid befestet i den fremvoksende verden av allestedsnærværende og til tider upassende AI. Det er et godt råd fra romerne som vi bør følge i dagens rush midt i en AI-epoke og en fremtid som er avgjørende fylt med både god og dårlig AI.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- bill-of-right-inkludert-og-forbløffende-ved-bruke-ai-outright/