AI-etikk og AI-lov som klargjør hva som faktisk er pålitelig AI

Tillit er alt, sier de.

Den kjente filosofen Lao Tzu sa at de som ikke stoler nok, ikke vil bli klarert. Ernest Hemingway, en anerkjent romanforfatter, uttalte at den beste måten å finne ut om du kan stole på noen er ved å stole på dem.

I mellomtiden ser det ut til at tillit er både verdifullt og sprøtt. Tilliten man har kan kollapse som et korthus eller plutselig sprekke som en spratt ballong.

Den antikke greske tragedien Sophocles hevdet at tillit dør, men mistillit blomstrer. Den franske filosofen og matematikeren Descartes hevdet at det er klokt å aldri stole helt på de som har lurt oss en gang. Milliardær-business investor ekstraordinær Warren Buffett formanet at det tar tjue år å bygge et pålitelig rykte og fem minutter å ødelegge det.

Du kan bli overrasket over å vite at alle disse varierte synspunktene og provoserende meningene om tillit er avgjørende for fremkomsten av kunstig intelligens (AI).

Ja, det er noe som gjerne omtales som pålitelig AI som fortsetter å få mye oppmerksomhet i disse dager, inkludert håndsvingende catcalls fra AI-feltet og også støyende utbrudd fra de utenfor AI-riket. Den overordnede oppfatningen innebærer hvorvidt samfunnet kommer til å være villig til å stole på slike som AI-systemer.

Antagelig, hvis samfunnet ikke vil eller kan stole på AI, er oddsen at AI-systemer ikke klarer å få trekkraft. AI slik vi kjenner det for øyeblikket vil bli skjøvet til side og bare samle støv. Sjokkerende nok kan AI havne på søppelhaugen, historisk sett henvist til noe mer enn et desperat prøvd, men spektakulært mislykket høyteknologisk eksperiment. Enhver anstrengelse for å gjenopplive AI vil potensielt møte en enorm kamp i oppoverbakke og bli stoppet av alle slags innvendinger og direkte protester. Tilsynelatende på grunn av manglende tillit til AI.

Hva skal det være, skal vi stole på AI, eller skal vi ikke stole på AI?

I hovedsak, skal vi virkelig ha pålitelig AI?

Det er tidligere og uløste spørsmål. La oss pakke den ut.

AI-etikk og kampen for pålitelig AI

Mange innen AI tror at utviklerne av AI-systemer kan oppnå tillit til AI ved å utforme AI som er pålitelig. Essensen er at du ikke kan håpe på å få tillit hvis AI ikke tilsynelatende er pålitelig når du er i gang. Ved å lage AI-systemer på en måte som oppfattes som pålitelig, er det en god sjanse for at folk vil akseptere AI og ta i bruk AI-bruk.

En bekymring som allerede maser ved denne pålitelige AI-betraktningen, er at vi kanskje allerede er inne i en offentlig tillitsunderskudd når det kommer til AI. Du kan si at AI-en vi allerede har sett har gravd et hull og kastet tillit i enorme mengder. Derfor, i stedet for å starte på et tilstrekkelig grunnlag for pålitelighet, vil AI på forbløffende vis måtte klatre ut av underskuddet, og gripe løs for hver ønsket unse ekstra tillit som vil være nødvendig for å overbevise folk om at AI faktisk er pålitelig.

Inn i denne utfordringen kommer AI-etikk og AI-lov.

AI-etikk og AI-lov sliter sterkt med å prøve å finne ut hva som skal til for å gjøre AI pålitelig. Noen antyder at det er en formel eller jernkledde lover som vil få AI inn i den pålitelige himmelen. Andre indikerer at det vil kreve hardt arbeid og konsekvent og utholdende overholdelse av AI-etikk og AI-lovprinsipper for å få samfunnets anerkjente tillit.

Den moderne gåten om tillit til AI er ikke spesielt ny i seg selv.

Du kan enkelt gå tilbake til slutten av 1990-tallet og spore fremveksten av et ettertraktet ønske om "trusted computing" fra den tiden. Dette var en storstilt tech-industri innsats for å skjelne om datamaskiner alt fortalt kunne lages på en måte som ville bli tolket som pålitelig av samfunnet.

Sentrale spørsmål bestod av:

  • Kunne maskinvare lages slik at den var pålitelig?
  • Kunne programvaren lages slik at den var pålitelig?
  • Kan vi få på plass globale nettverksbaserte datamaskiner som er pålitelige?
  • Og så videre.

Den rådende følelsen da og som fortsetter til i dag er at pålitelig databehandling forblir en type hellig gral som dessverre fortsatt ikke er innenfor rekkevidde (som nevnt i en artikkel med tittelen "Trustworthy AI" i Kommunikasjon av ACM). Du kan på en overbevisende måte argumentere for at AI er enda en komponent i databehandlingens troverdighet, men AI gjør tillitsjaget enda mer utfordrende og usikkert. AI har blitt den potensielle spoileren i kampen for å oppnå pålitelig databehandling. Muligens det svakeste leddet i kjeden, så å si.

La oss ta en rask titt på hvorfor AI har fått oss opp om å være mindre enn pålitelige. I tillegg vil vi utforske prinsippene til AI-etikk som vi håper vil hjelpe til med å støtte opp den allerede halvt-undervanns-oppfattede tilliten (eller boblende mistillit) til dagens AI. For min pågående og omfattende dekning av AI-etikk, se lenken her og lenken her, bare for å nevne noen få.

Et bestemt segment eller del av AI-etikken som har fått mye oppmerksomhet i media, består av AI som viser uheldige skjevheter og ulikheter. Du er kanskje klar over at da den siste æraen med kunstig intelligens kom i gang var det et stort utbrudd av entusiasme for det noen nå kaller AI For Good. Dessverre begynte vi å være vitne til etter den fossende spenningen AI for Bad. For eksempel har forskjellige AI-baserte ansiktsgjenkjenningssystemer blitt avslørt å inneholde rasemessige skjevheter og kjønnsskjevheter, som jeg har diskutert på lenken her.

Anstrengelser for å kjempe tilbake mot AI for Bad er aktivt i gang. Dessuten høyrøstet lovlig jakten på å tøyle urettferdighetene, er det også et betydelig løft mot å omfavne AI-etikk for å rette opp AI-eiendommen. Tanken er at vi bør ta i bruk og støtte viktige etiske AI-prinsipper for utvikling og felt av AI for å undergrave AI for Bad og samtidig varsle og fremme det som er å foretrekke AI For Good.

På en beslektet oppfatning er jeg en talsmann for å prøve å bruke AI som en del av løsningen på AI-problemer, og bekjempe ild med ild på den måten å tenke på. Vi kan for eksempel bygge inn etiske AI-komponenter i et AI-system som vil overvåke hvordan resten av AI gjør ting og dermed potensielt fange opp i sanntid enhver diskriminerende innsats, se diskusjonen min på lenken her. Vi kan også ha et eget AI-system som fungerer som en type AI Ethics-monitor. AI-systemet fungerer som en tilsynsmann for å spore og oppdage når en annen AI går inn i den uetiske avgrunnen (se min analyse av slike evner på lenken her).

Om et øyeblikk vil jeg dele med deg noen overordnede prinsipper som ligger til grunn for AI-etikk. Det er mange slike lister som flyter rundt her og der. Du kan si at det ennå ikke er en enestående liste over universell appell og samtidighet. Det er den uheldige nyheten. Den gode nyheten er at det i det minste er lett tilgjengelige AI Ethics-lister, og de pleier å være ganske like. Alt i alt tyder dette på at vi ved en form for begrunnet konvergens finner veien mot en generell fellestrekk av hva AI-etikk består av.

Først, la oss kort dekke noen av de generelle etiske AI-reglene for å illustrere hva som bør være en viktig vurdering for alle som lager, driver med eller bruker AI.

For eksempel, som uttalt av Vatikanet i Roma oppfordrer til AI-etikk og som jeg har dekket i dybden på lenken her, dette er deres identifiserte seks primære AI-etiske prinsipper:

  • Åpenhet: I prinsippet må AI-systemer kunne forklares
  • Inkludering: Alle menneskers behov må tas i betraktning slik at alle kan komme til nytte, og alle kan tilbys best mulige forutsetninger for å uttrykke seg og utvikle seg.
  • Ansvar: De som designer og distribuerer bruken av AI må fortsette med ansvar og åpenhet
  • Opartiskhet: Ikke skap eller handle i henhold til partiskhet, og dermed ivareta rettferdighet og menneskeverd
  • Pålitelighet: AI-systemer må kunne fungere pålitelig
  • Sikkerhet og personvern: AI-systemer må fungere sikkert og respektere brukernes personvern.

Som uttalt av det amerikanske forsvarsdepartementet (DoD) i deres Etiske prinsipper for bruk av kunstig intelligens og som jeg har dekket i dybden på lenken her, dette er deres seks primære AI-etiske prinsipper:

  • Ansvarlig: DoD-personell vil utøve passende nivåer av dømmekraft og omsorg mens de fortsatt er ansvarlige for utvikling, distribusjon og bruk av AI-evner.
  • Rettferdig: Avdelingen vil ta bevisste skritt for å minimere utilsiktet skjevhet i AI-evner.
  • Sporbar: Avdelingens AI-evner vil bli utviklet og distribuert slik at relevant personell har en passende forståelse av teknologien, utviklingsprosessene og operasjonelle metoder som gjelder for AI-evner, inkludert transparente og reviderbare metoder, datakilder og designprosedyre og dokumentasjon.
  • Pålitelig: Avdelingens AI-evner vil ha eksplisitte, veldefinerte bruksområder, og sikkerheten, sikkerheten og effektiviteten til slike evner vil være gjenstand for testing og forsikring innenfor de definerte bruksområdene gjennom hele livssyklusen.
  • Styres: Avdelingen vil designe og konstruere AI-evner for å oppfylle deres tiltenkte funksjoner samtidig som den har evnen til å oppdage og unngå utilsiktede konsekvenser, og evnen til å koble ut eller deaktivere utplasserte systemer som viser utilsiktet oppførsel.

Jeg har også diskutert ulike kollektive analyser av AI-etiske prinsipper, inkludert å ha dekket et sett utviklet av forskere som undersøkte og kondenserte essensen av en rekke nasjonale og internasjonale AI-etiske prinsipper i en artikkel med tittelen "The Global Landscape Of AI Ethics Guidelines" (publisert i Natur), og at dekningen min utforsker kl lenken her, som førte til denne keystone-listen:

  • Åpenhet
  • Rettferdighet og rettferdighet
  • Ikke-ondsinnethet
  • Ansvar
  • Privatliv
  • godgjør
  • Frihet og autonomi
  • Stol
  • Bærekraft
  • Verdighet
  • Solidaritet

Som du direkte kan gjette, kan det være ekstremt vanskelig å prøve å finne de spesifikke underliggende prinsippene. Enda mer så er innsatsen for å gjøre disse brede prinsippene til noe helt håndfast og detaljert nok til å brukes når man lager AI-systemer, også en tøff nøtt å knekke. Det er lett generelt å vinke litt med hånden om hva AI-etiske forskrifter er og hvordan de generelt skal overholdes, mens det er en mye mer komplisert situasjon i AI-kodingen som må være den veritable gummien som møter veien.

AI-etikkprinsippene skal brukes av AI-utviklere, sammen med de som styrer AI-utviklingsinnsatsen, og til og med de som til slutt arbeider med og utfører vedlikehold på AI-systemer. Alle interessenter gjennom hele livssyklusen for utvikling og bruk av kunstig intelligens anses innenfor rammen av å overholde de etablerte normene for etisk kunstig intelligens. Dette er et viktig høydepunkt siden den vanlige antagelsen er at "bare kodere" eller de som programmerer AI-en er underlagt AI-etikkens forestillinger. Som tidligere nevnt, kreves det en landsby for å utforme og sette opp AI, og som hele landsbyen må være kjent med og etterleve AI-etiske forskrifter.

La oss også sørge for at vi er på samme side om naturen til dagens AI.

Det er ingen AI i dag som er sansende. Vi har ikke dette. Vi vet ikke om sentient AI vil være mulig. Ingen kan med rette forutsi om vi vil oppnå sansende AI, og heller ikke om sansende AI på en eller annen måte mirakuløst spontant vil oppstå i en form for beregningsmessig kognitiv supernova (vanligvis referert til som singulariteten, se min dekning på lenken her).

Den typen AI som jeg fokuserer på består av den ikke-sansende AI som vi har i dag. Hvis vi ville spekulere vilt om selvbevisst AI, denne diskusjonen kan gå i en radikalt annen retning. En sansende AI ville visstnok være av menneskelig kvalitet. Du må vurdere at den sansende AI er den kognitive ekvivalenten til et menneske. Mer så, siden noen spekulerer i at vi kan ha superintelligent AI, er det tenkelig at slik AI kan ende opp med å bli smartere enn mennesker (for min utforskning av superintelligent AI som en mulighet, se dekningen her).

La oss holde ting mer jordnære og vurdere dagens beregningsbaserte ikke-følende AI.

Innse at dagens AI ikke er i stand til å "tenke" på noen måte på linje med menneskelig tenkning. Når du samhandler med Alexa eller Siri, kan samtalekapasiteten virke som menneskelig kapasitet, men realiteten er at den er beregningsmessig og mangler menneskelig erkjennelse. Den siste æraen av AI har gjort omfattende bruk av Machine Learning (ML) og Deep Learning (DL), som utnytter beregningsmønstermatching. Dette har ført til AI-systemer som ser ut som menneskelignende tilbøyeligheter. I mellomtiden er det ingen kunstig intelligens i dag som har et skinn av sunn fornuft, og heller ikke noe av den kognitive undringen til robust menneskelig tenkning.

ML/DL er en form for beregningsmønstermatching. Den vanlige tilnærmingen er at du samler data om en beslutningsoppgave. Du mater dataene inn i ML/DL-datamodellene. Disse modellene søker å finne matematiske mønstre. Etter å ha funnet slike mønstre, hvis det er funnet, vil AI-systemet bruke disse mønstrene når de møter nye data. Ved presentasjon av nye data brukes mønstrene basert på de "gamle" eller historiske dataene for å gi en gjeldende beslutning.

Jeg tror du kan gjette hvor dette er på vei. Hvis mennesker som har tatt de mønstrede avgjørelsene har inkorporert uheldige skjevheter, er sjansen stor for at dataene reflekterer dette på subtile, men betydelige måter. Maskinlæring eller Deep Learning beregningsmønstermatching vil ganske enkelt prøve å matematisk etterligne dataene tilsvarende. Det er ingen antydning av sunn fornuft eller andre sansende aspekter ved AI-laget modellering i seg selv.

Dessuten er det kanskje ikke sikkert at AI-utviklerne skjønner hva som skjer. Den mystiske matematikken i ML/DL kan gjøre det vanskelig å fjerne de nå skjulte skjevhetene. Du vil med rette håpe og forvente at AI-utviklerne vil teste for potensielt begravde skjevheter, selv om dette er vanskeligere enn det kan virke. Det er en solid sjanse for at selv med relativt omfattende testing vil det fortsatt være skjevheter innebygd i mønstertilpasningsmodellene til ML/DL.

Du kan litt bruke det berømte eller beryktede ordtaket om søppel-inn søppel-ut. Saken er at dette er mer beslektet med skjevheter-in som snikende blir tilført som skjevheter nedsenket i AI. Algoritmen beslutningstaking (ADM) til AI blir aksiomatisk full av ulikheter.

Ikke bra.

La oss knytte dette til spørsmålet om pålitelig AI

Vi ser absolutt ikke ut til å være villige til å stole på AI som viser uønskede skjevheter og diskriminerende handlinger. Vår tro vil i så fall være at slik AI absolutt ikke er pålitelig, og derfor vil vi helle mot å aktivt mistillit til AI. Uten å gå over bord på en antropomorf sammenligning (jeg skal si mer om AI-antropomorfisering om et øyeblikk), ville et menneske som utviste uheldige skjevheter også bli vurdert som ikke spesielt pålitelig.

Graver inn i tillit og troverdighet

Kanskje vi burde ta en titt på hva vi mener når vi hevder at vi gjør eller ikke stoler på noen eller noe. Først, vurder flere dagligdagse ordbokdefinisjoner av tillit.

Eksempler på hva tillit definisjonelt betyr er:

  • Trygg tillit til karakteren, evnen, styrken eller sannheten til noen eller noe (Merriam-Webster nettordbok).
  • Å stole på integriteten, styrken, evnen, sikkerheten, etc., til en person eller ting (Dictionary.com)
  • Fast tro på påliteligheten, sannheten, evnen eller styrken til noen eller noe (Oxford Languages ​​online ordbok).

Jeg vil gjerne påpeke at alle disse definisjonene refererer til "noen" og på samme måte refererer til "noe" som potensielt pålitelig. Dette er bemerkelsesverdig siden noen kanskje insisterer på at vi bare stoler på mennesker og at tillitshandlingen utelukkende er forbeholdt menneskeheten som vårt mål for pålitelighet. Ikke så. Du kan stole på brødristeren din. Hvis det ser ut til å lage ristet brød på en pålitelig måte og jobber rutinemessig for å gjøre det, kan du garantert ha et skinn av tillit til om brødristeren faktisk er pålitelig.

I den samme tankegangen kan AI også være gjenstand for vårt tillitssynspunkt. Oddsen er at tillit knyttet til AI kommer til å være mye mer komplisert enn å si en hverdagslig brødrister. En brødrister kan vanligvis bare gjøre en håndfull handlinger. Et AI-system vil sannsynligvis være mye mer komplekst og ser ut til å fungere mindre transparent. Vår evne til å vurdere og fastslå påliteligheten til AI er garantert mye vanskeligere og byr på forskjellige utfordringer.

Foruten å bare være mer kompleks, sies et typisk AI-system å være ikke-deterministisk og potensielt selvregulerende eller selvjusterende. Vi kan kort utforske den forestillingen.

En deterministisk maskin har en tendens til å gjøre de samme tingene om og om igjen, forutsigbart og med et levedyktig merkbart mønster av hvordan den fungerer. Du kan si at en vanlig brødrister toasts omtrent på samme måte og har ristekontroller som modererer ristingen, som alle generelt er forutsigbare av personen som bruker brødristeren. I motsetning til dette er komplekse AI-systemer ofte utviklet for å være ikke-deterministiske, noe som betyr at de kan gjøre ganske forskjellige ting utover det du ellers hadde forventet. Dette kan delvis også forsterkes ytterligere hvis AI-en er skrevet for å selvjustere seg selv, et aspekt som med fordel kan tillate AI-en å forbedre seg når det gjelder ML/DL, men kan også på en urovekkende måte få AI-en til å vakle eller gå inn i rekkene. av AI-dårlighet. Du vet kanskje ikke hva som traff deg, på en måte, ettersom du ble overrumplet av AIs handlinger.

Hva kan vi gjøre for å prøve å bringe AI nærmere troverdighet?

En tilnærming består i å prøve å sikre at de som bygger og driver med AI, følger et sett med AI-etiske forskrifter. Som nevnt av disse AI-forskerne: «Tillit er en holdning om at en agent vil oppføre seg som forventet og kan stole på for å nå målet sitt. Tillit bryter sammen etter en feil eller misforståelse mellom agenten og den tillitsfulle personen. Den psykologiske tillitstilstanden til AI er en fremvoksende egenskap ved et komplekst system, som vanligvis involverer mange sykluser med design, opplæring, distribusjon, måling av ytelse, regulering, redesign og omskolering” (angitt i Kommunikasjon av ACM, "Trust, Regulation, and Human-in-the-Loop AI Within the European Region" av Stuart Middleton, Emmanuel Letouze, Ali Hossaini og Adriane Chapman, april 2022).

Poenget er at hvis vi kan få AI-utviklere til å følge etisk AI, vil de forhåpentligvis ende opp med å produsere pålitelig AI. Dette er vel og bra, men det virker noe upraktisk på en reell basis, selv om det absolutt er en vei det er verdt å følge.

Her er hva jeg mener.

Anta at en flittig innsats blir utført av AI-utviklere som lager et AI-system for et eller annet formål som vi vanligvis kaller X. De sørger nøye for at AI-en overholder åpenhetsreglene til AI-etikk. De sørger nøye for at personvernet er passende innebygd i AI. For nesten alle de vanlige AI-etikkprinsippene sørger AI-byggere uttømmende for at AI-en oppfyller den gitte forskriften.

Bør du stole på den AI nå?

Tillat meg å hjelpe til med å gjennomsyre tankene dine om det åpne spørsmålet.

Det viser seg at cyberskurker klarte å infiltrere AI og snikende få AI til å utføre X og likevel også mate cyberhackere med all data som AI samler inn. Ved å gjøre det undergraver disse ugjerningsmennene på en snikende måte personvernforskriften. Du er lykkelig uvitende om at dette skjer under panseret til AI.

Med den ekstra informasjonen vil jeg stille deg det samme spørsmålet igjen.

Stoler du på den AI?

Jeg tør påstå at de fleste med en gang vil erklære at de helt sikkert gjør det ikke stol på denne spesielle AI. De kan ha stolt på det tidligere. De velger nå å ikke lenger vurdere AI som pålitelig.

Noen få viktige innsikter basert på dette enkle eksemplet er verdt å tenke over:

  • Dynamics of Trust. Selv de beste intensjoner om å dekke alle grunnlagene for å sikre at AI-etikk er innebygd i et AI-system er ingen garanti for hva AI kan vise seg å være eller bli. Når AI-en er tatt i bruk, kan utenforstående potensielt undergrave de etiske AI-tilskuddene.
  • Underbyr tillit innenfra. Handlingen med å undergrave troverdigheten trenger ikke nødvendigvis å være utenforstående. En innsider som utfører regelmessig vedlikehold av AI-systemet kan ta feil og svekke AI mot å være mindre pålitelig. Denne AI-utvikleren har kanskje ingen anelse om hva de har laget.
  • Utilsiktede kompromisser av tillit. En selvjusterende eller selvregulerende AI kan på et tidspunkt justere seg selv og bevege seg inn i det upålitelige territoriet. Kanskje forsøker AI å styrke gjennomsiktigheten til AI, men samtidig og upassende kompromitterer personvernfasettene.
  • Spredning av tillit. Å prøve å oppnå alle AI-etikk-prinsippene til samme ytterste grad av pålitelighet er vanligvis ikke lett gjennomførbart, da de ofte har tverrformål eller har andre iboende potensielle konflikter. Det er et ganske idealisert perspektiv å tro at alle de etiske AI-forskriftene er drømmende på linje og alle oppnåelige i en eller annen like maksimerbar grad.
  • Tillit kan være kostbart å oppnå. Kostnaden for å prøve å oppnå et førsteklasses preg av pålitelig AI ved å gjennomføre de ulike omfattende og uttømmende trinnene og følge litanien av AI-etiske prinsipper kommer til å bli relativt høye. Du kan lett argumentere for at kostnadene ville være uoverkommelige med tanke på å få noen AI-systemer i bruk som ellers har viktig verdi for samfunnet, selv om AI-en var skal vi si mindre enn ideell ut fra et troverdighetsønske.
  • Og så videre.

Ikke mistolk de foregående bemerkningene for å antyde at vi på en eller annen måte bør avverge innsatsen for å bygge og bruke pålitelig AI grundig. Du ville så å si kaste ut babyen med badevannet. Den riktige tolkningen er at vi trenger å gjøre disse tillitsfulle aktivitetene for å få AI inn i en pålitelig vurdering, og likevel er det alene ikke en kur-alle eller en sølvkule.

Veier med flere grener til pålitelig AI

Det er viktige flere flerstrengede måter å strebe mot pålitelig AI.

For eksempel, som jeg tidligere har dekket i mine spalter, har en myriade av nye lover og forskrifter angående AI som mål å drive AI-produsenter mot å utvikle pålitelig AI, se lenken her og lenken her.

Disse lovlige rekkverkene er avgjørende som et overordnet middel for å sikre at de som lager AI blir holdt fullt ansvarlige for sin AI. Uten slike potensielle juridiske rettsmidler og lovlige straffer, vil de som pell-mell rush AI inn på markedet sannsynligvis fortsette å gjøre det med liten om noen seriøs hensyn til å oppnå pålitelig AI. Jeg kan spesielt legge til at hvis disse lovene og forskriftene er dårlig utformet eller utilstrekkelig implementert, kan de dessverre undergrave jakten på pålitelig AI, kanskje ironisk nok og merkelig nok fremme upålitelig AI fremfor pålitelig AI (se spaltediskusjonene mine for ytterligere forklaring).

Jeg har også vært en iherdig talsmann for det jeg ivrig har referert til som AI skytsengel-roboter (se min dekning på lenken her). Dette er en kommende metode eller tilnærming for å prøve å bekjempe ild med ild, nemlig å bruke AI for å hjelpe oss med å håndtere annen AI som kanskje eller kanskje ikke er til å stole på.

For det første vil litt bakgrunnskontekst være nyttig.

Anta at du velger å stole på et AI-system som du er usikker på om det er pålitelig. En sentral bekymring kan være at du er alene i dine forsøk på å finne ut om AI er til å stole på eller ikke. AI er potensielt beregningsmessig raskere enn deg og kan dra nytte av deg. Du trenger noen eller noe på din side for å hjelpe.

Et perspektiv er at det alltid skal være et menneske-i-løkken som vil hjelpe deg når du bruker et AI-system. Dette er imidlertid en problematisk løsning. Hvis AI-en fungerer i sanntid, som vi vil diskutere et øyeblikk når det kommer til bruken av AI-baserte selvkjørende biler, er det kanskje ikke tilstrekkelig å ha et menneske-i-løkken. AI-en kan opptre i sanntid, og når et utpekt menneske-i-løkken kommer inn i bildet for å finne ut om AI-en fungerer som den skal, kan det allerede ha skjedd et katastrofalt resultat.

Som en side, bringer dette opp en annen faktor om tillit. Vi tildeler vanligvis et tillitsnivå basert på konteksten eller omstendighetene vi står overfor. Du kan stole fullt og helt på at din småbarnssønn eller -datter er trofast mot deg, men hvis du er ute og går på tur og bestemmer deg for å stole på at pjokk skal fortelle deg om det er trygt å tråkke på kanten av en klippe, tror jeg du ville vært klok å vurdere om pjokk kan gi den slags råd på liv eller død. Barnet kan gjøre det oppriktig og oppriktig, og likevel ikke være i stand til å gi slike råd tilstrekkelig.

Den samme forestillingen er assosiert med tillit når det kommer til AI. Et AI-system som du bruker til å spille dam eller sjakk er sannsynligvis ikke involvert i noen liv-eller-død-overveielser. Du kan være mer komfortabel med ditt tillitsoppdrag. En AI-basert selvkjørende bil som tømmer ned en motorvei i høye hastigheter krever mye mer anstrengende tillit. Den minste støt fra AI-kjøresystemet kan føre direkte til din død og andres død.

I et publisert intervju av Beena Ammanath, administrerende direktør for Global Deloitte AI Institute og forfatter av boken Pålitelig AI, en lignende vektlegging av å vurdere de kontekstuelle fasettene av hvor AI-pålitelighet kommer til å spille: «Hvis du bygger en AI-løsning som utfører pasientdiagnose, er rettferdighet og skjevhet superviktig. Men hvis du bygger en algoritme som forutsier feil på jetmotoren, er rettferdighet og skjevhet ikke like viktig. Pålitelig AI er virkelig en struktur for å få deg i gang med å tenke på dimensjonene av tillit i organisasjonen din" (VentureBeat22. mars 2022).

Når du diskuterer pålitelig AI, kan du tolke dette emnet på en rekke måter.

For eksempel, pålitelig AI er noe som vi alle ser på som et ønskelig og ambisiøst mål, nemlig at vi skal ha et ønske om å utvikle og publisere pålitelig AI. Det er en annen bruk av slagordet. En noe alternativ bruk er det pålitelig AI er en tilstand av tilstand eller måling, slik at noen kan påstå at de har laget et AI-system som er en forekomst av pålitelig AI. Du kan også bruke uttrykket pålitelig AI å foreslå en metode eller tilnærming som kan brukes for å oppnå AI-pålitelighet. Etc.

På et relatert notat stoler jeg på at du innser at ikke all AI er den samme, og at vi må være oppmerksomme på ikke å komme med generelle uttalelser om all AI. Et bestemt AI-system vil sannsynligvis være vesentlig forskjellig fra et annet AI-system. Ett av disse AI-systemene kan være svært pålitelige, mens det andre kan være marginalt pålitelig. Vær forsiktig når du på en eller annen måte antar at AI er en monolitt som enten er helt pålitelig eller helt upålitelig.

Dette er rett og slett ikke tilfelle.

Jeg vil deretter kort dekke noen av min pågående forskning om pålitelig AI som du kan finne av interesse, og dekke rollen som oppstår AI skytsengel-roboter.

Slik går det.

Du vil være bevæpnet med et AI-system (en AI-vergeengel-bot) som er utviklet for å måle påliteligheten til et annet AI-system. AI skytsengel-boten har som et overordnet fokus på sikkerheten din. Tenk på dette som om du har midler til å overvåke AI-en du er avhengig av ved å ha et annet AI-system i din veritable lomme, kanskje kjører på smarttelefonen eller andre slike enheter. Din velkjente AI-verge kan beregne på et grunnlag som AI-en du er avhengig av også gjør, arbeider i høye hastigheter og beregner situasjonen i sanntid, langt raskere enn et menneske-i-løkka kunne gjøre det.

Du kan ved et første øyekast tenke at AI-en du allerede stoler på burde ha noe intern AI rekkverk som gjør det samme som denne separat beregnende AI skytsengel-bot. Ja, det ville absolutt vært ønsket. En betenkelighet er at AI-rekkverkene som er innebygd i et AI-system kan være integrert og skadelig justert med AI-en i seg selv, og dermed er det antatte AI-rekkverket ikke lenger i stand til å på en måte uavhengig verifisere eller validere AI-en.

Den motstridende ideen er at din AI skytsengel-robot er en uavhengig eller tredjeparts AI-mekanisme som er forskjellig fra AI-en du stoler på. Den sitter utenfor den andre AI-en, forblir viet til deg og ikke viet til AI-en som overvåkes eller vurderes.

En enkel måte å tenke på dette kan uttrykkes via følgende forenklede ligningslignende utsagn. Vi kan si at "P" potensielt ønsker å stole på "R" for å gjøre en bestemt oppgave "X":

Dette vil være følgende når bare personer er involvert:

  • Person P stoler på at person R gjør oppgave X.

Når vi velger å stole på AI, omformes uttalelsen til dette:

  • Person P stoler på AI-instans-R for å utføre oppgave X.

Vi kan legge til AI skytsengel-boten ved å si dette:

  • Person P stoler på AI-forekomst-R for å utføre oppgave X som overvåket av AI-vergeengel-bot-forekomst-Z

AI skytsengel-boten vurderer utrettelig og nådeløst AI-en du stoler på. Som sådan kan den hendige AI-foresatte varsle deg om at tilliten til denne andre AI-en er uberettiget. Eller AI-foresatte kan samhandle elektronisk med den andre AI-en for å prøve å sikre at enhver avvik fra å være pålitelig raskt rettes opp, og så videre (se min dekning om slike detaljer på lenken her).

The Trusty Trust Reservoir Metafor

Siden vi diskuterer ulike nivåer av tillit, kan du finne en nyttig metafor om pålitelighet ved å tenke på tillit som en type reservoar.

Du har en viss grad av tillit til en bestemt person eller ting i en bestemt omstendighet på et bestemt tidspunkt. Nivået på tilliten vil stige eller falle, avhengig av hva annet som skjer relatert til den bestemte personen eller tingen. Tilliten kan være på et nullnivå når du ikke har noen tillit til personen eller tingen. Tilliten kan være negativ når du våger å ha mistillit til den personen eller tingen.

Når det gjelder AI-systemer, vil ditt tillitsreservoar for den bestemte AI-en du stoler på i en bestemt omstendighet stige eller falle, avhengig av at du måler påliteligheten til AI-en. Noen ganger kan du være godt klar over dette varierende nivået av tillit til AI, mens du i andre tilfeller kan være mindre bevisst og mer ved å gi vurderinger om påliteligheten.

Måter vi har diskutert her hvordan vi kan øke tillitsnivåene for AI inkluderer:

  • Overholdelse av AI-etikk. Hvis AI-en du stoler på ble utviklet ved å prøve å følge de riktige AI-etiske forskriftene, ville du antagelig brukt denne forståelsen til å øke nivået på ditt tillitsreservoar for det bestemte AI-systemet. Som en sidenotat er det også mulig at du kan generalisere til andre AI-systemer med hensyn til deres pålitelighet, på samme måte, selv om dette til tider kan være en misvisende form av det jeg kaller AI stoler på at auraen sprer seg (vær forsiktig med å gjøre dette!).
  • Bruk en Human-In-The-Loop. Hvis AI har et menneske-i-løkken, kan du positivt øke din oppfattede tillit til AI.
  • Etablere lover og forskrifter. Hvis det er lover og forskrifter knyttet til denne spesielle typen AI, kan du også øke tillitsnivået ditt.
  • Ansett en AI Guardian Angel Bot. Hvis du har en AI skytsengel-bot klar, vil også dette øke tillitsnivået ditt ytterligere.

Som nevnt tidligere, kan tillit være ganske sprø og falle fra hverandre på et øyeblikk (dvs. at tillitsreservoaret raskt og plutselig dumper ut all den oppbygde tilliten).

Tenk deg at du er inne i en AI-basert selvkjørende bil og AI-kjøringen gjør plutselig en radikal høyresving, noe som får hjulene til å skrike og nesten tvinger det autonome kjøretøyet til en fare for velt. Hva ville skje med ditt tillitsnivå? Det ser ut til at selv om du tidligere holdt AI til et økt tillitsnivå, ville du dramatisk og brått falle tillitsnivået ditt, fornuftig nok.

På dette tidspunktet i denne tungtveiende diskusjonen vil jeg vedde på at du ønsker flere illustrerende eksempler som kan vise arten og omfanget av pålitelig AI. Det er et spesielt og sikkert populært sett med eksempler som ligger meg nært på hjertet. Du skjønner, i min egenskap som ekspert på AI, inkludert de etiske og juridiske konsekvensene, blir jeg ofte bedt om å identifisere realistiske eksempler som viser AI-etikk-dilemmaer, slik at den noe teoretiske karakteren til emnet lettere kan forstås. Et av de mest stemningsfulle områdene som levende presenterer dette etiske AI-kvandalet, er fremkomsten av AI-baserte ekte selvkjørende biler. Dette vil tjene som en praktisk brukssak eller eksempel for rikelig diskusjon om emnet.

Her er et bemerkelsesverdig spørsmål som er verdt å vurdere: Belyser fremkomsten av AI-baserte ekte selvkjørende biler noe om jakten på pålitelig AI, og i så fall, hva viser dette?

Tillat meg et øyeblikk å pakke ut spørsmålet.

Først, merk at det ikke er en menneskelig sjåfør involvert i en ekte selvkjørende bil. Husk at ekte selvkjørende biler kjøres via et AI-kjøresystem. Det er ikke behov for en menneskelig sjåfør ved rattet, og det er heller ikke en bestemmelse om at et menneske kan kjøre kjøretøyet. For min omfattende og pågående dekning av autonome kjøretøy (AV) og spesielt selvkjørende biler, se lenken her.

Jeg vil gjerne forklare hva som menes når jeg refererer til ekte selvkjørende biler.

Forstå nivåene av selvkjørende biler

Som en avklaring er sanne selvkjørende biler de hvor AI kjører bilen helt alene, og det ikke er noen menneskelig assistanse under kjøreoppgaven.

Disse førerløse kjøretøyene regnes som nivå 4 og nivå 5 (se min forklaring på denne lenken her), mens en bil som krever en menneskelig sjåfør for å dele kjøreinnsatsen vanligvis vurderes på nivå 2 eller nivå 3. Bilene som deler kjøreoppgaven beskrives som semi-autonome, og inneholder vanligvis en rekke automatiserte tillegg som omtales som ADAS (Advanced Driver-Assistance Systems).

Det er ennå ikke en ekte selvkjørende bil på nivå 5, og vi vet ennå ikke engang om dette vil være mulig å oppnå, og heller ikke hvor lang tid det vil ta å komme dit.

I mellomtiden prøver nivå 4-innsatsen gradvis å få litt trekkraft ved å gjennomgå veldig smale og selektive offentlige kjørebaneprøver, selv om det er kontrovers om denne testen skal være tillatt i seg selv (vi er alle liv-eller-død marsvin i et eksperiment. som foregår på våre motorveier og motorveier, noen hevder, se dekning min på denne lenken her).

Siden semi-autonome biler krever en menneskelig sjåfør, vil ikke adopsjonen av disse typer biler være markant annerledes enn å kjøre konvensjonelle kjøretøyer, så det er ikke mye nytt per se å dekke om dem om dette emnet (skjønt, som du vil se på et øyeblikk er poengene som blir gjort neste, generelt anvendelige).

For semi-autonome biler er det viktig at publikum må varsles om et urovekkende aspekt som har oppstått i det siste, nemlig at til tross for de menneskelige sjåførene som fortsetter å legge ut videoer av seg som sovner ved rattet på en nivå 2 eller nivå 3-bil , vi alle trenger å unngå å bli villedet til å tro at sjåføren kan fjerne oppmerksomheten fra kjøreoppgaven mens han kjører en semi-autonom bil.

Du er den ansvarlige parten for kjøringen av kjøretøyet, uavhengig av hvor mye automatisering som kan kastes i et nivå 2 eller nivå 3.

Selvkjørende biler og pålitelig AI

For sanne selvkjørende kjøretøyer på nivå 4 og nivå 5 vil det ikke være en menneskelig sjåfør involvert i kjøreoppgaven.

Alle beboere vil være passasjerer.

AI driver kjøringen.

Et aspekt å umiddelbart diskutere innebærer det faktum at AI involvert i dagens AI-kjøresystemer ikke er viktig. Med andre ord, AI er helt en samling av databasert programmering og algoritmer, og absolutt ikke i stand til å resonnere på samme måte som mennesker kan.

Hvorfor er denne ekstra vekt om at AI ikke er følsom?

Fordi jeg vil understreke at når jeg diskuterer AI-kjøresystemets rolle, tilskriver jeg ikke menneskelige kvaliteter til AI. Vær oppmerksom på at det i disse dager er en pågående og farlig tendens til å antropomorfisere AI. I hovedsak tildeler folk menneskelig følsomhet til dagens AI, til tross for det ubestridelige og ubestridelige faktum at ingen slik AI eksisterer ennå.

Med den avklaringen kan du se for deg at AI-kjøresystemet ikke på en eller annen måte "vet" om fasettene ved kjøring. Kjøring og alt det innebærer må programmeres som en del av maskinvaren og programvaren til den selvkjørende bilen.

La oss dykke ned i de mange aspektene som kommer til å spille om dette emnet.

For det første er det viktig å innse at ikke alle AI selvkjørende biler er like. Hver bilprodusent og selvkjørende teknologifirma tar sin tilnærming til å utvikle selvkjørende biler. Som sådan er det vanskelig å komme med omfattende utsagn om hva AI-kjøresystemer vil gjøre eller ikke.

Når du sier at et AI -kjøresystem ikke gjør noen spesielle ting, kan dette senere bli forbikjørt av utviklere som faktisk programmerer datamaskinen til å gjøre akkurat det. Steg for steg blir AI -kjøresystemer gradvis forbedret og utvidet. En eksisterende begrensning i dag eksisterer kanskje ikke lenger i en fremtidig iterasjon eller versjon av systemet.

Jeg stoler på at det gir en tilstrekkelig mengde forbehold for å ligge til grunn for det jeg skal forholde meg til.

Vi er klar til å gjøre et dypdykk i selvkjørende biler og pålitelig AI.

Tillit er alt, spesielt når det gjelder AI-baserte selvkjørende biler.

Samfunnet ser ut til å være forsiktig med å se fremveksten av selvkjørende biler. På den ene siden er det et stort håp om at fremkomsten av ekte selvkjørende biler beviselig vil redusere antallet årlige bilrelaterte dødsulykker. Bare i USA er det rundt 40,000 2.5 årlige dødsfall og rundt XNUMX millioner skader på grunn av bilulykker, se statistikksamlingen min på lenken her. Mennesker drikker og kjører. Mennesker kjører mens de er distrahert. Oppgaven med å kjøre bil ser ut til å bestå i å gjentagende og feilfritt kunne fokusere på kjøringen og unngå å havne i bilulykker. Som sådan kan vi drømmende håpe at AI-kjøresystemer vil guide selvkjørende biler repeterende og feilfritt. Du kan tolke selvkjørende biler som en tobil, som består av å redusere antallet dødsfall og skader i bilulykker, sammen med potensielt å gjøre mobilitet tilgjengelig på et mye bredere og tilgjengelig grunnlag.

Men bekymringen vokser i mellomtiden over samfunnsoppfatninger om hvorvidt selvkjørende biler kommer til å være trygge nok til å være på våre offentlige veier for øvrig.

Hvis til og med én selvkjørende bil havner i en kollisjon eller kollisjon som fører til et enkelt dødsfall eller alvorlig skade, kan du sannsynligvis forutse at dagens noe oppbygde tillit til disse AI-baserte førerløse bilene kommer til å synke bratt. Vi så dette skje da den nå beryktede hendelsen skjedde i Arizona som involverte en noe (egentlig ikke) selvkjørende bil som kjørte inn i og drepte en fotgjenger (se min dekning på denne lenken her).

Noen forståsegpåere påpeker at det er urettferdig og upassende å basere tilliten til AI-selvkjørende biler på den fasetten at bare én slik neste dødsproduserende krasj eller kollisjon kan undergrave de allerede relativt kollisjonsfrie prøvene på offentlige veier. I tillegg, på et ytterligere urettferdig grunnlag, er oddsen at uansett hvilket AI selvkjørende bilmerke eller hvilken modell som kanskje blir involvert i en sørgelig hendelse, vil samfunnet utvilsomt skylde på alle selvkjørende bilmerker.

Hele selvkjørende biler kan bli tilsmusset og industrien som helhet kan lide et stort tilbakeslag som kan føre til en mulig nedleggelse av alle offentlige veiprøver.

En bidragsyter til et slikt tilbakeslag finner vi i de useriøse forkynnelsene fra frittalende selvkjørende bil-tilhengere om at alle førerløse biler vil være uncrashable. Denne ideen om å være uncrashable er ikke bare direkte feil (se lenken her), setter den på en snikende måte opp den selvkjørende bilindustrien for et helt utestående sett med forventninger. Disse merkelige og uoppnåelige uttalelsene om at det vil være null dødsfall på grunn av selvkjørende biler gir næring til misforståelsen om at enhver førerløse bilulykke er et sikkert tegn på at hele settet og kaboodlen er for intet.

Det er en tydelig tristhet å innse at fremskrittet mot selvkjørende biler og akkumulering av samfunnstillit kan forsvinne på et øyeblikk. Det kommer til å bli et utstillingsvindu om tillitens sprøhet.

konklusjonen

Mange bilprodusenter og selvkjørende teknologifirmaer følger generelt AI-etikkprinsippene, og gjør det for å prøve å bygge og bruke pålitelig AI når det gjelder trygge og pålitelige AI-baserte selvkjørende biler. Vær oppmerksom på at noen av disse firmaene er sterkere og mer dedikert til de etiske AI-reglene enn andre. Det er også sporadiske frynse- eller nybegynnere selvkjørende bilrelaterte oppstarter som ser ut til å kaste bort mye av AI Ethics hjørnesteiner (se min anmeldelse på lenken her).

På andre fronter har nye lover og forskrifter som dekker selvkjørende biler gradvis fått plass i de juridiske bøkene. Om de har de nødvendige tennene for å støtte dem er en annen sak, likeså om håndhevelsen av disse lovene blir tatt på alvor eller oversett (se mine spalter for analyser om dette).

Det er også den høyteknologiske vinklingen til dette også. Jeg har spådd at vi gradvis vil se varianter av AI skytsengel-roboter som vil komme til syne på arenaen for autonome kjøretøy og selvkjørende biler. Vi er ikke der ennå. Dette vil bli mer utbredt når populariteten til selvkjørende biler blir mer utbredt.

Dette siste punktet tar opp en kjent linje om tillit som du utvilsomt allerede kan utenat.

Stol på, men verifiser.

Vi kan tillate oss selv å utvide tilliten vår, kanskje sjenerøst. I mellomtiden bør vi også se på som en hauk for å sikre at tilliten vi skaper bekreftes av både ord og handlinger. La oss stole litt på AI, men verifisere i det uendelige at vi setter vår tillit på riktig måte og med vidåpne øyne.

Du kan stole på meg på det.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/