AI-etikk skeptisk til å etablere såkalte Red Flag AI-lover for å kalle ut partiske algoritmer i autonome AI-systemer

La oss snakke om Red Flag Laws.

Du vet utvilsomt at forestillingen om Red Flag Laws har blitt mye dekket i nyhetene i det siste. Overskrifter som dekker emnet er rikelig. Lidenskaper og lidenskapelige debatter om slike saker er på toppen av sinnet som et samfunnsmessig anliggende og innebærer dagens og raskt voksende Red Flag Gun Laws.

Jeg vil imidlertid tørre å si at du kanskje ikke er kjent med andre Red Flag-lover som ble vedtatt på slutten av 1800-tallet knyttet til motoriserte kjøretøy og forløperne til dagens dagligdagse moderne biler. Ja, det stemmer, Red Flag Laws går tilbake i historien, men dekker andre emner i forhold til dagens fokus. Disse er vanligvis referert til som rødt flagg trafikklover.

Disse nå hundre år gamle og totalt nedlagte lovene krevde at enhver motorisert vogn eller motor drevet av damp på den tiden skulle ha en voksen foran kjøretøyet og bære et rødt flagg for advarselsformål. Tanken var at husdyr kunne bli skremt av de støyende og grufulle innretningene som løp sakte og ujevnt nedover grusveier eller marginalt asfalterte veier, og dermed kunne ha noen gå foran anlegget mens vi kraftig viftet med et rødt flagg, forhåpentligvis kunne unngå at katastrofer oppstår. I tilfelle du lurte, ble jernbaner og tog ansett som ekskludert fra de samme lovene da de var kjøretøyer som var integrert bundet til skinner og hadde andre lover som dekker handlingene deres.

Tenk deg å måtte vifte med røde flagg i dag som et krav for hver bil på våre offentlige veier.

For eksempel, en vanlig bilist som kommer ned gaten i nabolaget ditt, må sørge for at en voksen som viftet med et rødt flagg var tilstede og paraderte foran den bevegelige bilen. Dette må skje for hvert eneste kjøretøy som passerer nedover gaten din. Kanskje folk ville bli jobber med rødt flagg som leide ut til forbipasserende bilførere som ellers ikke hadde en venn eller slektning som kunne gå foran dem og gjøre den foreskrevne vinkehandlingen.

Vi i dag har en tendens til å assosiere veirelatert rødt flagg med veibygging. Når du nærmer deg en oppgravd vei, vil arbeidere holde et rødt flagg høyt for å fange oppmerksomheten din. Dette forteller deg å bremse ned og være på vakt. Det kan være en bulldoser som kommer til å gå inn på banen din. Et gigantisk hull kan være foran, og du må gå forsiktig rundt det.

Men la oss komme tilbake til 1800-tallets bruk av røde flagg.

Tro det eller ei, den røde flagg-viften skulle være minst en åttendedel av en mil i forkant av den kommende motoriserte maskinen. Det virker som en ganske lang avstand. Man antar imidlertid at dette ga rikelig mening i de dager. De oppsiktsvekkende lydene fra motoren og kanskje bare synet av kjøretøyet kan være nok til å få dyrene nervøse. Noen av lovene om det røde flagget fra den epoken krevde også at et skinnende rødt lys ble holdt oppe om natten, slik at en visuelt tilsynelatende rød advarsel kunne sees på mørk avstand.

Generelt synes jeg det er rettferdig å påstå at vi som samfunn har en tendens til å assosiere et rødt flagg som et slags signal eller skilt om at noe potensielt er galt eller i det minste trenger vår hengivne oppmerksomhet.

Gjør deg klar for en liten vri på dette røde flagg-fenomenet.

Det er en påstand om at vi bør kreve red-flagg-bestemmelser når det gjelder kunstig intelligens (AI).

Det er litt oppsiktsvekkende og et overraskende konsept som får mange hoder til å klø. Du kan bli forvirret over hvordan eller hvorfor det burde være såkalte Red Flag AI-lover. Vær oppmerksom på at jeg merker dette som Red Flag AI-lover for å skille saken fra Red Flag Traffic Laws (som de på slutten av 1800-tallet) og også for å skille dem fra dagens andre mer utbredte Red Flag-våpenlover.

Trenger vi faktisk Red Flag AI-lover som er tydelig og utelukkende orientert mot AI-spørsmål?

De som favoriserer den foreslåtte tilnærmingen vil insistere på at vi absolutt trenger lovbestemmelser som vil hjelpe til med å slå ned på AI som inneholder unødige skjevheter og opptrer på diskriminerende måter. Akkurat nå er byggingen og utplasseringen av AI beslektet med et ville vesten alt som går. Arbeidet med å begrense dårlig AI er for tiden avhengig av utformingen og vedtakelsen av AI-etiske retningslinjer. For min pågående og omfattende dekning av AI-etikk og etisk AI, se lenken her og lenken her, bare for å nevne noen få.

Lover som bokser inn dårlig AI blir sakte utviklet og vedtatt, se min dekning på lenken her. Noen bekymrer seg for at lovgivere ikke går raskt nok. Det virker som om slusene for å tillate forutinntatt AI å bli fremmet i verden er stort sett vidåpne akkurat nå. Hand-wringing sier at når nye lover kommer inn i bøkene, vil den onde ånden allerede være ute av flasken.

Ikke så fort, går motargumentene. Bekymringene er at hvis lover settes for raskt på plass, vil vi så å si drepe gullgåsen, hvorved AI-innsatsen vil tørke ut og vi ikke får de samfunnsforsterkende fordelene med nye AI-systemer. AI-utviklere og firmaer som ønsker å bruke AI kan bli skremt hvis en bysantinsk rekke nye lover som styrer AI plutselig blir på plass på føderalt, statlig og lokalt nivå, for ikke å nevne de internasjonale AI-relaterte lovene som også marsjerer fremover.

Inn i denne rotete affæren kommer oppfordringen til Red Flag AI Laws.

Før vi går inn på litt mer kjøtt og poteter om de ville og ullaktige betraktningene som ligger til grunn for den tenkte Red Flag AI-loven, la oss etablere noen ekstra grunnleggende om dypt essensielle emner. Vi trenger et kort dykk i AI-etikk og spesielt bruken av Machine Learning (ML) og Deep Learning (DL).

Du er kanskje vagt klar over at en av de høyeste stemmene i disse dager i AI-feltet og til og med utenfor AI-feltet består av å rope etter et større utseende av etisk AI. La oss ta en titt på hva det betyr å referere til AI-etikk og etisk AI. På toppen av det vil vi utforske hva jeg mener når jeg snakker om maskinlæring og dyplæring.

Et bestemt segment eller del av AI-etikken som har fått mye oppmerksomhet i media, består av AI som viser uheldige skjevheter og ulikheter. Du er kanskje klar over at da den siste æraen med kunstig intelligens kom i gang var det et stort utbrudd av entusiasme for det noen nå kaller AI For Good. Dessverre begynte vi å være vitne til etter den fossende spenningen AI for Bad. For eksempel har forskjellige AI-baserte ansiktsgjenkjenningssystemer blitt avslørt å inneholde rasemessige skjevheter og kjønnsskjevheter, som jeg har diskutert på lenken her.

Anstrengelser for å kjempe tilbake mot AI for Bad er aktivt i gang. Dessuten høyrøstet lovlig jakten på å tøyle urettferdighetene, er det også et betydelig løft mot å omfavne AI-etikk for å rette opp AI-eiendommen. Tanken er at vi bør ta i bruk og støtte viktige etiske AI-prinsipper for utvikling og felt av AI for å undergrave AI for Bad og samtidig varsle og fremme det som er å foretrekke AI For Good.

På en beslektet oppfatning er jeg en talsmann for å prøve å bruke AI som en del av løsningen på AI-problemer, og bekjempe ild med ild på den måten å tenke på. Vi kan for eksempel bygge inn etiske AI-komponenter i et AI-system som vil overvåke hvordan resten av AI gjør ting og dermed potensielt fange opp i sanntid enhver diskriminerende innsats, se diskusjonen min på lenken her. Vi kan også ha et eget AI-system som fungerer som en type AI Ethics-monitor. AI-systemet fungerer som en tilsynsmann for å spore og oppdage når en annen AI går inn i den uetiske avgrunnen (se min analyse av slike evner på lenken her).

Om et øyeblikk vil jeg dele med deg noen overordnede prinsipper som ligger til grunn for AI-etikk. Det er mange slike lister som flyter rundt her og der. Du kan si at det ennå ikke er en enestående liste over universell appell og samtidighet. Det er den uheldige nyheten. Den gode nyheten er at det i det minste er lett tilgjengelige AI Ethics-lister, og de pleier å være ganske like. Alt i alt tyder dette på at vi ved en form for begrunnet konvergens finner veien mot en generell fellestrekk av hva AI-etikk består av.

Først, la oss kort dekke noen av de generelle etiske AI-reglene for å illustrere hva som bør være en viktig vurdering for alle som lager, driver med eller bruker AI.

For eksempel, som uttalt av Vatikanet i Roma oppfordrer til AI-etikk og som jeg har dekket i dybden på lenken her, dette er deres identifiserte seks primære AI-etiske prinsipper:

  • Åpenhet: I prinsippet må AI-systemer kunne forklares
  • Inkludering: Alle menneskers behov må tas i betraktning slik at alle kan komme til nytte, og alle kan tilbys best mulige forutsetninger for å uttrykke seg og utvikle seg.
  • Ansvar: De som designer og distribuerer bruken av AI må fortsette med ansvar og åpenhet
  • Opartiskhet: Ikke skap eller handle i henhold til partiskhet, og dermed ivareta rettferdighet og menneskeverd
  • Pålitelighet: AI-systemer må kunne fungere pålitelig
  • Sikkerhet og personvern: AI-systemer må fungere sikkert og respektere brukernes personvern.

Som uttalt av det amerikanske forsvarsdepartementet (DoD) i deres Etiske prinsipper for bruk av kunstig intelligens og som jeg har dekket i dybden på lenken her, dette er deres seks primære AI-etiske prinsipper:

  • Ansvarlig: DoD-personell vil utøve passende nivåer av dømmekraft og omsorg mens de fortsatt er ansvarlige for utvikling, distribusjon og bruk av AI-evner.
  • Rettferdig: Avdelingen vil ta bevisste skritt for å minimere utilsiktet skjevhet i AI-evner.
  • Sporbar: Avdelingens AI-evner vil bli utviklet og distribuert slik at relevant personell har en passende forståelse av teknologien, utviklingsprosessene og operasjonelle metoder som gjelder for AI-evner, inkludert transparente og reviderbare metoder, datakilder og designprosedyre og dokumentasjon.
  • Pålitelig: Avdelingens AI-evner vil ha eksplisitte, veldefinerte bruksområder, og sikkerheten, sikkerheten og effektiviteten til slike evner vil være gjenstand for testing og forsikring innenfor de definerte bruksområdene gjennom hele livssyklusen.
  • Styres: Avdelingen vil designe og konstruere AI-evner for å oppfylle deres tiltenkte funksjoner samtidig som den har evnen til å oppdage og unngå utilsiktede konsekvenser, og evnen til å koble ut eller deaktivere utplasserte systemer som viser utilsiktet oppførsel.

Jeg har også diskutert ulike kollektive analyser av AI-etiske prinsipper, inkludert å ha dekket et sett utviklet av forskere som undersøkte og kondenserte essensen av en rekke nasjonale og internasjonale AI-etiske prinsipper i en artikkel med tittelen "The Global Landscape Of AI Ethics Guidelines" (publisert i Natur), og at dekningen min utforsker kl lenken her, som førte til denne keystone-listen:

  • Åpenhet
  • Rettferdighet og rettferdighet
  • Ikke-ondsinnethet
  • Ansvar
  • Privatliv
  • godgjør
  • Frihet og autonomi
  • Stol
  • Bærekraft
  • Verdighet
  • Solidaritet

Som du direkte kan gjette, kan det være ekstremt vanskelig å prøve å finne de spesifikke underliggende prinsippene. Enda mer så er innsatsen for å gjøre disse brede prinsippene til noe helt håndfast og detaljert nok til å brukes når man lager AI-systemer, også en tøff nøtt å knekke. Det er lett generelt å vinke litt med hånden om hva AI-etiske forskrifter er og hvordan de generelt skal overholdes, mens det er en mye mer komplisert situasjon i AI-kodingen som må være den veritable gummien som møter veien.

AI-etikkprinsippene skal brukes av AI-utviklere, sammen med de som styrer AI-utviklingsinnsatsen, og til og med de som til slutt arbeider med og utfører vedlikehold på AI-systemer. Alle interessenter gjennom hele livssyklusen for utvikling og bruk av kunstig intelligens anses innenfor rammen av å overholde de etablerte normene for etisk kunstig intelligens. Dette er et viktig høydepunkt siden den vanlige antagelsen er at "bare kodere" eller de som programmerer AI-en er underlagt AI-etikkens forestillinger. Som tidligere nevnt, kreves det en landsby for å utforme og sette opp AI, og som hele landsbyen må være kjent med og etterleve AI-etiske forskrifter.

La oss også sørge for at vi er på samme side om naturen til dagens AI.

Det er ingen AI i dag som er sansende. Vi har ikke dette. Vi vet ikke om sentient AI vil være mulig. Ingen kan med rette forutsi om vi vil oppnå sansende AI, og heller ikke om sansende AI på en eller annen måte mirakuløst spontant vil oppstå i en form for beregningsmessig kognitiv supernova (vanligvis referert til som singulariteten, se min dekning på lenken her).

Den typen AI som jeg fokuserer på består av den ikke-sansende AI som vi har i dag. Hvis vi ville spekulere vilt om selvbevisst AI, denne diskusjonen kan gå i en radikalt annen retning. En sansende AI ville visstnok være av menneskelig kvalitet. Du må vurdere at den sansende AI er den kognitive ekvivalenten til et menneske. Mer så, siden noen spekulerer i at vi kan ha superintelligent AI, er det tenkelig at slik AI kan ende opp med å bli smartere enn mennesker (for min utforskning av superintelligent AI som en mulighet, se dekningen her).

La oss holde ting mer jordnære og vurdere dagens beregningsbaserte ikke-følende AI.

Innse at dagens AI ikke er i stand til å "tenke" på noen måte på linje med menneskelig tenkning. Når du samhandler med Alexa eller Siri, kan samtalekapasiteten virke som menneskelig kapasitet, men realiteten er at den er beregningsmessig og mangler menneskelig erkjennelse. Den siste æraen av AI har gjort omfattende bruk av Machine Learning (ML) og Deep Learning (DL), som utnytter beregningsmønstermatching. Dette har ført til AI-systemer som ser ut som menneskelignende tilbøyeligheter. I mellomtiden er det ingen kunstig intelligens i dag som har et skinn av sunn fornuft, og heller ikke noe av den kognitive undringen til robust menneskelig tenkning.

ML/DL er en form for beregningsmønstermatching. Den vanlige tilnærmingen er at du samler data om en beslutningsoppgave. Du mater dataene inn i ML/DL-datamodellene. Disse modellene søker å finne matematiske mønstre. Etter å ha funnet slike mønstre, hvis det er funnet, vil AI-systemet bruke disse mønstrene når de møter nye data. Ved presentasjon av nye data brukes mønstrene basert på de "gamle" eller historiske dataene for å gi en gjeldende beslutning.

Jeg tror du kan gjette hvor dette er på vei. Hvis mennesker som har tatt de mønstrede avgjørelsene har inkorporert uheldige skjevheter, er sjansen stor for at dataene reflekterer dette på subtile, men betydelige måter. Maskinlæring eller Deep Learning beregningsmønstermatching vil ganske enkelt prøve å matematisk etterligne dataene tilsvarende. Det er ingen antydning av sunn fornuft eller andre sansende aspekter ved AI-laget modellering i seg selv.

Dessuten er det kanskje ikke sikkert at AI-utviklerne skjønner hva som skjer. Den mystiske matematikken i ML/DL kan gjøre det vanskelig å fjerne de nå skjulte skjevhetene. Du vil med rette håpe og forvente at AI-utviklerne vil teste for potensielt begravde skjevheter, selv om dette er vanskeligere enn det kan virke. Det er en solid sjanse for at selv med relativt omfattende testing vil det fortsatt være skjevheter innebygd i mønstertilpasningsmodellene til ML/DL.

Du kan litt bruke det berømte eller beryktede ordtaket om søppel-inn søppel-ut. Saken er at dette er mer beslektet med skjevheter-in som snikende blir tilført som skjevheter nedsenket i AI. Algoritmen beslutningstaking (ADM) til AI blir aksiomatisk full av ulikheter.

Ikke bra.

La oss gå tilbake til vårt fokus på Red Flag AI-lover.

Det underliggende konseptet er at folk vil kunne heve et rødt flagg hver gang de trodde at et AI-system opererte på en unødig partisk eller diskriminerende måte. Du ville ikke heise et fysisk flagg i seg selv, og i stedet ville du bare bruke noen elektroniske midler for å gjøre dine bekymringer kjent. Den røde flaggdelen av opplegget eller tilnærmingen er mer en metafor enn en fysisk legemliggjøring.

Lat som om du søkte om boliglån. Du velger å bruke en nettbanktjeneste for å søke om lån. Etter å ha lagt inn noen personlige data, venter du et øyeblikk på AI-systemet som brukes for å avgjøre om du er låneverdig eller ikke. AI forteller deg at du har fått avslag på lånet. Etter å ha bedt om en forklaring på hvorfor du ble avvist, ser tekstfortellingen ut til å antyde for deg at AI-en brukte unødig partiske faktorer som en del av beslutningsalgoritmen.

På tide å heise et rødt flagg om AI.

Hvor skal dette røde flagget vaie?

Det er et millionspørsmål.

Et synspunkt er at vi bør sette opp en landsdekkende database som vil tillate folk å merke sine AI-relevante røde flagg. Noen sier at dette bør reguleres av den føderale regjeringen. Føderale byråer ville være ansvarlige for å undersøke de røde flaggene og komme til unnsetning for allmennheten med hensyn til sannheten og håndtere antagelig "dårlig AI" som skapte det røde flaggets rapportering.

En nasjonal Red Flag AI-lov ville tilsynelatende bli etablert av Kongressen. Loven vil presisere hva et AI-relevant rødt flagg er. Loven vil beskrive hvordan disse røde flaggene for kunstig intelligens heves. Og så videre. Det kan også være tilfelle at individuelle stater også kan velge å lage sine egne Red Flag AI-lover. Kanskje gjør de det i stedet for et nasjonalt initiativ, eller de gjør det for å forsterke detaljer som er spesielt appellerende til deres spesifikke stat.

Kritikere av et føderalt eller statlig støttet Red Flag AI-program vil hevde at dette er noe som privat industri kan gjøre, og vi trenger ikke Big Brother for å komme i forgrunnen. Bransjen kan etablere et online depot der folk kan registrere røde flagg om AI-systemer. En selvpolitistiltak fra industrien vil i tilstrekkelig grad håndtere disse problemene.

En betenkelighet med den påståtte bransjetilnærmingen er at den ser ut til å smake av vennskap. Ville firmaer være villige til å følge en privatdrevet Red Flag AI-database? Mange firmaer vil potensielt ignorere de markerte røde flaggene om deres AI. Det ville ikke være skarpe tenner for å få selskaper til å håndtere de angitte røde flaggene.

Hei, tilhengerne av den private sektors tilnærming høres ut, dette vil være beslektet med nasjonal Yelp-lignende tjeneste. Forbrukere kan se på de røde flaggene og bestemme selv om de vil gjøre forretninger med selskaper som har fått en rekke AI-orienterte røde flagg. En bank som fikk tonnevis av røde flagg om AI deres, måtte være oppmerksom og fornye AI-systemene sine, så logikken er, ellers ville forbrukerne unngå firmaet som pesten.

Om hele denne tilnærmingen er utført av myndighetene eller av industrien er bare toppen av isfjellet på vanskelige spørsmål som det foreslåtte Red Flag AI-lovens postulat står overfor.

Sett deg inn i skoene til et firma som har utviklet eller bruker kunstig intelligens. Det kan være at forbrukere ville heve røde flagg selv om det ikke var holdbart grunnlag for å gjøre det. Hvis folk fritt kunne legge ut et rødt flagg om AI, kan de bli fristet til å gjøre det på et innfall, eller kanskje for hevn mot et firma som ellers ikke gjorde noe galt mot forbrukeren.

Kort sagt, det kan være mange falske positive røde flagg om AI.

En annen vurdering er den enorme størrelsen eller størrelsen på de resulterende røde flaggene. Det kan lett heves millioner på millioner av røde flagg. Hvem skal følge opp alle de røde flaggene? Hva ville det koste å gjøre det? Hvem skal betale for oppfølgingsarbeidet med rødt flagg? Etc.

Hvis du skulle si at alle som registrerer eller rapporterer et rødt flagg om AI må betale et gebyr, har du gått inn i et skummelt og lumsk rike. Bekymringen ville være at bare de velstående ville ha råd til å heise røde flagg. Dette innebærer igjen at de fattige ikke vil være i stand til å delta på samme måte i aktivitetene med rødt flagg og i hovedsak ikke ha noe sted for å advare om uønsket kunstig intelligens.

Bare en ekstra vri for nå, nemlig at denne typen røde flagg-lover eller retningslinjer om AI ser ut til å være etterpå i stedet for å tjene som en advarsel på forhånd.

For å gå tilbake til trafikklovene for rødt flagg, var vektleggingen av å bruke et rødt flagg for å unngå en ulykke til å begynne med. Det røde flagget var ment å være langt foran den kommende bilen. Ved å være foran kjøretøyet, ville husdyrene bli varslet og de som voktet husdyrene ville vite at de burde ta forholdsregler på grunn av den snart ankommende forstyrrende kilden.

Hvis folk bare er i stand til å heve et rødt flagg om AI som tilsynelatende allerede har skadet eller undergravd rettighetene deres, er den velkjente hesten allerede ute av låven. Alt dette ser ut til å oppnå er at forhåpentligvis andre mennesker som kommer sammen nå vet å være på vakt mot det AI-systemet. I mellomtiden har personen som angivelig er forurettet allerede lidd.

Noen foreslår at vi kanskje kunne la folk heve røde flagg om AI som de mistenkt kan være partiske, selv om de ikke har brukt AI og ikke ble direkte påvirket av AI. Dermed blir det røde flagget viftet før skaden er gjort.

Jepp, sier replikken, du kommer virkelig til å gjøre de røde flaggene som håndterer AI til en fullstendig uhåndterlig og kaotisk affære. Hvis noen av en eller annen grunn kan heve et rødt flagg om et AI-system, til tross for at de ikke har gjort noe med den AI-en, vil du bli oversvømmet med røde flagg. Enda verre, du vil ikke kunne skille hveten fra agnene. Hele tilnærmingen med det røde flagget vil kollapse under sin egen vekt, og ta ned ideens godhet ved å la flytegods og rifraff senke hele skipet.

Svimlende og forvirrende.

På dette tidspunktet i denne tungtveiende diskusjonen vil jeg vedde på at du ønsker noen illustrative eksempler som kan vise frem dette emnet. Det er et spesielt og sikkert populært sett med eksempler som ligger meg nært på hjertet. Du skjønner, i min egenskap som ekspert på AI, inkludert de etiske og juridiske konsekvensene, blir jeg ofte bedt om å identifisere realistiske eksempler som viser AI-etikk-dilemmaer, slik at emnets noe teoretiske natur lettere kan forstås. Et av de mest stemningsfulle områdene som på en levende måte presenterer dette etiske AI-kvandalet, er fremkomsten av AI-baserte ekte selvkjørende biler. Dette vil tjene som en praktisk brukssak eller eksempel for rikelig diskusjon om emnet.

Her er et bemerkelsesverdig spørsmål som er verdt å vurdere: Belyser fremkomsten av AI-baserte ekte selvkjørende biler noe om Red Flag AI Laws, og i så fall, hva viser dette?

Tillat meg et øyeblikk å pakke ut spørsmålet.

Først, merk at det ikke er en menneskelig sjåfør involvert i en ekte selvkjørende bil. Husk at ekte selvkjørende biler kjøres via et AI-kjøresystem. Det er ikke behov for en menneskelig sjåfør ved rattet, og det er heller ikke en bestemmelse om at et menneske kan kjøre kjøretøyet. For min omfattende og pågående dekning av autonome kjøretøy (AV) og spesielt selvkjørende biler, se lenken her.

Jeg vil gjerne forklare hva som menes når jeg refererer til ekte selvkjørende biler.

Forstå nivåene av selvkjørende biler

Som en avklaring er sanne selvkjørende biler de hvor AI kjører bilen helt alene, og det ikke er noen menneskelig assistanse under kjøreoppgaven.

Disse førerløse kjøretøyene regnes som nivå 4 og nivå 5 (se min forklaring på denne lenken her), mens en bil som krever en menneskelig sjåfør for å dele kjøreinnsatsen vanligvis vurderes på nivå 2 eller nivå 3. Bilene som deler kjøreoppgaven beskrives som semi-autonome, og inneholder vanligvis en rekke automatiserte tillegg som omtales som ADAS (Advanced Driver-Assistance Systems).

Det er ennå ikke en ekte selvkjørende bil på nivå 5, og vi vet ennå ikke engang om dette vil være mulig å oppnå, og heller ikke hvor lang tid det vil ta å komme dit.

I mellomtiden prøver nivå 4-innsatsen gradvis å få litt trekkraft ved å gjennomgå veldig smale og selektive offentlige kjørebaneprøver, selv om det er kontrovers om denne testen skal være tillatt i seg selv (vi er alle liv-eller-død marsvin i et eksperiment. som foregår på våre motorveier og motorveier, noen hevder, se dekning min på denne lenken her).

Siden semi-autonome biler krever en menneskelig sjåfør, vil ikke adopsjonen av disse typer biler være markant annerledes enn å kjøre konvensjonelle kjøretøyer, så det er ikke mye nytt per se å dekke om dem om dette emnet (skjønt, som du vil se på et øyeblikk er poengene som blir gjort neste, generelt anvendelige).

For semi-autonome biler er det viktig at publikum må varsles om et urovekkende aspekt som har oppstått i det siste, nemlig at til tross for de menneskelige sjåførene som fortsetter å legge ut videoer av seg som sovner ved rattet på en nivå 2 eller nivå 3-bil , vi alle trenger å unngå å bli villedet til å tro at sjåføren kan fjerne oppmerksomheten fra kjøreoppgaven mens han kjører en semi-autonom bil.

Du er den ansvarlige parten for kjøringen av kjøretøyet, uavhengig av hvor mye automatisering som kan kastes i et nivå 2 eller nivå 3.

Selvkjørende biler og AI-lover med rødt flagg

For sanne selvkjørende kjøretøyer på nivå 4 og nivå 5 vil det ikke være en menneskelig sjåfør involvert i kjøreoppgaven.

Alle beboere vil være passasjerer.

AI driver kjøringen.

Et aspekt å umiddelbart diskutere innebærer det faktum at AI involvert i dagens AI-kjøresystemer ikke er viktig. Med andre ord, AI er helt en samling av databasert programmering og algoritmer, og absolutt ikke i stand til å resonnere på samme måte som mennesker kan.

Hvorfor er denne ekstra vekt om at AI ikke er følsom?

Fordi jeg vil understreke at når jeg diskuterer AI-kjøresystemets rolle, tilskriver jeg ikke menneskelige kvaliteter til AI. Vær oppmerksom på at det i disse dager er en pågående og farlig tendens til å antropomorfisere AI. I hovedsak tildeler folk menneskelig følsomhet til dagens AI, til tross for det ubestridelige og ubestridelige faktum at ingen slik AI eksisterer ennå.

Med den avklaringen kan du se for deg at AI-kjøresystemet ikke på en eller annen måte "vet" om fasettene ved kjøring. Kjøring og alt det innebærer må programmeres som en del av maskinvaren og programvaren til den selvkjørende bilen.

La oss dykke ned i de mange aspektene som kommer til å spille om dette emnet.

For det første er det viktig å innse at ikke alle AI selvkjørende biler er like. Hver bilprodusent og selvkjørende teknologifirma tar sin tilnærming til å utvikle selvkjørende biler. Som sådan er det vanskelig å komme med omfattende utsagn om hva AI-kjøresystemer vil gjøre eller ikke.

Når du sier at et AI -kjøresystem ikke gjør noen spesielle ting, kan dette senere bli forbikjørt av utviklere som faktisk programmerer datamaskinen til å gjøre akkurat det. Steg for steg blir AI -kjøresystemer gradvis forbedret og utvidet. En eksisterende begrensning i dag eksisterer kanskje ikke lenger i en fremtidig iterasjon eller versjon av systemet.

Jeg håper det gir en tilstrekkelig litani av forbehold til å ligge til grunn for det jeg skal fortelle.

La oss skissere et scenario som kan utnytte en Red Flag AI-lov.

Du setter deg inn i en AI-basert selvkjørende bil og ønsker å få det autonome kjøretøyet til å kjøre deg til din lokale matbutikk. I løpet av den relativt korte reisen tar AI en rute som du synes er noe feil. I stedet for å gå den mest direkte veien, navigerer AI til bortgjemte gater som fører til at kjøretiden blir lengre enn den normalt kan være.

Hva er det som skjer?

Forutsatt at du betaler for bruken av den selvkjørende bilen, kan du være mistenksom at AI-en ble programmert til å kjøre en lengre rute for å prøve å øke prisen eller kostnadene for turen. Alle som noen gang har tatt et konvensjonelt menneskedrevet førerhus vet om lureri som kan finne sted for å få mer deig på måleren. Selvfølgelig, med folk som har GPS på smarttelefonen mens de kjører i en drosje eller tilsvarende, kan du lett fange en menneskelig sjåfør som ser ut til å ta unødvendig lange ruter lurt.

Det viser seg at du har en annen bekymring for veivalget, noe som virkelig gnager i deg.

Anta at rutingen ble gjort for å unngå visse deler av byen på grunn av rasemessige aspekter. Det er dokumenterte tilfeller av menneskelige sjåfører som har blitt tatt for å gjøre den slags valg, se diskusjonen min på lenken her. Kanskje AI har blitt programmert negativt.

Du bestemmer deg for å heve et rødt flagg.

La oss anta for diskusjonens skyld at det er vedtatt en Red Flag AI-lov som dekker din jurisdiksjon. Det kan være lokal lov, statlig lov, føderal eller internasjonal lov. For en analyse som jeg var medforfatter av Harvards Autonomous Vehicle Policy Initiative (AVPI) om den økende betydningen av lokalt lederskap når lokalsamfunn tar i bruk bruk av selvkjørende biler, se lenken her.

Så du går online til en Red Flag AI-database. I hendelsesdatabasen legger du inn informasjonen om den selvkjørende bilturen. Dette inkluderer dato og klokkeslett for kjøreturen, sammen med merke og modell for den selvkjørende bilen. Deretter går du inn på navigasjonsruten som så ut til å være mistenkelig, og du antyder eller kanskje direkte hevder at AI ble utviklet med partiske eller diskriminerende hensikter og kapasiteter.

Vi må spekulere på de andre detaljene i Red Flag AI-loven om hva som skjer videre i dette spesielle scenariet. I teorien vil det være en bestemmelse om at noen skal gjennomgå det røde flagget. De vil antagelig forsøke å få bilprodusenten eller det selvkjørende teknologifirmaet til å forklare deres synspunkt på det loggede røde flagget. Hvor mange andre slike røde flagg er registrert? Hvilke utfall ga de røde flaggene?

Og så videre ville det gå.

konklusjonen

Utrolig, formaner noen skeptikere.

Vi trenger ikke Red Flag AI-lover, de anstrenger seg strengt. Å gjøre noe sånt vil tygge arbeidet når det kommer til tempoet og fremgangen til AI. Alle slike lover ville være uhåndterlige. Du vil skape et problem som ikke løser et problem. Det er andre måter å håndtere AI på som er dårlige. Ikke grip blindt etter sugerør for å takle forutinntatt AI.

Ved å skifte gir vet vi alle at tyrefektere bruker røde kapper for å tilsynelatende tiltrekke oppmerksomheten til den sinte oksen. Selv om rødt er fargen vi mest forbinder med denne praksisen, kan du bli overrasket over å vite at forskere sier at okser ikke oppfatter den røde fargen på muleta (de er fargeblinde til røde). Det populære showet Mythbusters gjorde en ganske underholdende undersøkelse av denne saken. Kappens bevegelse er nøkkelelementet i stedet for den valgte fargen.

For de som avviser behovet for Red Flag AI-lover, er et motkrav at vi trenger noe av en dramatisk og umiskjennelig bølgende natur for å sikre at AI-utviklere og firmaer som distribuerer AI vil styre unna forutinntatt eller dårlig AI. Hvis ikke for et rødt flagg, kan kanskje en flagrende kappe eller i utgangspunktet en hvilken som helst form for varsling være innenfor området for å få behørig hensyn.

Vi vet med sikkerhet at dårlig AI eksisterer og at mye mer dårlig AI kommer til å være på vei i vår retning. Å finne måter å beskytte oss mot uønsket AI er avgjørende. På samme måte er det like viktig å sette rekkverk for å prøve å stoppe dårlig AI fra å komme inn i verden.

Ernest Hemingway uttalte berømt at ingen noen gang lever livet helt opp, bortsett fra tyrefektere. Vi må sørge for at mennesker kan leve livet sitt hele veien, til tross for hva slags AI-ondskap eller galskap som er kunngjort over oss.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-called-red-flag-ai-laws-for-calling-out- partiske algoritmer-i-autonome-ai-systemer/