AI-etikk ringer alarmklokker om det truende spekteret av AI-fordommer i massiv global skala, spesielt drevet via truende, helt autonome systemer

Platon sa berømt at en god beslutning er basert på kunnskap og ikke på tall.

Denne skarpe innsikten virker utrolig forutseende om dagens kunstig intelligens (AI).

Du skjønner, til tross for de buldrende overskriftene som for øyeblikket proklamerer at AI på en eller annen måte har nådd sansen og legemliggjør menneskelig kunnskap og resonnement, vær oppmerksom på at denne overdrevne AI-hyperbolen er snikende prevariasjon siden vi fortsatt er avhengige av tallknusing i dagens algoritmebeslutninger (ADM). ) som utført av AI-systemer. Selv den hyllede Machine Learning (ML) og Deep Learning (DL) består av beregningsmønstermatching, noe som betyr at tall fortsatt er kjernen i den opphøyde bruken av ML/DL.

Vi vet ikke om AI-oppnåelse er mulig. Kan være, kanskje ikke. Ingen kan si sikkert hvordan dette kan oppstå. Noen tror at vi gradvis vil forbedre vår beregningsbaserte AI-innsats slik at en form for følelse vil oppstå spontant. Andre tror at AI kan gå inn i en slags beregningssupernova og oppnå sansen ganske mye av seg selv (vanligvis referert til som singulariteten). For mer om disse teoriene om fremtiden til AI, se min dekning på lenken her.

Så la oss ikke tulle oss selv og feilaktig tro at moderne AI er i stand til å tenke som mennesker. Jeg antar at spørsmålet da kommer i forgrunnen om Platons bemerkning om hvorvidt vi kan ha gode beslutninger basert på beregningsmessig AI i stedet for på sansende AI. Du kan bli overrasket over å vite at jeg vil hevde at vi faktisk kan få gode beslutninger som tas av daglige AI-systemer.

Den andre siden av den mynten er at vi også kan ha dagligdagse AI-systemer som tar dårlige beslutninger. Råtte avgjørelser. Beslutninger som er fulle av uheldige skjevheter og ulikheter. Du er kanskje klar over at da den siste æraen med kunstig intelligens kom i gang var det et stort utbrudd av entusiasme for det noen nå kaller AI For Good. Dessverre begynte vi å være vitne til etter den fossende spenningen AI for Bad. For eksempel har forskjellige AI-baserte ansiktsgjenkjenningssystemer blitt avslørt å inneholde rasemessige skjevheter og kjønnsskjevheter, som jeg har diskutert på lenken her.

Anstrengelser for å kjempe tilbake mot AI for Bad er aktivt i gang. Dessuten høyrøstet lovlig jakten på å tøyle urettferdighetene, er det også et betydelig løft mot å omfavne AI-etikk for å rette opp AI-eiendommen. Tanken er at vi bør ta i bruk og støtte viktige etiske AI-prinsipper for utvikling og felt av AI for å undergrave AI for Bad og samtidig varsle og fremme det som er å foretrekke AI For Good.

Min omfattende dekning av AI-etikk og etisk AI finner du på denne lenken her og denne lenken her, bare for å nevne noen få.

For denne diskusjonen her vil jeg gjerne ta opp et spesielt bekymringsfullt aspekt ved AI som de som er på AI-etikk-arenaen med rette beklager og prøver å øke bevisstheten om. Den nøkterne og foruroligende saken er faktisk ganske grei å påpeke.

Her er det: AI har det virkelige potensialet til å forkynne AI-fylte skjevheter på en alarmerende global skala.

Og når jeg sier "i skala" betyr dette beviselig verdensomspennende massiv skala. Enorm skala. Skala som går av skalaen.

Før jeg dykker inn i hvordan denne skaleringen av AI-fylte skjevheter vil finne sted, la oss sørge for at vi alle har et inntrykk av hvordan AI kan inkorporere unødige skjevheter og ulikheter. Husk igjen at dette ikke er av en sansende variant. Alt dette er av et beregningsmessig kaliber.

Du kan være forvirret over hvordan AI kan gjennomsyre de samme typene negative skjevheter og ulikheter som mennesker gjør. Vi har en tendens til å tenke på AI som å være helt nøytral, objektiv, rett og slett en maskin som ikke har noe av det følelsesmessige svai og stygge tankegangen som mennesker kan ha. En av de vanligste måtene for kunstig intelligens å falle inn i skjevheter og ulikheter skjer ved bruk av maskinlæring og dyplæring, delvis som et resultat av å stole på innsamlet data om hvordan mennesker tar beslutninger.

Tillat meg et øyeblikk å utdype.

ML/DL er en form for beregningsmønstermatching. Den vanlige tilnærmingen er at du samler data om en beslutningsoppgave. Du mater dataene inn i ML/DL-datamodellene. Disse modellene søker å finne matematiske mønstre. Etter å ha funnet slike mønstre, hvis det er funnet, vil AI-systemet bruke disse mønstrene når de møter nye data. Ved presentasjon av nye data brukes mønstrene basert på de "gamle" eller historiske dataene for å gi en gjeldende beslutning.

Jeg tror du kan gjette hvor dette er på vei. Hvis mennesker som har tatt de mønstrede avgjørelsene har inkorporert uheldige skjevheter, er sjansen stor for at dataene reflekterer dette på subtile, men betydelige måter. Maskinlærings- eller Deep Learning-beregningsmønstermatchingen vil ganske enkelt prøve å matematisk etterligne dataene tilsvarende. Det er ingen antydning av sunn fornuft eller andre sansende aspekter ved AI-laget modellering i seg selv.

Dessuten er det kanskje ikke sikkert at AI-utviklerne skjønner hva som skjer. Den mystiske matematikken i ML/DL kan gjøre det vanskelig å fjerne de nå skjulte skjevhetene. Du vil med rette håpe og forvente at AI-utviklerne vil teste for potensielt begravde skjevheter, selv om dette er vanskeligere enn det kan virke. Det er en solid sjanse for at selv med relativt omfattende testing vil det fortsatt være skjevheter innebygd i mønstertilpasningsmodellene til ML/DL.

Du kan litt bruke det berømte eller beryktede ordtaket om søppel-inn søppel-ut. Saken er at dette er mer beslektet med skjevheter-in som snikende blir tilført som skjevheter nedsenket i AI. Algoritmen beslutningstaking eller ADM av AI blir aksiomatisk lastet med ulikheter.

Ikke bra.

Dette bringer oss til spørsmålet om AI-fylte skjevheter når det er i skala.

Først, la oss ta en titt på hvordan menneskelige skjevheter kan skape ulikheter. Et selskap som gir boliglån bestemmer seg for å ansette en boliglånsagent. Agenten skal gjennomgå forespørsler fra forbrukere som ønsker å få et boliglån. Etter å ha vurdert en søknad, tar agenten en beslutning om enten å gi lånet eller avslå lånet. Easy-peasy.

For diskusjonens skyld, la oss forestille oss at en menneskelig låneagent kan analysere 8 lån per dag, noe som tar omtrent en time per gjennomgang. I løpet av en femdagers arbeidsuke gjør agenten rundt 40 låneanmeldelser. På årsbasis gjør agenten vanligvis rundt 2,000 låneanmeldelser, gi eller ta litt.

Selskapet ønsker å øke volumet av låneanmeldelser, og derfor ansetter firmaet 100 ekstra låneagenter. La oss anta at de alle har omtrent samme produktivitet, og at dette innebærer at vi nå kan håndtere rundt 200,000 2,000 lån per år (med en hastighet på XNUMX låneanmeldelser per år per agent). Det ser ut til at vi virkelig har trappet opp behandlingen av lånesøknader.

Det viser seg at selskapet lager et AI-system som i hovedsak kan gjøre de samme lånevurderingene som de menneskelige agentene. AI kjører på dataservere i skyen. Via skyinfrastrukturen kan selskapet enkelt legge til mer datakraft for å imøtekomme ethvert volum av låneanmeldelser som måtte være nødvendig.

Med den eksisterende AI-konfigurasjonen kan de gjøre 1,000 låneanmeldelser per time. Dette kan også skje 24×7. Det er ingen ferietid som trengs for AI. Ingen lunsjpauser. AI-en fungerer døgnet rundt uten å kverulere over å være overarbeidet. Vi vil si at med det omtrentlige tempoet kan AI behandle nesten 9 millioner lånesøknader per år.

Legg merke til at vi gikk fra å ha 100 menneskelige agenter som kunne gjøre 200,000 9 lån per år og hoppet mange ganger over til det mye økte antallet på XNUMX millioner anmeldelser per år via AI-systemet. Vi har dramatisk oppskalert behandlingen av låneforespørselen vår. Ingen tvil om det.

Gjør deg klar for kickeren som kanskje vil få deg til å falle av stolen.

Anta at noen av våre menneskelige agenter tar sine lånebeslutninger på grunnlag av uheldige skjevheter. Kanskje noen gir rasefaktorer en nøkkelrolle i lånebeslutningen. Kanskje noen bruker kjønn. Andre bruker alder. Og så videre.

Hvor mange av de 200,000 10 årlige lånegjennomgangene, blir gjort under det feilaktige blikket av ugunstige skjevheter og ulikheter? Kanskje 20,000% som er rundt 50 100,000 av låneforespørslene. Enda verre, anta at det er XNUMX % av låneforespørslene, i så fall er det ganske urovekkende XNUMX XNUMX årlige tilfeller av feilaktige lånebeslutninger.

Det er ille. Men vi har ennå ikke vurdert en enda mer skremmende mulighet.

Anta at AI har en skjult skjevhet som består av faktorer som rase, kjønn, alder og lignende. Hvis 10 % av de årlige låneanalysene er gjenstand for denne uhyggen, har vi 900,000 100 låneforespørsler som blir feilbehandlet. Det er mye mer enn hva de menneskelige agentene kan gjøre, først og fremst på grunn av volumaspektene. De 200,000 agentene, hvis alle gjorde en urettferdig vurdering, kunne på det meste gjort dette på de 9,000,000 XNUMX årlige lånevurderingene. AI kan gjøre det samme i en mye stor skala av de XNUMX XNUMX XNUMX årlige anmeldelsene.

Yikes!

Dette er virkelig AI-fylt skjevhet i en enorm skala.

Når uønskede skjevheter er begravet i et AI-system, blir den samme skaleringen som virket fordelaktig, snudd på hodet og blir et monstrøst forførende (og urovekkende) skaleringsresultat. På den ene siden kan AI med fordel rykke opp for å håndtere flere mennesker som ber om boliglån. På overflaten virker det enormt AI For Good. Vi burde klappe oss selv på skulderen for antagelig å utvide sjansene for at mennesker får nødvendige lån. I mellomtiden, hvis AI har innebygde skjevheter, kommer skaleringen til å bli et enormt råttent resultat, og vi finner oss selv beklagelig fast i AI for Bad, i en virkelig massiv skala.

Det ordspråklige tveegget sverd.

AI kan radikalt øke tilgangen til beslutningstaking for de som søker ønskede tjenester og produkter. Ingen mer menneskelig begrenset arbeidsflaskehals. Fremragende! Den andre kanten av sverdet er at hvis AI inneholder ondskap som skjulte ulikheter, kommer den samme massive skaleringen til å forkynne den upassende oppførselen i en ufattelig skala. Irriterende, urettmessig, skammelig, og vi kan ikke la samfunnet falle ned i en så stygg avgrunn.

Alle som har lurt på hvorfor vi trenger å gruble over viktigheten av AI-etikk, burde nå innse at AI-skaleringsfenomenet er en forbannet viktig grunn til å forfølge etisk AI. La oss ta et øyeblikk for å kort vurdere noen av de viktigste etiske AI-reglene for å illustrere hva som bør være et viktig fokus for alle som lager, driver med eller bruker AI.

For eksempel, som uttalt av Vatikanet i Roma oppfordrer til AI-etikk og som jeg har dekket i dybden på lenken her, dette er deres identifiserte seks primære AI-etiske prinsipper:

  • Åpenhet: I prinsippet må AI-systemer kunne forklares
  • Inkludering: Alle menneskers behov må tas i betraktning slik at alle kan komme til nytte, og alle kan tilbys best mulige forutsetninger for å uttrykke seg og utvikle seg.
  • Ansvar: De som designer og distribuerer bruken av AI må fortsette med ansvar og åpenhet
  • Opartiskhet: Ikke skap eller handle i henhold til partiskhet, og dermed ivareta rettferdighet og menneskeverd
  • Pålitelighet: AI-systemer må kunne fungere pålitelig
  • Sikkerhet og personvern: AI-systemer må fungere sikkert og respektere brukernes personvern.

Som uttalt av det amerikanske forsvarsdepartementet (DoD) i deres Etiske prinsipper for bruk av kunstig intelligens og som jeg har dekket i dybden på lenken her, dette er deres seks primære AI-etiske prinsipper:

  • Ansvarlig: DoD-personell vil utøve passende nivåer av dømmekraft og omsorg mens de fortsatt er ansvarlige for utvikling, distribusjon og bruk av AI-evner.
  • Rettferdig: Avdelingen vil ta bevisste skritt for å minimere utilsiktet skjevhet i AI-evner.
  • Sporbar: Avdelingens AI-evner vil bli utviklet og distribuert slik at relevant personell har en passende forståelse av teknologien, utviklingsprosessene og operasjonelle metoder som gjelder for AI-evner, inkludert med transparente og reviderbare metoder, datakilder og designprosedyre og dokumentasjon.
  • Pålitelig: Avdelingens AI-evner vil ha eksplisitte, veldefinerte bruksområder, og sikkerheten, sikkerheten og effektiviteten til slike evner vil være gjenstand for testing og forsikring innenfor de definerte bruksområdene gjennom hele livssyklusen.
  • Styres: Avdelingen vil designe og konstruere AI-evner for å oppfylle deres tiltenkte funksjoner samtidig som den har evnen til å oppdage og unngå utilsiktede konsekvenser, og evnen til å koble ut eller deaktivere utplasserte systemer som viser utilsiktet oppførsel.

Jeg har også diskutert ulike kollektive analyser av AI-etiske prinsipper, inkludert å ha dekket et sett utviklet av forskere som undersøkte og kondenserte essensen av en rekke nasjonale og internasjonale AI-etiske prinsipper i en artikkel med tittelen "The Global Landscape Of AI Ethics Guidelines" (publisert i Natur), og at dekningen min utforsker kl lenken her, som førte til denne keystone-listen:

  • Åpenhet
  • Rettferdighet og rettferdighet
  • Ikke-ondsinnethet
  • Ansvar
  • Privatliv
  • godgjør
  • Frihet og autonomi
  • Stol
  • Bærekraft
  • Verdighet
  • Solidaritet

Som du direkte kan gjette, kan det være ekstremt vanskelig å prøve å finne de spesifikke underliggende prinsippene. Enda mer, innsatsen for å gjøre disse brede prinsippene til noe helt håndfast og detaljert nok til å brukes når man lager AI-systemer er også en tøff nøtt å knekke. Det er lett generelt å vinke litt om hva AI-etikk-forskriftene er og hvordan de generelt skal overholdes, mens det er en mye mer komplisert situasjon når AI-kodingen må være den veritable gummien som møter veien.

AI-etikkprinsippene skal brukes av AI-utviklere, sammen med de som styrer AI-utviklingsinnsatsen, og til og med de som til slutt arbeider med og utfører vedlikehold på AI-systemer. Alle interessenter gjennom hele livssyklusen for utvikling og bruk av kunstig intelligens anses innenfor rammen av å overholde de etablerte normene for etisk kunstig intelligens. Dette er et viktig høydepunkt siden den vanlige antagelsen er at "bare kodere" eller de som programmerer AI-en er underlagt AI-etikkens forestillinger. Vær oppmerksom på at det kreves en landsby for å lage AI. For noe hele landsbyen må holde seg på tærne om AI-etikk.

Hvordan AI-Steeped Biases-skalering fungerer

Nå som jeg har kommet inn på bordet at AI kan inneholde skjevheter, er vi klare til å undersøke noen av årsakene til at AI-skalering er så påtrengende.

Vurder denne keystone-listen over ti underliggende årsaker:

  1. Enkelt replikert
  2. Minimal kostnad å skalere
  3. Avskyelig konsekvent
  4. Mangel på selvrefleksjon
  5. Blind lydighet
  6. Vipper ikke hånden
  7. Mottaker intetanende
  8. Har en tendens til ikke å anspore til provokasjon
  9. Falsk aura av rettferdighet
  10. Vanskelig å tilbakevise

Jeg skal kort utforske hvert av disse avgjørende punktene.

Når du prøver å skalere opp med menneskelig arbeidskraft, er sjansen stor for at det vil være enormt komplisert. Du må finne og ansette folkene. Du må lære dem opp til å gjøre jobben. Du må betale dem og ta hensyn til menneskelige ønsker og behov. Sammenlign dette med et AI-system. Du utvikler det og tar det i bruk. Bortsett fra en viss mengde pågående vedlikehold av AI, kan du lene deg tilbake og la den behandle i det uendelige.

Dette betyr at AI enkelt kan replikeres. Du kan legge til mer datakraft ettersom oppgaven og volumet krever det (du ansetter ikke eller sparker). Global bruk gjøres med et trykk på en knapp og oppnås ved verdensomspennende tilgjengelighet av Internett. Oppskaleringen er en minimal kostnad sammenlignet med å gjøre det samme med menneskelig arbeidskraft.

Menneskelig arbeid er notorisk inkonsekvent. Når du har store lag, har du en veritabel sjokoladeboks ved at du aldri vet hva du kan ha på hendene. AI-systemet vil sannsynligvis være svært konsistent. Den gjentar de samme aktivitetene om og om igjen, hver gang er i hovedsak den samme som sist.

Normalt sett ville vi like AI-konsistens. Hvis mennesker er utsatt for skjevheter, vil vi alltid ha en del av vårt menneskelige arbeid som kommer på avveie. AI, hvis rent objektiv i sin konstruksjon og beregningsinnsats, ville være langt mer konsistent. Problemet er imidlertid at hvis AI har skjulte skjevheter, er konsistensen nå smertelig avskyelig. Oddsen er at den partiske oppførselen kommer til å bli utført konsekvent, om og om igjen.

Mennesker ville forhåpentligvis ha en viss anelse om selvrefleksjon og kanskje fange seg selv i å ta partiske beslutninger. Jeg sier ikke at alle ville gjort det. Jeg sier heller ikke at de som tar seg selv, nødvendigvis vil rette opp sine feil. I alle fall ville i det minste noen mennesker noen ganger korrigere seg selv.

AI har neppe noen form for beregningsmessig selvrefleksjon. Dette betyr at AI bare fortsetter å gjøre det den gjør. Det vil tilsynelatende være null sjanse for at AI oppdager at den går på tvers av egenkapital. Når det er sagt, har jeg beskrevet noen forsøk på å håndtere dette, for eksempel å bygge AI Ethics-komponenter innen AI (se lenken her) og utvikle AI som overvåker annen AI for å oppdage uetiske AI-aktiviteter (se lenken her).

Mangler noen form for selvrefleksjon, vil AI også sannsynligvis ha i det vesentlige blind lydighet til hva den enn ble bedt om å gjøre. Mennesker er kanskje ikke så lydige. Sjansen er at noen mennesker som gjør en oppgave vil stille spørsmål ved om de kanskje blir guidet inn i ulikhetsterritorium. De ville ha en tendens til å avvise uetiske kommandoer eller kanskje gå varslerveien (se min dekning på denne lenken her). Ikke forvent at dagligdags AI på en eller annen måte stiller spørsmål ved programmeringen.

Vi går videre til de som bruker AI. Hvis du søkte et boliglån og snakket med et menneske, kan du være på vakt om mennesket gir deg en rettferdig riste. Når du bruker et AI-system, ser de fleste ut til å være mindre mistenksomme. De antar ofte at AI-en er rettferdig og blir ergo ikke så fort irritert. AI ser ut til å lulle folk inn i en "det er bare en maskin" transe. På toppen av dette kan det være vanskelig å prøve å protestere mot AI. I motsetning til dette er det mye enklere å protestere mot hvordan du ble behandlet av en menneskelig agent, og mye mer akseptert og antatt som mulig.

Alt sagt, AI som er gjennomsyret av skjevheter har et uærlig ben-up i forhold til mennesker som er gjennomsyret av skjevheter, nemlig når det gjelder å kunne få AI til å implementere disse skjevhetene massivt i en gigantisk skala, uten å like lett bli fanget eller ha forbrukere innse hva som skjer urovekkende.

På dette tidspunktet i denne diskusjonen vil jeg vedde på at du ønsker noen flere eksempler som kan vise frem gåten med AI-fylte skjevheter i stor skala.

Jeg er glad du spurte.

Det er et spesielt og sikkert populært sett med eksempler som ligger meg nært på hjertet. Du skjønner, i min egenskap som ekspert på AI, inkludert de etiske og juridiske konsekvensene, blir jeg ofte bedt om å identifisere realistiske eksempler som viser AI-etikk-dilemmaer, slik at emnets noe teoretiske natur lettere kan forstås. Et av de mest stemningsfulle områdene som på en levende måte presenterer dette etiske AI-kvandalet, er fremkomsten av AI-baserte ekte selvkjørende biler. Dette vil tjene som en praktisk brukssak eller eksempel for rikelig diskusjon om emnet.

Her er et bemerkelsesverdig spørsmål som er verdt å vurdere: Belyser fremkomsten av AI-baserte ekte selvkjørende biler noe om AI-rike skjevheter i stor skala, og i så fall, hva viser dette?

Tillat meg et øyeblikk å pakke ut spørsmålet.

Først, merk at det ikke er en menneskelig sjåfør involvert i en ekte selvkjørende bil. Husk at ekte selvkjørende biler kjøres via et AI-kjøresystem. Det er ikke behov for en menneskelig sjåfør ved rattet, og det er heller ikke en bestemmelse om at et menneske kan kjøre kjøretøyet. For min omfattende og pågående dekning av autonome kjøretøy (AV) og spesielt selvkjørende biler, se lenken her.

Jeg vil gjerne forklare hva som menes når jeg refererer til ekte selvkjørende biler.

Forstå nivåene av selvkjørende biler

Som en avklaring er ekte selvkjørende biler de som AI kjører bilen helt alene, og det er ingen menneskelig assistanse under kjøreoppgaven.

Disse førerløse kjøretøyene regnes som nivå 4 og nivå 5 (se min forklaring på denne lenken her), mens en bil som krever en menneskelig sjåfør for å dele kjøreinnsatsen vanligvis vurderes på nivå 2 eller nivå 3. Bilene som deler kjøreoppgaven beskrives som semi-autonome, og inneholder vanligvis en rekke automatiserte tillegg som omtales som ADAS (Advanced Driver-Assistance Systems).

Det er ennå ikke en ekte selvkjørende bil på nivå 5, som vi ennå ikke en gang vet om dette vil være mulig å oppnå, og heller ikke hvor lang tid det vil ta å komme dit.

I mellomtiden prøver nivå 4-innsatsen gradvis å få litt trekkraft ved å gjennomgå veldig smale og selektive offentlige kjørebaneprøver, selv om det er kontrovers om denne testen skal være tillatt i seg selv (vi er alle liv-eller-død marsvin i et eksperiment. som foregår på våre motorveier og motorveier, noen hevder, se dekning min på denne lenken her).

Siden semi-autonome biler krever en menneskelig sjåfør, vil ikke adopsjonen av disse typer biler være markant annerledes enn å kjøre konvensjonelle kjøretøyer, så det er ikke mye nytt per se å dekke om dem om dette emnet (skjønt, som du vil se på et øyeblikk er poengene som blir gjort neste, generelt anvendelige).

For semi-autonome biler er det viktig at publikum må varsles om et urovekkende aspekt som har oppstått i det siste, nemlig at til tross for de menneskelige sjåførene som fortsetter å legge ut videoer av seg som sovner ved rattet på en nivå 2 eller nivå 3-bil , vi alle trenger å unngå å bli villedet til å tro at sjåføren kan fjerne oppmerksomheten fra kjøreoppgaven mens han kjører en semi-autonom bil.

Du er den ansvarlige parten for kjøringen av kjøretøyet, uavhengig av hvor mye automatisering som kan kastes i et nivå 2 eller nivå 3.

Selvkjørende biler og AI-fordommer i stor skala

For sanne selvkjørende kjøretøyer på nivå 4 og nivå 5 vil det ikke være en menneskelig sjåfør involvert i kjøreoppgaven.

Alle beboere vil være passasjerer.

AI driver kjøringen.

Et aspekt å umiddelbart diskutere innebærer det faktum at AI involvert i dagens AI-kjøresystemer ikke er viktig. Med andre ord, AI er helt en samling av databasert programmering og algoritmer, og absolutt ikke i stand til å resonnere på samme måte som mennesker kan.

Hvorfor er denne ekstra vekt om at AI ikke er følsom?

Fordi jeg vil understreke at når jeg diskuterer AI-kjøresystemets rolle, tilskriver jeg ikke menneskelige kvaliteter til AI. Vær oppmerksom på at det i disse dager er en pågående og farlig tendens til å antropomorfisere AI. I hovedsak tildeler folk menneskelig følsomhet til dagens AI, til tross for det ubestridelige og ubestridelige faktum at ingen slik AI eksisterer ennå.

Med den avklaringen kan du se for deg at AI-kjøresystemet ikke på en eller annen måte "vet" om fasettene ved kjøring. Kjøring og alt det innebærer må programmeres som en del av maskinvaren og programvaren til den selvkjørende bilen.

La oss dykke ned i de mange aspektene som kommer til å spille om dette emnet.

For det første er det viktig å innse at ikke alle AI selvkjørende biler er like. Hver bilprodusent og selvkjørende teknologifirma tar sin tilnærming til å utvikle selvkjørende biler. Som sådan er det vanskelig å komme med omfattende utsagn om hva AI-kjøresystemer vil gjøre eller ikke.

Når du sier at et AI -kjøresystem ikke gjør noen spesielle ting, kan dette senere bli forbikjørt av utviklere som faktisk programmerer datamaskinen til å gjøre akkurat det. Steg for steg blir AI -kjøresystemer gradvis forbedret og utvidet. En eksisterende begrensning i dag eksisterer kanskje ikke lenger i en fremtidig iterasjon eller versjon av systemet.

Jeg stoler på at det gir en tilstrekkelig mengde forbehold for å ligge til grunn for det jeg skal forholde meg til.

Vi er klar til å gjøre et dypdykk i selvkjørende biler og de etiske AI-mulighetene, som innebærer utforskning av AI-fylte skjevheter som kunngjøres i stor skala.

La oss bruke et enkelt eksempel. En AI-basert selvkjørende bil er på vei i nabolagets gater og ser ut til å kjøre trygt. Til å begynne med hadde du viet spesiell oppmerksomhet til hver gang du klarte å få et glimt av den selvkjørende bilen. Det autonome kjøretøyet skilte seg ut med sitt stativ med elektroniske sensorer som inkluderte videokameraer, radarenheter, LIDAR-enheter og lignende. Etter mange uker med den selvkjørende bilen som cruiser rundt i samfunnet ditt, merker du det knapt nå. Så langt du er bekymret, er det bare en annen bil på de allerede trafikkerte offentlige veiene.

For at du ikke skal tro at det er umulig eller usannsynlig å bli kjent med å se selvkjørende biler, har jeg ofte skrevet om hvordan lokalitetene som er innenfor rammen av selvkjørende bilprøver, gradvis har blitt vant til å se de oppgraderte kjøretøyene, se min analyse på denne lenken her. Mange av lokalbefolkningen skiftet etter hvert fra munn-gapende henført stirring til nå å gi ut et ekspansivt gjesp av kjedsomhet for å se de meandrerende selvkjørende bilene.

Sannsynligvis hovedårsaken akkurat nå til at de kanskje legger merke til de autonome kjøretøyene, er på grunn av irritasjons- og irritasjonsfaktoren. De bokførte AI-kjøresystemene sørger for at bilene overholder alle fartsgrenser og kjøreregler. For hektiske menneskelige sjåfører i sine tradisjonelle menneskedrevne biler, blir du irritert til tider når du sitter fast bak de strengt lovlydige AI-baserte selvkjørende bilene.

Det er noe vi alle kanskje trenger å venne oss til, med rette eller urett.

Tilbake til historien vår.

Det viser seg at to upassende bekymringer begynner å dukke opp om de ellers ufarlige og generelt velkomne AI-baserte selvkjørende bilene, nærmere bestemt:

en. Der AI-en streifer rundt i de selvkjørende bilene for å hente turer, var det en uttalt bekymring

b. Hvordan AI behandler ventende fotgjengere som ikke har forkjørsrett ble et presserende problem

Til å begynne med streifet AI de selvkjørende bilene gjennom hele byen. Alle som ønsket å be om en tur i den selvkjørende bilen, hadde i hovedsak like store sjanser til å komme med en. Gradvis begynte AI først og fremst å holde de selvkjørende bilene i roaming i bare én del av byen. Denne delen var en større pengemaker og AI-systemet hadde blitt programmert for å prøve å maksimere inntektene som en del av bruken i samfunnet.

Samfunnsmedlemmer i de fattige delene av byen hadde mindre sannsynlighet for å få skyss fra en selvkjørende bil. Dette var fordi de selvkjørende bilene var lenger unna og streifet rundt i den høyere inntektsdelen av lokaliteten. Når en forespørsel kom inn fra en fjern del av byen, ville enhver forespørsel fra et nærmere sted som sannsynligvis var i den "ansatte" delen av byen få høyere prioritet. Til slutt var tilgjengeligheten av å få en selvkjørende bil et hvilket som helst annet sted enn den rikere delen av byen nesten umulig, irriterende nok for de som bodde i de nå ressurssultne områdene.

Du kan hevde at AI ganske mye landet på en form for proxy-diskriminering (også ofte referert til som indirekte diskriminering). AI var ikke programmert for å unngå de fattigere nabolagene. I stedet "lærte" den å gjøre det ved å bruke ML/DL.

Saken er at menneskelige sjåfører for kjøreturer var kjent for å gjøre det samme, men ikke nødvendigvis utelukkende på grunn av vinklingen av å tjene penger. Det var noen av de menneskelige sjåførene som delte sammen, som hadde en uheldig innstilling når det gjaldt å plukke opp ryttere i visse deler av byen. Dette var et noe kjent fenomen, og byen hadde innført en overvåkingstilnærming for å fange opp menneskelige sjåfører som gjorde dette. Menneskelige sjåfører kan komme i trøbbel for å utføre usmakelig utvalgspraksis.

Det ble antatt at AI aldri ville falle inn i den samme typen kvikksand. Det ble ikke satt opp noen spesialisert overvåking for å holde styr på hvor de AI-baserte selvkjørende bilene skulle. Først etter at medlemmer av samfunnet begynte å klage, innså byens ledere hva som skjedde. For mer om disse typer byomfattende problemer som autonome kjøretøy og selvkjørende biler kommer til å presentere, se min dekning på denne lenken her og som beskriver en Harvard-ledet studie som jeg var medforfatter av om emnet.

Dette eksemplet på roaming-aspektene til de AI-baserte selvkjørende bilene illustrerer den tidligere indikasjonen på at det kan være situasjoner som involverer mennesker med uønskede skjevheter, for hvilke kontroller er satt på plass, og at AI-en som erstatter de menneskelige sjåførene blir overlatt. gratis. Dessverre kan AI deretter gradvis bli fast i beslektede skjevheter og gjøre det uten tilstrekkelige rekkverk på plass.

Dette viser også AI-fordommer i stor skala.

Når det gjelder menneskelige sjåfører, kan vi ha hatt noen få her eller der som utøvde en form for ulikhet. For AI-kjøresystemet er det vanligvis en slik enhetlig AI for en hel flåte av selvkjørende biler. Dermed kan vi ha begynt med si femti selvkjørende biler i byen (alle drevet av samme AI-kode), og gradvis økt til la oss si 500 selvkjørende biler (alle kjøres av samme AI-kode). Siden alle disse fem hundre selvkjørende bilene drives av samme AI, er de tilsvarende alle underlagt de samme avledede skjevhetene og ulikhetene innebygd i AI.

Skalering skader oss i den forbindelse.

Et annet eksempel involverer AI som avgjør om de skal stoppe for ventende fotgjengere som ikke har forkjørsrett til å krysse en gate.

Du har utvilsomt kjørt bil og møtt fotgjengere som ventet på å krysse gaten, og likevel hadde de ikke forkjørsrett til å gjøre det. Dette betydde at du hadde skjønn om du skulle stoppe og la dem krysse. Du kan fortsette uten å la dem krysse og fortsatt være fullt innenfor de lovlige kjørereglene for å gjøre det.

Studier av hvordan menneskelige sjåfører bestemmer seg for å stoppe eller ikke stoppe for slike fotgjengere har antydet at noen ganger tar menneskelige sjåfører valget basert på uheldige skjevheter. En menneskelig sjåfør kan se på fotgjengeren og velge å ikke stoppe, selv om de ville ha stoppet hvis fotgjengeren hadde et annet utseende, for eksempel basert på rase eller kjønn. Jeg har undersøkt dette kl lenken her.

Tenk deg at de AI-baserte selvkjørende bilene er programmert til å håndtere spørsmålet om de skal stoppe eller ikke stoppe for fotgjengere som ikke har forkjørsrett. Her er hvordan AI-utviklerne bestemte seg for å programmere denne oppgaven. De samlet inn data fra byens videokameraer som er plassert rundt i byen. Dataene viser menneskelige sjåfører som stopper for fotgjengere som ikke har forkjørsrett og menneskelige sjåfører som ikke stopper. Det hele er samlet i et stort datasett.

Ved å bruke Machine Learning og Deep Learning modelleres dataene beregningsmessig. AI-kjøresystemet bruker deretter denne modellen til å bestemme når det skal stoppe eller ikke stoppe. Generelt er ideen at uansett hva den lokale skikken består av, er dette hvordan AI kommer til å styre den selvkjørende bilen.

Til overraskelse for byens ledere og innbyggerne valgte AI tydeligvis å stoppe eller ikke stoppe basert på fotgjengerens utseende, inkludert rase og kjønn. Sensorene til den selvkjørende bilen ville skanne den ventende fotgjengeren, mate disse dataene inn i ML/DL-modellen, og modellen ville sende ut til AI om den skulle stoppe eller fortsette. Beklagelig nok hadde byen allerede mange menneskelige sjåførfordommer i denne forbindelse, og AI etterlignet nå det samme.

Dette eksemplet illustrerer at et AI-system bare kan duplisere de allerede eksisterende uønskede skjevhetene til mennesker. Dessuten gjør den det i stor skala. Alle menneskelige sjåfører kan noen ganger ha blitt opplært til å gjøre denne uheldige formen for utvelgelse eller kanskje personlig valgt til å gjøre det, men sjansen er stor for at hoveddelen av de menneskelige sjåførene sannsynligvis ikke gjør dette i massevis.

I skarp kontrast, vil AI-kjøresystemet som brukes til å kjøre selvkjørende biler sannsynligvis avskyelig konsekvent og sikkert utføre den avledede skjevheten.

konklusjonen

Det er en rekke måter å prøve å unngå å utvikle AI som har uheldige skjevheter eller som over tid samler på skjevheter. Så mye som mulig er tanken å fange opp problemene før du går på høygir og ramper opp for skalering. Forhåpentligvis kommer ikke skjevheter ut av døren, for å si det sånn.

Anta at skjevheter på en eller annen måte vil oppstå i AI. Når du først er utplassert i massiv skala med AI, kan du ikke bare gjøre en av de ofte utropte teknologiske "fire and forget"-forestillingene. Du må nøye følge med på hva AI gjør og søke å oppdage eventuelle uheldige skjevheter som må korrigeres.

Som tidligere påpekt, innebærer en tilnærming å sikre at AI-utviklere er klar over AI-etikk og dermed anspore dem til å være på tærne for å programmere AI for å avverge disse tingene. En annen vei består i å ha AI-en selvovervåker seg selv for uetisk atferd og/eller å ha en annen del av AI som overvåker andre AI-systemer for potensielt uetisk atferd. Jeg har dekket mange andre potensielle løsninger i mine skrifter.

En siste tanke for nå. Etter å ha startet denne diskusjonen med et sitat av Platon, kan det være passende å avslutte diskursen med nok en klok ytring fra Platon.

Platon sa at det ikke er noen skade å gjenta en god ting.

Det enkle å gå i stor skala med AI er absolutt et levedyktig middel for å oppnå en slik optimistisk ambisjon når AI er av AI For Good variasjon. Vi nyter å gjenta en god ting. Når AI er AI for Bad og fylt med uønskede skjevheter og ulikheter, kan vi lene oss på Platons bemerkninger og si at det er rikelig skade ved å gjenta en dårlig ting.

La oss lytte nøye til Platons kloke ord og utforme vår AI deretter.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive- global-skala-spesielt-drevet-via-truende-fullstendig-autonome-systemer/