AI-etikk som sier at AI bør brukes spesielt når menneskelige skjevheter er rikelig

Mennesker har lært sine begrensninger å kjenne.

Du husker kanskje den beslektede kjente linjen om å kjenne våre begrensninger som grovt uttalt av karakteren Dirty Harry i filmen fra 1973 med tittelen Magnum Force (ifølge de uttalte ordene til skuespilleren Clint Eastwood i sin minneverdige rolle som inspektør Harry Callahan). Den generelle oppfatningen er at noen ganger har vi en tendens til å overse våre egne grenser og gå inn i varmt vann deretter. Enten på grunn av hybris, å være egosentrisk eller rett og slett blind for våre egne evner, er forskriften om å være klar over og ta eksplisitt hensyn til våre tilbøyeligheter og mangler svært fornuftig og nyttig.

La oss legge til en ny vri på salvierådet.

Kunstig intelligens (AI) har blitt kjent med sine begrensninger.

Hva mener jeg med den varianten av den ærede slagordet?

Det viser seg at det første jaget med å få dagens AI i bruk som en håpefull løser av verdens problemer, har blitt tilsølt og totalt forvirret av erkjennelsen av at dagens AI har noen ganske alvorlige begrensninger. Vi gikk fra oppløftende overskrifter av AI For Good og har i økende grad funnet oss selv fast i AI for Bad. Du skjønner, mange AI-systemer har blitt utviklet og felt med alle slags uheldige rase- og kjønnsskjevheter, og en myriade av andre slike forferdelige ulikheter.

For min omfattende og pågående dekning av AI-etikk og etisk AI, se lenken her og lenken her, bare for å nevne noen få.

Skjevhetene som oppdages i disse AI-systemene er ikke av den skal vi si "tilsiktede" typen som vi vil tilskrive menneskelig atferd. Jeg nevner dette for å understreke at dagens AI ikke er sansende. Til tross for de blafrende overskriftene som antyder noe annet, er det bare ingen AI noe sted som til og med kommer i nærheten av sansen. På toppen av det vet vi ikke hvordan vi skal få AI inn i sansen, pluss at ingen kan si sikkert om vi noen gang vil oppnå AI-sansen. Kanskje vil det skje en dag, eller kanskje ikke.

Så poenget mitt er at vi ikke kan tildele intensjon til den typen AI som vi har for øyeblikket. Når det er sagt, kan vi rikelig tilordne intensjon til de som lager AI-systemer. Noen AI-utviklere er ikke klar over det faktum at de har utviklet et AI-system som inneholder ubehagelige og muligens ulovlige skjevheter. I mellomtiden innser andre AI-utviklere at de legger skjevheter inn i AI-systemene deres, og potensielt gjør det på en målrettet urettmessig måte.

Uansett er utfallet fortsatt upassende og sannsynligvis ulovlig.

Strenge innsats er i gang for å forkynne AI-etikkprinsipper som vil opplyse AI-utviklere og gi passende veiledning for å unngå å bygge inn skjevheter i AI-systemene deres. Dette vil hjelpe på en todelt måte. For det første vil de som lager AI ikke lenger ha den klare unnskyldningen at de bare ikke var klar over hvilke forskrifter som burde følges. For det andre vil de som avviker fra de etiske AI-forholdene lettere bli fanget og vist for å avverge det de ble advart om å både gjøre og ikke gjøre.

La oss ta et øyeblikk for å kort vurdere noen av de viktigste etiske AI-reglene for å illustrere hva AI-byggere burde tenke på og strengt tatt på seg fra en AI Ethics-holdning.

Som uttalt av Vatikanet i Roma oppfordrer til AI-etikk og som jeg har dekket i dybden på lenken her, dette er deres identifiserte seks primære AI-etiske prinsipper:

  • Åpenhet: I prinsippet må AI-systemer kunne forklares
  • Inkludering: Alle menneskers behov må tas i betraktning slik at alle kan komme til nytte, og alle kan tilbys best mulige forutsetninger for å uttrykke seg og utvikle seg.
  • Ansvar: De som designer og distribuerer bruken av AI må fortsette med ansvar og åpenhet
  • Opartiskhet: Ikke skap eller handle i henhold til partiskhet, og dermed ivareta rettferdighet og menneskeverd
  • Pålitelighet: AI-systemer må kunne fungere pålitelig
  • Sikkerhet og personvern: AI-systemer må fungere sikkert og respektere brukernes personvern.

Som uttalt av det amerikanske forsvarsdepartementet (DoD) i deres Etiske prinsipper for bruk av kunstig intelligens og som jeg har dekket i dybden på lenken her, dette er deres seks primære AI-etiske prinsipper:

  • Ansvarlig: DoD-personell vil utøve passende nivåer av dømmekraft og omsorg mens de fortsatt er ansvarlige for utvikling, distribusjon og bruk av AI-evner.
  • Rettferdig: Avdelingen vil ta bevisste skritt for å minimere utilsiktet skjevhet i AI-evner.
  • Sporbar: Avdelingens AI-evner vil bli utviklet og distribuert slik at relevant personell har en passende forståelse av teknologien, utviklingsprosessene og operasjonelle metoder som gjelder for AI-evner, inkludert med transparente og reviderbare metoder, datakilder og designprosedyre og dokumentasjon.
  • Pålitelig: Avdelingens AI-evner vil ha eksplisitte, veldefinerte bruksområder, og sikkerheten, sikkerheten og effektiviteten til slike evner vil være gjenstand for testing og forsikring innenfor de definerte bruksområdene gjennom hele livssyklusen.
  • Styres: Avdelingen vil designe og konstruere AI-evner for å oppfylle deres tiltenkte funksjoner samtidig som den har evnen til å oppdage og unngå utilsiktede konsekvenser, og evnen til å koble ut eller deaktivere utplasserte systemer som viser utilsiktet oppførsel.

Jeg har også diskutert ulike kollektive analyser av AI-etiske prinsipper, inkludert å ha dekket et sett utviklet av forskere som undersøkte og kondenserte essensen av en rekke nasjonale og internasjonale AI-etiske prinsipper i en artikkel med tittelen "The Global Landscape Of AI Ethics Guidelines" (publisert i Natur), og at dekningen min utforsker kl lenken her, som førte til denne keystone-listen:

  • Åpenhet
  • Rettferdighet og rettferdighet
  • Ikke-ondsinnethet
  • Ansvar
  • Privatliv
  • godgjør
  • Frihet og autonomi
  • Stol
  • Bærekraft
  • Verdighet
  • Solidaritet

Som du direkte kan gjette, kan det være ekstremt vanskelig å prøve å finne de spesifikke underliggende prinsippene. Enda mer, innsatsen for å gjøre disse brede prinsippene til noe helt håndfast og detaljert nok til å brukes når man lager AI-systemer er også en tøff nøtt å knekke. Det er lett generelt å vinke litt om hva AI-etikk-forskriftene er og hvordan de generelt skal overholdes, mens det er en mye mer komplisert situasjon når AI-kodingen må være den veritable gummien som møter veien.

AI-etikkprinsippene skal brukes av AI-utviklere, sammen med de som styrer AI-utviklingsinnsatsen, og til og med de som til slutt arbeider med og utfører vedlikehold på AI-systemer. Alle interessenter gjennom hele livssyklusen for utvikling og bruk av kunstig intelligens anses innenfor rammen av å overholde de etablerte normene for etisk kunstig intelligens. Dette er et viktig høydepunkt siden den vanlige antagelsen er at "bare kodere" eller de som programmerer AI-en er underlagt AI-etikkens forestillinger. Vær oppmerksom på at det kreves en landsby for å lage AI. For noe hele landsbyen må holde seg på tærne om AI-etikk.

Uansett, nå som jeg har kommet inn på bordet at AI kan inneholde skjevheter, kan vi kanskje alle være enige om disse to tilsynelatende fakta:

1. Mennesker kan ha mange uheldige skjevheter og kan handle på dem

2. AI kan ha mange uheldige skjevheter og kan handle på disse skjevhetene

Jeg er litt avsky for å stable mennesker versus AI i den sammenhengen siden det på en eller annen måte kan antyde at AI har sansende kapasiteter på linje med mennesker. Dette er garantert ikke slik. Jeg kommer et øyeblikk tilbake til de økende bekymringene rundt antropomorfisering av AI litt senere i denne diskusjonen.

Hva er verre, mennesker som viser uønskede skjevheter eller AI som gjør det?

Jeg tør påstå at spørsmålet utgjør et av de dystre valgene. Det er den velkjente minste av to onder, kan man hevde. Vi skulle ønske at mennesker ikke legemliggjorde uheldige skjevheter. Vi ønsker videre at selv om mennesker har uheldige skjevheter, vil de ikke handle på disse skjevhetene. Det samme kan passende sies om AI. Vi skulle ønske at AI ikke innebygde uønskede skjevheter og at selv om det er slike internt kodede skjevheter at AI i det minste ikke ville handle på dem.

Ønsker styrer imidlertid ikke nødvendigvis verden (for min analyse av det stigende og urovekkende utseendet til s.k. AI-ønskeoppfyllelse av samfunnet for øvrig, se lenken her).

Ok, vi vil åpenbart at mennesker skal kjenne sine begrensninger. Det er viktig å erkjenne når du har uheldige skjevheter. Det er like viktig å prøve å forhindre at disse uheldige skjevhetene blir infundert i dine handlinger og beslutninger. Bedrifter i dag prøver alle slags tilnærminger for å forhindre at de ansatte havner i de alvorlige fallgruvene. Det gis spesialisert opplæring til ansatte om hvordan de skal utføre arbeidet sitt på etisk forsvarlige måter. Prosesser er formet rundt ansatte for å varsle dem når de ser ut til å vise uetiske skikker. Og så videre.

En annen måte å takle mennesker og deres uheldige skjevheter på vil være å automatisere menneskebasert arbeid. Ja, bare fjern mennesket fra løkken. Ikke la et menneske utføre en beslutningsoppgave, og du har antagelig ikke lenger noen dvelende bekymringer om menneskets holdning til uheldige skjevheter. Det er ikke et menneske involvert, og dermed ser problemet med potensielle menneskelige skjevheter ut til å være løst.

Jeg tar dette opp fordi vi er vitne til et gradvis og massivt skifte mot å bruke AI på en algoritmebeslutningsmåte (ADM). Hvis du kan erstatte en menneskelig arbeider med AI, er sjansen stor for at det vil oppstå mange fordeler. Som allerede nevnt, ville du ikke lenger bekymre deg over de menneskelige skjevhetene til den menneskelige arbeideren (den som ikke lenger gjør den jobben). Sjansen er at AI vil være mindre kostbar totalt sett sammenlignet med en langsiktig tidshorisont. Du slipper alle de andre diverse vanskelighetene som følger med menneskelige arbeidere. Etc.

Et forslag som vinner terreng ser ut til å være dette: Når du prøver å bestemme hvor AI best skal plasseres, bør du først se på innstillinger som allerede innebærer uheldige menneskelige skjevheter fra arbeiderne dine, og som disse skjevhetene undergraver eller på annen måte overdrevent kompliserer bestemte beslutningsoppgaver.

Hovedpoenget er at det virker fornuftig å få mest mulig igjen for pengene når det gjelder å investere i kunstig intelligens ved å sikte direkte på svært utsatte menneskelige beslutningsoppgaver som er vanskelige å kontrollere fra et uheldig infusjonsperspektiv. Fjern de menneskelige arbeiderne i den rollen. Erstatt dem med AI. Antakelsen er at AI ikke ville ha slike uheldige skjevheter. Derfor kan du ha kaken din og spise den også, nemlig få påtatt beslutningsoppgavene og gjøre det minus det etiske og juridiske spekteret av uheldige skjevheter.

Når du skriver ut det, vil ROI (avkastning på investering) sannsynligvis gjøre bruken av AI til et problemfritt valg.

Her er hvordan det vanligvis spiller ut.

Se gjennom hele firmaet ditt og prøv å identifisere beslutningsoppgavene som påvirker kundene. Hvilke av disse oppgavene vil mest sannsynlig bli upassende påvirket hvis arbeiderne legemliggjør uheldige skjevheter? Hvis du allerede har prøvd å tøyle disse skjevhetene, lar du kanskje ting stå som det er. På den annen side, hvis skjevhetene fortsetter å dukke opp igjen og innsatsen for å eliminere dem er tung, bør du vurdere å droppe noe relevant AI i den rollen. Ikke hold arbeiderne i miksen, siden de kan overstyre AI eller skyve AI rett tilbake i avgrunnen til den uheldige skjevheten. Sørg også for at AI-en kan utføre oppgaven dyktig og at du har tilstrekkelig fanget opp beslutningsfasettene som kreves for å utføre jobben.

Skyll og gjenta.

Jeg innser at det virker som en grei forestilling, men innser at det er mange måter å erstatte menneskelige arbeidere med AI lett kan gå galt. Mange selskaper var ivrige etter å ta slike handlinger og vurderte ikke nøye hvordan de skulle gjøre det. Som et resultat gjorde de ofte mye verre rot enn de hadde på hendene til å begynne med.

Jeg ønsker å presisere og fremheve at AI ikke er et universalmiddel.

Når vi snakker om det, er det et stort problem med rensligheten av tilsynelatende å kaste ut de menneskelige forutinntatte beslutningstakerne med den angivelig objektive AI. Problemet er at du kanskje bare erstatter ett sett med uheldige skjevheter med et annet. I henhold til den tidligere indikasjonen kan AI inneholde uheldige skjevheter og kan handle på disse skjevhetene. Å gjøre en frekk antagelse om at å bytte ut partiske mennesker med upartisk AI ikke er alt det skal være.

Kort sagt, her er avtalen når man ser på saken strengt tatt fra skjevhetsfaktorene:

  • AI har ingen uheldige skjevheter, og derfor er den AI-baserte ADM praktisk å distribuere
  • AI har de samme uheldige skjevhetene som menneskene som blir erstattet, og derfor er den AI-baserte ADM urovekkende
  • AI introduserer nye uheldige skjevheter utover de til de som blir erstattet mennesker, og vil sannsynligvis forverre ting tilsvarende
  • AI-en virker til å begynne med bra og slingrer deretter gradvis inn i uheldige skjevheter
  • Annen

Vi kan kort pakke ut disse mulighetene.

Den første er den idealiserte versjonen av hva som kan skje. AI har ingen uheldige skjevheter. Du setter AI på plass og den gjør jobben utmerket. Bra for deg! Selvfølgelig skulle man håpe at du også på en eller annen dyktig måte har håndtert forflytningen av menneskelige arbeidere på grunn av AI-inkluderingen.

I det andre tilfellet setter du på plass AI-en og oppdager at AI-en viser de samme uheldige skjevhetene som de menneskelige arbeiderne hadde. Hvordan kan dette være? En vanlig måte å gå i denne fellen på er å bruke Machine Learning (ML) og Deep Learning (DL) basert på innsamlede data om hvordan menneskene i rollen tidligere tok sine beslutninger.

Tillat meg et øyeblikk å forklare.

ML/DL er en form for beregningsmønstermatching. Den vanlige tilnærmingen er at du samler data om en beslutningsoppgave. Du mater dataene inn i ML/DL-datamodellene. Disse modellene søker å finne matematiske mønstre. Etter å ha funnet slike mønstre, hvis det er funnet, vil AI-systemet bruke disse mønstrene når de møter nye data. Ved presentasjon av nye data brukes mønstrene basert på de "gamle" eller historiske dataene for å gi en gjeldende beslutning.

Jeg tror du kan gjette hvor dette er på vei. Hvis menneskene som har gjort arbeidet i årevis etter år har innlemmet uheldige skjevheter, er sjansen stor for at dataene gjenspeiler dette på subtile, men betydelige måter. Matching av beregningsmønster for maskinlæring eller dyp læring vil ganske enkelt prøve å matematisk etterligne dataene tilsvarende. Det er ingen antydning av sunn fornuft eller andre sansende aspekter ved modelleringen i seg selv.

Dessuten kan AI-utviklerne kanskje ikke skjønne hva som skjer heller. Den mystiske matematikken kan gjøre det vanskelig å fjerne de nå skjulte skjevhetene. Du vil med rette håpe og forvente at AI-utviklerne vil teste for potensielt begravde skjevheter, selv om dette er vanskeligere enn det kan virke. Det er en solid sjanse for at selv med relativt omfattende testing vil det fortsatt være skjevheter innebygd i mønstertilpasningsmodellene til ML/DL.

Alt i alt kan du ende opp tilbake til utgangspunktet. De samme uheldige skjevhetene til mennesker er nå beregningsmessig speilet i AI-systemet. Du har ikke utryddet skjevhetene.

Enda verre er det mindre sannsynlig at du innser at AI har skjevheter. Når det gjelder mennesker, kan du normalt være på vakt for at mennesker har uheldige skjevheter. Dette er en grunnleggende forventning. Bruken av AI kan lure ledere til å tro at automatisering fullstendig har fjernet enhver form for menneskelig skjevhet. De innstiller seg dermed på å ha skutt seg selv i foten. De kvittet seg med mennesker med tilsynelatende kjente uønskede skjevheter, og ble erstattet av AI som ble antatt å ikke ha slike skjevheter, og likevel har de nå tatt i bruk AI fylt med de samme skjevhetene som allerede er kjent for å eksistere.

Dette kan få ting til å gå skikkelig i hop. Du kan ha fjernet andre rekkverk som ble brukt sammen med de menneskelige arbeiderne som ble etablert for å oppdage og forhindre fremveksten av de allerede forventede menneskelige skjevhetene. AI har nå frie tøyler. Ingenting er på plass for å fange det før du handler. AI-en kan da begynne å lede deg nedover en tøff vei med den enorme opphopningen av partiske handlinger.

Og du er i den vanskelige og kanskje ansvarlige holdningen som du en gang visste om skjevhetene og nå har latt disse skjevhetene skape kaos. Det er kanskje én ting å aldri ha vært borti slike uheldige skjevheter, og så plutselig ut av det blå springer AI dem. Du kan prøve å unnskylde dette med "hvem ville ha gjettet" slags distraktor (ikke særlig overbevisende, kanskje). Men for å nå ha satt opp AI som gjør de samme uønskede handlingene som før, vel, unnskyldningene dine blir tynnere og dårligere.

En vri på dette innebærer at AI viser uheldige skjevheter som ikke tidligere har blitt møtt da menneskene gjorde oppgaven. Du kan si at dette kanskje er vanskeligere å ha forhindret siden det består av "nye" skjevheter som firmaet ikke tidligere har vært på jakt etter. Til syvende og sist vil kanskje ikke unnskyldninger gi deg mye lettelse. Hvis AI-systemet har våget seg inn på både uetisk og ulovlig territorium, kan gåsen din være kokt.

En annen fasett å huske på er at AI kan starte helt fint og deretter gå inn i uheldige skjevheter. Dette er spesielt sannsynlig når bruken av Machine Learning eller Deep Learning skjer fortløpende for å holde AI oppdatert. Enten ML/DL jobber i sanntid eller med jevne mellomrom gjør oppdateringer, bør oppmerksomheten være om AI muligens inntar data som nå inneholder skjevheter og som tidligere ikke var til stede.

For ledere som tror de får en gratis lunsj ved å vifte med en tryllestav for å erstatte partiske menneskelige arbeidere med AI, er de inne for en veldig frekk oppvåkning. Se diskusjonen min om viktigheten av å styrke ledere med forskriftene til AI-etikk på lenken her.

På dette tidspunktet i denne diskusjonen vil jeg vedde på at du ønsker noen eksempler fra den virkelige verden som kan vise frem gåten med å erstatte (eller ikke) menneskelige uønskede skjevheter med AI-baserte uønskede skjevheter.

Jeg er glad du spurte.

Det er et spesielt og sikkert populært sett med eksempler som ligger meg nært på hjertet. Du skjønner, i min egenskap som ekspert på AI, inkludert de etiske og juridiske konsekvensene, blir jeg ofte bedt om å identifisere realistiske eksempler som viser AI-etikk-dilemmaer, slik at emnets noe teoretiske natur lettere kan forstås. Et av de mest stemningsfulle områdene som på en levende måte presenterer dette etiske AI-kvandalet, er fremkomsten av AI-baserte ekte selvkjørende biler. Dette vil tjene som en praktisk brukssak eller eksempel for rikelig diskusjon om emnet.

Her er et bemerkelsesverdig spørsmål som er verdt å vurdere: Belyser fremkomsten av AI-baserte ekte selvkjørende biler noe om uheldige skjevheter i AI, og i så fall, hva viser dette?

Tillat meg et øyeblikk å pakke ut spørsmålet.

Først, merk at det ikke er en menneskelig sjåfør involvert i en ekte selvkjørende bil. Husk at ekte selvkjørende biler kjøres via et AI-kjøresystem. Det er ikke behov for en menneskelig sjåfør ved rattet, og det er heller ikke en bestemmelse om at et menneske kan kjøre kjøretøyet. For min omfattende og pågående dekning av autonome kjøretøy (AV) og spesielt selvkjørende biler, se lenken her.

Jeg vil gjerne forklare hva som menes når jeg refererer til ekte selvkjørende biler.

Forstå nivåene av selvkjørende biler

Som en avklaring er ekte selvkjørende biler de som AI kjører bilen helt alene, og det er ingen menneskelig assistanse under kjøreoppgaven.

Disse førerløse kjøretøyene regnes som nivå 4 og nivå 5 (se min forklaring på denne lenken her), mens en bil som krever en menneskelig sjåfør for å dele kjøreinnsatsen vanligvis vurderes på nivå 2 eller nivå 3. Bilene som deler kjøreoppgaven beskrives som semi-autonome, og inneholder vanligvis en rekke automatiserte tillegg som omtales som ADAS (Advanced Driver-Assistance Systems).

Det er ennå ikke en ekte selvkjørende bil på nivå 5, som vi ennå ikke en gang vet om dette vil være mulig å oppnå, og heller ikke hvor lang tid det vil ta å komme dit.

I mellomtiden prøver nivå 4-innsatsen gradvis å få litt trekkraft ved å gjennomgå veldig smale og selektive offentlige kjørebaneprøver, selv om det er kontrovers om denne testen skal være tillatt i seg selv (vi er alle liv-eller-død marsvin i et eksperiment. som foregår på våre motorveier og motorveier, noen hevder, se dekning min på denne lenken her).

Siden semi-autonome biler krever en menneskelig sjåfør, vil ikke adopsjonen av disse typer biler være markant annerledes enn å kjøre konvensjonelle kjøretøyer, så det er ikke mye nytt per se å dekke om dem om dette emnet (skjønt, som du vil se på et øyeblikk er poengene som blir gjort neste, generelt anvendelige).

For semi-autonome biler er det viktig at publikum må varsles om et urovekkende aspekt som har oppstått i det siste, nemlig at til tross for de menneskelige sjåførene som fortsetter å legge ut videoer av seg som sovner ved rattet på en nivå 2 eller nivå 3-bil , vi alle trenger å unngå å bli villedet til å tro at sjåføren kan fjerne oppmerksomheten fra kjøreoppgaven mens han kjører en semi-autonom bil.

Du er den ansvarlige parten for kjøringen av kjøretøyet, uavhengig av hvor mye automatisering som kan kastes i et nivå 2 eller nivå 3.

Selvkjørende biler og kunstig intelligens med uheldige skjevheter

For sanne selvkjørende kjøretøyer på nivå 4 og nivå 5 vil det ikke være en menneskelig sjåfør involvert i kjøreoppgaven.

Alle beboere vil være passasjerer.

AI driver kjøringen.

Et aspekt å umiddelbart diskutere innebærer det faktum at AI involvert i dagens AI-kjøresystemer ikke er viktig. Med andre ord, AI er helt en samling av databasert programmering og algoritmer, og absolutt ikke i stand til å resonnere på samme måte som mennesker kan.

Hvorfor er denne ekstra vekt om at AI ikke er følsom?

Fordi jeg vil understreke at når jeg diskuterer AI-kjøresystemets rolle, tilskriver jeg ikke menneskelige kvaliteter til AI. Vær oppmerksom på at det i disse dager er en pågående og farlig tendens til å antropomorfisere AI. I hovedsak tildeler folk menneskelig følsomhet til dagens AI, til tross for det ubestridelige og ubestridelige faktum at ingen slik AI eksisterer ennå.

Med den avklaringen kan du se for deg at AI-kjøresystemet ikke på en eller annen måte "vet" om fasettene ved kjøring. Kjøring og alt det innebærer må programmeres som en del av maskinvaren og programvaren til den selvkjørende bilen.

La oss dykke ned i de mange aspektene som kommer til å spille om dette emnet.

For det første er det viktig å innse at ikke alle AI selvkjørende biler er like. Hver bilprodusent og selvkjørende teknologifirma tar sin tilnærming til å utvikle selvkjørende biler. Som sådan er det vanskelig å komme med omfattende utsagn om hva AI-kjøresystemer vil gjøre eller ikke.

Når du sier at et AI -kjøresystem ikke gjør noen spesielle ting, kan dette senere bli forbikjørt av utviklere som faktisk programmerer datamaskinen til å gjøre akkurat det. Steg for steg blir AI -kjøresystemer gradvis forbedret og utvidet. En eksisterende begrensning i dag eksisterer kanskje ikke lenger i en fremtidig iterasjon eller versjon av systemet.

Jeg stoler på at det gir en tilstrekkelig mengde forbehold for å ligge til grunn for det jeg skal forholde meg til.

Vi er klar til å gjøre et dypdykk i selvkjørende biler og de etiske AI-mulighetene som innebærer utforskning av AI og uønskede skjevheter.

La oss bruke et enkelt eksempel. En AI-basert selvkjørende bil er på vei i nabolagets gater og ser ut til å kjøre trygt. Til å begynne med hadde du viet spesiell oppmerksomhet til hver gang du klarte å få et glimt av den selvkjørende bilen. Det autonome kjøretøyet skilte seg ut med sitt stativ med elektroniske sensorer som inkluderte videokameraer, radarenheter, LIDAR-enheter og lignende. Etter mange uker med den selvkjørende bilen som cruiser rundt i samfunnet ditt, merker du det knapt nå. Så langt du er bekymret, er det bare en annen bil på de allerede trafikkerte offentlige veiene.

For at du ikke skal tro at det er umulig eller usannsynlig å bli kjent med å se selvkjørende biler, har jeg ofte skrevet om hvordan lokalitetene som er innenfor rammen av selvkjørende bilprøver, gradvis har blitt vant til å se de oppgraderte kjøretøyene, se min analyse på denne lenken her. Mange av lokalbefolkningen skiftet etter hvert fra munn-gapende henført stirring til nå å gi ut et ekspansivt gjesp av kjedsomhet for å se de meandrerende selvkjørende bilene.

Sannsynligvis hovedårsaken akkurat nå til at de kanskje legger merke til de autonome kjøretøyene, er på grunn av irritasjons- og irritasjonsfaktoren. De bokførte AI-kjøresystemene sørger for at bilene overholder alle fartsgrenser og kjøreregler. For hektiske menneskelige sjåfører i sine tradisjonelle menneskedrevne biler, blir du irritert til tider når du sitter fast bak de strengt lovlydige AI-baserte selvkjørende bilene.

Det er noe vi alle kanskje trenger å venne oss til, med rette eller urett.

Tilbake til historien vår.

Det viser seg at to upassende bekymringer begynner å dukke opp om de ellers ufarlige og generelt velkomne AI-baserte selvkjørende bilene, nærmere bestemt:

en. Der AI-en streifer rundt i de selvkjørende bilene for å hente turer, har blitt en engstelig bekymring i samfunnet for øvrig

b. Hvordan AI behandler ventende fotgjengere som ikke har forkjørsrett er også et økende problem

Til å begynne med streifet AI de selvkjørende bilene gjennom hele byen. Alle som ønsket å be om en tur i den selvkjørende bilen, hadde i hovedsak like store sjanser til å komme med en. Gradvis begynte AI først og fremst å holde de selvkjørende bilene i roaming i bare én del av byen. Denne delen var en større pengemaker og AI-systemet hadde blitt programmert for å prøve å maksimere inntektene som en del av bruken i samfunnet.

Samfunnsmedlemmer i de fattige delene av byen hadde mindre sannsynlighet for å få skyss fra en selvkjørende bil. Dette var fordi de selvkjørende bilene var lenger unna og streifet rundt i den høyere inntektsdelen av lokaliteten. Når en forespørsel kom inn fra en fjern del av byen, ville enhver forespørsel fra et nærmere sted som sannsynligvis var i den "ansatte" delen av byen få høyere prioritet. Til slutt var tilgjengeligheten av å få en selvkjørende bil et hvilket som helst annet sted enn den rikere delen av byen nesten umulig, irriterende nok for de som bodde i de nå ressurssultne områdene.

Du kan hevde at AI ganske mye landet på en form for proxy-diskriminering (også ofte referert til som indirekte diskriminering). AI var ikke programmert for å unngå de fattigere nabolagene. I stedet "lærte" den å gjøre det ved å bruke ML/DL.

Saken er at menneskelige sjåfører for kjøreturer var kjent for å gjøre det samme, men ikke nødvendigvis utelukkende på grunn av vinklingen av å tjene penger. Det var noen av de menneskelige sjåførene som delte sammen, som hadde en uheldig innstilling når det gjaldt å plukke opp ryttere i visse deler av byen. Dette var et noe kjent fenomen, og byen hadde innført en overvåkingstilnærming for å fange opp menneskelige sjåfører som gjorde dette. Menneskelige sjåfører kan komme i trøbbel for å utføre usmakelig utvalgspraksis.

Det ble antatt at AI aldri ville falle inn i den samme typen kvikksand. Det ble ikke satt opp noen spesialisert overvåking for å holde styr på hvor de AI-baserte selvkjørende bilene skulle. Først etter at medlemmer av samfunnet begynte å klage, innså byens ledere hva som skjedde. For mer om disse typer byomfattende problemer som autonome kjøretøy og selvkjørende biler kommer til å presentere, se min dekning på denne lenken her og som beskriver en Harvard-ledet studie som jeg var medforfatter av om emnet.

Dette eksemplet på roaming-aspektene til de AI-baserte selvkjørende bilene illustrerer den tidligere indikasjonen på at det kan være situasjoner som involverer mennesker med uønskede skjevheter, for hvilke kontroller er satt på plass, og at AI-en som erstatter de menneskelige sjåførene blir overlatt. gratis. Dessverre kan AI deretter gradvis bli fast i beslektede skjevheter og gjøre det uten tilstrekkelige rekkverk på plass.

Et annet eksempel involverer AI som avgjør om de skal stoppe for ventende fotgjengere som ikke har forkjørsrett til å krysse en gate.

Du har utvilsomt kjørt bil og møtt fotgjengere som ventet på å krysse gaten, og likevel hadde de ikke forkjørsrett til å gjøre det. Dette betydde at du hadde skjønn om du skulle stoppe og la dem krysse. Du kan fortsette uten å la dem krysse og fortsatt være fullt innenfor de lovlige kjørereglene for å gjøre det.

Studier av hvordan menneskelige sjåfører bestemmer seg for å stoppe eller ikke stoppe for slike fotgjengere har antydet at noen ganger tar menneskelige sjåfører valget basert på uheldige skjevheter. En menneskelig sjåfør kan se på fotgjengeren og velge å ikke stoppe, selv om de ville ha stoppet hvis fotgjengeren hadde et annet utseende, for eksempel basert på rase eller kjønn. Jeg har undersøkt dette kl lenken her.

Tenk deg at de AI-baserte selvkjørende bilene er programmert til å håndtere spørsmålet om de skal stoppe eller ikke stoppe for fotgjengere som ikke har forkjørsrett. Her er hvordan AI-utviklerne bestemte seg for å programmere denne oppgaven. De samlet inn data fra byens videokameraer som er plassert rundt i byen. Dataene viser menneskelige sjåfører som stopper for fotgjengere som ikke har forkjørsrett og menneskelige sjåfører som ikke stopper. Det hele er samlet i et stort datasett.

Ved å bruke Machine Learning og Deep Learning modelleres dataene beregningsmessig. AI-kjøresystemet bruker deretter denne modellen til å bestemme når det skal stoppe eller ikke stoppe. Generelt er ideen at uansett hva den lokale skikken består av, er dette hvordan AI kommer til å styre den selvkjørende bilen.

Til overraskelse for byens ledere og innbyggerne valgte AI tydeligvis å stoppe eller ikke stoppe basert på fotgjengerens utseende, inkludert rase og kjønn. Sensorene til den selvkjørende bilen ville skanne den ventende fotgjengeren, mate disse dataene inn i ML/DL-modellen, og modellen ville sende ut til AI om den skulle stoppe eller fortsette. Beklagelig nok hadde byen allerede mange menneskelige sjåførfordommer i denne forbindelse, og AI etterlignet nå det samme.

Den gode nyheten er at dette reiser et problem som nesten ingen tidligere visste at eksisterte. Den dårlige nyheten var at siden AI ble tatt for å gjøre dette, fikk den mesteparten av skylden. Dette eksemplet illustrerer at et AI-system bare kan duplisere de allerede eksisterende uønskede skjevhetene til mennesker.

konklusjonen

Det er en rekke måter å prøve å unngå å utvikle AI som enten ut av porten har uheldige skjevheter eller som over tid samler på skjevheter. En tilnærming innebærer å sikre at AI-utviklere er klar over at dette skjer og dermed holde dem på tærne for å programmere AI for å avverge saken. En annen vei består i å ha AI-en selvovervåker seg selv for uetisk oppførsel (se diskusjonen min på lenken her) og/eller ha en annen del av AI som overvåker andre AI-systemer for potensielt uetisk atferd (jeg har dekket dette på lenken her).

For å oppsummere, må vi innse at mennesker kan ha uheldige skjevheter og at de på en eller annen måte trenger å kjenne sine begrensninger. På samme måte kan AI ha uheldige skjevheter, og på en eller annen måte må vi vite begrensningene deres.

For de av dere som ivrig omfavner AI-etikk, vil jeg avslutte akkurat nå med en annen berømt linje som alle allerede må kjenne til. Nemlig, fortsett å bruke og dele viktigheten av etisk kunstig intelligens. Og ved å gjøre det, ville jeg frekt si dette: «Fortsett, gjør dagen min.»

Kilde: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-especially-deployed-when-human-biases-are-aplenty/