Å skyve grensene for AI-etikk inn i den tøffe verdenen av radikal etisk kunstig intelligens, potensielt eksemplifisert via brukssaken til opplyste AI-baserte selvkjørende biler

Har den rådende tenoren og oppmerksomheten til dagens vidt fremvoksende utseende av AI-etikk kommet i et veritabelt spor?

Noen ser ut til å helt klart mene det.

La oss pakke ut dette.

Du er kanskje generelt klar over at det har vært en økende bølge av interesse for de etiske konsekvensene av AI. Dette blir ofte referert til som enten AI-etikk eller etisk AI, som vi her vil betrakte disse to betegnelsene som overveiende likeverdige og utskiftbare (jeg antar at noen kanskje tvister om den antagelsen, men jeg vil foreslå at vi ikke blir distrahert av potensielle forskjeller, hvis noen, for formålet med denne diskusjonen).

Noe av årsaken til at etiske og moralske betraktninger har reist seg rundt AI, skyldes den gradvis økende bølgen av s.k. AI for Bad. Du skjønner, opprinnelig ble den siste bølgen av AI oppfattet som hovedsakelig tilbudende AI For Good. Dette var ideen om at AI kunne hjelpe til med å løse mange av de ellers vanskelige problemene som databehandling hittil ikke hadde vært i stand til å hjelpe. Vi kan endelig finne oss selv å utnytte AI for å takle mange av verdens tøffeste problemer.

Langs den litt drømmende reisen har erkjennelsen slått an at det er den andre siden av mynten. Det er AI for Bad. For eksempel kan du kanskje vite om brouhaha over AI-basert ansiktsgjenkjenning som til tider har legemliggjort rasemessige skjevheter og kjønnsskjevheter (se min analyse på denne lenken her). Ikke bra. Det er nå mange tydelige tilfeller av AI-systemer som har en mengde uheldige ulikheter innebygd i funksjonaliteten deres for algoritmisk beslutningstaking (ADM).

Noen av de dystre problemene innen AI er etisk på grensen, mens andre problemer er ganske mye utenfor rimelige etiske grenser. På toppen av det kan du også regne med at AI-en tilsynelatende virker ulovlig eller direkte en ulovlig utøver uten sperring. To-trinnene med å bli hamret av loven og av etiske skikker tar sikte på å bremse AI for Bad og forsøke å forhindre det pågående angrepet av AI som som standard kan være fullstendig full av ekstremt umoralske og ulovlige elementer.

Jeg har grundig dekket AI-etikk-emnet i mine spalter, for eksempel dekningen på denne lenken og også på denne lenken her, bare for å nevne noen. Et relativt vanlig sett med etiske AI-faktorer består i å ta hensyn til disse egenskapene til AI:

  • Rettferdighet
  • Åpenhet
  • Forklarbarhet
  • Privatliv
  • Troverdighet
  • Verdighet
  • godgjør
  • Etc.

Det er de ofte siterte sosiale konstruksjonene som vi burde tenke over når det kommer til utforming og utforming av dagens AI. Oddsen er at hvis du kanskje tar en titt på en artikkel eller blogginnlegg som dekker AI-etikk, vil du finne at temaet for stykket er sentrert om en av de nevnte faktorene eller egenskapene.

Jeg tror i det store og hele at de som vokalt etterlyser etisk kunstig intelligens, vil være enige om at disse faktorene er verdt oppmerksomhet. Det virkelige problemet ser ut til å være at de som lager AI og de som publiserer AI, ikke ser ut til å få meldingen. Dette har fått dem blant AI Ethics-bevegelsen til å forklare ytterligere hvorfor disse egenskapene er så forbannet viktige. Dessverre synes mange AI-utviklere og firmaer som utnytter AI enten at dette er fint å ha, ergo bare valgfritt, eller så ser de på Ethical AI som mer en abstrakt akademisk øvelse enn noe av hverdagslig praktisk karakter.

I henhold til mine spådommer vil mange av dem som har hodet i sanden om etisk kunstig intelligens en dag våkne opp og frekt oppdage at de er under den skarpe dekke av samfunnet og også av loven. Folk vil bli ganske opprørt når de oppdager at den gjennomgripende AI som er innebygd i alle slags varer og tjenester er spekket med iboende skjevheter og ulikheter. Lovgivere presser allerede på med nye lover for å prøve å sikre at de som fremmer slik AI kommer til å komme under juridisk entydige regler, og dermed gjøre det mye vanskeligere for AI-byggere og de som jobber med AI å trekke på skuldrene fra alle uheldige sivile og påtalemyndigheter. fra deres bestrebelser.

Uten å se ut til å være snu, vil rettferdighetens hjul ubønnhørlig male seg mot de som sender ut og fremmer uønsket AI.

For å avklare AI for Bad tilskrives ikke nødvendigvis utelukkende skurkeskuespillere. Det viser seg at hoveddelen av AI-utviklere og de som leverer AI til hele verden, ofte er uvitende om hva de har på hendene. Alarmen om AI-etikk har tilsynelatende ikke nådd ørene deres ennå. Du kan ha sympati for de som er lykkelig uvitende, selv om dette ikke direkte unnskylder dem fra deres ansvar og endelige omsorgsplikt.

Jeg vil kort nevne at du ikke bør falle for den lumske mentale fellen som skylden for den uheldige AI-en ligger ved føttene til AI-en selv. Dette er nesten latterlig, selv om det stadig blir brukt som en fluktluke og utrolig nok ser ut til å fungere fra tid til annen på de som ikke er kjent med AI i dag. Du skjønner, AI i dag er ikke sansende. Ikke engang i nærheten. Vi vet ikke om AI-sans er mulig. Vi vet ikke når sentient AI kan oppnås.

Poenget er at AI-spillet med å distrahere alle ved å peke en finger på AI-en som den ansvarlige parten er uoppriktig, om ikke fullstendig elendig lureri, se min oppfordring om dette på lenken her. Eksisterende AI er programmert av menneskelige utviklere. Eksisterende AI er utgitt og gjort tilgjengelig av mennesker. Selskapene som bygger AI og selskapene som lisensierer eller kjøper AI med det formål å bruke AI i sine varer og tjenester er utelukkende basert på menneskeheten. Mennesker er ansvarsbærerne, ikke AI (kanskje, i fremtiden vil vi ha AI av en annen og mer avansert utseende, og på den tiden må vi kjempe tettere med forskjellen på hvor skylden ligger).

Som en rask oppsummering burde vi være takknemlige for at de etiske AI-vokalistene iherdig prøver å få samfunnet orientert om de etiske implikasjonene av AI. Akkurat nå er det nesten beslektet med Sisyfos-handlingen med å rulle en stein opp en bratt bakke. Mange som burde lytte, gjør det ikke. De som lytter blir ikke alltid tilskyndet til korrigerende handlinger. Akkurat som Sisyphus hadde den lite misunnelsesverdige oppgaven å skyve den steinblokken opp en bakke for evigheten, kan du stort sett anta at AI Ethics kakofonien med nødvendighet også må være et evig bråk.

Det ser ut til å avgjøre saken om AI-etikk, og vi kan antagelig gå over til et annet emne.

Men vent, det er mer.

Du kan bli overrasket eller til og med sjokkert over å høre at noen hevder at den eksisterende mengden av etiske AI-betraktninger er upassende. Den primære sluttsteinen til AI-etikk har blitt fast i en gruppetenkning, formaner de høyrøstet.

Her er avtalen.

Min tidligere indikerte liste over AI-etikkfaktorer sies å ha blitt en kvelende opptatthet av de etiske AI-mannskapene. Alle aksepterer tankeløst disse faktorene og fortsetter å banke bort på de samme faktorene, om og om igjen. I likhet med et ekkokammer, er overvekten av AI-etikere å gjenta den samme sangen for seg selv, og nyte lyden av den. Få er villige til å bryte ut av flokken. En flokkmentalitet har innhentet Ethical AI (slik hevdes det).

Hvordan oppsto denne gåten? Du kan tilsynelatende forklare denne uønskede integreringen av etisk kunstig intelligens enten basert på tilfeldigheter eller design.

I tilfellescenarioet er nøkkelfaktorene svært enkle å fokusere på. Du trenger ikke å gå utenfor boksen, som det var. Videre vil de som er innenfor den etiske AI-leiren sannsynligvis være mer interessert i lignende arbeid eller ideer, i stedet for å søke etter forestillinger utover normen. Fugler av en fjær flokker seg sammen. Tomme for tomme, AI Ethics-arenaen sies å ha krøpet seg inn i en trang klynge og har det generelt bra med den fortroligheten og komforten den gir.

Jeg er sikker på at det vil få mange AI Ethics-deltakere til å bli irritert (husk at jeg bare nevner hva andre hevder og ikke bekrefter disse påstandene).

Hvis du ønsker å rasende opp, vurder antydningen om at fenomenet har oppstått ved design. I et litt kanskje konspirasjonsteoretikermiljø sies det at AI-teknologene og teknologiselskapene enten direkte eller subliminalt bidrar til innsnevringen av etiske AI-betraktninger.

Hvorfor skulle de gjøre det?

Vi vil vurdere to muligheter.

En forestilling er at AI-teknologene favoriserer det eksisterende settet med etiske AI-betraktninger siden disse spesielle faktorene er noe mottagelige for å bli fikset via teknologi. For eksempel, hvis du vil ha forklaring, jobber AI-teknologer og AI-forskere natt og dag for å lage forklarbare AI (XAI)-evner. Det fine med den rådende listen over etiske AI-faktorer er at de passer innenfor rekkevidden til AI-teknologiløsninger. De som tilskriver den teorien er tilbøyelige til å antyde at andre faktorer som ikke lett kan løses med AI-teknologi ikke er i stand til å få gjennomslag på faktorlisten.

Du har da den andre mer ondskapsfulle varianten. Det antydes at det er høyteknologiske selskaper og andre som i hovedsak ønsker å yte leppeservice til AI-etikksaker. I den forstand liker de en kortere liste over teknologisk løsbare problemer. Ethvert forsøk på å legge til andre bekymringer vil gjøre livet vanskeligere for disse teknologiselskapene. De ønsker å minimere investeringene som trengs for å tilfredsstille de etiske AI-erklæringene.

Jeg antar at den slags hentydninger er bundet til å anspore til nøkternheter og gå langt utover enkel ire. De som utrettelig prøver å etterleve og bidra til etisk kunstig intelligens, blir potensielt utslettet av disse påstandene, og du kan lett forestille deg hvorfor de ville bli rasende over de tilsynelatende uforskammede og helt frekke anklagene.

La oss ikke starte et slagsmål og heller ta et nøkternt og reflektert øyeblikk for å se hva annet den etiske AI-leiren visstnok går glipp av. Den andre leiren som ber om å utvide og utvide synspunktet til moderne etisk kunstig intelligens, blir til tider referert til som Radikal etisk AI.

Du lurer kanskje på om navnet til Radical Ethical AI er passende eller uvelkommen.

Konnotasjonen av noe som er "radikal" kan være bra eller dårlig. En tolkning av Radical Ethical AI er at det er et forsøk på å riste opp status quo for AI-etikk. Bruken av de "radikale" viser at vi trenger å gjøre en samordnet dramatisk vending og ikke bare justere litt eller svakt gjengi et minimum av en svivel. Du kan argumentere for at bruk av "radikal" vil gi et sjokk for de eksisterende tilnærmingene i likhet med bruk av en defibrillator som ellers ikke ville blitt oppnådd via vanlig konvensjon.

Andre vil si at ved å legge ved ordet "radikal" skaper du ganske rot. Noen vil tolke radikalisme som å være besynderlig, gli mot eksentrisk eller rart. Sentrister kan umiddelbart avvise selve forestillingen om hvorvidt det er en gruppetenkning på grunn av navngivningen alene som en fornærmende påfunn. Tone ned retorikken, vil noen si, og du vil kanskje få mer seriøs oppmerksomhet og interesse.

Til tross for navnespørsmålet, kan du være medfødt nysgjerrig på hva det er som denne andre leiren mener at resten av oss mangler. Sett til side enhver visceral reaksjon på whatchamacallit.

Du kan utad spørre, hvor er biffen?

Jeg skal prøve å representere noen av de antydede manglende ingrediensene.

For det første, en påstått forglemmelse er at det rådende synet på tradisjonell (gammeldags?) Etisk AI er en begrensende skjult antakelse om at AI er uunngåelig. Derfor, i stedet for å undersøke om AI i det hele tatt bør være i kortene for spesielle typer bruk og samfunnsmessige forhold, er den dominerende posisjonen at AI kommer og vi må få den i best mulig form. Du kan smarmily si at dette er beslektet med å sette leppestift på en gris (dvs. det er fortsatt en gris, uansett hva du gjør for å få det til å se bedre ut).

Hvis du tar det til det ytterste, sies kanskje betenkeligheter med rettferdighet, privatliv og resten å være som å flytte rundt på stoler på dekket til Titanic. Dette skipet kommer fortsatt til å synke, noe som betyr at vi antar AI kommer til å skje, uansett hva. Men kanskje vi burde revurdere om synking er det eneste alternativet på vei.

Jeg kommer tilbake til denne betraktningen om et øyeblikk.

Her er raskt noen andre påståtte etiske AI-saker som enten ikke blir gitt sin rett eller som er presset ut av overflod av oppmerksomhet til andre rådende emner:

  • I tillegg til å bruke AI for å administrere mennesker, for eksempel å øke bruken av AI for å ta ansettelses- og avskjedsbeslutninger i bedrifter, er det også en tvil om bruken av AI for å administrere dyr. Det pågår anstrengelser for å bruke AI i gårder, dyrehager og generelt alle steder der dyr pleier å holdes. Hvordan vil AI påvirke dyrevelferden?
  • Det er tider da AI tilsynelatende blir betatestet i spesielt sårbare samfunn, gjør det som et første forsøk, og så vil AI senere bli spredt bredere. Ivrig etisk AI-oppmerksomhet bør rettes mot disse praksisene.
  • Det ser ut til å finne sted mange diskusjoner om å erstatte arbeidere med AI, selv om det er mindre oppmerksomhet til virkningene av AI som et overvåkingsverktøy som brukes til å overvåke lavtlønnede lavstatusarbeidere.
  • Det ser ut til at det ikke finner sted tilstrekkelig oppmerksomhet angående de økologiske og miljømessige konsekvensene av å bygge og holde AI-systemene i gang (som en side kan du finne av interesse min diskusjon om karbonfotavtrykket knyttet til AI, se lenken her).

· Og så videre.

Det er noen spesialister innen etisk AI som sannsynligvis umiddelbart vil påpeke at dette faktisk er emner som finnes i litteraturen og diskusjoner om AI-etikk. De er ikke uhørt, og de er heller ikke betagende nye.

Jeg tror at perspektivet til de radikale etiske AI-puristene er at de ikke hevder at de har oppdaget helt uberørt grunn. I stedet hevder de at det eksisterende fokuset til Ethical AI er å kvele den pustende luften ved å la andre "outlier" emner komme til sin rett.

Kanskje en mer velsmakende måte å formulere dette på er at den rådende oppmerksomheten om AI-etikk har gitt mindre oppmerksomhet til andre livsviktige emner. Du kan foreslå at det er blinde flekker, og det ville være nyttig å vurdere om disse kan bringes lenger inn i folden (dette er også diskutert i AI og etikktidsskrift i en nylig artikkel med tittelen "Blind Spots in AI Ethics" av Thilo Hagendorff).

Nå som vi har dekket sagaen om hvorvidt etisk kunstig intelligens er i et spor, som noen vil si er en absurd påstand, og i mellomtiden vil andre insistere på at brunsten er ekte og blir verre, kanskje vi kan bruke et øyeblikk på å utforske en brukssak for å se nærmere på saken.

I egenskap av ekspert på kunstig intelligens, inkludert de etiske og juridiske konsekvensene, blir jeg ofte bedt om å identifisere realistiske eksempler som viser tilpasningsdilemmaet, slik at emnets noe teoretiske natur lettere kan forstås. Et av de mest stemningsfulle områdene som på en levende måte presenterer dette etiske AI-kvandalet, er fremkomsten av AI-baserte ekte selvkjørende biler. Dette vil tjene som en praktisk brukssak eller eksempel for rikelig diskusjon om emnet.

Her er et bemerkelsesverdig spørsmål som er verdt å vurdere: Presenterer fremkomsten av AI-baserte ekte selvkjørende biler noen etiske AI-betraktninger utenfor boksen som generelt blir uimotsagt eller utilstrekkelig dukket opp?

Tillat meg et øyeblikk å pakke ut spørsmålet.

Først, merk at det ikke er en menneskelig sjåfør involvert i en ekte selvkjørende bil. Husk at ekte selvkjørende biler kjøres via et AI-kjøresystem. Det er ikke behov for en menneskelig sjåfør ved rattet, og det er heller ikke en bestemmelse om at et menneske kan kjøre kjøretøyet. For min omfattende og pågående dekning av Autonome kjøretøy (AV) og spesielt selvkjørende biler, se lenken her.

Jeg vil gjerne forklare hva som menes når jeg refererer til ekte selvkjørende biler.

Forstå nivåene av selvkjørende biler

Som en avklaring er ekte selvkjørende biler de som AI kjører bilen helt alene, og det er ingen menneskelig assistanse under kjøreoppgaven.

Disse førerløse kjøretøyene betraktes som nivå 4 og nivå 5 (se min forklaring på denne lenken her), mens en bil som krever at en menneskelig sjåfør skal dele kjøreinnsatsen, vanligvis blir vurdert på nivå 2 eller nivå 3. Bilene som samarbeider dele kjøreoppgaven blir beskrevet som semi-autonome, og inneholder vanligvis en rekke automatiserte tilleggsprogrammer som er referert til som ADAS (Advanced Driver-Assistance Systems).

Det er ennå ikke en ekte selvkjørende bil på nivå 5, som vi ennå ikke en gang vet om dette vil være mulig å oppnå, og heller ikke hvor lang tid det vil ta å komme dit.

I mellomtiden prøver nivå 4-innsatsen gradvis å få litt trekkraft ved å gjennomgå veldig smale og selektive offentlige kjørebaneprøver, selv om det er kontrovers om denne testen skal være tillatt i seg selv (vi er alle liv-eller-død marsvin i et eksperiment. som foregår på våre motorveier og byveier, noen hevder, se min dekning på denne lenken her).

Siden semi-autonome biler krever en menneskelig sjåfør, vil ikke adopsjonen av disse typer biler være markant annerledes enn å kjøre konvensjonelle kjøretøyer, så det er ikke mye nytt per se å dekke om dem om dette emnet (skjønt, som du vil se på et øyeblikk er poengene som blir gjort neste, generelt anvendelige).

For semi-autonome biler er det viktig at publikum må varsles om et urovekkende aspekt som har oppstått i det siste, nemlig at til tross for de menneskelige sjåførene som fortsetter å legge ut videoer av seg som sovner ved rattet på en nivå 2 eller nivå 3-bil , vi alle trenger å unngå å bli villedet til å tro at sjåføren kan fjerne oppmerksomheten fra kjøreoppgaven mens han kjører en semi-autonom bil.

Du er den ansvarlige parten for kjøringen av kjøretøyet, uavhengig av hvor mye automatisering som kan kastes i et nivå 2 eller nivå 3.

Selvkjørende biler og uteliggere eller utstøtte av etiske AI-hensyn

For sanne selvkjørende kjøretøyer på nivå 4 og nivå 5 vil det ikke være en menneskelig sjåfør involvert i kjøreoppgaven.

Alle beboere vil være passasjerer.

AI driver kjøringen.

Et aspekt å umiddelbart diskutere innebærer det faktum at AI involvert i dagens AI-kjøresystemer ikke er viktig. Med andre ord, AI er helt en samling av databasert programmering og algoritmer, og absolutt ikke i stand til å resonnere på samme måte som mennesker kan.

Hvorfor er denne ekstra vekt om at AI ikke er følsom?

Fordi jeg vil understreke at når jeg diskuterer AI-kjøresystemets rolle, tilskriver jeg ikke menneskelige kvaliteter til AI. Vær oppmerksom på at det i disse dager er en pågående og farlig tendens til å antropomorfisere AI. I hovedsak tildeler folk menneskelig følsomhet til dagens AI, til tross for det ubestridelige og ubestridelige faktum at ingen slik AI eksisterer ennå.

Med den avklaringen kan du se for deg at AI-kjøresystemet ikke på en eller annen måte "vet" om fasettene ved kjøring. Kjøring og alt det innebærer må programmeres som en del av maskinvaren og programvaren til den selvkjørende bilen.

La oss dykke ned i de mange aspektene som kommer til å spille om dette emnet.

For det første er det viktig å innse at ikke alle AI selvkjørende biler er like. Hver bilprodusent og selvkjørende teknologifirma tar sin tilnærming til å utvikle selvkjørende biler. Som sådan er det vanskelig å komme med omfattende utsagn om hva AI-kjøresystemer vil gjøre eller ikke.

Når du sier at et AI -kjøresystem ikke gjør noen spesielle ting, kan dette senere bli forbikjørt av utviklere som faktisk programmerer datamaskinen til å gjøre akkurat det. Steg for steg blir AI -kjøresystemer gradvis forbedret og utvidet. En eksisterende begrensning i dag eksisterer kanskje ikke lenger i en fremtidig iterasjon eller versjon av systemet.

Jeg stoler på at det gir en tilstrekkelig mengde forbehold for å ligge til grunn for det jeg skal forholde meg til.

Vi er klar til å gjøre et dypdykk i selvkjørende biler og om noen utenfor boksen Radical Ethical AI-hensyn visstnok ikke blir tilstrekkelig.

På grunn av plassbegrensninger, la oss fokusere på en spesiell sak som vi deretter kan grave i. Spesielt er det den generelle anklagen om at rådende AI-etikk angivelig har en skjult antagelse om at AI er uunngåelig.

Hvis vi anvender den nøkkelstein-antagelsen på AI-baserte selvkjørende biler, innebærer det at det etiske AI-fellesskapet stort sett antar at selvkjørende biler uunngåelig vil bli utviklet og felt. De tar for pålydende at selvkjørende biler vil dukke opp, mens motkravet vil være at de bør ikke gjøre den skjulte antagelsen og i stedet tygge på at vi kanskje ikke burde ha AI selvkjørende biler (eller en variant som bare har dem under spesielle omstendigheter i stedet for på utbredt grunnlag).

Det er et flott spørsmål.

For å presisere og gjenta, påstanden enn å være at de dominerende etiske AI-betraktningene om AI-selvkjørende biler savner båten ved tilsynelatende å anta at AI-selvkjørende biler er uunngåelige. På den måten å tenke på vil forventningen bli vist todelt:

1. Få om noen undersøkelser av om vi i det hele tatt burde ha AI selvkjørende biler ville eksistere, eller ville bli shuntet til siden, eller ikke ha noe pust for å få noe skinnende lys av oppmerksomhet, og

2. Det sannsynlige fokuset på AI-selvkjørende biler vil i stedet være på detaljene rundt de etiske AI-konsekvensene av den tradisjonelle listen over faktorer, som forklarbarhet, rettferdighet, personvern, osv., og i det hele tatt gjøre det under generell dekke eller stillegående antakelse om at vi definitivt vil ha de beryktede autonome kjøretøyene (uten at noe annet alternativ blir mye underholdt).

Et interessant forslag.

Selv en tilfeldig inspeksjon av den generelle oppmerksomheten rundt slike problemer knyttet til AI selvkjørende biler vil vise at det er en antagelse om at AI selvkjørende biler er noe uunngåelig, men la oss sørge for at en stor advarsel og dobbel stjerne fotnote advarselsindikator går sammen med den feiende uttalelsen.

Her er hvorfor.

Vi vet foreløpig ikke om AI-baserte ekte selvkjørende biler virkelig vil være fullt mulig.

Jada, det er smale utformede offentlige veiprøver på gang. Disse er absolutt ikke på nivå 5. Ingen kan med rimelighet argumentere for det motsatte på det ubestridelige punktet. Du kan si at noen av de riktige prøvene går over til nivå 4, men vinglete og med relativt sprø ODD-er (ODDs eller Operation Design Domains er bestemmelsene om hvor en selvkjørende bilprodusent oppgir at deres autonome kjøretøy kan operere trygt , se diskusjonen min på denne lenken her).

Når det er sagt, er den selvkjørende bilarenaen mye lenger på vei enn den var for bare noen få år siden. Det er rimelig grunn til å være optimistisk om hva som vil skje videre. Det største stikkpunktet er tidsplanen for når dette vil spille ut. Tidligere spådommer fra forståsegpåerne har lett kommet og gått. Du kan forvente at de eksisterende spådommene garantert lider samme skjebne.

Kort fortalt ser det ut til at du uformelt kan si at det er en tilstrekkelig begrunnelse for å anta at AI-baserte ekte selvkjørende biler til slutt kommer til å oppstå. Det ser ut til at vi er på vei mot nivå 4 midt i svært begrensede ODDs. Den neste logiske utvidelsen ser ut til å innebære å ha flere ODDs, de med større variasjon og dybde. På et tidspunkt hvor vi har erobret nok overlappende og noe uttømmende ODD-sfærer, ser dette ut til å kulminere med å gå forsiktig inn på nivå 5. Det er i det minste den trinnvise filosofien om forventet fremgang (som ikke alle omfavner).

Jeg nevner disse tilsynelatende komplekse forvrengningene fordi det er mye forvirring om hva det betyr å forkynne at AI-baserte ekte selvkjørende biler eksisterer, eller at vi har kommet til det store øyeblikket av deres eksistens. Hva er din definisjon av AI-baserte ekte selvkjørende biler? Hvis du sier at det er øyeblikket du har kommet teensy-weensy inn på nivå 4, vel, jeg antar at du kan begynne å sprette de champagneflaskene. Hvis du sier at det er når vi har snudd hjørnet på nivå 4, må du oppbevare disse champagneflaskene. Hvis du sier at det er når vi har mestret nivå 5, kommer disse flaskene inn på baksiden av lagringshyllene, og du bør forvente at de blir støvete.

Alt i alt, hvis samfunnet faktisk antar at AI-selvkjørende biler er uunngåelige, kan du med rimelighet hevde at dette er en antakelse over bord. Ikke alle vil være enige i den påstanden, så for de av dere som er opprørt over den påståtte muligheten, er din voldsomme uenighet så bemerket.

Er vi potensielt å få oss selv i trøbbel eller alvorlige vanskeligheter ved generelt å følge den antagelsen om uunngåelighet for AI selvkjørende biler?

Det er spennende vendinger som denne gåten bringer til overflaten.

For eksempel er en allerede ofte diskutert bekymring at vi kan ha AI-baserte selvkjørende biler som er eksklusivt tilgjengelige i noen områder, men ikke i andre. Områdene som vil ha selvkjørende biler er "har" mens områdene som ikke har dem er "har ikke" som i hovedsak er utelukket fra å utnytte fordelene med selvkjørende biler.

Dette er det proklamerte elitistisk eller jegrettferdighet fenomenologisk bekymring som mange har gitt uttrykk for. Faktisk har jeg dekket dette mange ganger, for eksempel på denne lenken her og i denne større analysen på lenken her.

Tanken er at AI selvkjørende biler sannsynligvis vil bli operert i flåter. Flåteoperatørene vil velge hvor de skal utplassere sine selvkjørende biler. Det antatte stedet for å tjene penger på de selvkjørende bilene er i de rikere delene av en by eller by. De som bor i de fattige eller fattige delene av en by eller by vil ikke ha lett tilgang til selvkjørende biler.

Den samme logikken er ekstrapolert for å hevde at land på samme måte vil befinne seg i samme knipe. Rikere nasjoner vil oppleve bruk av selvkjørende biler, mens fattigere nasjoner ikke vil. De som har vil ha mer tilgang og bruk av autonome kjøretøy, de som ikke har vil ikke.

Du lurer kanskje på hva de har får som de som ikke har ikke får. En hyppig indikasjon er at det er en forventning om at AI førerløse biler vil ha mange færre bilulykker og bilkollisjoner. Troen er at antallet påfølgende menneskelige skader og dødsfall som følge av bilulykker vil reduseres dramatisk. Som sådan vil de rikere delene av en by eller by, eller de rikere nasjonene, kunne begrense sine bilrelaterte skader og dødsulykker, mens de menneskedrevne regionene som ikke har mulighet eller erstatning via AI-basert selv - Å kjøre bil vil ikke se noen tilsvarende reduksjon.

Vær oppmerksom på at det er andre utpekte fordeler med AI-selvkjørende biler som på samme måte vil bli opptjent i de som ikke har vært (se mer på denne lenken her).

Hovedpoenget her er at du kan strekke til "er selvkjørende biler uunngåelige" ved å påpeke at Ethical AI allerede svir om at selvkjørende biler kun er selektivt tilgjengelige. Jeg vet at det kan virke som en kringle av logikk. Det dette sier er at vi allerede er spesielt bekymret for at AI ikke er tilgjengelig i enkelte samfunnssegmenter. I den tankegangen er denne instansieringen av AI ikke uunngåelig med hensyn til disse kontekstene i seg selv (hvis du forstår driften).

konklusjonen

Du er utvilsomt kjent med det smarte vismannsrådet om at det du ikke vet kan skade deg, mens det du ikke vet som du ikke vet virkelig kan utslette deg.

Et synspunkt om den radikale etiske AI-holdningen er at til tross for enhver navnerelatert bestyrtelse, bør vi i det minste høre hva det antas at vi går glipp av. Kanskje er det en gruppetenkning som finner sted og såkalt konvensjonell Ethical AI eller gammeldags AI Ethics har klart å bli stillestående og fast på spesielle hensyn. I så fall kan et spark baktil hjelpe med å få motorene i gang igjen og bevege seg mot et utvidet omfang.

Eller det kan være at Ethical AI og AI Ethics gjør det bra, tusen takk, og denne avleggeren prøver bare å være en flue i salven. Ulempen virker ikke spesielt forstyrrende eller urovekkende. Når eller hvis ting på en eller annen måte går ut av kontroll, kan en hengiven og samordnet revurdering av riket være av innsiktsfull fortjeneste.

Kontinuerlig forbedring er en prisverdig ambisjon. Og du kan nesten uten tvil si at når det kommer til bruken av AI, vil vi ikke for sent oppdage at vi ikke visste det vi ikke visste, og at vi burde ha visst å være på toppen av aspekter som vi ikke visste (eller at vi kjente dem, noe, og utilsiktet undertrykte dem).

Det virker ikke altfor radikalt, gjør det?

Kilde: https://www.forbes.com/sites/lanceeliot/2022/02/20/pushing-the-boundaries-of-ai-ethics-into-the-topsy-turvy-world-of-radical-ethical- ai-potensielt-eksemplisert-via-brukssaken-av-berømte-ai-baserte-selvkjørende-biler/