AI-etikk og søken etter selvbevissthet i AI

Er du selvbevisst?

Jeg vedder på at du tror du er det.

Saken er visstnok få av oss som er spesielt selvbevisste. Det er en rekke eller grad av selvbevissthet, og vi alle angivelig varierer i hvor skarpt selvbevisste vi er. Du tror kanskje du er fullstendig selvbevisst og bare marginalt. Du kan være tynt selvbevisst og innse at det er din mentale tilstand.

I mellomtiden, på den øverste delen av spekteret, kan du tro at du er fullstendig selvbevisst og faktisk er omtrent like selvbevisst som de kommer. Bra for deg.

Når vi snakker om det, hva hjelper det å være svært selvbevisst?

I følge forskning publisert i Harvard Business Review (HBR) av Tasha Eurich, du er angivelig i stand til å ta bedre beslutninger, du er tryggere på beslutningene dine, du er sterkere i kommunikasjonsevnen din og mer effektiv generelt (per artikkel med tittelen "What Self-Awareness Really Is (and How) to Cultivate It).» Bonusfaktoren er at de med skarp selvbevissthet sies å være mindre tilbøyelige til å jukse, stjele eller lyve. Sånn sett er det to måter å avverge å være en skurk eller en kjeltring, sammen med streber etter å være et bedre menneske og pynte på dine medmennesker.

Alt dette snakket om selvbevissthet bringer opp et noe åpenbart spørsmål, nemlig hva betyr uttrykket selvbevissthet egentlig. Du kan lett finne tonnevis av ulike definisjoner og tolkninger om komplekset og skal vi si grøtaktig konstruksjon som innebærer å være selvbevisst. Noen vil forenkle saken ved å antyde at selvbevissthet består av å overvåke deg selv, vite hva du driver med. Du er godt klar over dine egne tanker og handlinger.

Antagelig, når en person ikke er selvbevisst, vil ikke en person innse hva de gjør, heller ikke hvorfor, og heller ikke være klar over hva andre mennesker har å si om dem. Jeg er sikker på at du har møtt folk som er som dette.

Noen mennesker ser ut til å gå på denne jorden uten en anelse om hva de selv gjør, og de ser heller ikke ut til hva andre sier om dem. Jeg antar at du kan hevde at de er som en heads-down ladende okse i en delikat butikk. Vi har vanligvis en tendens til å tro at oksen ikke vet hva den gjør og forblir uvitende om andres synspunkter med mindre de andre prøver å fysisk manøvrere eller fange den uvitende skapningen.

Det sies at selvinnsikt kan være noe rekursivt.

La meg skissere et eksempel for å illustrere denne rekursjonen. Du er midt i å se en ganske absorberende kattevideo på smarttelefonen din (det ser ut til at alle gjør dette). Noen mennesker ville ikke ha andre tilsynelatende tanker enn de fantastiske hjertevarmende krumspringene til disse kjære kattene. I mellomtiden, alle med en viss grad av selvbevissthet, de er klar over at de ser på en kattevideo. De kan også være klar over at andre rundt dem legger merke til at de ser på en kattevideo.

Legg merke til at du kan være selvbevisst og fortsatt være fordypet i en skal vi si en spesiell primæraktivitet. Den primære aktiviteten i dette tilfellet er å se kattevideoen. Sekundært, og samtidig, kan du tenke på at du faktisk ser på en kattevideo. Du er også i stand til å bære tanken på at andre observerer deg mens du ser på den totalt underholdende kattevideoen. Du trenger ikke nødvendigvis å stoppe én aktivitet, for eksempel slutte å se på kattevideoen, for så separat å tenke på at du (eller bare så) på en kattevideo. Disse tankene kan tilsynelatende oppstå parallelt med hverandre.

Noen ganger kan selvbevisstheten vår sparke oss ut av eller i det minste avbryte en primær mental aktivitet. Kanskje, mens du tenker på at du ser på kattevideoen, soner tankene dine delvis ut ettersom det overstrekker å konsentrere seg utelukkende om selve videoen. Du velger deretter å spole tilbake videoen for å se på nytt den delen du så, men som du ble mentalt distrahert fra å forstå. Selvbevissthet forstyrret din primære mentale aktivitet.

Ok, vi er nå klare for at de rekursive aspektene skal oppstå.

Er du klar?

Du ser på en kattevideo. Din selvbevissthet informerer deg om at du ser på en kattevideo og at andre ser på deg mens du ser på videoen. Det er status quo.

Deretter gjør du et ekstra mentalt sprang. Du begynner å tenke på din selvbevissthet. Du er selvbevisst om at du engasjerer din selvbevissthet. Slik går det: Tenker jeg for mye på å se på kattevideoen, spør du deg selv fortvilet? Dette er enda et lag med selvbevissthet. Selvbevissthet rangerer på toppen av annen selvbevissthet.

Det er et gammelt ordtak som sier at det er skilpadder helt ned. For selvbevissthetsfenomenene kan du være:

  • Ikke klar over deg selv
  • Selvbevisst om deg selv
  • Selvbevisst om din selvbevissthet om deg selv
  • Selvbevisst om at du er selvbevisst om din selvbevissthet om deg selv
  • Ad Infinitum (dvs. og så videre)

Du har kanskje innsett at jeg tidligere subtilt påpekte at det ser ut til å være to hovedkategorier for å være selvbevisst. En spesiell teori postulerer at vi har en slags indre selvbevissthet som fokuserer på våre indre tilstander, og vi har også en ekstern selvbevissthet som hjelper til med å måle oppfatningene om oss til de rundt oss som ser på oss.

I henhold til HBR-artikkelen, her er en rask skildring av de teoretiserte to typene av selvbevissthet: "Den første, som vi kalte indre selvbevissthet, representerer hvor tydelig vi ser våre egne verdier, lidenskaper, ambisjoner, tilpasning til miljøet vårt, reaksjoner (inkludert tanker, følelser, atferd, styrker og svakheter) og innvirkning på andre." Og i mellomtiden er den andre: "Den andre kategorien, ytre selvbevissthet, betyr å forstå hvordan andre mennesker ser på oss, i form av de samme faktorene som er oppført ovenfor. Vår forskning viser at folk som vet hvordan andre ser dem er dyktigere til å vise empati og ta andres perspektiver.»

En praktisk to-og-to-matrise eller fire-kvadrat kan utledes ved å hevde at både den interne og eksterne selvbevisstheten varierer fra høy til lav, og du kan pare de to kategoriene mot hverandre. HBR-forskningen indikerer at du sies å være en av disse fire selvbevissthetsarketypene:

  • Introspektør: Lav ekstern selvbevissthet + høy indre selvbevissthet
  • Søker: Lav ekstern selvbevissthet + lav indre selvbevissthet
  • Pleaser: Høy ekstern selvbevissthet + lav indre selvbevissthet
  • Bevisst: Høy ekstern selvbevissthet + Høy indre selvbevissthet

Høydepunktet ville være den "bevisste" arketypen som består av å være på det øverste trinnet for å være eksternt selvbevisst og likeledes på toppen av å være internt selvbevisst. For å avklare, du oppnår ikke denne beryktede holdningen på en nødvendigvis permanent måte. Du kan skli frem og tilbake mellom å være høy og lav, blant både indre og ytre selvbevissthet. Det kan avhenge av tidspunktet på dagen, situasjonen du befinner deg i, og en rekke andre fremtredende faktorer.

Nå som vi har dekket noen grunnleggende elementer om selvbevissthet, kan vi forsøke å knytte dette til temaet etisk atferd.

Den vanlige påstanden om å være selvbevisst er at du er mer sannsynlig å være overbord når du er selvbevisst. Dette betyr, som allerede angitt, at du er mindre utsatt for uønsket etisk atferd som å stjele, jukse og lyve. Begrunnelsen for denne tendensen er at den aktive selvbevisstheten din vil få deg til å innse at din egen oppførsel er ubehagelig eller uetisk. Ikke bare fangster du selv når du beveger deg inn i gjørmete uetisk farvann, men du er også tilbøyelig til å styre deg selv tilbake ut og inn på tørt land (helligheten til etisk territorium), som det var.

Din selvbevissthet hjelper deg med å utøve selvkontroll.

En kontrast vil antagelig være når det er liten eller ingen selvbevissthet, noe som antyder at noen kanskje er uvitende om at de lener seg inn i uetisk oppførsel. Du kan hevde at en så uvitende person kanskje ikke innser at de presterer dårlig. I likhet med oksen i skjørebutikken, inntil noe mer åpenlyst fanger oppmerksomheten deres, er det usannsynlig at de selv regulerer seg selv.

Ikke alle kjøper seg inn i dette, forresten. Noen vil hevde at selvbevissthet like lett kan brukes på å være uetisk som å være etisk. En ugjerningsmann kan for eksempel være fullstendig selvbevisst og glede seg over at de utfører feilhandlingene. Selvbevisstheten deres driver dem til og med sterkere mot større og større handlinger av ondsinnet uredelighet.

Det er mer uklarhet på dette enn det som kan sees direkte. Anta at noen er svært selvbevisste, men de er uvitende om de etiske sedvanene til et gitt samfunn eller kultur. På den måten har de ingen etisk veiledning, til tross for at de er selvbevisste. Eller, hvis du vil, kanskje personen vet om de etiske forskriftene og tror ikke de gjelder dem. De anser seg selv som unike eller utenfor grensene for konvensjonell etisk tenkning.

Rundt og rundt går det.

Selvbevissthet kan tolkes som et tveegget etikkorientert sverd, vil noen inderlig understreke.

For øyeblikket, la oss gå med happy face-versjonen som består av selvbevissthet i det store og hele veilede eller dytte oss mot etisk atferd. Alt annet likt, vil vi gjøre den frekke antagelsen at jo mer selvbevissthet det er, jo mer etisk tilbøyelig vil du bli. Det virker sikkert hyggelig og inspirerende å ønske det slik.

La oss skifte gir og bringe kunstig intelligens (AI) inn i bildet.

Vi er ved et tidspunkt i denne diskusjonen for å koble alle de forløpende forviklingene med det spirende riket av etisk AI, også kjent som AI-etikken. For min pågående og omfattende dekning av AI-etikk, se lenken her og lenken her, bare for å nevne noen få.

Forestillingen om etisk kunstig intelligens innebærer å flette feltet etikk og etisk oppførsel sammen til fremkomsten av kunstig intelligens. Du har helt sikkert sett overskrifter som har vekket alarmklokker om AI som er full av ulikheter og ulike skjevheter. For eksempel er det bekymring for at AI-baserte ansiktsgjenkjenningssystemer til tider kan utvise rase- og kjønnsdiskriminering, typisk som et resultat av hvordan de underliggende maskinlæringsfasilitetene (ML) og dyplæringsfasilitetene (DL) ble trent og felt (se min analyse på denne lenken her).

For å prøve å stoppe eller i det minste dempe pels-mell rush mot AI for Bad, bestående av AI-systemer som enten er utilsiktet eller til tider med vilje formet til å opptre dårlig, har det nylig vært et presserende behov for å anvende etiske forskrifter for utvikling og bruk av AI. Det seriøse målet er å gi etisk veiledning til AI-utviklere, pluss firmaer som bygger eller driver med AI, og de som er avhengige av AI-applikasjoner. Som et eksempel på at de etiske AI-prinsippene blir utformet og tatt i bruk, se min dekning på lenken her.

Gi et reflekterende øyeblikk til å vurdere disse tre svært avgjørende spørsmålene:

  • Kan vi få AI-utviklere til å omfavne etiske AI-prinsipper og ta disse retningslinjene i bruk?
  • Kan vi få firmaer som driver med AI til å gjøre det samme?
  • Kan vi få de som bruker AI til på samme måte å være klar over etiske AI-fasetter?

Jeg vil uforskammet si dette, det er en høy ordre.

Spenningen ved å lage AI kan overvinne enhver anelse om oppmerksomhet mot AI-etikken. Vel, ikke bare spenningen, men å tjene penger er integrert i den ligningen også. Du kan bli overrasket over å vite at noen i AI-verdenen er tilbøyelige til å si at de kommer til å ta seg av «greiene» med etisk AI når de har fått AI-systemene sine ut av døren. Dette er det typiske techie-mantraet om å sørge for å feile raskt og feile ofte til du får det riktig (forhåpentligvis får det rett).

Selvfølgelig slipper de som summarisk skyver etisk tvilsom AI inn på allmennheten, hesten ut av låven. Deres proklamerte utstrakte idé er at AI for Bad vil bli fikset etter at den er i daglig bruk, noe som er skadelig for sent siden hesten allerede er lystent galopperende rundt. Skader kan gjøres. Det er også økt sjanse for at ingenting blir fikset eller justert mens AI er i bruk. En hyppig unnskyldning er at det å fikle med AI på det tidspunktet kan gjøre det enda verre når det gjelder allerede uetiske algoritmiske beslutninger (ADM) som går helt av veien.

Hva kan gjøres for å få nytten og vitaliteten ved å ha etisk AI som et sterkt skinnende og veiledende lys i hodet til de som bygger AI, utvikler AI og bruker AI?

Svar: Selvbevissthet.

Ja, tanken er at hvis folk var mer selvbevisste om hvordan de bruker eller samhandler med AI, kan det øke deres tilbøyelighet til å ønske at etisk AI skal være normen. Det samme kan sies om AI-utviklerne og selskapene knyttet til AI-systemer. Hvis de var mer selvbevisste om hva de gjør, ville de kanskje omfavnet etikken til AI mer.

En del av logikken som allerede er fastsatt er at det å være selvbevisst gir en tendens til å være et etisk bedre menneske og også avverge fra å være en etisk elendig person. Hvis vi kan holde dette premisset gående, innebærer det at AI-utviklere som er mer tilbøyelige til selvbevissthet, vil være tilbøyelige til etisk atferd og derfor være tilbøyelige til å produsere etisk forsvarlig AI.

Er det en bro for langt for deg?

Noen vil si at indirekte er litt mye. Den ublu kjeden av koblinger mellom å være selvbevisst, å være etisk dydig og å anvende etiske forskrifter på AI er kanskje vanskelig å svelge. Et motargument er at det ikke kunne skade å prøve.

Skeptikere vil si at en AI-utvikler kan være selvbevisst og muligens være mer etisk innstilt, men de kommer ikke nødvendigvis til å hoppe mot å bruke den mentale leiren på etisk AIs skikker. Svaret på den betenkeligheten er at hvis vi kan publisere og popularisere etiske AI-saker, vil den ellers tilsynelatende svake forbindelsen bli mer åpenbar, forventet og muligens bli standardmåten å gjøre ting på når det kommer til å lage AI.

Jeg skal nå legge til en vri på denne sagaen. Vridningen kan få hodet til å snurre. Sørg for at du sitter godt og er forberedt på det jeg er i ferd med å indikere.

Noen påpeker at vi burde bygge etisk AI direkte inn i AI selv.

Du kan bli overrasket av den uttalelsen. La oss pakke den ut.

En programmerer kan lage et AI-system og gjøre det med sin egen programmerings-selvbevissthet for å prøve å forhindre AI fra å legemliggjøre skjevheter og ulikheter. I stedet for bare å pløye løs på programmeringen, våker utvikleren over sin egen skulder for å spørre om tilnærmingen de tar vil resultere i det nødvendige fraværet av uønskede elementer i AI.

Flott, vi har en AI-utvikler som ser ut til å være tilstrekkelig selvbevisst, har forsøkt å omfavne etisk atferd og har sett lyset for å inkludere etiske forskrifter når de lager AI-systemet sitt.

Ta en seier for Ethical AI!

Alt vel og bra, men her er noe som kan skje senere. AI er felt og tatt i daglig bruk. En del av AI inkluderte en komponent for å kunne "lære" i farten. Dette betyr at AI kan justere seg selv basert på nye data og andre aspekter ved den opprinnelige programmeringen. Som en rask side, betyr ikke dette at AI er sansende. Vi har ikke sansende AI. Ignorer de dumme overskriftene som sier at vi gjør det. Ingen kan si om vi vil ha sansende AI, og ingen kan i tilstrekkelig grad forutsi når det vil skje.

Tilbake til historien vår, AI ble målrettet utviklet for å forbedre seg selv mens den var i gang. Ganske praktisk begrep. I stedet for at programmerere kontinuerlig må gjøre forbedringer, lar de AI-programmet gjøre det av seg selv (hei, er det å jobbe deg selv ut av jobben?).

I løpet av tiden som AI-en tomme for tomme justerer seg selv, viser det seg at ulike elendige ulikheter og skjevheter kryper inn i AI-systemet ved sine egne endringshandlinger. Mens programmereren opprinnelig holdt de skumle aspektene ute, formulerer de seg nå på grunn av AI-justeringen i farten. Dessverre kan dette skje på en så subtil måte bak kulissene at ingen er klokere. De som tidligere kan ha gitt grønt lys til AI etter den innledende uttømmende testingen, er nå blindt uvitende om at AI har gått ned den råtne banen til AI for Bad.

En måte å enten forhindre eller i det minste fange denne uønskede fremveksten vil være å bygge inn i AI en slags etisk AI-dobbeltsjekker. En komponent i AI er programmert til å se oppførselen til AI og oppdage om uetisk ADM begynner å dukke opp. I så fall kan komponenten sende ut et varsel til AI-utviklerne eller gjøre det til et firma som kjører AI-systemet.

En mer avansert versjon av denne komponenten kan prøve å reparere AI. Dette ville være en justering av justeringene, og snu de uetiske aspektene tilbake til de riktige etiske parametrene. Du kan tenke deg at denne typen programmering er vanskelig. Det er en sjanse for at det kan komme på avveie, og muligens bli uetisk til dypt uetisk. Det er også mulighet for at en falsk positiv trigger komponenten til handling og kanskje roter til ting deretter.

Uansett, uten å sette oss fast i hvordan denne dobbeltsjekkeren ville fungere, kommer vi til å komme med en dristig erklæring om det. Du kan foreslå at AI på en eller annen begrenset måte sies å være selvbevisst.

Jepp, det er kampord for mange.

Den rådende troen hos nesten alle er at dagens AI ikke er selvbevisst. Punktum, punktum. Inntil vi når sansende AI, som vi ikke vet om eller når det vil skje, er det ingen form for AI som er selvbevisst. Ikke minst i betydningen menneskeorientert selvbevissthet. Antyder ikke engang at det kan skje.

Jeg er absolutt enig i at vi må være forsiktige med å antropomorfisere AI. Jeg skal si mer om den bekymringen om et øyeblikk.

I mellomtiden, hvis du for diskusjonens skyld er villig til å bruke faset "selvbevisst" på en løsaktig måte, tror jeg du lett kan se hvorfor AI kan sies å følge den generelle forestillingen om selv- bevissthet. Vi har en del av AI-en som overvåker resten av AI-en, og følger med på hva resten av AI-en driver med. Når resten av AI begynner å gå over bord, søker overvåkingsdelen å oppdage dette. Videre kan AI-overvåkingsdelen eller dobbeltsjekkeren styre resten av AI-en tilbake til de riktige banene.

Virker ikke det litt som det å se de kattevideoene og ha selvbevisstheten om at du gjorde det?

Det er en kjent ring rundt det.

Vi kan utvide dette enda mer. AI-dobbeltsjekker-komponenten er ikke bare programmert til å observere oppførselen til resten av AI, men merker også oppførselen til de som bruker AI. Hvordan går det med brukerne når de bruker AI? Anta at noen brukere uttrykker indignasjon over at AI ser ut til å diskriminere dem. AI-dobbeltsjekkeren kan kanskje fange opp dette ved å bruke det som et annet rødt flagg om resten av AI-en på avveie.

Dette bringer opp den indre selvbevisstheten og den ytre selvbevissthetskategoriseringen.

AI-dobbeltsjekkeren skanner internt og eksternt for å finne ut om resten av AI-en er på vei ut i urovekkende hav. Deteksjonen vil heve et flagg eller føre til at en selvkorrigering blir vedtatt.

La oss legge til en annen litt overveldende utvidelse. Vi bygger en annen AI-dobbeltsjekker som er ment å dobbeltsjekke kjerne-AI-dobbeltsjekkeren. Hvorfor det? Vel, anta at AI-dobbeltsjekkeren ser ut til å vakle eller ikke klarer å gjøre jobben sin. AI-dobbeltsjekkeren til dobbeltsjekkeren vil søke å oppdage denne feilen og iverksette nødvendige tiltak deretter. Velkommen til selvbevissthetens rekursive natur, kan noen stolt erklære, som vist i et beregningsbasert AI-system.

For de av dere som allerede er på kanten av setet om dette, er den siste kommentaren foreløpig at vi kan prøve å foreslå at hvis du gjør AI-systemer "selvbevisste" vil de potensielt gravitere mot etisk oppførsel. Gjør de dette på en følelsesmessig basis? Bestemt, nei. Gjør de dette på beregningsmessig grunnlag? Ja, selv om vi må være klare på at det ikke er av samme kaliber som menneskelig atferd.

Hvis du er ukomfortabel med at forestillingen om selvbevissthet blir feilaktig forvrengt for å få den til å passe inn i et beregningsskjema, er betenkelighetene dine om dette godt bemerket. Hvorvidt vi bør stoppe den pågående AI-innsatsen som utnytter ideen, er et annet åpent spørsmål. Du kan overbevisende argumentere for at det i det minste ser ut til å lede oss mot et bedre resultat av hva AI sannsynligvis vil gjøre. Vi må imidlertid ha øynene åpne når dette skjer.

Tror vi må se hvordan alt dette utspiller seg. Kom tilbake til dette om fem år, ti år og femti år, og se om tankegangen din har endret seg om den kontroversielle saken.

Jeg innser at dette har vært en litt heftig undersøkelse av emnet, og du vil kanskje ha lyst på noen daglige eksempler. Det er et spesielt og sikkert populært sett med eksempler som ligger meg nært på hjertet. Du skjønner, i min egenskap som ekspert på AI, inkludert de etiske og juridiske konsekvensene, blir jeg ofte bedt om å identifisere realistiske eksempler som viser AI-etikk-dilemmaer, slik at emnets noe teoretiske natur lettere kan forstås. Et av de mest stemningsfulle områdene som på en levende måte presenterer dette etiske AI-kvandalet, er fremkomsten av AI-baserte ekte selvkjørende biler. Dette vil tjene som en praktisk brukssak eller eksempel for rikelig diskusjon om emnet.

Her er et bemerkelsesverdig spørsmål som er verdt å vurdere: Belyser fremkomsten av AI-baserte ekte selvkjørende biler noe om at AI har et utseende av "selvbevissthet", og i så fall, hva viser dette?

Tillat meg et øyeblikk å pakke ut spørsmålet.

Først, merk at det ikke er en menneskelig sjåfør involvert i en ekte selvkjørende bil. Husk at ekte selvkjørende biler kjøres via et AI-kjøresystem. Det er ikke behov for en menneskelig sjåfør ved rattet, og det er heller ikke en bestemmelse om at et menneske kan kjøre kjøretøyet. For min omfattende og pågående dekning av autonome kjøretøy (AV) og spesielt selvkjørende biler, se lenken her.

Jeg vil gjerne forklare hva som menes når jeg refererer til ekte selvkjørende biler.

Forstå nivåene av selvkjørende biler

Som en avklaring er ekte selvkjørende biler de som AI kjører bilen helt alene, og det er ingen menneskelig assistanse under kjøreoppgaven.

Disse førerløse kjøretøyene regnes som nivå 4 og nivå 5 (se min forklaring på denne lenken her), mens en bil som krever en menneskelig sjåfør for å dele kjøreinnsatsen vanligvis vurderes på nivå 2 eller nivå 3. Bilene som deler kjøreoppgaven beskrives som semi-autonome, og inneholder vanligvis en rekke automatiserte tillegg som omtales som ADAS (Advanced Driver-Assistance Systems).

Det er ennå ikke en ekte selvkjørende bil på nivå 5, som vi ennå ikke en gang vet om dette vil være mulig å oppnå, og heller ikke hvor lang tid det vil ta å komme dit.

I mellomtiden prøver nivå 4-innsatsen gradvis å få litt trekkraft ved å gjennomgå veldig smale og selektive offentlige kjørebaneprøver, selv om det er kontrovers om denne testen skal være tillatt i seg selv (vi er alle liv-eller-død marsvin i et eksperiment. som foregår på våre motorveier og motorveier, noen hevder, se dekning min på denne lenken her).

Siden semi-autonome biler krever en menneskelig sjåfør, vil ikke adopsjonen av disse typer biler være markant annerledes enn å kjøre konvensjonelle kjøretøyer, så det er ikke mye nytt per se å dekke om dem om dette emnet (skjønt, som du vil se på et øyeblikk er poengene som blir gjort neste, generelt anvendelige).

For semi-autonome biler er det viktig at publikum må varsles om et urovekkende aspekt som har oppstått i det siste, nemlig at til tross for de menneskelige sjåførene som fortsetter å legge ut videoer av seg som sovner ved rattet på en nivå 2 eller nivå 3-bil , vi alle trenger å unngå å bli villedet til å tro at sjåføren kan fjerne oppmerksomheten fra kjøreoppgaven mens han kjører en semi-autonom bil.

Du er den ansvarlige parten for kjøringen av kjøretøyet, uavhengig av hvor mye automatisering som kan kastes i et nivå 2 eller nivå 3.

Selvkjørende biler og kunstig intelligens som har såkalt selvbevissthet

For sanne selvkjørende kjøretøyer på nivå 4 og nivå 5 vil det ikke være en menneskelig sjåfør involvert i kjøreoppgaven.

Alle beboere vil være passasjerer.

AI driver kjøringen.

Et aspekt å umiddelbart diskutere innebærer det faktum at AI involvert i dagens AI-kjøresystemer ikke er viktig. Med andre ord, AI er helt en samling av databasert programmering og algoritmer, og absolutt ikke i stand til å resonnere på samme måte som mennesker kan.

Hvorfor er denne ekstra vekt om at AI ikke er følsom?

Fordi jeg vil understreke at når jeg diskuterer AI-kjøresystemets rolle, tilskriver jeg ikke menneskelige kvaliteter til AI. Vær oppmerksom på at det i disse dager er en pågående og farlig tendens til å antropomorfisere AI. I hovedsak tildeler folk menneskelig følsomhet til dagens AI, til tross for det ubestridelige og ubestridelige faktum at ingen slik AI eksisterer ennå.

Med den avklaringen kan du se for deg at AI-kjøresystemet ikke på en eller annen måte "vet" om fasettene ved kjøring. Kjøring og alt det innebærer må programmeres som en del av maskinvaren og programvaren til den selvkjørende bilen.

La oss dykke ned i de mange aspektene som kommer til å spille om dette emnet.

For det første er det viktig å innse at ikke alle AI selvkjørende biler er like. Hver bilprodusent og selvkjørende teknologifirma tar sin tilnærming til å utvikle selvkjørende biler. Som sådan er det vanskelig å komme med omfattende utsagn om hva AI-kjøresystemer vil gjøre eller ikke.

Når du sier at et AI -kjøresystem ikke gjør noen spesielle ting, kan dette senere bli forbikjørt av utviklere som faktisk programmerer datamaskinen til å gjøre akkurat det. Steg for steg blir AI -kjøresystemer gradvis forbedret og utvidet. En eksisterende begrensning i dag eksisterer kanskje ikke lenger i en fremtidig iterasjon eller versjon av systemet.

Jeg stoler på at det gir en tilstrekkelig mengde forbehold for å ligge til grunn for det jeg skal forholde meg til.

Vi er klar til å gjøre et dypdykk i selvkjørende biler og etiske AI-spørsmål som innebærer den øyenbrynshevende forestillingen om at AI har en slags selvbevissthet om du vil.

La oss bruke et enkelt eksempel. En AI-basert selvkjørende bil er på vei i nabolagets gater og ser ut til å kjøre trygt. Til å begynne med hadde du viet spesiell oppmerksomhet til hver gang du klarte å få et glimt av den selvkjørende bilen. Det autonome kjøretøyet skilte seg ut med sitt stativ med elektroniske sensorer som inkluderte videokameraer, radarenheter, LIDAR-enheter og lignende. Etter mange uker med den selvkjørende bilen som cruiser rundt i samfunnet ditt, merker du det knapt nå. Så langt du er bekymret, er det bare en annen bil på de allerede trafikkerte offentlige veiene.

For at du ikke skal tro at det er umulig eller usannsynlig å bli kjent med å se selvkjørende biler, har jeg ofte skrevet om hvordan lokalitetene som er innenfor rammen av selvkjørende bilprøver, gradvis har blitt vant til å se de oppgraderte kjøretøyene, se min analyse på denne lenken her. Mange av lokalbefolkningen skiftet etter hvert fra munn-gapende henført stirring til nå å gi ut et ekspansivt gjesp av kjedsomhet for å se de meandrerende selvkjørende bilene.

Sannsynligvis hovedårsaken akkurat nå til at de kanskje legger merke til de autonome kjøretøyene, er på grunn av irritasjons- og irritasjonsfaktoren. De bokførte AI-kjøresystemene sørger for at bilene overholder alle fartsgrenser og kjøreregler. For hektiske menneskelige sjåfører i sine tradisjonelle menneskedrevne biler, blir du irritert til tider når du sitter fast bak de strengt lovlydige AI-baserte selvkjørende bilene.

Det er noe vi alle kanskje trenger å venne oss til, med rette eller urett.

Tilbake til historien vår. En dag, anta at en selvkjørende bil i byen eller byen din nærmer seg et Stopp-skilt og ikke ser ut til å bremse ned farten. Himmel, det ser ut som AI-kjøresystemet kommer til å ha den selvkjørende bilplogen rett forbi Stopp-skiltet. Tenk om en fotgjenger eller sykkelrytter var et sted i nærheten og ble overrasket over at den selvkjørende bilen ikke kom til å stoppe ordentlig. Skammelig. Farlig!

Og ulovlig.

La oss nå vurdere en AI-komponent i AI-kjøresystemet som fungerer som en stil med selvbevisst dobbeltsjekker.

Vi vil bruke et øyeblikk på å grave i detaljene om hva som skjer inne i AI-kjøresystemet. Det viser seg at videokameraene montert på det autonome kjøretøyet oppdaget det som kanskje så ut til å være et stoppskilt, men i dette tilfellet skjuler et overgrodd tre rikelig stoppskiltet. Machine Learning and Deep Learning-systemet som opprinnelig ble trent på Stopp-skilt ble utviklet på mønstre av hovedsakelig fulle Stopp-skilt, generelt uhindret. Ved beregningsmessig undersøkelse av videobildene ble det tildelt en lav sannsynlighet for at det fantes et stoppskilt på det bestemte stedet (som en ekstra komplikasjon, og ytterligere forklaring, var dette et nylig lagt ut stoppskilt som ikke dukket opp på de tidligere utarbeidede digitale kartene som AI-kjøresystemet var avhengig av).

Alt i alt bestemte AI-kjøresystemet seg beregningsmessig for å fortsette som om stoppskiltet enten var fraværende eller muligens et tegn av en annen type som kanskje lignet et stoppskilt (dette kan skje og skjer med en viss frekvens).

Men heldigvis overvåket den selvbevisste AI-dobbeltsjekkeren aktivitetene til AI-kjøresystemet. Etter beregningsmessig gjennomgang av dataene og vurderingen av resten av AI, valgte denne komponenten å overstyre det normale forløpet og beordret i stedet AI-kjøresystemet til å stoppe.

Ingen ble skadet, og ingen ulovlig handling oppsto.

Du kan si at den selvbevisste AI-dobbeltsjekkeren oppførte seg som om den var en innebygd juridisk agent, og prøvde å sikre at AI-kjøresystemet overholdt loven (i dette tilfellet et stoppskilt). Selvfølgelig var sikkerhet også nøkkelen.

Dette eksemplet viser forhåpentligvis hvordan den unnfangede AI-selvbevisste dobbeltsjekkeren kan fungere.

Vi kan deretter kort vurdere et mer fremtredende etisk AI-eksempel som illustrerer hvordan AI-selvbevisste dobbeltsjekk kan gi en etikk AI-orientert innebygd funksjonalitet.

For det første, som bakgrunn, er en av bekymringene som har blitt uttrykt om bruken av AI-baserte selvkjørende biler at de kan ende opp med å bli brukt på en noe utilsiktet diskriminerende måte. Dette er hvordan. Anta at de selvkjørende bilene er satt opp for å prøve å maksimere inntektspotensialet deres, noe som absolutt gir mening for de som driver en flåte av tilgjengelige selvkjørende biler. Flåteeieren ønsker å ha en lønnsom drift.

Det kan være at i en gitt by eller by begynner de roamende selvkjørende bilene gradvis å betjene enkelte deler av samfunnet og ikke andre områder. De gjør det for å tjene penger, ved at fattigere områder kanskje ikke er like inntektsgivende som de rikere delene av lokaliteten. Dette er ikke et eksplisitt ønske om å betjene noen områder og ikke tjene andre. I stedet oppstår det organisk at AI-en til de selvkjørende bilene "finner ut" beregningsmessig at det er mer penger å tjene ved å konsentrere seg om de geografisk høyere betalende områdene. Jeg har diskutert denne samfunnsetiske bekymringen i min spalte, for eksempel på lenken her.

Anta at vi har lagt til en AI-selvbevisst dobbeltsjekker i AI-kjøresystemene. Etter en stund merker AI-komponenten beregningsmessig et mønster av hvor de selvkjørende bilene streifer rundt. Spesielt på noen områder, men ikke på andre. Basert på å ha blitt kodet med noen etiske AI-forskrifter, begynner AI-selvbevisste dobbeltsjekker å lede de selvkjørende bilene til andre deler av byen som ellers ble forsømt.

Dette illustrerer AI selvbevisste forestillingen og gjør det i kombinasjon med det etiske AI-elementet.

Et annet slikt eksempel kan gi innsikt i at denne etiske AI-betraktningen også kan være en ganske nøkternt og alvorlig forgrening på liv eller død.

Tenk på en nyhetsrapport om en nylig bilulykke. Etter sigende skulle en menneskelig sjåfør komme opp til et travelt veikryss og fikk grønt lys til å fortsette rett frem. En annen sjåfør kom tønnende forbi rødt lys og kom inn i krysset da de ikke skulle ha gjort det. Sjåføren med grønt lys skjønte i siste øyeblikk at denne andre bilen kom til å kjøre hardt inn i bilen hans.

Ifølge denne utsatte sjåføren beregnet han bevisst at enten kom han til å bli truffet av den andre bilen, eller så kunne han svinge for å prøve å unngå inntrengeren. Problemet med å svinge var at det var fotgjengere i nærheten som ville være i fare.

Hvilket valg ville du tatt?

Du kan forberede deg på å bli truffet og håpe at skaden ikke vil lemleste eller drepe deg. På den annen side kan du svinge radikalt unna, men i alvorlig fare og muligens skade eller drepe fotgjengere i nærheten. Dette er et vanskelig problem, som omfatter moralsk dømmekraft, og er fullt gjennomsyret av etiske (og juridiske) implikasjoner.

Det er et generelt etisk dilemma som dekker denne typen dilemma, kjent eller kanskje beryktet kalt Trolley Problemet, se min omfattende dekning på denne lenken her. Det viser seg at det er et etisk stimulerende tankeeksperiment som går tilbake til tidlig på 1900-tallet. Som sådan har emnet eksistert en god stund og har i det siste blitt generelt assosiert med bruken av kunstig intelligens og selvkjørende biler.

Erstatt den menneskelige sjåføren med et AI-kjøresystem innebygd i en selvkjørende bil.

Tenk deg da at en AI selvkjørende bil kommer inn i et veikryss og sensorene til det autonome kjøretøyet plutselig oppdager en menneskedrevet bil som faretruende kommer direkte gjennom rødt lys og sikter mot den førerløse bilen. Anta at den selvkjørende bilen har noen passasjerer inne i kjøretøyet.

Hva vil du at AI skal gjøre?

Skulle AI-kjøresystemet velge å gå videre og bli pløyd inn i (sannsynligvis skade eller kanskje drepe passasjerene inne i kjøretøyet), eller vil du at AI-kjøresystemet skal ta en sjanse og svinge unna, selv om svingingen tar det autonome kjøretøyet farlig mot fotgjengere i nærheten og kan skade eller drepe dem.

Mange av AI-produsentene av selvkjørende biler tar en hode-i-sand-tilnærming til disse etiske AI-blemmeproblemene. I det store og hele ville AI-en som nå er programmert ganske enkelt pløye forover og bli voldsomt rammet av den andre bilen. AI var ikke programmert til å se etter andre unnvikende manøvrer.

Jeg har gjentatte ganger spådd at denne se-ingen-ikke-hør-ingen-ond-holdningen til AI-selvkjørende bilprodusenter til slutt vil komme rundt og bite dem (analysen min er på lenken her). Du kan forvente søksmål som involverer slike bilulykker som vil forsøke å finne ut hva AI var programmert til å gjøre. Var selskapet eller AI-utviklerne eller flåteoperatøren som utviklet og satte AI-en uaktsomt eller ansvarlig for hva AI-en gjorde eller ikke gjorde? Du kan også forutse at en etisk AI-bevissthet offentlig ildstorm vil brygge når slike tilfeller oppstår.

Inn i dette etiske AI-dilemmaet trer vår anerkjente AI selvbevisste dobbeltsjekker som er etikkorientert. Kanskje denne spesielle AI-komponenten kan engasjere seg i slike omstendigheter. Delen overvåker resten av AI-kjøresystemet og statusen til den selvkjørende bilen. Når et forferdelig øyeblikk som dette oppstår, fungerer AI-komponenten som en Trolley Problemløser og tilbyr hva AI-kjøresystemet skal gjøre.

Ikke en enkel ting å kode, jeg forsikrer deg.

konklusjonen

Jeg skal dele med deg den siste tanken for nå om dette emnet.

Du vil sannsynligvis finne det spennende.

Vet du om speiltest?

Det er ganske godt kjent i studiet av selvbevissthet. Andre navn for saken er speil-selvgjenkjenningstesten, rødflekk-testen, rouge-testen og relaterte fraseringer. Teknikken og tilnærmingen ble opprinnelig laget på begynnelsen av 1970-tallet for å vurdere selvbevisstheten til dyr. Dyr som angivelig har bestått testen inkluderer aper, visse typer elefanter, delfiner, skjærer og noen andre. Dyr som ble testet og angivelig ikke besto testen inkluderer kjempepandaer, sjøløver osv.

Her er avtalen.

Når et dyr ser seg selv i et speil, skjønner dyret at bildet som vises er av dem selv, eller tror dyret at det er et annet dyr?

Antagelig gjenkjenner dyret visuelt sin egen art, etter å ha sett andre av sitt eget slag, og kan derfor tro at dyret som vises i speilet er en fetter eller kanskje en krigersk konkurrent (spesielt hvis dyret snerrer til speilbildet, som i tur ser ut til å snerre tilbake på dem). Kanskje du har sett din huskatt eller din kjære kjæledyrhund gjøre det samme når den ser seg selv i et husholdningsspeil for første gang.

Uansett vil vi anta at et vilt dyr aldri har sett seg selv før. Vel, dette er ikke nødvendigvis sant, siden kanskje dyret fikk et glimt av seg selv i en rolig vannbasseng eller via en skinnende fjellformasjon. Men de anses som mindre sannsynlige sjanser.

Ok, vi vil på en eller annen måte vurdere om et dyr er i stand til å finne ut at det faktisk er dyret som vises i speilet. Tenk på den tilsynelatende enkle handlingen. Mennesker finner ut i ung alder at de eksisterer og at deres eksistens demonstreres ved å se seg selv i et speil. De blir selvbevisste om seg selv. I teorien innser du kanskje ikke at du er deg før du ser deg selv i et speil.

Kanskje dyr ikke er i stand til kognitivt å bli selvbevisste på samme måte. Det kan være at et dyr vil se seg selv i et speil og hele tiden tro at det er et annet dyr. Uansett hvor mange ganger den ser seg selv, vil den fortsatt tro at dette er et annet dyr enn seg selv.

Trikset med dette kommer til å spille. Vi setter et merke på dyret. Dette merket må bare være synlig når dyret ser seg selv i speilet. Hvis dyret kan vri seg eller snu og se merket på seg selv (direkte), ødelegger det eksperimentet. Dessuten kan dyret ikke føle, lukte eller på annen måte oppdage merket. Nok en gang, hvis de gjorde det, ville det ødelegge eksperimentet. Dyret kan ikke vite at vi setter merket på det, siden det ville antyde dyret om at noe er der.

Vi ønsker å begrense ting slik at den eneste mulige grunnen til at merket kan oppdages ville være å se seg selv i speilet.

Aha, testen er nå klar. Dyret settes foran et speil eller vandrer til det. Hvis dyret etterpå prøver å berøre eller grave ved merket, vil vi med rimelighet konkludere med at den eneste måten dette ville skje på er hvis dyret innså at merket var på seg selv. Svært få dyrearter har klart å bestå denne testen.

Det er en mengde kritikk om testen. Hvis en menneskelig tester er i nærheten, kan de gi bort ting ved å stirre på merket, noe som kan få dyret til å børste eller føle etter det. En annen mulighet er at dyret fortsatt tror at et annet dyr vises i speilet, men det er av samme type, og dermed lurer dyret på om det også har et merke som det på det andre dyret.

Videre og videre går det.

Jeg er sikker på at du er glad for å vite dette og vil heretter forstå hvorfor det er en prikk eller en merkelig markering på et dyr som ellers ikke ville hatt et slikt merke. Hvem vet, kanskje den nylig har fullført et speiltesteksperiment. Gratulerer dyret trygt for å ha vært en sjenerøs deltaker.

Hva har noe av det med AI-baserte selvkjørende biler å gjøre?

Du vil like denne delen.

En selvkjørende bil kjører på en lang motorvei. AI-kjøresystemet bruker sensorer for å oppdage annen trafikk. Dette er en tofelts motorvei som har trafikk nordgående i det ene kjørefeltet og sørgående i det andre kjørefeltet. Noen ganger vil biler og lastebiler prøve å passere hverandre, ved å gå inn i motsatt kjørefelt og deretter hoppe tilbake i riktig kjørefelt.

Du har sett dette, du har utvilsomt gjort dette.

Jeg vedder på at dette neste aspektet har skjedd med deg også. Foran den selvkjørende bilen står en av de store tankbilene. Den er laget av skinnende metall. Polert og rent som en fløyte. Når du setter deg bak en slik lastebil, kan du se speilbildet av bilen din via den bakre delen av tankbilen. Hvis du har sett dette, vet du hvor fascinerende det kan være. Der er du, du og bilen din, reflektert i den speillignende refleksjonen av baksiden av tankbilen.

Sett deg ned for den vanvittige vrien.

En selvkjørende bil kommer opp bak tankbilen. Kameraene registrerer bildet av en bil som vises i den speillignende refleksjonen. Whoa, vurderer AI, er det en bil? Kommer den på den selvkjørende bilen? Etter hvert som den selvkjørende bilen kommer nærmere og nærmere tankbilen, ser det ut til at bilen kommer nærmere og nærmere.

Jepp, AI-en kan regne ut at dette er en farlig situasjon, og AI-en burde ta unnvikende handlinger fra dette vanvittige useriøse kjøretøyet. Du skjønner, AI kjente seg ikke igjen i speilet. Den mislyktes i speiltesten.

Hva å gjøre? Kanskje hopper den selvbevisste dobbeltsjekkeren til AI inn i saken og forsikrer resten av AI-kjøresystemet med at det bare er en ufarlig refleksjon. Fare avverget. Verden er reddet. Vellykket gjennomføring av AI Mirror Test!

Med en konklusjon kan vi til og med foreslå at noen ganger er AI smartere eller i det minste mer selvbevisst enn en gjennomsnittlig bjørn (selv om de, til ære for bjørner, vanligvis gjør det bra i speiltesten, ofte etter å ha blitt vant til deres refleksjon i vannbassenger).

Korreksjon, kanskje AI kan være mer selvbevisst enn kjempepandaer og sjøløver, men ikke fortell dyrene det, de kan bli fristet til å knuse eller slå AI-systemer. Det vil vi vel ikke?

Kilde: https://www.forbes.com/sites/lanceeliot/2022/09/18/ai-ethics-and-the-quest-for-self-awareness-in-ai/