AI-etikk forstyrret av det siste Kina utviklet AI Party-lojalitet Tankelesende ansiktsgjenkjenningsattest som kan varsle undertrykkende autonome systemer

Er du lojal?

I teorien kan det være mulig å undersøke dine åpenbare gjerninger og finne ut om lojalitet er utvist av handlingene dine.

Anta at det i stedet ble gjort et forsøk på å lese tankene dine og i mellomtiden skanne ansiktet ditt for å bestemme lojalitetskvotienten din. Dette er uhyggelig påtrengende; du kan lett avvise. Høres ut som en av de sprø sci-fi-filmene som ser for seg et fremtidig dystopisk samfunn.

Heldigvis hvisker du skjult til deg selv, vi har ikke noe sånt i dag.

Huff, hold hestene dine.

Nyhetsoverskrifter har nylig skurret at en forskningsartikkel som ble lagt ut på nett i Kina 1. juli 2022, skildret en studie som angivelig involverte en vurdering av folks hjernebølger og deres ansiktsuttrykk for å beregne om de var lojale mot det kinesiske kommunistpartiet (KKP) . Så der går fremtiden, fremtiden kommer nærmere og nærmere, i det minste når det gjelder å oppnå det dystopiske samfunnet som vi har fryktet kan oppstå en dag.

Forskningsartikkelen forsvant raskt fra den elektroniske lenken.

Antagelig var den raske forakten som raskt feide over Internett nok til å få papiret ned. Eller kanskje forskerne bare ønsker å gjøre noen ordendringer og andre ufarlige rettelser, med sikte på å gjøre en repostering når de har fått en grundigere sjanse til å sikre at i-ene er prikkete og t-ene er krysset. Vi må holde øynene åpne for å se om avisen får et nytt liv.

Jeg skal gå videre og gjøre et dypdykk i det vi vet om forskningsstudien og prøve å koble sammen prikkene om hvordan denne typen AI-relatert arbeid har betydning for oss alle, og går langt utover omfanget av å se dette som begrenset til ett bestemt land. Dekningen min vil være litt mer omfattende enn den andre nylige rapporteringen om dette nyhetsverdige elementet, så vær så snill å tåle med meg.

Min ekstra vekt vil også være at det er en rekke viktige AI-etikkleksjoner som vi kan hente fra den påståtte artikkelen. For min pågående og omfattende dekning av AI-etikk og etisk AI, se lenken her og lenken her, bare for å nevne noen få.

Her er det som har blitt nevnt så langt om forskningsstudien.

Tilsynelatende ble noen "frivillige" rekruttert til å delta i et eksperiment angående oppfatninger av KKP. Hvorvidt de var villige frivillige eller mer beslektet med guffe eller kanskje guidede frivillige er ukjent. Vi vil for diskusjonens skyld anta at de var innforstått med å være et emne i studien.

Jeg tar dette opp for å ikke bare være smarrig. Hver gang et eksperiment utføres som involverer mennesker, er det en mengde generelt akseptert praksis angående rekruttering og fordyping av slike forsøkspersoner i en forskningsinnsats. Dette sporer delvis tilbake til tidligere studier som ofte lurte eller tvang folk til å delta i et eksperiment, til tider førte til negative psykologiske konsekvenser eller til og med fysisk skade for disse deltakerne. Det vitenskapelige samfunnet har prøvd kraftig å begrense disse typer lumske studier og krever at alle slags avsløringer og advarsler gis til de som søkes for inkludering i menneskerelaterte studier.

For å presisere, ikke alle følger slike forsiktige og samvittighetsfulle retningslinjer.

Videre var det angivelig 43 undersåtter, og de ble sagt å være medlemmer av Kinas kommunistparti. Husk at utvalget av emner for et eksperiment er ganske avgjørende for eksperimentet og må også tas i betraktning angående eventuelle konklusjoner du kan prøve å komme til etterpå om resultatene av eksperimentet.

Anta at jeg vil gjøre et eksperiment om hvordan folk oppfatter den anerkjente Star Wars-serien. Hvis jeg forhåndsvelger ut emner som alle har rungende hater Star Wars (hvordan kan slike mennesker eksistere?), og jeg viser dem Star Wars-videoklipp, er sjansen stor for at de sannsynligvis kommer til å si at de fortsatt misliker Star Wars. Basert på dette pseudovitenskapelige eksperimentet, hevder jeg kanskje snikende at folk – generelt – virkelig hater Star Wars, som ble "bevist" (blink-blink) i min "nøye" forberedte forskningsmiljø.

Du visste kanskje ikke at jeg hadde rigget ruletthjulet, så å si, ved å forhåndsvelge emnene som jeg forventet ville gi mine i det skjulte ønskede resultater. Selvfølgelig, hadde jeg med vilje i stedet rekruttert folk som elsket Star Wars og var ivrige ivrige fans, er sjansen stor for at de ville rapportert som ekstatiske over å se disse Star Wars-klippene. Igjen, alle konklusjoner om hvordan folk generelt reagerer på Star Wars vil bli dempet av det forhåndsvalgte settet med emner som er valgt for innsatsen.

Den KKP-fokuserte studien fikk tilsynelatende forsøkspersonene til å sitte foran en kiosklignende videoskjerm og lese ulike artikler om KKPs retningslinjer og prestasjoner. Dette er sannsynligvis den betraktede "eksperimentelle behandlingen" som forsøkspersonene blir utsatt for. Når du planlegger et eksperiment, kommer du vanligvis på en eksperimentell faktor eller aspekt som du vil se om det påvirker deltakerne.

Forskningsspørsmålet som tilsynelatende ble undersøkt var om gjennomgangen av dette materialet ville ha noen innvirkning på forsøkspersonene i form av å øke, redusere eller være nøytrale i forhold til deres påfølgende inntrykk av KKP.

I en klassisk nullhypotese kan du arrangere en slik studie for å fastslå at materialene som konsumeres ikke har noen innvirkning på de påfølgende inntrykkene som forsøkspersonene uttrykker. Når du har gjort en før og etter sammenligning av deres synspunkter om KKP, vil du statistisk prøve å se om det var en statistisk signifikant oppdagelse av en endring i deres inntrykk.

Det kan være at før og etter ikke er statistisk forskjellige, derfor kan du med rimelighet foreløpig konkludere med at for denne spesifikke studien så det ikke ut til at de viste materialene (eksperimentell behandling) gjorde en forskjell i deres inntrykk. På den annen side, hvis det var en statistisk gyldig forskjell, ville du se etter om etter var større enn før, slik at du forsiktig kan foreslå at materialene forsterket inntrykkene deres (og på den andre siden av mynten, hvis etter var mindre enn før, dette kan bety at materialene reduserte eller reduserte inntrykkene deres).

Det er mange gnagende løse tråder som må håndteres i en slik studie.

For eksempel ønsker vi vanligvis å ha en såkalt kontrollgruppe som vi kan sammenligne med de som får den eksperimentelle behandlingen. Her er hvorfor. Anta at det å sitte foran en kiosk for å lese materiell var det sanne grunnlaget for hvorfor inntrykk ble endret. Det kan være at arten av materialene som forbrukes er omtrent uvesentlig for inntrykket. Bare det å sitte og lese hva som helst, for eksempel de siste historiene om katter som gjør morsomme ting, kan gjøre susen alene. Vi kan derfor ordne med å ha noen emner i kontrollgruppen vår som er eksponert for annet materiale å lese, annet enn KKPs retningslinjer og materiell.

Vi vet ikke om det ble gjort i dette tilfellet (ingen ser ut til å ha nevnt denne fasetten ennå).

Jeg skjønner at du nå begynner å bli irritert over den medieeksplosive delen av studien. Vi skal raskt gå inn i den delen.

Hvordan kan vi oppdage om forsøkspersonene i dette eksperimentet reagerte på eller endret deres inntrykk som et resultat av å lese det viste materialet?

Et vanlig middel ville være å spørre dem.

Du ville kanskje på forhånd ha administrert et spørreskjema som spør dem om deres inntrykk av KKP. Deretter, etter eksponeringen for den eksperimentelle behandlingen, som ved lesing av materialer som vises, kunne vi administrere et nytt spørreskjema. Svarene som ble gitt av fagene på før og etter-basis kan deretter sammenlignes. Hvis vi også brukte en kontrollgruppe, ville vi anta at kontrollgruppesvarene ikke ville endret seg vesentlig fra før til etterpå (under den tro at det å se på historier om boltrende katter ikke burde ha påvirket deres KKP-inntrykk).

Denne handlingen med å spørre forsøkspersonene om deres inntrykk er ikke nødvendigvis så enkelt som det kan virke.

Anta at forsøkspersonene i eksperimentet får en følelse eller generell drift av at du vil at de skal svare på den eksperimentelle behandlingen på en bestemt måte. I så fall kan de med vilje overdrive reaksjonene sine i den etterfølgende delen av den eksperimentelle administreringen. Du har sikkert sett dette skje. Hvis jeg gjør en smakstest for en ny brus som kommer på markedet, kan jeg oppføre meg som om jeg likte brusen, og gjør det i håp om kanskje å bli omtalt i en reklame fra brusprodusenten og få mine rikt fortjente femten minutter med berømmelse .

Poenget er at bare å spørre folk om deres meninger ikke er en sikker måte å måle endringer på. Det er én tilnærming. Andre tilnærminger kan og blir også ofte tatt.

Hvordan valgte denne studien å måle reaksjonene til forsøkspersonene?

Tilsynelatende ble minst to metoder brukt. En metode besto av å gjøre en ansiktsskanning og bruke AI-basert programvare for ansiktsgjenkjenning for å vurdere reaksjonene til forsøkspersonene. Den andre metoden var angivelig en form for hjernebølgeskanning. Det er foreløpig ikke rapportert om hvilken type hjernebølgeskanningsenheter som ble brukt, og heller ikke hva slags AI-basert programvare for hjernebølgeanalyse som ble brukt.

Ulike rapportering har indikert at studien uttalte dette om eksperimentets natur: "På den ene siden kan den bedømme hvordan partimedlemmer har akseptert tankegang og politisk utdanning." Og studien nevnte visstnok også dette: "På den annen side vil den gi reelle data for tanke og politisk utdanning, slik at den kan forbedres og berikes." Forskningsstudien ble tilskrevet å være utført i regi av Kinas Hefei Comprehensive National Science Centre.

Medierapporter tyder på at studien hentydet til en påstand om at ansiktsgjenkjenningsskanningene og hjernebølgeskanningene var i stand til å hjelpe til med å oppdage at etterinntrykkene ble forsterket av KKP.

Jeg vil bemerke for deg at uten å være i stand til å direkte gjennomgå systemene som ble brukt og undersøke forskningsoppgaven nøye, vet vi ikke detaljene om hvordan disse AI-baserte systemene ble brukt nøyaktig.

Det kan være at forsøkspersonene reagerte på den eksperimentelle settingen i stedet for å reagere på den eksperimentelle behandlingen. Alle som deltar i en studie kan være engstelige til å begynne med. Dette kan forvirre alle forsøk på å utføre hjernebølgeskanning eller analyse av ansiktsmønster. Det er også en sjanse for at de følte seg motiverte til å glede forskerne, og valgte å ha laget positive tanker etter å ha sett materialet, og dette kan i teorien gjenspeiles i hjernebølgeskanningen og ansiktsskanningen (kanskje, men vær så snill å vite at det er en flott en del lidenskapelig kontrovers om gyldigheten av slike påstander, som jeg vil belyse et øyeblikk), i håp om å skjeve resultatene og vise at de ble positivt påvirket.

Twitter-reaksjonen avviste i stor grad at selve ideen om å bruke AI-støttede hjernebølgeskanninger og ansiktsgjenkjenning i seg selv er en forferdelig og opprørende handling. Bare menneskelige monstre ville bruke slike enheter, blir vi fortalt av noen av disse tweetene.

Jeg må be deg om å sette deg ned og forberede deg på noe som kan være en frekk og sjokkerende overraskelse.

Det er mange forskere over hele verden som bruker de samme typene teknologier i sine forskningsstudier. Dette er absolutt ikke første gang en hjernebølgeskanningsfunksjon ble brukt på mennesker i en forskningsinnsats. Dette var absolutt ikke første gang ansiktsgjenkjenning ble brukt på mennesker til eksperimentelle formål. Selv et overfladisk nettsøk vil vise deg massevis av eksperimentelle studier på tvers av alle slags land og laboratorier som har brukt den typen enheter.

Når det er sagt, er det ikke noe du vil ha mye fokus på å bruke dem til å måle lojalitet til KKP. Når slik AI brukes til statlig kontroll, er en rød linje krysset, som de sier.

Det er den åpenbart avkjølende delen av hele settet og caboodle.

Den uttrykte bekymringen fra mange er at hvis regjeringer velger å bruke hjernebølgeskanningsteknologi og ansiktsgjenkjenning for å sikre lojalitet til regimene som er på hånden, kommer vi til å finne oss selv i en dystopisk verden av såret. Når du går nedover en offentlig gate, kan det være at en enhet montert på en lyktestolpe i hemmelighet kommer til å bestemme lojalitetskvotienten din.

Man antar at hvis ansiktet ditt ikke ser ut til å antyde at du er tilstrekkelig lojal, eller hvis hjernebølgeskanningen antyder det samme, kan offentlige kjeltringer plutselig skynde seg opp og ta tak i deg. Irriterende. Uhyggelig. Må ikke tillates.

Det er kjernen i hvorfor det har oppstått en overskrift som fosser opprør og raseri på denne nyheten.

Tenk deg dette. Vi kommer muligens til å lage og deretter ta i bruk databaserte systemer som bruker det siste innen AI for å avgjøre om vi er lojale eller ikke. Hvis du prøvde å ansette folk til å sitte rundt og gjøre det samme, ville du trenge mange mennesker, og du ville ha et logistikkproblem med å prøve å plassere dem for å se alle. Når det gjelder et AI-basert system, er alt du trenger å gjøre å sette opp de elektroniske enhetene på lyktestolper, sider av bygninger og så videre. Skanningen for lojalitet kan skje 24×7, til enhver tid, på alle steder utstyrt slik. Dette kan deretter mates inn i en massiv database.

Vi blir mennesker som bare er tannhjul i et koloss altseende altovervåkende samfunnsundertrykkende økosystem. Det seende øyet er ikke bare å se på det vi gjør. Det er også å tolke hva ansiktene våre hevder å si om vår lojalitet til regjeringen. Vårt sinn skal også undersøkes for en lignende fryktelig årsak.

Yikes!

Det er en sekundær bekymring som kommer fra dette også, men kanskje ikke fullt så vanskelig i forhold til Big Brother-implikasjonene som allerede skissert.

Tenk over disse to presserende spørsmålene:

  • Kan vi pålitelig hevde at en hjernebølgeskanning kan bekrefte din lojalitet?
  • Kan vi pålitelig hevde at en ansiktsgjenkjenningsskanning kan bekrefte din lojalitet?

Hold ut, kanskje du roper på toppen av lungene dine.

Jeg innser og erkjenner at du kanskje ikke bryr deg så mye om pålitelighetsaspektene i seg selv. Om dette kan gjøres pålitelig er mindre avgjørende enn at det i det hele tatt gjøres. Ingen bør være under slik gransking. Glem om teknologien fungerer egnet for denne oppgaven. Vi burde ikke påta oss oppgaven når vi er i gang.

Uansett er svaret akkurat nå et rungende nei, nemlig at eksisterende AI-systemer som gjør noen form for "hjernebølgeskanning" og ansiktsgjenkjenning ikke er tilstrekkelig i stand til å ta det spranget.

Du har kanskje sett i det siste at noen av ansiktsgjenkjenningsprodusentene har gjort noe tilbake når det gjelder hvordan ansiktsgjenkjenningssystemene deres blir tatt i bruk. I et kommende spalteinnlegg vil jeg diskutere den nylige innsatsen fra for eksempel Microsoft for å prøve å demme opp for de som bruker de Microsoft-leverte ansiktsgjenkjenningsverktøyene til formål langt utover det teknologien er i stand til eller burde brukes til . Du kan finne av interesse min tidligere titt på AI-etikk-bekymringene som allerede har blitt godt publisert om ansiktsgjenkjenning, se lenken her. Jeg har også diskutert arenaen for hjernebølgeskanninger, se diskusjonen min på lenken her.

Kort sagt, det er ingen pålitelige eller fornuftige midler foreløpig å antyde at en hjernebølgeskanning eller en ansiktsgjenkjenningsskanning kan utgi seg for å skildre noens lojalitet. Selv antagelig grunnleggende fasetter som om du pålitelig kan korrelere disse skanningene til om noen er glade versus triste, diskuteres fortsatt heftig. Å prøve å øke anten til noe så amorft og variabelt som lojalitet er en bro for langt.

Jeg kan legge til at noen tror sterkt at vi til slutt vil komme dit. Derfor har jeg nøye forsøkt å legge merke til at vi ikke er der ennå, i stedet for å si at vi aldri kommer dit. Aldri er et stort ord. Du må være helt sikker på om du skal kaste deg rundt at dette vil aldri være gjennomførbart (husk at "aldri" omfatter tiår fra nå, århundrer fra nå, og tusenvis eller millioner av år fra nå).

Noen har reagert på nyhetssaken om denne kinesiske laboratorieforskningen som en indikator på hvor farlig verden går over til upassende og farlig bruk av AI. Jeg vil dele med deg et øyeblikk et glimt av hva AI-etikk handler om. Dette vil hjelpe deg til å se mer tydelig hvorfor denne studien ser ut til å bryte med mange om ikke nesten alle de generelt aksepterte forskriftene til etisk kunstig intelligens.

Tro det eller ei, noen har foreslått at vi kanskje lager et fjell av en føflekk angående denne studien.

Er vi?

Motargumentet er at en føflekk fort nok kan bli et fjell. I den velkjente forestillingen om en snøball som blir større og større når den ruller ned en snødekt bakke, må vi stoppe snøballen fra å komme i gang. Hvis vi tolererer denne typen studier, lar vi den snøballen begynne sin reise. Ved å si ifra og kalle ut slike studier, kan vi kanskje forhindre snøballen.

En ting er sikkert, vi er på randen av å åpne Pandoras boks når det kommer til AI-aspekter, og spørsmålet gjenstår om vi kan forhindre åpningen av boksen eller i det minste finne noen måter å håndtere det som kommer ut på en forsvarlig måte. når boksen har sluppet løs det djevelske innholdet.

Om ikke annet, forhåpentligvis vil denne typen mediestormer føre til en utbredt diskusjon om hvordan vi skal forhindre AI-relatert ondskap og avverge en rekke eksistensielle risikoer som utløses av AI. Vi må øke et hakk i vår samfunnsbevissthet om AI-etikk og etiske AI-hensyn.

Før vi går inn på litt mer kjøtt og poteter om de ville og ullene betraktningene som ligger til grunn for denne typen AI-systemer, la oss etablere noen ekstra grunnleggende om dypt essensielle emner. Vi trenger et kort dykk i AI-etikk og spesielt bruken av Machine Learning (ML) og Deep Learning (DL).

Du er kanskje vagt klar over at en av de høyeste stemmene i disse dager i AI-feltet og til og med utenfor AI-feltet består av å rope etter et større utseende av etisk AI. La oss ta en titt på hva det betyr å referere til AI-etikk og etisk AI. På toppen av det vil vi utforske hva jeg mener når jeg snakker om maskinlæring og dyplæring.

Et bestemt segment eller del av AI-etikken som har fått mye oppmerksomhet i media, består av AI som viser uheldige skjevheter og ulikheter. Du er kanskje klar over at da den siste æraen med kunstig intelligens kom i gang var det et stort utbrudd av entusiasme for det noen nå kaller AI For Good. Dessverre begynte vi å være vitne til etter den fossende spenningen AI for Bad. For eksempel har forskjellige AI-baserte ansiktsgjenkjenningssystemer blitt avslørt å inneholde rasemessige skjevheter og kjønnsskjevheter, som jeg har diskutert på lenken her.

Anstrengelser for å kjempe tilbake mot AI for Bad er aktivt i gang. Dessuten høyrøstet lovlig jakten på å tøyle urettferdighetene, er det også et betydelig løft mot å omfavne AI-etikk for å rette opp AI-eiendommen. Tanken er at vi bør ta i bruk og støtte viktige etiske AI-prinsipper for utvikling og felt av AI for å undergrave AI for Bad og samtidig varsle og fremme det som er å foretrekke AI For Good.

På en beslektet oppfatning er jeg en talsmann for å prøve å bruke AI som en del av løsningen på AI-problemer, og bekjempe ild med ild på den måten å tenke på. Vi kan for eksempel bygge inn etiske AI-komponenter i et AI-system som vil overvåke hvordan resten av AI gjør ting og dermed potensielt fange opp i sanntid enhver diskriminerende innsats, se diskusjonen min på lenken her. Vi kan også ha et eget AI-system som fungerer som en type AI Ethics-monitor. AI-systemet fungerer som en tilsynsmann for å spore og oppdage når en annen AI går inn i den uetiske avgrunnen (se min analyse av slike evner på lenken her).

Om et øyeblikk vil jeg dele med deg noen overordnede prinsipper som ligger til grunn for AI-etikk. Det er mange slike lister som flyter rundt her og der. Du kan si at det ennå ikke er en enestående liste over universell appell og samtidighet. Det er den uheldige nyheten. Den gode nyheten er at det i det minste er lett tilgjengelige AI Ethics-lister, og de pleier å være ganske like. Alt i alt tyder dette på at vi ved en form for begrunnet konvergens finner veien mot en generell fellestrekk av hva AI-etikk består av.

Først, la oss kort dekke noen av de generelle etiske AI-reglene for å illustrere hva som bør være en viktig vurdering for alle som lager, driver med eller bruker AI.

For eksempel, som uttalt av Vatikanet i Roma oppfordrer til AI-etikk og som jeg har dekket i dybden på lenken her, dette er deres identifiserte seks primære AI-etiske prinsipper:

  • Åpenhet: I prinsippet må AI-systemer kunne forklares
  • Inkludering: Alle menneskers behov må tas i betraktning slik at alle kan komme til nytte, og alle kan tilbys best mulige forutsetninger for å uttrykke seg og utvikle seg.
  • Ansvar: De som designer og distribuerer bruken av AI må fortsette med ansvar og åpenhet
  • Opartiskhet: Ikke skap eller handle i henhold til partiskhet, og dermed ivareta rettferdighet og menneskeverd
  • Pålitelighet: AI-systemer må kunne fungere pålitelig
  • Sikkerhet og personvern: AI-systemer må fungere sikkert og respektere brukernes personvern.

Som uttalt av det amerikanske forsvarsdepartementet (DoD) i deres Etiske prinsipper for bruk av kunstig intelligens og som jeg har dekket i dybden på lenken her, dette er deres seks primære AI-etiske prinsipper:

  • Ansvarlig: DoD-personell vil utøve passende nivåer av dømmekraft og omsorg mens de fortsatt er ansvarlige for utvikling, distribusjon og bruk av AI-evner.
  • Rettferdig: Avdelingen vil ta bevisste skritt for å minimere utilsiktet skjevhet i AI-evner.
  • Sporbar: Avdelingens AI-evner vil bli utviklet og distribuert slik at relevant personell har en passende forståelse av teknologien, utviklingsprosessene og operasjonelle metoder som gjelder for AI-evner, inkludert transparente og reviderbare metoder, datakilder og designprosedyre og dokumentasjon.
  • Pålitelig: Avdelingens AI-evner vil ha eksplisitte, veldefinerte bruksområder, og sikkerheten, sikkerheten og effektiviteten til slike evner vil være gjenstand for testing og forsikring innenfor de definerte bruksområdene gjennom hele livssyklusen.
  • Styres: Avdelingen vil designe og konstruere AI-evner for å oppfylle deres tiltenkte funksjoner samtidig som den har evnen til å oppdage og unngå utilsiktede konsekvenser, og evnen til å koble ut eller deaktivere utplasserte systemer som viser utilsiktet oppførsel.

Jeg har også diskutert ulike kollektive analyser av AI-etiske prinsipper, inkludert å ha dekket et sett utviklet av forskere som undersøkte og kondenserte essensen av en rekke nasjonale og internasjonale AI-etiske prinsipper i en artikkel med tittelen "The Global Landscape Of AI Ethics Guidelines" (publisert i Natur), og at dekningen min utforsker kl lenken her, som førte til denne keystone-listen:

  • Åpenhet
  • Rettferdighet og rettferdighet
  • Ikke-ondsinnethet
  • Ansvar
  • Privatliv
  • godgjør
  • Frihet og autonomi
  • Stol
  • Bærekraft
  • Verdighet
  • Solidaritet

Som du direkte kan gjette, kan det være ekstremt vanskelig å prøve å finne de spesifikke underliggende prinsippene. Enda mer så er innsatsen for å gjøre disse brede prinsippene til noe helt håndfast og detaljert nok til å brukes når man lager AI-systemer, også en tøff nøtt å knekke. Det er lett generelt å vinke litt med hånden om hva AI-etiske forskrifter er og hvordan de generelt skal overholdes, mens det er en mye mer komplisert situasjon i AI-kodingen som må være den veritable gummien som møter veien.

AI-etikkprinsippene skal brukes av AI-utviklere, sammen med de som styrer AI-utviklingsinnsatsen, og til og med de som til slutt arbeider med og utfører vedlikehold på AI-systemer. Alle interessenter gjennom hele livssyklusen for utvikling og bruk av kunstig intelligens anses innenfor rammen av å overholde de etablerte normene for etisk kunstig intelligens. Dette er et viktig høydepunkt siden den vanlige antagelsen er at "bare kodere" eller de som programmerer AI-en er underlagt AI-etikkens forestillinger. Som tidligere nevnt, kreves det en landsby for å utforme og sette opp AI, og som hele landsbyen må være kjent med og etterleve AI-etiske forskrifter.

La oss også sørge for at vi er på samme side om naturen til dagens AI.

Det er ingen AI i dag som er sansende. Vi har ikke dette. Vi vet ikke om sentient AI vil være mulig. Ingen kan med rette forutsi om vi vil oppnå sansende AI, og heller ikke om sansende AI på en eller annen måte mirakuløst spontant vil oppstå i en form for beregningsmessig kognitiv supernova (vanligvis referert til som singulariteten, se min dekning på lenken her).

Den typen AI som jeg fokuserer på består av den ikke-sansende AI som vi har i dag. Hvis vi ville spekulere vilt om selvbevisst AI, denne diskusjonen kan gå i en radikalt annen retning. En sansende AI ville visstnok være av menneskelig kvalitet. Du må vurdere at den sansende AI er den kognitive ekvivalenten til et menneske. Mer så, siden noen spekulerer i at vi kan ha superintelligent AI, er det tenkelig at slik AI kan ende opp med å bli smartere enn mennesker (for min utforskning av superintelligent AI som en mulighet, se dekningen her).

La oss holde ting mer jordnære og vurdere dagens beregningsbaserte ikke-følende AI.

Innse at dagens AI ikke er i stand til å "tenke" på noen måte på linje med menneskelig tenkning. Når du samhandler med Alexa eller Siri, kan samtalekapasiteten virke som menneskelig kapasitet, men realiteten er at den er beregningsmessig og mangler menneskelig erkjennelse. Den siste æraen av AI har gjort omfattende bruk av Machine Learning (ML) og Deep Learning (DL), som utnytter beregningsmønstermatching. Dette har ført til AI-systemer som ser ut som menneskelignende tilbøyeligheter. I mellomtiden er det ingen kunstig intelligens i dag som har et skinn av sunn fornuft, og heller ikke noe av den kognitive undringen til robust menneskelig tenkning.

ML/DL er en form for beregningsmønstermatching. Den vanlige tilnærmingen er at du samler data om en beslutningsoppgave. Du mater dataene inn i ML/DL-datamodellene. Disse modellene søker å finne matematiske mønstre. Etter å ha funnet slike mønstre, hvis det er funnet, vil AI-systemet bruke disse mønstrene når de møter nye data. Ved presentasjon av nye data brukes mønstrene basert på de "gamle" eller historiske dataene for å gi en gjeldende beslutning.

Jeg tror du kan gjette hvor dette er på vei. Hvis mennesker som har tatt de mønstrede avgjørelsene har inkorporert uheldige skjevheter, er sjansen stor for at dataene reflekterer dette på subtile, men betydelige måter. Maskinlæring eller Deep Learning beregningsmønstermatching vil ganske enkelt prøve å matematisk etterligne dataene tilsvarende. Det er ingen antydning av sunn fornuft eller andre sansende aspekter ved AI-laget modellering i seg selv.

Dessuten er det kanskje ikke sikkert at AI-utviklerne skjønner hva som skjer. Den mystiske matematikken i ML/DL kan gjøre det vanskelig å fjerne de nå skjulte skjevhetene. Du vil med rette håpe og forvente at AI-utviklerne vil teste for potensielt begravde skjevheter, selv om dette er vanskeligere enn det kan virke. Det er en solid sjanse for at selv med relativt omfattende testing vil det fortsatt være skjevheter innebygd i mønstertilpasningsmodellene til ML/DL.

Du kan litt bruke det berømte eller beryktede ordtaket om søppel-inn søppel-ut. Saken er at dette er mer beslektet med skjevheter-in som snikende blir tilført som skjevheter nedsenket i AI. Algoritmen beslutningstaking (ADM) til AI blir aksiomatisk full av ulikheter.

Ikke bra.

La oss gå tilbake til vårt fokus på AI-systemer som brukes til upassende eller muligens direkte urettmessige formål og hvordan det forholder seg til den nylig publiserte studien om KKP-lojalitet.

To hovedhensyn dukker opp:

1) Denne AI-forekomsten er en del av et større pågående mønster av foruroligende AI-bruk og er derfor illevarslende og øyeåpnende for hva som skjer

2) Katten kan slippes ut av sekken slik at hvis AI som dette blir adoptert i ett land, kan den lett spres til andre land også

Start med det første punktet om at denne forekomsten av AI er en del av et pågående mønster.

Et spesielt viktig grunnlag for å bli spesielt forstyrret av denne ene studien er at den er en del av et større mønster av hvordan AI tar sikte på å bli brukt av noen. Hvis dette var den eneste slike studien som noen gang er utført, kan vi bli litt rørt av den. Likevel ville det sannsynligvis ikke gi gjenklang med en slik glød som vi nå ser.

Dette er kanskje drypp-drypp av en tomme langs mot noe som kommer til å gå ut av hånden.

Som rapportert i nyhetene, er Kina kjent for å ha insistert på utstrakt lojalitet til KKP. Videre er det etablert eller etableres ulike virkemidler for å sikre at folk blir indoktrinert i den statlige doktrinen. Det har vært sitert tilfeller av tidligere studier som søker å utvikle AI-algoritmer som kan måle tankeforholdene til partimedlemmer (se Kina-støttet Studietider i 2019 som omtalte denne innsatsen).

Du husker kanskje at visepresident Mike Pence holdt en tale ved Hudson Institute i 2018 og understreket at "Kinas herskere tar sikte på å implementere et orwellsk system basert på å kontrollere praktisk talt alle fasetter av menneskelivet" (dette var en referanse til KKPs implementering av et sosialt kredittscoringssystem, et tema med fremtredende kontroverser). Du kan lett hevde at denne nylige KKP-studien er enda et skritt i den retningen.

Vi vet ikke når eller om det siste dråpen vil knekke ryggen til kamelen, slik at disse engangsstudiene blir omgjort til utbredte AI-baserte overvåkingssystemer.

Det andre punktet som er verdt å merke seg er at vi ikke kan anta at denne typen AI bare vil være begrenset til Kina. I hovedsak, selv om det i seg selv er urovekkende å ha denne typen AI-bruk i Kina som kan bli utbredt, kan andre land gjøre det samme.

Når AI for dette sies å være klar for beste sendetid, vil det sannsynligvis ikke ta mye før andre land bestemmer seg for at de vil implementere det også. Katten vil være ute av sekken. Noen land vil antagelig bruke denne kunstige intelligensen på direkte undertrykkende måter og ikke prøve å gi noen påskudd om å gjøre det. Andre land kan tilsynelatende søke å bruke denne typen kunstig intelligens til det som ser ut til å være fordelaktige formål, hvorav det til slutt er en ulempe som nesten vil være uunngåelig.

Faktisk, å antyde at denne typen kunstig intelligens kanskje bare vil bli tatt i bruk når den blir sett på som klar for beste sendetid, er litt feilaktig. Det gjør kanskje ikke en liten forskjell om AI kan fungere sikkert på denne måten. AI-en kan brukes som en forsidehistorie, se min forklaring på lenken her. Uavhengig av hva AI faktisk er i stand til å oppnå, er ideen at AI kan være et praktisk påskudd for å bringe frem folkeovervåking og ordninger for å måle og sikre absolutt lojalitet til myndighetene.

På dette tidspunktet i denne tungtveiende diskusjonen vil jeg vedde på at du ønsker noen illustrative eksempler som kan vise frem dette emnet. Det er et spesielt og sikkert populært sett med eksempler som ligger meg nært på hjertet. Du skjønner, i min egenskap som ekspert på AI, inkludert de etiske og juridiske konsekvensene, blir jeg ofte bedt om å identifisere realistiske eksempler som viser AI-etikk-dilemmaer, slik at emnets noe teoretiske natur lettere kan forstås. Et av de mest stemningsfulle områdene som på en levende måte presenterer dette etiske AI-kvandalet, er fremkomsten av AI-baserte ekte selvkjørende biler. Dette vil tjene som en praktisk brukssak eller eksempel for rikelig diskusjon om emnet.

Her er et bemerkelsesverdig spørsmål som er verdt å vurdere: Belyser fremkomsten av AI-baserte ekte selvkjørende biler noe om AI-misbruk, og i så fall, hva viser dette?

Tillat meg et øyeblikk å pakke ut spørsmålet.

Først, merk at det ikke er en menneskelig sjåfør involvert i en ekte selvkjørende bil. Husk at ekte selvkjørende biler kjøres via et AI-kjøresystem. Det er ikke behov for en menneskelig sjåfør ved rattet, og det er heller ikke en bestemmelse om at et menneske kan kjøre kjøretøyet. For min omfattende og pågående dekning av autonome kjøretøy (AV) og spesielt selvkjørende biler, se lenken her.

Jeg vil gjerne forklare hva som menes når jeg refererer til ekte selvkjørende biler.

Forstå nivåene av selvkjørende biler

Som en avklaring er sanne selvkjørende biler de hvor AI kjører bilen helt alene, og det ikke er noen menneskelig assistanse under kjøreoppgaven.

Disse førerløse kjøretøyene regnes som nivå 4 og nivå 5 (se min forklaring på denne lenken her), mens en bil som krever en menneskelig sjåfør for å dele kjøreinnsatsen vanligvis vurderes på nivå 2 eller nivå 3. Bilene som deler kjøreoppgaven beskrives som semi-autonome, og inneholder vanligvis en rekke automatiserte tillegg som omtales som ADAS (Advanced Driver-Assistance Systems).

Det er ennå ikke en ekte selvkjørende bil på nivå 5, og vi vet ennå ikke engang om dette vil være mulig å oppnå, og heller ikke hvor lang tid det vil ta å komme dit.

I mellomtiden prøver nivå 4-innsatsen gradvis å få litt trekkraft ved å gjennomgå veldig smale og selektive offentlige kjørebaneprøver, selv om det er kontrovers om denne testen skal være tillatt i seg selv (vi er alle liv-eller-død marsvin i et eksperiment. som foregår på våre motorveier og motorveier, noen hevder, se dekning min på denne lenken her).

Siden semi-autonome biler krever en menneskelig sjåfør, vil ikke adopsjonen av disse typer biler være markant annerledes enn å kjøre konvensjonelle kjøretøyer, så det er ikke mye nytt per se å dekke om dem om dette emnet (skjønt, som du vil se på et øyeblikk er poengene som blir gjort neste, generelt anvendelige).

For semi-autonome biler er det viktig at publikum må varsles om et urovekkende aspekt som har oppstått i det siste, nemlig at til tross for de menneskelige sjåførene som fortsetter å legge ut videoer av seg som sovner ved rattet på en nivå 2 eller nivå 3-bil , vi alle trenger å unngå å bli villedet til å tro at sjåføren kan fjerne oppmerksomheten fra kjøreoppgaven mens han kjører en semi-autonom bil.

Du er den ansvarlige parten for kjøringen av kjøretøyet, uavhengig av hvor mye automatisering som kan kastes i et nivå 2 eller nivå 3.

Selvkjørende biler og misbruk av kunstig intelligens

For sanne selvkjørende kjøretøyer på nivå 4 og nivå 5 vil det ikke være en menneskelig sjåfør involvert i kjøreoppgaven.

Alle beboere vil være passasjerer.

AI driver kjøringen.

Et aspekt å umiddelbart diskutere innebærer det faktum at AI involvert i dagens AI-kjøresystemer ikke er viktig. Med andre ord, AI er helt en samling av databasert programmering og algoritmer, og absolutt ikke i stand til å resonnere på samme måte som mennesker kan.

Hvorfor er denne ekstra vekt om at AI ikke er følsom?

Fordi jeg vil understreke at når jeg diskuterer AI-kjøresystemets rolle, tilskriver jeg ikke menneskelige kvaliteter til AI. Vær oppmerksom på at det i disse dager er en pågående og farlig tendens til å antropomorfisere AI. I hovedsak tildeler folk menneskelig følsomhet til dagens AI, til tross for det ubestridelige og ubestridelige faktum at ingen slik AI eksisterer ennå.

Med den avklaringen kan du se for deg at AI-kjøresystemet ikke på en eller annen måte "vet" om fasettene ved kjøring. Kjøring og alt det innebærer må programmeres som en del av maskinvaren og programvaren til den selvkjørende bilen.

La oss dykke ned i de mange aspektene som kommer til å spille om dette emnet.

For det første er det viktig å innse at ikke alle AI selvkjørende biler er like. Hver bilprodusent og selvkjørende teknologifirma tar sin tilnærming til å utvikle selvkjørende biler. Som sådan er det vanskelig å komme med omfattende utsagn om hva AI-kjøresystemer vil gjøre eller ikke.

Når du sier at et AI -kjøresystem ikke gjør noen spesielle ting, kan dette senere bli forbikjørt av utviklere som faktisk programmerer datamaskinen til å gjøre akkurat det. Steg for steg blir AI -kjøresystemer gradvis forbedret og utvidet. En eksisterende begrensning i dag eksisterer kanskje ikke lenger i en fremtidig iterasjon eller versjon av systemet.

Jeg håper det gir en tilstrekkelig litani av forbehold til å ligge til grunn for det jeg skal fortelle.

La oss skissere et selvkjørende bilscenario som kan utnytte AI på skissemessige eller feilaktige måter.

Jeg skal dele med deg noen AI-baserte selvkjørende bilforgreninger som kan få deg til å grøsse og bli forstyrret. Dette er fasetter som nesten ingen diskuterer for tiden. Jeg har gjentatte ganger tatt opp sakene, selv om jeg åpent erkjenner at inntil vi har en utbredt adopsjon av selvkjørende biler, kommer vi ikke til å få mye oppmerksomhet når det gjelder samfunnet som er bekymret eller opprørt over det som i dag ser ut som bare abstrakte forestillinger .

Er du klar?

Vi starter med litt grunnlegging.

AI-baserte selvkjørende biler vil være utstyrt med videokameraer, fornuftig nok. Dette gjør at den selvkjørende bilen kan motta videobilder av kjørescenen. I sin tur er AI-kjøresystemet som kjører ombord på datamaskinene i den selvkjørende bilen beregnet på å undersøke den innsamlede videoen og finne ut hvor veien er, hvor nærliggende biler er, hvor fotgjengere er, og så videre. Jeg innser at jeg resiterer selvkjørende biler 101 grunnleggende.

Det er videokameraer montert på utsiden av det autonome kjøretøyet og de peker utover. I tillegg kan du stort sett forvente at det vil være videokameraer på eller inne i kjøretøyet som sikter innover i det indre av den selvkjørende bilen. Hvorfor det? Enkelt, fordi det vil være mange viktige bruksområder for video som fanger det som foregår inne i det autonome kjøretøyet.

Når du skal en tur i en selvkjørende bil, trenger du ikke lenger være sjåfør. Hva vil du gjøre da mens du er inne i en selvkjørende bil?

En ting du kan gjøre er å samhandle med andre hjemme eller på kontoret. Der er du på vei til jobb, som vil si ta en times kjøretid med den selvkjørende bilen, og du kan allerede begynne arbeidsdagen med å gjøre en Zoom-lignende interaktiv sanntidsøkt på nettet. De kan se deg, på grunn av at kameraene peker innover i den selvkjørende bilen. Du kan se dem på kanskje en LED-skjerm inne i den selvkjørende bilen. På slutten av dagen, mens du drar hjem igjen, kan du gjøre en lignende interaktiv videodiskusjon med barna dine når de begynner å gjøre leksene sine for kvelden.

En annen bruk ville være å ta klasser. Nå som du ikke trenger å kaste bort tiden din på å kjøre, kan du gjøre om den deadhead-tiden inne i en selvkjørende bil til å forbedre ferdighetene dine eller få en sertifisering eller en grad. Via kameraene som peker innover, kan instruktøren din se deg og diskutere hvordan treningen går.

Enda en annen bruk ville være å prøve å sikre at syklister i selvkjørende biler ikke går amok. I en menneskedrevet bil er sjåføren en voksen tilstedeværelse som vanligvis hindrer syklister fra å gjøre sprø ting som å merke interiøret med graffiti. Hva vil skje med AI-baserte selvkjørende biler? Noen bekymrer seg for at ryttere vil velge å rive opp interiøret i kjøretøyene. For å prøve å forhindre dette, vil samkjøringsfirmaet som distribuerer de selvkjørende bilene sannsynligvis bruke innovervendte videokameraer for å overvåke hva folk gjør mens de er inne i det autonome kjøretøyet.

Jeg antar at du er overbevist om at vi kommer til å ha videokameraer som peker inn i interiøret i selvkjørende biler, i tillegg til kameraene som peker utover for å skjelne kjørescenen.

Du er nå klar for det jeg har omtalt som det streifende øye, se min analyse på lenken her.

Tenk først på videokameraene som peker utover.

Uansett hvor den selvkjørende bilen går, vil den potensielt kunne videoopptake det kameraene ser. En selvkjørende bil som gir en skyss til noen fra hjemmet deres og tar dem til matbutikken vil krysse et nabolag, og videoen vil ta opp ikke bare veibanen, men også alt annet som skjer innenfor synsvidde. En far og sønn leker i forgården deres. En familie som sitter på verandaen. Videre og videre går det.

Akkurat nå har vi så få selvkjørende biler på offentlige veier at denne muligheten til å fange video av daglige aktiviteter er relativt knapp og uvesentlig.

Se for oss at vi til syvende og sist oppnår sikre og utbredte selvkjørende biler. Tusenvis av dem. Kanskje millioner. Vi har rundt 250 millioner menneskedrevne biler i USA i dag. Etter hvert vil disse stort sett erstattes av selvkjørende biler eller rett og slett ikke brukes lenger, og vi vil hovedsakelig ha selvkjørende biler på våre veier. Disse selvkjørende bilene blir drevet av kunstig intelligens og kan som sådan streife i hovedsak 24×7. Ingen hvilepauser, ingen badepauser.

Videodataene kan lastes opp fra disse selvkjørende bilene via OTA (Over-The-Air) elektroniske nettverkstilkoblinger. Selvkjørende biler vil bruke OTA for å få de siste AI-programvareoppdateringene lastet ned i kjøretøyet. I tillegg kan OTA brukes til å laste opp data fra den selvkjørende bilen til en skybasert database.

Alt i alt ville det være mulig å sy sammen disse opplastede dataene. Med sømmen kan du potensielt sette sammen det daglige komme og gå til alle som gikk ut på en hvilken som helst dag på et hvilket som helst sted som i stor grad brukte selvkjørende biler.

Det er det strevende øyet jeg har advart om.

Vi kan nå koble KKP-studien inn i denne typen evner. Anta at en regjering har tilgang til alle disse innsamlede videodataene. De kan deretter bruke en AI-basert ansiktsgjenkjenningsalgoritme for å finne ut hvor du gikk, når på døgnet, gjennom dine daglige reiser i livet. I tillegg kan de antagelig bruke sin "lojalitet" AI-baserte analysator for å se om du så ut til å ha et lojalt ansiktsuttrykk eller ikke.

Tenk deg at du en tirsdag ettermiddag gikk for å få en sandwich på en lokal spisested. Selvkjørende biler kjørte forbi på veibanen. Alle de mange videoene fanget deg mens du gikk din fem minutters spasertur for å få deg en matbit. Dataene ble lastet opp til en sentralisert database. Regjeringen kjørte sitt AI-ansiktsgjenkjenningsprogram på dataene.

Det viste seg at AI "bestemte" at du hadde et illojalt utseende i ansiktet ditt.

Kanskje dette illojale blikket bare skjedde et øyeblikk. Du ventet på et gatehjørne på at lyset skulle skifte slik at du kunne krysse gaten til spisestedet. I det øyeblikket fikk du et lite rykk av avsky for at du måtte vente altfor lenge på Walk-symbolet. Var dette kanskje en indikasjon på din illojalitet til regjeringen?

Ja, AI-beregningen beregnet, du var overflod illojal på det tidspunktet. Når du kommer hjem den kvelden, har regjeringen ordnet arrestasjonen din.

Men vent, det er mer.

Husk at videokameraer også peker innover.

Samme tirsdag, mens du kjørte til jobben i en selvkjørende bil, fanget videokameraene ditt hvert øyeblikk. Dette ble lastet opp til en sentralisert database. AI-programvaren som analyserer ansiktsmønstre for illojalitet gjorde en beregningsmønsterundersøkelse av ansiktsuttrykkene dine under reisen til kontoret.

På et tidspunkt så du tilfeldig utenfor det autonome kjøretøyet og la merke til en bygningsarbeider som delvis blokkerte veibanen og fikk AI-kjøresystemet til å bremse den selvkjørende bilen. I et brøkdel av et sekund registrerte ansiktet ditt et blikk av hån for denne bygningsarbeideren som bremset trafikken.

AI-ansiktsmønsteranalysen tolket dette som et tegn på illojalitet til myndighetene.

To streiker mot deg på en dag.

Du lever på tynn is.

Selvfølgelig, om AI er "rett" eller "feil" når det gjelder å kunne bestemme lojaliteten din, er nesten uvesentlig i denne sammenhengen. Hovedpoenget er at AI er satt på plass for dette formålet. Menneskene som distribuerer AI-en kan kanskje bry seg om AI-en er egnet for denne typen oppgaver. AI tillater myndighetskontroll, uavhengig av selve den teknologiske gyldigheten.

Det dekker ansiktsskanningen.

Hvis vi etter hvert har noen form for bærbare kostnadseffektive enheter for å gjøre (påstått) hjernebølgeskanning, kan dette absolutt også inkluderes i selvkjørende biler. Videokameraer er en sikker ting nå. Muligheten for å ha hjernebølgeskanningsenheter av dette kaliberet ligger ikke i kortene akkurat nå, men det er helt klart noe man ser for seg for fremtiden.

For min utforskning av hvordan en regjering kan prøve å overta en befolkning ved å ta kontroll over selvkjørende biler, se lenken her. En lignende mulighet eksisterer for at en ondsinnet aktør kan prøve å gjøre det samme lenken her. Disse er ikke ment å være skremmetaktikker når det gjelder dekning av de relaterte emnene, og i stedet en advarsel om viktigheten av cybersikkerhet og andre forholdsregler vi som et samfunn må forsøke å ta angående utbruddet av allestedsnærværende selvkjørende biler og andre autonome kjøretøy.

konklusjonen

Jeg vil raskt dekke et ekstra aspekt om AI som brukes til å fastslå lojalitet som jeg tror er et noe eget emne, men som noen tweets og sosiale medier har vært belaboring.

Jeg nevnte tidligere at vi ikke har sansende AI, og vi vet ikke om eller når vi vil. La oss underholde ideen om at vi vil ha sansende AI. I så fall bør du vurdere følgende scenario.

Vi via ikke-sansende AI velger å få på plass en utbredt bruk av AI som fastslår beregningsmessig om folk er lojale mot myndighetene sine, ved å bruke ansiktsskanninger, hjernebølgeskanninger og så videre. Dette er helt og holdent drevet av og brukt av mennesker med autoritet. Det er det urovekkende scenariet som jeg bare noen øyeblikk tidligere har beskrevet.

På tide å gå opp.

AI blir sansende. Vi har nå potensielt gitt denne sansende AI en utbredt evne til å antagelig identifisere lojalitet og illojalitet hos mennesker. En ondsinnet AI som vurderer å utslette mennesker, kan bruke denne evnen til å bestemme at mennesker faktisk kommer til å være illojale og bør ødelegges fullstendig. Eller kanskje bare de menneskene som viser en indikasjon på illojalitet via ansiktet eller tankene deres, skal skrotes spesielt.

En annen vinkling er at AI ønsker å slavebinde mennesker, se diskusjonen min på lenken her.

Vi ser ut til å ha gitt AI en perfekt gave for å utføre det oppdraget. Den eksisterende infrastrukturen som vi har satt på plass gjør at AI kan holde et nøye øye med oss ​​mennesker. De som ser ut til å ha uttrykt en illojal ansiktsindikasjon eller tenkt på AI-overherren(e) kommer til å føle AI-ens vrede.

Jeg innser at jeg sa at dette er en opptur. Jeg er ikke sikker på at det er tilfelle. For meg virker det som om vi har AI-overherrer som direkte bestemmer vår skjebne versus menneskelige overherrer som kanskje bruker et AI-system for å bestemme lojalitet, vel, ingen av forslagene virker spesielt ønskelige.

En siste kommentar for nå.

Romersk lærd og filosof Marcus Tullius Cicero uttalte at det ikke er noe mer edelt, ingenting mer ærverdig enn lojalitet. Vi lar kanskje AI gå foran oss og bli et verktøy for å verve og sikre "lojalitet" med fryktelige midler.

En verdig og oppmerksom grunn til å sette AI-etikk på toppen av oppgavelisten vår.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/07/05/ai-ethics-perturbed-by-latest-china-devised-ai-party-loyalty-mind-reading-facial-recognition- attestasjon-som-kan-foreskygge-undertrykkende-autonome-systemer/