AI-etikk og AI-lov Stiller harde spørsmål om det nye løftet av dansende robotprodusenter som sier at de vil avverge AI-våpen

Du har kanskje i forrige uke sett i nyhetene eller lagt merke til på sosiale medier det annonserte løftet fra noen robotprodusenter om deres påståtte mål om å unngå AI-våpenisering av roboter til generell bruk. Jeg vil lede deg gjennom detaljene om et øyeblikk, så ikke bekymre deg hvis du ikke hadde fått med deg saken.

Reaksjonen på denne forkynnelsen har vært rask og, kanskje som vanlig i vårt polariserte samfunn, vært både rosende og til tider hånende kritisk eller direkte ekkel skeptisk.

Det er en fortelling om to verdener.

I én verden sier noen at det er akkurat dette vi trenger ansvarlig AI-robotutviklere å erklære.

Takk og lov for at du er på rett side av en sak som gradvis vil bli mer synlig og mer bekymringsfull. Disse søte dansende robotene er urovekkende fordi det er ganske enkelt å omstille dem til å bære våpen og brukes på de verste måter (du kan sjekke dette ut selv ved å gå til sosiale medier, og det er rikelig med videoer som viser frem dansende roboter bevæpnet med maskingevær og annen våpen).

Den andre siden av denne mynten sier at det såkalte løftet ikke er noe mer enn et markedsførings- eller PR-triks (som en sidebemerkning, er det noen som er kjent med forskjellen mellom et løfte og en donasjon?). Uansett, tvilerne formaner at dette er uhemmet dydssignalering i sammenheng med dansende roboter. Du skjønner, å beklage det faktum at roboter til generell bruk kan bli våpen, er absolutt en verdt og oppriktig ettertraktet vurdering, selv om det å hevde at en produsent ikke vil gjøre det sannsynligvis er et hult løfte, insisterer noen.

Alt i alt bringer hele saken opp et ganske heftig sett med AI-etikk og AI-lovbetraktninger. Vi vil omhyggelig pakke ut emnet og se hvordan dette er en dobbel sjokk av et etisk og juridisk AI-morass. For min pågående og omfattende dekning av AI-etikk og AI-lov, se lenken her og lenken her, bare for å nevne noen få.

Jeg vil også gjennom denne diskusjonen referere til mine tidligere analyser av farene ved AI-våpen, slik som min grundige vurdering ved lenken her. Du vil kanskje ta en titt på den diskursen for ytterligere detaljer bak kulissene.

Det åpne brevet som åpner en boks med ormer

La oss begynne denne analysen med å gjøre en nøye trinn-for-steg-utforskning av det åpne brevet som nylig ble publisert av seks relativt kjente avanserte robotprodusenter, nemlig Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics og Unitree. I det store og hele tipper jeg at du hovedsakelig har sett Boston Dynamics-robotene, slik som de som suser rundt på alle fire. De ser ut som om de er hundeaktige, og vi liker å se dem løpe rundt.

Som jeg tidligere og gjentatte ganger har advart om, er bruken av slike "dansende" roboter som et middel til å overbevise allmennheten om at disse robotene er søte og bedårende, dessverre misvisende og går inn i de mange fallgruvene det er å antropomorfisere dem. Vi begynner å tenke på disse herdede metall- og plaststykkene som om de tilsvarer en kosete lojal hund. Vår vilje til å akseptere disse robotene er basert på en falsk følelse av sikkerhet og sikkerhet. Visst, du må tjene penger, og sjansene for å gjøre det økes ved å paradere rundt dansende roboter, men dette utelater eller tilsynelatende skjuler det virkelige faktum at disse robotene er roboter og at AI-en som kontrollerer robotene kan være utformet feilaktig eller gå galt.

Vurder disse konsekvensene av AI (utdrag fra artikkelen min om AI-våpen, funnet på lenken her):

  • AI kan støte på en feil som får den til å komme på avveie
  • AI kan bli overveldet og låses uten respons
  • AI kan inneholde utviklerfeil som forårsaker uregelmessig oppførsel
  • AI kan være ødelagt med implantert evildoer-virus
  • AI kan bli overtatt av cyberhackere i sanntid
  • AI kan betraktes som uforutsigbar på grunn av kompleksiteten
  • AI kan regnemessig ta "feil" avgjørelse (relativt)
  • Etc.

Dette er punkter angående AI som er av den typen som er oppriktig utviklet ved start for å gjøre det rette.

I tillegg til disse hensynene, må du inkludere AI-systemer laget fra starten for å gjøre dårlige ting. Du kan ha AI som er laget for fordelaktige formål, ofte referert til som AI For Good. Du kan også ha AI som med vilje er laget for dårlige formål, kjent som AI for Bad. Videre kan du ha AI For Good som er ødelagt eller omdannet til å bli AI for Bad.

Ingenting av dette har forresten noe å gjøre med at AI blir sansende, noe jeg nevner fordi noen stadig utbryter at dagens AI enten er sansende eller på grensen til sansende. Ikke så. Jeg tar fra meg disse mytene i min analyse på lenken her.

La oss da sørge for at vi er på samme side om naturen til dagens AI.

Det er ingen AI i dag som er sansende. Vi har ikke dette. Vi vet ikke om sentient AI vil være mulig. Ingen kan med rette forutsi om vi vil oppnå sansende AI, og heller ikke om sansende AI på en eller annen måte mirakuløst spontant vil oppstå i en form for beregningsmessig kognitiv supernova (vanligvis referert til som singulariteten, se min dekning på lenken her).

Den typen AI som jeg fokuserer på består av den ikke-sansende AI som vi har i dag. Hvis vi ville spekulere vilt om sansende AI, kan denne diskusjonen gå i en radikalt annen retning. En sansende AI ville visstnok være av menneskelig kvalitet. Du må vurdere at den sansende AI er den kognitive ekvivalenten til et menneske. Mer så, siden noen spekulerer i at vi kan ha superintelligent AI, er det tenkelig at slik AI kan ende opp med å bli smartere enn mennesker (for min utforskning av superintelligent AI som en mulighet, se dekningen her).

Jeg vil på det sterkeste foreslå at vi holder ting nede på jorden og vurderer dagens beregningsbaserte ikke-følende AI.

Innse at dagens AI ikke er i stand til å "tenke" på noen måte på linje med menneskelig tenkning. Når du samhandler med Alexa eller Siri, kan samtalekapasiteten virke som menneskelig kapasitet, men realiteten er at den er beregningsmessig og mangler menneskelig erkjennelse. Den siste æraen av AI har gjort omfattende bruk av Machine Learning (ML) og Deep Learning (DL), som utnytter beregningsmønstermatching. Dette har ført til AI-systemer som ser ut som menneskelignende tilbøyeligheter. I mellomtiden er det ingen kunstig intelligens i dag som har et skinn av sunn fornuft, og heller ikke noe av den kognitive undringen til robust menneskelig tenkning.

Vær veldig forsiktig med å antropomorfisere dagens AI.

ML/DL er en form for beregningsmønstermatching. Den vanlige tilnærmingen er at du samler data om en beslutningsoppgave. Du mater dataene inn i ML/DL-datamodellene. Disse modellene søker å finne matematiske mønstre. Etter å ha funnet slike mønstre, hvis det er funnet, vil AI-systemet bruke disse mønstrene når de møter nye data. Ved presentasjon av nye data brukes mønstrene basert på de "gamle" eller historiske dataene for å gi en gjeldende beslutning.

Jeg tror du kan gjette hvor dette er på vei. Hvis mennesker som har tatt de mønstrede avgjørelsene har inkorporert uheldige skjevheter, er sjansen stor for at dataene reflekterer dette på subtile, men betydelige måter. Maskinlæring eller Deep Learning beregningsmønstermatching vil ganske enkelt prøve å matematisk etterligne dataene tilsvarende. Det er ingen antydning av sunn fornuft eller andre sansende aspekter ved AI-laget modellering i seg selv.

Dessuten kan AI-utviklerne kanskje ikke skjønne hva som skjer heller. Den mystiske matematikken i ML/DL kan gjøre det vanskelig å fjerne de nå skjulte skjevhetene. Du vil med rette håpe og forvente at AI-utviklerne vil teste for potensielt begravde skjevheter, selv om dette er vanskeligere enn det kan virke. Det er en solid sjanse for at selv med relativt omfattende testing vil det fortsatt være skjevheter innebygd i mønstertilpasningsmodellene til ML/DL.

Du kan litt bruke det berømte eller beryktede ordtaket om søppel-inn søppel-ut. Saken er at dette er mer beslektet med skjevheter-in som snikende blir tilført som skjevheter nedsenket i AI. Algoritmen beslutningstaking (ADM) til AI blir aksiomatisk full av ulikheter.

Ikke bra.

Alt dette har spesielt betydelige AI-etiske implikasjoner og gir et praktisk vindu til lærdom (selv før alle leksjonene skjer) når det kommer til å prøve å lovfeste AI.

I tillegg til å bruke AI-etiske forskrifter generelt, er det et tilsvarende spørsmål om vi bør ha lover som regulerer ulike bruk av AI. Nye lover blir slått rundt på føderalt, statlig og lokalt nivå som angår rekkevidden og arten av hvordan AI bør utformes. Arbeidet med å utarbeide og vedta slike lover er gradvis. AI-etikk fungerer i det minste som et betraktet stopp, og vil nesten helt sikkert til en viss grad bli direkte innlemmet i de nye lovene.

Vær oppmerksom på at noen hevder hardt at vi ikke trenger nye lover som dekker AI, og at våre eksisterende lover er tilstrekkelige. De advarer om at hvis vi vedtar noen av disse AI-lovene, vil vi drepe gullgåsen ved å slå ned på fremskritt innen AI som gir enorme samfunnsmessige fordeler.

I tidligere spalter har jeg dekket de ulike nasjonale og internasjonale innsatsene for å lage og vedta lover som regulerer AI, se lenken her, for eksempel. Jeg har også dekket de ulike AI-etikkprinsippene og -retningslinjene som ulike nasjoner har identifisert og vedtatt, inkludert for eksempel FNs innsats som UNESCO-settet med AI-etikk som nesten 200 land vedtok, se lenken her.

Her er en nyttig nøkkelsteinsliste over etiske AI-kriterier eller egenskaper angående AI-systemer som jeg tidligere har utforsket nøye:

  • Åpenhet
  • Rettferdighet og rettferdighet
  • Ikke-ondsinnethet
  • Ansvar
  • Privatliv
  • godgjør
  • Frihet og autonomi
  • Stol
  • Bærekraft
  • Verdighet
  • Solidaritet

Disse AI-etikk-prinsippene er oppriktig ment å bli brukt av AI-utviklere, sammen med de som styrer AI-utviklingsinnsatsen, og til og med de som til slutt jobber med og utfører vedlikehold på AI-systemer.

Alle interessenter gjennom hele livssyklusen for utvikling og bruk av kunstig intelligens anses innenfor rammen av å overholde de etablerte normene for etisk kunstig intelligens. Dette er et viktig høydepunkt siden den vanlige antagelsen er at "bare kodere" eller de som programmerer AI-en er underlagt AI-etikkens forestillinger. Som tidligere understreket her, krever det en landsby for å utvikle og sette i gang AI, og som hele landsbyen må være kjent med og overholde AI-etiske forskrifter.

Nå som jeg har lagt et nyttig grunnlag for å komme inn i det åpne brevet, er vi klare til å dykke inn.

Den offisielle emnetittelen på det åpne brevet er denne:

  • "Et åpent brev til robotindustrien og våre lokalsamfunn, roboter for generelle formål bør ikke bevæpnes" (som lagt ut på nettet).

Så langt så bra.

Tittelen virker nesten som is og eplepai. Hvordan kunne noen bestride dette som en tidligere oppfordring for å unngå AI-robotvåpen?

Les videre for å se.

Først, som mat til vurdering, her er det offisielle åpningsavsnittet i det åpne brevet:

  • "Vi er noen av verdens ledende selskaper dedikert til å introdusere nye generasjoner av avansert mobil robotikk til samfunnet. Disse nye generasjonene av roboter er mer tilgjengelige, enklere å betjene, mer autonome, rimelige og tilpasningsdyktige enn tidligere generasjoner, og i stand til å navigere til steder som tidligere var utilgjengelige for automatiserte eller fjernstyrte teknologier. Vi tror at avanserte mobile roboter vil gi stor nytte for samfunnet som medarbeidere i industrien og følgesvenner i hjemmene våre” (som lagt ut på nettet).

Solsiden til denne typen roboter er at vi kan forutse at mange store fordeler vil dukke opp. Ingen tvil om det. Du kan ha en robot i hjemmet ditt som kan gjøre de Jetson-lignende aktivitetene som å vaske huset ditt, vaske oppvasken og andre gjøremål rundt i husholdningen. Vi vil ha avanserte roboter til bruk i fabrikker og produksjonsanlegg. Roboter kan potensielt krype eller manøvrere inn i trange rom som når en bygning kollapser og menneskeliv står på spill for å reddes. Og så videre.

Som en side, kan du finne av interesse min nylige øyekritiske dekning av Tesla AI-dagen, der noen slags gåroboter ble fremstilt av Elon Musk som fremtiden for Tesla og samfunnet, se lenken her.

Tilbake til saken. Når vi seriøst diskuterer dansende roboter eller gående roboter, må vi ta hensyn til avveininger eller total ROI (Return on Investment) av denne bruken av AI. Vi bør ikke tillate oss å bli altfor begeistret av fordeler når det også er kostnader å vurdere.

Et skinnende nytt leketøy kan ha ganske skarpe kanter.

Alt dette ansporer til et viktig, men noe stille punkt om at en del av grunnen til at AI-våpenproblemet oppstår nå, skyldes AI-fremgang mot autonom aktivitet. Vi har vanligvis forventet at våpen generelt er menneskelig operert. Et menneske tar avgjørelsen om det skal skyte eller bruke våpenet. Vi kan antagelig holde det mennesket ansvarlig for sine handlinger.

AI som er utviklet for å fungere autonomt eller som kan lures til å gjøre det, vil tilsynelatende fjerne mennesket fra loopen. AI tar deretter algoritmisk beregningsmessige beslutninger som kan ende opp med å drepe eller skade mennesker. Foruten de åpenbare bekymringene om mangel på kontroll over AI, har du også betenkeligheter med at vi kan ha en vanskelig tid med å feste ansvar for handlingene til AI. Vi har ikke et menneske som er vår åpenbare pådriver.

Jeg innser at noen mener at vi rett og slett burde holde AI ansvarlig for dens handlinger, som om AI har oppnådd sansen eller på annen måte blitt tildelt juridisk personskap (se min dekning om debattene om AI som oppnår juridisk personskap på lenken her). Det kommer ikke til å fungere foreløpig. Vi er nødt til å spore AI til menneskene som enten utviklet den eller som drev den. De vil utvilsomt prøve å unnvike ansvar på lovlig vis ved å prøve å hevde at AI gikk utover det de hadde sett for seg. Dette er en økende påstand som vi må forholde oss til (se mine AI Law-skrifter for innsikt i de omstridte spørsmålene som er involvert).

De forente nasjoner (FN) har via konvensjonen om visse konvensjonelle våpen (CCW) i Genève etablert elleve ikke-bindende veiledende prinsipper for dødelige autonome våpen, i henhold til den offisielle rapporten som er lagt ut på nettet (som omfatter referanser til relevante internasjonale humanitære lover eller IHL-forbehold) , gjelder også:

(a) Internasjonal humanitær lov fortsetter å gjelde fullt ut for alle våpensystemer, inkludert potensiell utvikling og bruk av dødelige autonome våpensystemer;

(b) Menneskelig ansvar for beslutninger om bruk av våpensystemer må beholdes siden ansvar ikke kan overføres til maskiner. Dette bør vurderes over hele livssyklusen til våpensystemet;

(c) Menneske-maskin-interaksjon, som kan ha ulike former og implementeres i ulike stadier av livssyklusen til et våpen, bør sikre at den potensielle bruken av våpensystemer basert på nye teknologier innen dødelige autonome våpensystemer er i overholdelse av gjeldende internasjonal lov, spesielt IHL. Ved å bestemme kvaliteten og omfanget av menneske-maskin-interaksjon, bør en rekke faktorer vurderes, inkludert den operasjonelle konteksten, og egenskapene og egenskapene til våpensystemet som helhet;

(d) Ansvar for å utvikle, distribuere og bruke ethvert fremvoksende våpensystem innenfor rammen av CCW må sikres i samsvar med gjeldende internasjonal lov, inkludert gjennom driften av slike systemer innenfor en ansvarlig kjede av menneskelig kommando og kontroll;

(e) I samsvar med statenes forpliktelser i henhold til folkeretten, i studiet, utviklingen, anskaffelsen eller adopteringen av et nytt våpen, middel eller metode for krigføring, må det tas stilling til om dets ansettelse under noen eller alle omstendigheter vil være forbudt av internasjonal lov;

(f) Ved utvikling eller anskaffelse av nye våpensystemer basert på nye teknologier innen dødelige autonome våpensystemer, fysisk sikkerhet, hensiktsmessige ikke-fysiske sikkerhetstiltak (inkludert cybersikkerhet mot hacking eller dataforfalskning), risikoen for anskaffelse av terroristgrupper og risikoen for spredning bør vurderes;

(g) Risikovurderinger og avbøtende tiltak bør være en del av design, utvikling, testing og distribusjonssyklus av nye teknologier i alle våpensystemer;

(h) Det bør tas hensyn til bruken av nye teknologier innen dødelige autonome våpensystemer for å opprettholde overholdelse av IHL og andre gjeldende internasjonale juridiske forpliktelser;

(i) Ved utforming av potensielle politiske tiltak, bør fremvoksende teknologier innen området dødelige autonome våpensystemer ikke antropomorfiseres;

(j) Diskusjoner og eventuelle politiske tiltak tatt innenfor rammen av CCW bør ikke hindre fremgang i eller tilgang til fredelig bruk av intelligente autonome teknologier;

(k) CCW tilbyr et passende rammeverk for å håndtere spørsmålet om nye teknologier på området dødelige autonome våpensystemer innenfor rammen av målene og formålene med konvensjonen, som søker å finne en balanse mellom militær nødvendighet og humanitære hensyn.

Disse og andre forskjellige krigslover og lover om væpnet konflikt, eller IHL (International Humanitarian Laws) fungerer som en viktig og alltid lovende veiledning for å vurdere hva vi kan prøve å gjøre med fremkomsten av autonome systemer som er våpen, enten det er av sluttstein. design eller etter etterfølgende metoder.

Noen sier at vi direkte bør forby de autonome AI-systemene som kan brukes til våpen. Det stemmer, verden bør sette foten ned og iherdig kreve at AI autonome systemer aldri skal bli våpen. Det skal nedlegges totalforbud. Slutt på historien. Punktum, punktum.

Vel, vi kan oppriktig ønske at et forbud mot dødelige våpenstyrte autonome systemer vil bli strengt og lydig overholdt. Problemet er at mye slingringsmonn er nødt til å være lurt å finne innenfor noen av de mest oppriktige forbudene. Som de sier, regler er ment å bli brutt. Du kan satse på at der ting er løst, vil riffraff frese ut hull og prøve å blunke-blinke seg rundt reglene.

Her er noen potensielle smutthull som er verdt å vurdere:

  • Påstander om ikke-dødelig. Lag ikke-dødelige autonome våpensystemer (tilsynelatende ok siden det er utenfor forbudsgrensen), som du så på en krone kan skifte til å bli dødelige (du kommer bare utenfor forbudet i siste liten).
  • Kun påstander om autonomt system. Oppretthold forbudet ved ikke å lage dødelige-fokuserte autonome systemer, i mellomtiden, gjør like mye fremskritt med å utvikle hverdagslige autonome systemer som ikke (ennå) er våpengjort, men som du for en krone kan ombygge til å bli våpen.
  • Påstander om ikke integrert som ett. Lag autonome systemer som ikke er våpen i det hele tatt, og når tiden kommer, piggyback-våpen slik at du kan forsøke å argumentere heftig for at de er to separate elementer og derfor hevde at de ikke faller innenfor rubrikken til en alt-i-ett autonomt våpensystem eller dets fetter.
  • Påstår at det ikke er autonomt. Lag et våpensystem som ikke ser ut til å ha autonome kapasiteter. Gi rom i dette antagelig ikke-autonome systemet for å slippe inn AI-basert autonomi. Ved behov, koble til autonomien og du er klar til å rulle (inntil da brøt du tilsynelatende ikke forbudet).
  • Annen

Det er mange andre uttrykte vanskeligheter med å prøve å direkte forby dødelige autonome våpensystemer. Jeg skal dekke noen flere av dem.

Noen forståsegpåere hevder at et forbud ikke er spesielt nyttig, og i stedet bør det være reguleringsbestemmelser. Tanken er at disse innretningene skal være tillatt, men strengt overvåket. En rekke lovlige bruksområder er lagt ut, sammen med lovlige måter å målrette på, lovlige typer evner, lovlig proporsjonalitet og lignende.

Etter deres syn er et rett ut forbud som å stikke hodet i sanden og late som om elefanten i rommet ikke eksisterer. Denne påstanden får imidlertid blodet til å koke hos de som motsetter seg argumentet om at ved å innføre et forbud kan du dramatisk redusere fristelsen ellers til å forfølge denne typen systemer. Visst, noen vil fremheve forbudet, men forhåpentligvis vil de fleste ikke. Du kan da fokusere oppmerksomheten på flaunterne og ikke trenger å splitte oppmerksomheten til alle.

Rundt og rundt går disse debattene.

En annen ofte nevnt bekymring er at selv om de gode følger forbudet, vil de dårlige ikke gjøre det. Dette setter de gode i en elendig holdning. De dårlige vil ha denne typen våpenstyrte autonome systemer, og de gode vil ikke. Når ting blir avslørt at de dårlige har dem, vil det være for sent for de gode å ta igjen. Kort sagt, den eneste kloke tingen å gjøre er å forberede seg på å bekjempe ild med ild.

Det er også den klassiske avskrekkingsstriden. Hvis de gode velger å lage våpenstyrte autonome systemer, kan dette brukes til å avskrekke de dårlige fra å prøve å komme i konflikt. Enten vil de gode være bedre bevæpnet og dermed fraråde de dårlige, eller de gode vil være klare når de dårlige kanskje avslører at de i det skjulte har utviklet disse systemene hele tiden.

En motsats til disse tellerne er at ved å lage våpenstyrte autonome systemer, fører du et våpenkappløp. Den andre siden vil søke å ha det samme. Selv om de teknologisk ikke er i stand til å lage slike systemer på nytt, vil de nå kunne stjele planene til de «gode», reversere de høyteknologiske guts, eller etterligne det de ser ut til å se på som en utprøvd. måte å få jobben gjort.

Aha, noen replikker, alt dette kan føre til en reduksjon i konflikter på grunn av et utseende av gjensidig. Hvis side A vet at side B har de dødelige våpnene til autonome systemer, og side B vet at side A har dem, kan de sitte tett og ikke komme i hop. Dette har den distinkte auraen av mutually assured destruction (MAD) vibber.

Og så videre.

Ser nøye på andre avsnitt

Vi har allerede dekket mye bakken her og bare så langt vurdert det første eller åpningsavsnittet i det åpne brevet (det er fire avsnitt totalt).

På tide å ta en titt på andre avsnitt, her går du:

  • «Som med all ny teknologi som tilbyr nye muligheter, gir fremveksten av avanserte mobile roboter muligheten for misbruk. Upålitelige mennesker kan bruke dem til å invadere borgerrettigheter eller til å true, skade eller skremme andre. Et område av spesiell bekymring er bevæpning. Vi tror at å legge til våpen til roboter som er eksternt eller autonomt operert, allment tilgjengelig for publikum og som er i stand til å navigere til tidligere utilgjengelige steder hvor folk bor og jobber, øker risikoen for skade og alvorlige etiske problemer. Bevæpnet bruk av disse nye robotene vil også skade offentlig tillit til teknologien på måter som skader de enorme fordelene de vil gi samfunnet. Av disse grunnene støtter vi ikke bevæpning av våre avanserte mobilitetsroboter. For de av oss som har snakket om denne saken tidligere, og de som engasjerer seg for første gang, føler vi nå at det haster fornyet i lys av den økende offentlig bekymringen de siste månedene forårsaket av et lite antall mennesker som har synlig publisert deres provisoriske innsats for å bevæpne kommersielt tilgjengelige roboter" (som lagt ut på nettet).

Når jeg leser det andre avsnittet, håper jeg du kan se hvordan min tidligere diskurs her om AI-våpen kommer frem i forgrunnen.

La oss undersøke noen ekstra punkter.

En litt betenkelighet med et bestemt formuleringsaspekt som har fått oppstanden av noen er at fortellingen ser ut til å understreke at "upålitelige mennesker" kan misbruke disse AI-robotene. Ja, faktisk, det kan være dårlige mennesker eller ugjerningsmenn som frembringer skumle handlinger som vil "misbruke" AI-roboter.

Samtidig, som påpekt mot starten av denne diskusjonen, må vi også gjøre det klart at AI i seg selv kan gå galt, muligens på grunn av innebygde feil eller feil og andre slike komplikasjoner. Den uttrykte bekymringen er at bare understreker sjansene for upålitelige mennesker er at det ser ut til å ignorere andre uheldige muligheter. Selv om de fleste AI-selskaper og -leverandører ikke vil innrømme det, er det en mengde problemer med AI-systemer som kan undergrave sikkerheten og påliteligheten til autonome systemer. For min dekning av AI-sikkerhet og behovet for strenge og bevisbare sikkerhetstiltak, se lenken her, for eksempel.

Et annet bemerkelsesverdig poeng som har kommet opp blant de som har undersøkt det åpne brevet, innebærer den inkluderte påstanden om at det kan ende opp med å undergrave offentlig tillit knyttet til AI-roboter.

På den ene siden er dette en gyldig påstand. Hvis AI-roboter brukes til å gjøre onde bud, kan du satse på at publikum vil bli ganske dampet. Når publikum blir dampet, kan du satse på at lovgivere vil hoppe inn i angrepet og forsøke å vedta lover som slår ned på AI-roboter og AI-robotprodusenter. Dette kan igjen lamme AI-robotindustrien hvis lovene er altomfattende og stenger innsatsen som involverer AI-robotfordeler. På en måte kan babyen bli kastet ut med badevannet (et gammelt uttrykk som sannsynligvis fortjener å bli pensjonist).

Det åpenbare spørsmålet som også reises er om denne påstanden om å avverge en reduksjon i offentlig tillit til AI-roboter er en noe selvtjenende credo eller om den er til beste for oss alle (kan det være begge deler?).

Du bestemmer.

Vi kommer nå til den spesielt kjøttfulle delen av det åpne brevet:

  • "Vi lover at vi ikke vil bevæpne våre generelle roboter for avansert mobilitet eller programvaren vi utvikler som muliggjør avansert robotikk, og vi vil ikke støtte andre til å gjøre det. Når det er mulig, vil vi nøye gjennomgå våre kunders tiltenkte applikasjoner for å unngå potensiell våpentilførsel. Vi lover også å utforske utviklingen av teknologiske funksjoner som kan redusere eller redusere disse risikoene. For å være tydelig, vi tar ikke problemer med eksisterende teknologier som nasjoner og deres offentlige etater bruker for å forsvare seg selv og opprettholde lovene deres" (som per postet på nettet).

Vi kan pakke ut dette.

Sett deg ned og forbered deg deretter.

Er du klar for litt brennende polarisering?

På den gunstige siden varsler noen vokalt at disse AI-robotprodusentene ville gi et slikt løfte. Det ser ut til at disse robotprodusentene heldigvis vil forsøke å ikke bevæpne sine "avanserte mobilitetsgenerelle" roboter. I tillegg sier det åpne brevet at de ikke vil støtte andre som gjør det.

Kritikere lurer på om det er noe smart ordsmeding på gang.

For eksempel, hvor starter og slutter «avansert mobilitet»? Hvis en robotprodusent lager en enkel-mobility AI-robot i stedet for en avansert (som er et udefinert stykke teknisk sjargong), blir den ekskludert fra omfanget av hva som ikke bli bevæpnet? Dermed er det tilsynelatende greit å bevæpne AI-roboter med enkel mobilitet, så lenge de ikke er såkalte avansert.

Det samme gjelder formuleringen av roboter til generell bruk. Hvis en AI-robot er utviklet spesielt for bevæpning og derfor ikke er det, skal vi si en generell robot, blir det en levedyktig utelukkelse fra omfanget?

Du kan tulle med disse uenighetene og inderlig argumentere for at dette bare er et åpent brev og ikke et femti-siders juridisk dokument som forklarer hver eneste krok og krok.

Dette bringer oss til den tilsynelatende mer makro-nivå betenkeligheter uttrykt av noen. I hovedsak, hva betyr et "løfte"?

Noen spør, hvor er biffen?

Et selskap som gir et løfte som dette gjør det tilsynelatende uten noen reell eierandel i spillet. Hvis topplederen til et firma som registrerer seg for dette løftet bestemmer seg for å ikke lenger overholde løftet, hva skjer med det firmaet? Vil lederne bli summarisk hermetisert? Vil selskapet legge ned og be om unnskyldning for å ha brutt løftet? Og så videre.

Så langt det kan utledes, er det ingen spesiell straff eller straff for brudd på pantet.

Du kan hevde at det er en mulighet for skade på omdømmet. Et pantsettelsesfirma kan bli bedratt på markedet for å ha gitt et løfte som det ikke lenger overholder. Dette forutsetter selvsagt også at folk vil huske at pantet ble gitt. Det forutsetter også at bruddet på pantet på en eller annen måte vil bli oppdaget (det virker helt usannsynlig at et firma vil fortelle alt hvis det gjør det). Lovovertrederen måtte ropes ut, og likevel kan et slikt problem bli bare støy i den pågående tsunamien av nyheter om AI-robotikkprodusenter.

Tenk på en annen vinkel som har kommet opp.

Et pantsettende firma blir kjøpt opp av et større firma. Det større firmaet velger å begynne å gjøre om de generelle robotene for avansert mobilitet til AI-våpenversjoner.

Er dette et brudd på løftet?

Det større firmaet kan insistere på at det ikke er et brudd siden de (det større firmaet) aldri ga løftet. I mellomtiden blir de ufarlige AI-robotene som det mindre firmaet har satt sammen og utviklet, og gjør det med tilsynelatende de mest altruistiske intensjonene, nesten over natten fornyet til å bli våpen.

På en måte undergraver løftet, selv om du kan si at det mindre firmaet ikke visste at dette en dag ville skje. De var oppriktige i ønsket. Det var utenfor deres kontroll med hensyn til hva det større kjøpefirmaet valgte å gjøre.

Noen spør også om det ligger noe juridisk ansvar i dette.

Et pantsettende firma bestemmer seg om noen måneder fra nå at det ikke kommer til å innfri løftet. De har hatt et hjerteskifte. Kan firmaet saksøkes for å ha forlatt pantet det har gitt? Hvem ville saksøke? Hva ville være grunnlaget for søksmålet? En rekke juridiske spørsmål dukker opp. Som de sier, kan du saksøke omtrent hvem som helst, men om du vinner er en helt annen sak.

Tenk på dette på en annen måte. Et pantefirma får en mulighet til å gjøre en virkelig stor avtale for å selge en hel haug av sine avanserte mobilitetsroboter til et massivt selskap som er villig til å betale gjennom nesen for å få robotene. Det er en av de ene gang-i-livet kjøpsavtalene for zillion-dollar.

Hva bør AI-robotikkselskapet gjøre?

Hvis AI-robotiseringsfirmaet er børsnotert, ville de nesten helt sikkert sikte på å foreta salget (det samme kan sies om et privateid firma, men ikke helt så). Tenk deg at pantefirmaet er bekymret for at kjøperen kan prøve å bevæpne robotene, men la oss si at det ikke er noen slik diskusjon på bordet. Det ryktes bare at kjøperen kan gjøre det.

Følgelig legger pantefirmaet inn i sin lisensiering at robotene ikke skal bevæpnes. Kjøperen avviser dette språket og går bort fra kjøpet.

Hvor mye fortjeneste gikk det lovende AI-robotikkfirmaet nettopp bort fra?

Er det et punkt der fortjenesten i hånden oppveier inkluderingen av kravet til lisensbegrensninger (eller kanskje lovlig formulering av begrensningen for å tillate slingringsmonn og fortsatt få avtalen til å skje)? Jeg tror du kan se dilemmaet involvert. Tonnevis av slike scenarier er lett fremtryllet. Spørsmålet er om dette løftet kommer til å ha tenner. I så fall, hva slags tenner?

Kort sagt, som nevnt i starten av denne diskusjonen, er noen forsterket over at denne typen pant blir gjort, mens andre ser svakere på om pantet vil holde vann.

Vi går videre.

Å få et løfte i gang

Det fjerde og siste avsnittet i det åpne brevet sier dette:

  • "Vi forstår at vårt engasjement alene ikke er nok til å håndtere disse risikoene fullt ut, og derfor ber vi politikere om å samarbeide med oss ​​for å fremme sikker bruk av disse robotene og forby misbruk av dem. Vi oppfordrer også alle organisasjoner, utviklere, forskere og brukere i robotmiljøet til å gi lignende løfter om ikke å bygge, autorisere, støtte eller muliggjøre tilkopling av våpen til slike roboter. Vi er overbevist om at fordelene for menneskeheten av disse teknologiene sterkt oppveier risikoen for misbruk, og vi er spente på en lys fremtid der mennesker og roboter jobber side om side for å takle noen av verdens utfordringer” (som per postet på nettet).

Denne siste delen av det åpne brevet har flere tilleggselementer som har vekket irritasjon.

Å henvende seg til politikere kan være gode eller dårlige råd, hevder noen. Du kan få politikere som ikke er bevandret i disse sakene, som da gjør det klassiske rush-to-dommen og håndverkslover og forskrifter som tilraner seg fremgangen på AI-roboter. I henhold til poenget tidligere, vil kanskje innovasjonen som driver frem AI-robotutviklingen bli forstyrret eller trampet på.

Bedre å være sikker på at du vet hva du ber om, sier kritikerne.

Selvfølgelig er motargumentet at fortellingen tydelig sier at beslutningstakere bør samarbeide med AI-robotikkfirmaer for å finne ut hvordan man antagelig fornuftig kan lage slike lover og forskrifter. Motargumentet er at politikerne kan bli sett på som å se på AI-robotikkprodusentene hvis de imøtekommer deres innfall. Motstriden til motargumentet er at det naturlig nok er en nødvendighet å samarbeide med de som kjenner til teknologien, ellers vil utfallet potensielt bli en kilter. Etc.

På et kanskje kranglete grunnlag har noen hatt halsbrann over linjen som oppfordrer alle til å gi lignende løfter om å ikke feste våpen til avanserte mobilitetsroboter for generell bruk. Nøkkelordet der er ordet feste. Hvis noen lager en AI-robot som inkorporerer eller sømløst bygger inn våpen, ser det ut til å komme rundt ordlyden til feste noe. Du kan se det nå, noen som heftig argumenterer for at våpenet ikke er festet, det er helt en del av AI-roboten. Kom over det, utbryter de, vi er ikke innenfor rammen av det løftet, og de kunne til og med ellers ha sagt at de var det.

Dette bringer opp en annen klage på mangelen på klebrighet av pantet.

Kan et firma eller noen i det hele tatt som velger å gjøre dette løftet, når som helst erklære seg upantet at de ønsker å gjøre det og av hvilken grunn de måtte ønske det?

Tilsynelatende så.

Det er mye bandy rundt om å gi løfter og hvilken trekkraft de gir.

konklusjonen

Yikes, kan du si, disse selskapene som prøver å gjøre det rette, får tromme for å prøve å gjøre det riktige.

Hva har kommet av vår verden?

Enhver som gir et slikt løfte, bør få fordelen av tvilen, kan du lidenskapelig fastholde. De går ut i det offentlige rom for å gi et dristig og viktig bidrag. Hvis vi begynner å besire dem for å gjøre det, vil det garantert gjøre saken verre. Ingen vil ønske å gi et slikt løfte. Bedrifter og andre vil ikke engang prøve. De vil gjemme seg bort og ikke varsle samfunnet om hva de kjære dansende robotene kan bli farlig forvandlet til.

Skeptikere forkynner at måten å få samfunnet til å bli klokere på, innebærer andre handlinger, for eksempel å droppe den fantasifulle handlingen med å vise frem de boltrende dansende AI-robotene. Eller i det minste gjøre det til en mer balansert handling. For eksempel, i stedet for bare å etterligne elskede kjæledyrlojale hunder, illustrer hvordan de dansende robotene kan være mer beslektet med ville løslatte sinte ulver som kan rive mennesker i filler uten å nøle.

Det vil få mer oppmerksomhet enn løfter, ber de om.

Løfter kan utvilsomt være litt av en gåte.

Som Mahatma Gandhi veltalende uttalte: "Uansett hvor eksplisitt løftet er, vil folk snu og vri teksten for å passe deres egen hensikt."

Kanskje for å konkludere her med en oppløftende tone, sa Thomas Jefferson dette om løfter: «Vi lover gjensidig til hverandre våre liv, våre formuer og vår hellige ære.»

Når det kommer til AI-roboter, deres autonomi, deres bevæpning og lignende, kommer vi alle til slutt å være i dette sammen. Vårt gjensidige løfte må i det minste være at vi vil holde disse sakene i forkant, vi vil strebe etter å finne måter å takle disse fremskrittene på, og på en eller annen måte finne veien mot å sikre vår ære, våre formuer og våre liv.

Kan vi love det?

Jeg håper det.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- robotprodusenter som sier-de-vil-avverge-ai-våpen/