Meta AI avslører AI-infundert diplomatisk sjarmør som rører AI-etikk og AI-lov til udelikat tiff

Den verdsatte verden av sjarm og diplomati er ofte skjemmet med udelikatesser og uhøflighet.

Will Rogers, den store humoristen og sosiale kommentatoren, sa berømt at diplomati er kunsten å si "Nice doggie" til du finner en stein.

Den tilsynelatende implikasjonen er at du noen ganger må holde tilbake eventuelle truende og truende styrker til du kan finne en passende forsvarlig løsning. Gjør det du trenger å gjøre når du er i desperate nød. Med vilje og målbevisst tilfredsstille de som setter deg i fare, ved å bruke dine beroligende og forelskende ord, og samle dyrebar tid til å bevæpne deg med en mer praktisk og åpenlyst håndgripelig holdning.

ANNONSE

Noen hevder at krig uløselig er et resultat av mislykket diplomati. I dette overveide synspunktet vil et konstant trommeslag av diplomati avverge krig. Fortsett å snakke, så kommer ikke kampene i gang. Andre er brennende uenige om en slik problematisk mening. Kanskje, sies det, diplomati er faktisk det som får oss inn i kriger. På toppen av det kan det være at diplomati strekker ut kriger og holder kampene i gang på en endeløs basis.

Vi vil gi Will Rogers en ny sjanse til å nyte litt humor ut av dette spørsmålet om diplomati er bra eller dårlig angående krigens tilkomst eller fortsettelse: «Ta diplomatiet ut av krigen, og saken ville falle flat om en uke» (han angivelig erklært).

Den vanlige definisjonen av diplomati legger vekt på forholdet mellom nasjoner. Diplomater representerer bestemte nasjoner eller nasjonalstater og utøver diplomati når de utfører sine hellige plikter. Vi forventer at våre diplomater påtar seg sin utenrikspolitiske overføring ved bruk av selvtillit. Budbringeren bør ikke være den som vekker fiendskap, bare budskapet kan i stedet gjøre det. En antagelig feilfri diplomatisk fremstilling av selv de mest alvorlige meldingene kan beviselig dempe slaget som oppstår fra et ellers skadelig krav eller trussel.

ANNONSE

Selvfølgelig er diplomati ikke begrenset til bare det høye arbeidet til formaliserte diplomater. Jeg tør påstå at i hverdagen må vi alle pådra oss litt diplomati. Når du vil at en venn skal passe på din elskede hund mens du er på forretningsreise, kommer du helt sikkert til å sende diplomatisk forespørsel om å ta vare på hunden. Å stille krav om å gjøre det, vil sannsynligvis lande med et kjedelig dunk.

Sannsynligvis er diplomati mer kunst enn vitenskap, noe som mennesker bruker for å smøre skliene, holde lysene på og hindre samfunnet i å gå helt berserk. Forhandlinger kommer for å spille. Det kan hende at det må oppstå ettergivenhet. Noen ganger bruker du gulroten, noen ganger bruker du pinnen. Hvis du må gjøre det, kan du prøve såkalt pistolbåtdiplomati, hvor du prøver å skremme andre rundt deg. Eller i stedet for sterk bevæpning, kan du gå den mykere meklings- og humanitære veien. Det kommer an på.

Ok, så vi er alle rimelig enige om at diplomati er en viktig menneske-til-menneske-form for kommunikasjon. Det består av praksis eller scenekunst forbundet med bruk av takt, mekling, forhandlinger, forsoning og en rekke samfunnsmessig dyktig politikk.

ANNONSE

La oss legge til noe annet til den ligningen.

Er du klar?

Vi kommer til å legge til noe annet du kanskje har vurdert ennå.

Kunstig intelligens (AI).

Ja, AI kommer inn i diplomati-gambiten. Dette virker helt fornuftig. Hvis vi skal ha AI fordypet i alle fasetter av livene våre, måtte diplomatiet til slutt komme sin tur. Vi kan forvente at AI vil være i stand til å utføre alle plikter den har ved å bruke passende ord og diplomati.

ANNONSE

AI som den autonome eller semi-autonome diplomaten.

Jeg skjønner at det kan virke ganske skremmende og totalt skummelt. Jeg tror ingen av oss er klare for at AI skal gå rundt som en representant for våre respektive land. Se for deg at AI tjener på våre vegne for å forhandle om våre internasjonale posisjoner og bekrefte vår globale politiske holdning. Jøss! Det er stoffet i de apokalyptiske sci-fi-historiene.

Vel, pust lettet ut, siden det ikke er i kortene foreløpig.

Tenk i stedet på kunstig intelligens som du bruker for å få utført banktjenester, eller som hjelper deg med å kjøpe bolig. Dagens AI som samhandler med mennesker er vanligvis ganske skjærende. Kom til fakta, bare fakta. Noe AI har blitt frostet opp med søte ordlyder for å få deg til å tro at den er vennlig eller en kompis, selv om dette raskt blir gjennomskuet. Bare fordi et AI-system refererer til deg med navnet ditt eller sender ut ord som "hei" i stedet for "hei", innser de fleste av oss med en gang at dette er en charade.

Et neste skritt som ivrig forfølges i hallene til AI-utviklere er å prøve å tilføre diplomatiske egenskaper i vår daglige AI. Det overordnede målet er å innlemme programmatiske aspekter som vil få AI til å vise frem diplomati og diplomatisk-lignende atferd. Ved å bruke en rekke algoritmer og spesielt det siste innen generative AI eller Large Language Models (LLM), blir det særlig gjort fremskritt på denne fronten.

ANNONSE

Vi skal ta en titt på et slikt eksempel, CICERO, et nytt AI-system utgitt av Meta AI-teamet.

I tilfelle du var på ferie og ikke hadde fulgt med på de siste nyhetene om AI, gir den nylige kunngjøringen og avdukingen av et AI-system laget som CICERO et viktig skilt for hvor den AI-infunderte diplomatiarenaen befinner seg i disse dager. Omtenksomt og til deres gode ære, har Meta AI-teamet åpent gjort tilgjengelig sitt utviklede CICERO AI-system. Du kan lese de tekniske detaljene i en publisert forskningsartikkel om Vitenskap, Se lenken her. Du kan besøke et nettsted de har satt opp for å forsiktig formidle de generelle nyansene til CICERO med korte videoklipp for å illustrere hva den gjør (se lenken her). For de av dere som søker heads-down faktisk programkode og programvare, kan du finne kildekoden på GitHub på lenken her.

Jeg vil raskt avklare ett aspekt som kan virke forvirrende hvis du velger å grave i denne saken.

Det spesielle AI-systemet utviklet av Meta AI er for tiden satt opp for å spille et noe populært spill kjent som diplomati (kanskje du har sett brettspillet i henhold til Hasbro og andre spillprodusenter). Jeg tar dette opp fordi ordet "diplomati" kommer til å ha dobbelt plikt i denne omstendigheten. På den ene siden forsøker den utviklede kunstige intelligensen å tilføre kjennetegn ved virksomheten og skjermen diplomati per se. I mellomtiden er innstillingen der dette bestemte AI-systemet finner sted når du spiller spesifikt og bare (akkurat nå) det berømte brettspillet kjent som diplomati.

Ser du hvordan dette potensielt kommer til å forvirre noen mennesker?

Hvis noen sier til deg at denne AI gjør det veldig bra i "diplomati", kan du være usikker på om de refererer til forestillingen om at AI er ganske dyktig til å spille brettspillet kjent som diplomati eller kanskje i stedet antyder de at AI legemliggjør kjerneessensen knyttet til menneskehetens diplomati. I tillegg kan det være at begge fasettene er ment samtidig (nemlig AI gjør det bra til å spille diplomati og samtidig gjør det godt å kunne utøve eller vise frem diplomati som en ferdighet eller handling).

ANNONSE

Her skal jeg prøve å rette opp dette ved å bruke stor bokstav i den første bokstaven og vise navnet på brettspillet i kursiv, diplomati. Resten av tiden vil jeg bruke ikke-kursiverte ordlyd av "diplomati" som en indikasjon på den generelle oppfatningen av å være diplomatisk eller utvise diplomati (se, jeg gjorde det akkurat der).

For å komme tilbake til den aktuelle saken, kan du tenke et øyeblikk om AI som viser diplomati er noe vi burde ønske eller i stedet avverge.

Det er mange positive aspekter ved å få AI til å vise frem diplomati. Du ville skjønt levd i en grunn boble for å anta at AI som vedtar diplomati kommer til å være helt og utelukkende en god ting. AI som ser ut til å ha diplomatiske ferdigheter og kan få oss til å tro at den har diplomati er også full av urovekkende problemer som vi må bringe på banen. I hovedsak reiser AI brukt på denne måten en båtmengde med spørsmål om AI-etikk og AI-lov. For de av dere som er interessert i AI-etikk og AI-lov, kan du ta en titt på min omfattende og pågående dekning av etisk AI og AI-lov på lenken her og lenken her, bare for å nevne noen få.

Før jeg hopper inn i AI som en form for diplomati, vil jeg først legge et viktig grunnlag om AI og spesielt AI-etikk og AI-lov, for å sikre at diskusjonen blir kontekstuelt fornuftig.

ANNONSE

Den økende bevisstheten om etisk AI og også AI-lov

Den siste tiden med AI ble opprinnelig sett på som å være AI For Good, noe som betyr at vi kunne bruke AI for å forbedre menneskeheten. I hælene på AI For Good kom erkjennelsen av at vi også er fordypet i AI for Bad. Dette inkluderer AI som er utviklet eller selvforandret til å være diskriminerende og gjør beregningsmessige valg som gir unødige skjevheter. Noen ganger er AI bygget på den måten, mens den i andre tilfeller svinger inn i det ugunstige territoriet.

Jeg vil være helt sikker på at vi er på samme side om naturen til dagens AI.

Det er ingen AI i dag som er sansende. Vi har ikke dette. Vi vet ikke om sentient AI vil være mulig. Ingen kan med rette forutsi om vi vil oppnå sansende AI, og heller ikke om sansende AI på en eller annen måte mirakuløst spontant vil oppstå i en form for beregningsmessig kognitiv supernova (vanligvis referert til som singulariteten, se min dekning på lenken her).

Den typen AI som jeg fokuserer på består av den ikke-sansende AI som vi har i dag. Hvis vi ville spekulere vilt om sansende AI, kan denne diskusjonen gå i en radikalt annen retning. En sansende AI ville visstnok være av menneskelig kvalitet. Du må vurdere at den sansende AI er den kognitive ekvivalenten til et menneske. Mer så, siden noen spekulerer i at vi kan ha superintelligent AI, er det tenkelig at slik AI kan ende opp med å bli smartere enn mennesker (for min utforskning av superintelligent AI som en mulighet, se dekningen her).

ANNONSE

Jeg vil på det sterkeste foreslå at vi holder ting nede på jorden og vurderer dagens beregningsbaserte ikke-følende AI.

Innse at dagens AI ikke er i stand til å "tenke" på noen måte på linje med menneskelig tenkning. Når du samhandler med Alexa eller Siri, kan samtalekapasiteten virke som menneskelig kapasitet, men realiteten er at den er beregningsmessig og mangler menneskelig erkjennelse. Den siste æraen av AI har gjort omfattende bruk av Machine Learning (ML) og Deep Learning (DL), som utnytter beregningsmønstermatching. Dette har ført til AI-systemer som ser ut som menneskelignende tilbøyeligheter. I mellomtiden er det ingen kunstig intelligens i dag som har et skinn av sunn fornuft, og heller ikke noe av den kognitive undringen til robust menneskelig tenkning.

Vær veldig forsiktig med å antropomorfisere dagens AI.

ML/DL er en form for beregningsmønstermatching. Den vanlige tilnærmingen er at du samler data om en beslutningsoppgave. Du mater dataene inn i ML/DL-datamodellene. Disse modellene søker å finne matematiske mønstre. Etter å ha funnet slike mønstre, hvis det er funnet, vil AI-systemet bruke disse mønstrene når de møter nye data. Ved presentasjon av nye data brukes mønstrene basert på de "gamle" eller historiske dataene for å gi en gjeldende beslutning.

Jeg tror du kan gjette hvor dette er på vei. Hvis mennesker som har tatt de mønstrede avgjørelsene har inkorporert uheldige skjevheter, er sjansen stor for at dataene reflekterer dette på subtile, men betydelige måter. Maskinlæring eller Deep Learning beregningsmønstermatching vil ganske enkelt prøve å matematisk etterligne dataene tilsvarende. Det er ingen antydning av sunn fornuft eller andre sansende aspekter ved AI-laget modellering i seg selv.

ANNONSE

Dessuten kan AI-utviklerne kanskje ikke skjønne hva som skjer heller. Den mystiske matematikken i ML/DL kan gjøre det vanskelig å fjerne de nå skjulte skjevhetene. Du vil med rette håpe og forvente at AI-utviklerne vil teste for potensielt begravde skjevheter, selv om dette er vanskeligere enn det kan virke. Det er en solid sjanse for at selv med relativt omfattende testing vil det fortsatt være skjevheter innebygd i mønstertilpasningsmodellene til ML/DL.

Du kan litt bruke det berømte eller beryktede ordtaket om søppel-inn søppel-ut. Saken er at dette er mer beslektet med skjevheter-in som snikende blir tilført som skjevheter nedsenket i AI. Algoritmen beslutningstaking (ADM) til AI blir aksiomatisk full av ulikheter.

Ikke bra.

Alt dette har spesielt betydelige AI-etiske implikasjoner og gir et praktisk vindu til lærdom (selv før alle leksjonene skjer) når det kommer til å prøve å lovfeste AI.

ANNONSE

I tillegg til å bruke AI-etiske forskrifter generelt, er det et tilsvarende spørsmål om vi bør ha lover som regulerer ulike bruk av AI. Nye lover blir slått rundt på føderalt, statlig og lokalt nivå som angår rekkevidden og arten av hvordan AI bør utformes. Arbeidet med å utarbeide og vedta slike lover er gradvis. AI-etikk fungerer i det minste som et betraktet stopp, og vil nesten helt sikkert til en viss grad bli direkte innlemmet i de nye lovene.

Vær oppmerksom på at noen hevder hardt at vi ikke trenger nye lover som dekker AI, og at våre eksisterende lover er tilstrekkelige. De advarer om at hvis vi vedtar noen av disse AI-lovene, vil vi drepe gullgåsen ved å slå ned på fremskritt innen AI som gir enorme samfunnsmessige fordeler.

I tidligere spalter har jeg dekket de ulike nasjonale og internasjonale innsatsene for å lage og vedta lover som regulerer AI, se lenken her, for eksempel. Jeg har også dekket de ulike AI-etikkprinsippene og -retningslinjene som ulike nasjoner har identifisert og vedtatt, inkludert for eksempel FNs innsats som UNESCO-settet med AI-etikk som nesten 200 land vedtok, se lenken her.

ANNONSE

Her er en nyttig nøkkelsteinsliste over etiske AI-kriterier eller egenskaper angående AI-systemer som jeg tidligere har utforsket nøye:

  • Åpenhet
  • Rettferdighet og rettferdighet
  • Ikke-ondsinnethet
  • Ansvar
  • Privatliv
  • godgjør
  • Frihet og autonomi
  • Stol
  • Bærekraft
  • Verdighet
  • Solidaritet

Disse AI-etikk-prinsippene er oppriktig ment å bli brukt av AI-utviklere, sammen med de som styrer AI-utviklingsinnsatsen, og til og med de som til slutt jobber med og utfører vedlikehold på AI-systemer.

Alle interessenter gjennom hele livssyklusen for utvikling og bruk av kunstig intelligens anses innenfor rammen av å overholde de etablerte normene for etisk kunstig intelligens. Dette er et viktig høydepunkt siden den vanlige antagelsen er at "bare kodere" eller de som programmerer AI-en er underlagt AI-etikkens forestillinger. Som tidligere understreket her, krever det en landsby for å utvikle og sette i gang AI, og som hele landsbyen må være kjent med og overholde AI-etiske forskrifter.

ANNONSE

Jeg har også nylig undersøkt AI Bill of Rights som er den offisielle tittelen på det amerikanske regjeringens offisielle dokument med tittelen "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People" som var resultatet av en årelang innsats fra Office of Science and Technology Policy (OSTP) ). OSTP er en føderal enhet som tjener til å gi råd til den amerikanske presidenten og det amerikanske eksekutivkontoret om ulike teknologiske, vitenskapelige og tekniske aspekter av nasjonal betydning. I den forstand kan du si at denne AI Bill of Rights er et dokument godkjent av og godkjent av det eksisterende amerikanske hvite hus.

I AI Bill of Rights er det fem hovedkategorier:

  • Sikre og effektive systemer
  • Algoritmisk diskrimineringsbeskyttelse
  • Datasikkerhet
  • Merknad og forklaring
  • Menneskelige alternativer, omtanke og tilbakefall

Jeg har nøye gjennomgått disse forskriftene lenken her.

ANNONSE

Nå som jeg har lagt et nyttig grunnlag for disse relaterte AI-etikk- og AI-lov-emnene, er vi klare til å hoppe inn i det heftige emnet AI-infundert maskinbasert diplomati.

AI-diplomati i all sin prakt og også potensiell undergang

Først, la oss fastslå at typen AI som vurderes her er ikke-sansende AI.

Jeg sier dette fordi hvis, eller noen sier når når vi sansende AI, vil hele emnet sannsynligvis bli fullstendig opphevet. Se for deg det potensielle kaoset og samfunnsforvirringen for å ha havnet på en eller annen måte i det ellers aldri før sett utvilsomt bekreftet kunstig intelligens som legemliggjør følelse (for min analyse av en kjent test av AI kjent som Turing-testen, se lenken her). Du kan satse på at mange av våre eksisterende kulturelle, juridiske og hverdagslige normer vil bli enormt rystet til kjernen.

Kanskje den sansende AI vil være vår kompis, eller kanskje den sansende AI vil være vår verste fiende. Hvordan skal vi kunne fortelle hvilken vei AI kommer til å gå?

Du kan bli fristet til å foreslå at vi antagelig vil være i stand til å snakke med AI og finne ut av hva den sier intensjonene den har. Aha, du har gått i en foruroligende felle. Anta at AI er spesielt godt tilført en form for AI-diplomati. Når du prøver å snakke med AI, vil den kanskje snakke på de mest sjarmerende og veltalende vilkårene. Dette kan være veldig beroligende for menneskeheten.

ANNONSE

Men er det det AI virkelig har "i tankene" angående sine AI-baserte beregningsintensjoner?

AI gjør kanskje den klassiske diplomatiske en-to-punchen. Snakk om et godt spill og få oss til å bli lullet til å tro at AI er vår beste venn noensinne. Dette kan være å gi AI-en tid til å samle ressurser for å innhente menneskeheten eller kanskje jobbe flittig bak kulissene for å undergrave alt annet vi bruker for å opprettholde menneskeheten. Etter den smarte diplomatiske stallen, jammen, slår AI oss alle ut kalde.

Husk hva Will Rogers sa, som i dette tilfellet kan være at AI forteller oss "Nice doggie" og vi gir AI-en tilstrekkelig pusterom til å tørke oss fra planeten. Denne oppfatningen av AI som en eksistensiell risiko har lenge vært slått rundt. Noen tror at ved å utvikle AI med infundert diplomati, kommer vi til å bli snookered. AI-en vil på en fornuftig måte bruke alle de tilførte diplomati-greiene som vi hjalp til med å trene AI-en på, og til slutt vil vi bli blindt lurt til at AI blir vår overherre.

Skam oss.

For de av dere som er videre interessert i dette svært spekulative terrenget om en futuristisk AI, se min dekning av perspektivene på AI som en eksistensiell trussel på lenken her.

ANNONSE

Når jeg kommer tilbake til jorden, vil jeg heretter understreke veien for AI-infundert diplomati i vår eksisterende ikke-sansende AI.

La oss gjøre litt historiesporing.

Forsøk på å utvikle AI som på en eller annen måte legemliggjør en beregningsmessig smak av diplomati og diplomatisk atferd har pågått siden AIs tidlige dager. Du kan lett gå tilbake til 1950-, 1960- og 1970-tallet og finne grunnleggende forskningsstudier som var ivrige etter å bruke AI på dette domenet. Noen mente at spillteori var nøkkelen. Andre fokuserte på psykologi og relaterte kognitive elementer. Andre prøvde å utnytte økonomi, operasjonsforskning og en myriade av tilsynelatende relevante innsatsområder.

En første storhetstid skjedde senere på 1980-tallet. På den tiden besto en dominerende tilnærming av å bruke Expert Systems (ES) eller Knowledge-Based Systems (KBS) for å konstruere diplomati-relaterte AI-systemer. Resultatet var ganske stilig og hadde en tendens til å demonstrere hvor vanskelig en oppgave dette kom til å bli.

ANNONSE

En gnagende gåte gjennom denne epoken med innledende etterforskning var behovet for en stødig plattform som, eller innenfor hvilken, en AI som angivelig var i stand til å utføre på noen diplomatierelaterte måter kunne testes og utforskes tilstrekkelig. Dette behovet er kanskje åpenbart. Hvis noen ønsker å skjelne om et menneske eller en AI kan utøve diplomati, må det etableres et miljø som bidrar til denne søken.

Inn i dette bildet kommer brettspillet til diplomati.

Jeg skjønner at brettspillet diplomati er ikke på langt nær så kjent som monopol, Risikoeller Stratego (du har sannsynligvis hørt om disse spillene). Ikke desto mindre er det et strategisk brettspill kjent som diplomati som først ble utviklet i 1954 og kommersielt utgitt i 1959. I tillegg til å bli spilt ansikt til ansikt, diplomati spillet ble ofte spilt via post. Du ville skrive trekkene dine på et stykke papir og sende arket til de du spilte mot. Litt sprøtt å forestille seg nå til dags. Senere ble e-post brukt. Etter hvert ble spillet tilgjengelig online og tillot spillere å delta i sanntid med hverandre.

Ved diplomati spillet ble tilgjengelig på mikrodatamaskiner, begynte AI-spesialister å bruke spillet som et praktisk middel til å teste ut deres AI-infunderte diplomati. De diplomati spillet var tilgjengelig som en app som kjørte på PC-er, slik at et menneske kunne spille mot maskinen (dvs. den utviklet AI). AI på 1990-tallet som ble skrevet for å spille diplomati var notorisk treg, kryptisk og lett slått av omtrent alle minimalt kunnskapsrike spill-spillere.

ANNONSE

Her er en anmeldelse fra 1999 diplomati som postet på Yahoo som levende beskrev den triste tilstanden til den AI-infunderte diplomatievnen som en menneskelig spillermotstander:

  • "Derimot, diplomatiDet mest åpenbare problemet er at den kunstige intelligensen i spillet er helt forferdelig. Spillere på alle ferdighetsnivåer vil ikke ha noen som helst problemer med å fange hval på datamaskinen selv med den høyeste vanskelighetsgraden. Seier er rett og slett et spørsmål om tid og tålmodighet med grensesnittet. Det er ikke som om datamaskinen ikke planlegger bak ryggen din – den gjør det, og den slår seg ofte sammen med allierte for å ta et territorium eller to fra deg – men slike ordninger kommer etter hvert, snarere enn som en kontinuerlig eller spesielt utfordrende trussel."

En spesielt irriterende svakhet ved AI-designet var at det så ut til å mangle kapasiteten til å beregne flere trekk eller strategier samtidig: "Og på et mer grunnleggende nivå virker datamaskinen ute av stand til å håndtere flere strategiske trekk. Mens en menneskelig spiller kan starte angrep på Hellas og Belgia samtidig, ser det ut til at datamaskinen alltid fokuserer på bare én ting om gangen. Av denne grunn kan datamaskinen rett og slett ikke konkurrere mot en menneskelig spiller» (ibid).

Jeg har ennå ikke forklart deg hva diplomati brettspill består av, så la oss ta et øyeblikk for å få grunnreglene etablert.

Det er en hendig forskningsartikkel om AI og lek diplomati som kort beskrev spillets natur: «Spillet finner sted på et kart over Europa i år 1901, som er delt inn i 75 provinser. Hver spiller spiller mot en av datidens syv stormakter: Østerrike (AUS), England (ENG), Frankrike (FRA), Tyskland (GER), Italia (ITA), Russland (RUS) og Tyrkia (TUR) og hver spiller starter med tre eller fire enheter (hærer eller flåter) som er plassert i faste utgangsposisjoner på kartet. I hver runde av spillet må hver spiller 'sende inn en ordre' for hver av sine enheter, som forteller disse enhetene hvordan de skal bevege seg rundt på kartet og lar dem erobre kartets provinser» (Dave de Jonge, Tim Baarslag, Reyhan Aydogan , Catholijn Jonker, Katsuhide Fujita og Takayuki Ito, "The Challenge of Negotiation In The Game Of Diplomacy," Avtaleteknologier: 6. internasjonale konferanse, AT 2018)

ANNONSE

Du må også vite om måter å vinne på og måter å tape spillet på: «Noen av provinsene er s.k. Forsyningssentre og målet for spillerne er å erobre disse forsyningssentrene. En spiller blir eliminert når han eller hun mister alle sine forsyningssentre og en spiller vinner spillet når han eller hun har erobret 18 eller flere av de 34 forsyningssentrene (en solo seier). Spillet kan imidlertid også avsluttes når alle overlevende spillere godtar uavgjort» (ibid).

Jeg stoler på at du kan se det diplomati er et enkelt spill som involverer opptil syv spillere som prøver å utmanøvrere hverandre strategisk. Under denne manøvreringen kan spillerne konferere med hverandre, uten at de andre spillerne vet hva de holder på med. Diplomatiet kommer i forgrunnen ved å kunne få andre spillere til å følge planene dine. Du kan avsløre dine sanne planer, eller kanskje ikke. Du kan komme med falske planer. Du kan forhandle med andre spillere. Du kan lure andre spillere. Du kan inngå allianser med andre spillere. Etc.

Alt er rettferdig i kjærlighet og krig, som de sier.

Jeg valgte den aktuelle forskningsoppgaven fordi den var medvirkende til å etablere en variant av den datastyrte versjonen av diplomati kalt DipGame for å tjene som en videregående plattform for testing av AI-infunderte diplomatiegenskaper: «Det er en kronisk mangel på delte applikasjonsdomener for å teste avanserte forskningsmodeller og agentforhandlingsarkitekturer i Multiagent Systems. I denne artikkelen introduserer vi en vennlig testseng for det formålet. Testbedet er basert på Diplomatispillet der forhandling og relasjonene mellom aktører spiller en vesentlig rolle» (ibid). Dette og en rekke andre varianter av diplomati har blitt laget og gjort tilgjengelig for forskning og lek.

ANNONSE

Forskerne forklarte hvorfor de trodde det diplomati er et så nyttig spill for å hjelpe AI-søken mot AI-infundert diplomati: «The game of diplomati utgjør en utmerket testcase for denne typen komplekse forhandlinger, siden det er et spill som inkluderer mange av vanskelighetene man også må møte i forhandlinger i det virkelige liv. Det involverer tilfredshet med begrensning, koalisjonsdannelse, spillteori, tillit og til og med psykologi. Nå som moderne Chess and Go-datamaskiner allerede er langt overlegne enhver menneskelig spiller, forventer vi det diplomati vil begynne å trekke mer oppmerksomhet som den neste store utfordringen for informatikk» (ibid).

I en rask oppsummering, brettspillet diplomati gir et allerede kjent og noe populært redskap for å få mennesker til å handle på en rekke diplomatiske måter. Normalt spiller mennesker mot andre mennesker (i dette tilfellet opptil syv menneskelige spillere). Vi kan tenke ut AI som vil prøve å ta på seg rollen som en spiller i spillet. Dermed kan du ha seks menneskelige spillere og en AI-spiller.

Se for deg å spille diplomati på nett.

Hvis vi ikke forteller de menneskelige spillerne at det er en AI blant dem, kan de naturlig nok anta at den syvende spilleren bare er en annen menneskelig spiller. For å prøve å hindre enhver menneskelig spiller fra å gjette at AI spiller, kan vi begrense spilleaspektene til å kreve at alle spillere sender tekstorienterte meldinger til hverandre. Du kan ikke se de andre spillerne direkte.

ANNONSE

Du tenker kanskje at dette ikke virker spesielt forskjellig fra å spille online sjakk. Hvorfor det store oppstyret om diplomati som et spill?

Husk at vi fokuserer på interaksjoner mellom spillere. Premisset for dette spillet er at spillerne påberoper seg diplomati overfor hverandre. Dette er i motsetning til vanlig sjakk. Hvis jeg utviklet en AI-basert sjakkspilleapp, ville den vanligvis spilt mot ett menneske. Det er ingen forhandlinger eller diskusjon mellom den sjakkspillende AI og den menneskelige spilleren. De gjør bare sjakktrekk og prøver å overgå hverandre. Dette gjøres vanligvis i stillhet.

diplomati lar oss utøve frittalende beregningsmessig og menneskebasert diplomati (potensielt å gjøre det skriftlig i stedet for å måtte sies høyt): «Hovedforskjellen mellom diplomati og andre deterministiske spill som Chess and Go, er at i diplomati får spillere lov til å forhandle med hverandre og danne koalisjoner. Ved hver runde, før spillerne sender inn sine bestillinger, får spillerne tid til å forhandle med hverandre og gjøre avtaler om bestillingene de skal levere. Forhandlingene foregår i privat regi, og hver avtale som inngås er kun kjent for aktørene som er involvert i den avtalen» (ibid).

Kan du komme opp med et annet spill som bruker interaktivt diplomati i stedet for å stole på spillet diplomati?

Absolutt.

ANNONSE

Det finnes forskjellige slike spill.

Det praktiske med å velge ett bestemt spillmerke er at AI-utviklerne kan fokusere oppmerksomheten på det spesifikke spillet. Du kan samle deg rundt å utvikle AI som utfører diplomati i den definerte konteksten. Du kan dele tilnærminger og kontrastere dem. Du kan score de forskjellige forekomstene av AI basert på beregningene knyttet til det spillet. Og så videre.

Når det er sagt, er motargumentet eller den uttrykte bekymringen at dette er som å legge alle eggene dine i én kurv. Noen bekymrer seg hvis mange AI-utviklere blir opptatt av en bestemt plattform eller miljø, som i dette tilfellet diplomati, vil de forsøke å optimalisere AI for den spesifikke arenaen. Ulempen er at AI ikke vil bli generalisert. Vi kommer ikke til å gjøre like store fremskritt mot de overordnede egenskapene til AI-infundert diplomati.

Litt som å ikke se skogen for trærne, om du vil.

En annen bekymring som ofte kommer til uttrykk er at spill som f.eks diplomati er bare spill.

ANNONSE

Det vanskelige spørsmålet oppstår om mennesker som spiller et spill gjør de samme tingene som de ville gjort i diplomati i den virkelige verden. Kanskje du ikke handler på samme måte når nasjonal stolthet eller nasjonale innsatser ikke er på spill. Jada, du kan være bekymret for din personlige stolthet når du spiller et spill, eller kanskje prøver å bli en toppscorer, eller kanskje til og med vinne premiepenger, men likevel betyr det å forhandle verdensfred i FN eller prute om hvilke land burde ha eller ikke ha atomvåpen.

Noen mener at disse diplomatispillene er passende mikrokosmos av den virkelige verden. Andre beklager at spillene er nyttige, men ikke skalerer opp til det velkjente "gummi-meets-the-road"-diplomatiet av internasjonalt kaliber. Det kan være at spillversjonene av AI-infundert diplomati ikke viser seg å være noe mer enn en ren spillsuksess. Jøss, den utviklet AI kan vinne eller gjøre det veldig bra når du spiller et spill som involverer diplomati, men det viser seg at bruk av den samme AI i ekte diplomatiske settinger er sårt mangelfull og vakler eller mislykkes.

Anta for øyeblikket at AI er laget for å spille spill som f.eks diplomati er virkelig verdt. Du kan med rimelighet hevde at uansett om det bare er egnet for spilling eller for handling i den virkelige verden, innebærer ideen å strekke AI-grensene og gjøre fremskritt innen AI som kan bidra til diplomati eller kan ha andre fordelaktige gjennombrudd innen preging av AI.

ANNONSE

Foretrekker smilefjeset for nå.

Vi skal deretter undersøke hvordan Meta AI har valgt å lage en AI-infundert diplomatispiller som kan prestere i spillet diplomati.

Hold på hattene.

Meta AI og The Diplomacy Playing Machine-Based Diplomat Cicero

Som tidligere nevnt er det en forskningsartikkel publisert i Vitenskap som beskriver den nylig annonserte og offentlig utgitte Meta AI-appen laget som Cicero (gjennom denne diskusjonen vil jeg om hverandre referere til dette som "Cicero" og på samme måte all-caps monikeren til "CICERO"):

ANNONSE

  • "Vi presenterer Cicero, en AI-agent som oppnådde ytelse på menneskelig nivå i strategispillet diplomati. i diplomati, sju spillere gjennomfører private forhandlinger om naturlig språk for å koordinere sine handlinger for å både samarbeide og konkurrere med hverandre. I motsetning til dette har tidligere store suksesser for multiagent AI vært i rent motstridende miljøer, som sjakk, Go og poker, der kommunikasjon ikke har noen verdi. På grunn av dette, diplomati har fungert som en utfordrende målestokk for multi-agent læring" (Meta Fundamental AI Research Diplomacy Team, "Human-Level Play In The Game Of Diplomacy By Combining Language Models With Strategic Reasoning", Vitenskap22. november 2022).

Jeg vil sitere fra avisen og deretter tilby ulike innsikter som forhåpentligvis vil være av interesse for deg.

Gitt at AI nettopp har blitt tilgjengelig, vil jeg sannsynligvis gjøre en påfølgende analyse etter å ha hatt en sjanse til å gjøre en grundig praktisk vurdering av koden og også gjennomføre noen eksperimentelle spill for å måle AI-evnene (som f.eks. viktige styrker og svakheter).

Vær på vakt for det senere innlegget!

Uansett, jeg stoler på at du kanskje har observert i avsnittet som jeg nettopp siterte at det er en formulering som sier at AI "oppnådde ytelse på menneskelig nivå i strategispillet diplomati».

ANNONSE

Tenk over det.

For det første er det absolutt prisverdig å ha vært i stand til å utvikle AI som spiller diplomati spill på et påstått ytelsesnivå som ligner på mennesker. Det er overordentlig viktig.

Vi har mange diplomati spiller AI som er subpar sammenlignet med mennesker som spiller diplomati spill. Mer enn du kan riste en pinne på. Det er betryggende og spennende å bevege seg oppover mot AI som kan gjøre det mye bedre å spille spillet. Vi må imidlertid være forsiktige med å trekke en rask konklusjon om dette.

Anta for eksempel at jeg hadde utviklet AI for å spille diplomati og jeg stilte det opp mot menneskelige spillere som aldri har spilt spillet før. Hvis AI-en min slår dem, vil det være litt av en overdrivelse å si at AI-en min har prestert på et menneskelig nivå. Det faktum at det gjorde det med mennesker som ikke var kjent med spillet er noe øyenbrynsløftende og tvilsomt.

ANNONSE

Jeg tar dette opp for å advare deg om å alltid nøye inspisere alle tilsynelatende store påstander om AI. Diskusjonen tidligere om AI-etikk og AI-lov åpner kanskje øynene dine for muligheten for falske påstander om AI. Det er direkte falske påstander, og det er de lumske delvis sanne og delvis misvisende påstandene som er spesielt knotete. Nøkkelen er å spørre hvorfor de som kommer med påstander om AI gjør det.

Hvor er biffen?

Her er hva Meta AI-teamet hadde å si om grunnlaget for deres ytelseskrav på menneskelig nivå (se artikkelen for ytterligere detaljer):

  • "Cicero deltok anonymt i 40 kamper med Diplomacy i en "blitz"-liga på webDiplomacy.net fra 19. august til 13. oktober 2022. Denne ligaen spilte med fem-minutters forhandlingssvinger; disse tidskontrollene tillot spill å bli fullført innen to timer. Cicero rangerte blant de 10 % beste av deltakerne som spilte mer enn én kamp og 2. av 19 deltakere i ligaen som spilte 5 eller flere kamper. På tvers av alle 40 kampene var Ciceros gjennomsnittlige poengsum 25.8 %, mer enn det dobbelte av den gjennomsnittlige poengsummen på 12.4 % av sine 82 motstandere. Som en del av ligaen deltok Cicero i en 8-kamps turnering som involverte 21 deltakere, hvorav 6 spilte minst 5 kamper. Deltakerne kunne spille maksimalt 6 kamper med rangeringen bestemt av gjennomsnittet av deres 3 beste kamper. Cicero ble nummer 1 i denne turneringen” (ibid).

ANNONSE

Det er en stor lettelse å se at de seriøst har prøvd å støtte sine AI-påstander i dette tilfellet (vær oppmerksom på at ikke alle i AI gjør det).

Du kan foreslå at de utførte et eksperiment. Eksperimentet består av menneskelige spillere som antagelig ikke visste at de lekte med en AI-spiller i deres midte (artikkelen diskuterer hvorfor dette så ut til å være plausibelt utledet, nemlig at menneskene ikke åpenlyst innså at en av spillerne var AI, men en interessant sidetangens innebærer en historie om en spiller som ble mildt sagt mistenksom, men ikke spesielt). Disse menneskelige spillerne ble forhåndsvalgt av naturen til det eksperimentelle designet slik at de var ligaspillere av diplomati og vi kan med rimelighet utlede at de visste godt hvordan de skulle spille spillet. De var ikke nybegynnere.

I følge den rapporterte statistikken, som vi vil ta til pålydende som tidligere og riktig samlet og rapportert (ulike data og kode er gitt i tilleggsmaterialet), så det ut til at AI hadde spilt spillet tilstrekkelig til å gjøre en plausibel, men begrenset konklusjon at den nådde et menneskelig ytelsesnivå for denne varianten av diplomati spillet og som innenfor konteksten av det uttalte ligaspillet mot mennesker som tilsynelatende var kjente spillere.

Jeg er sikker på at noen av dere kanskje vil krangle med antall forekomster av å spille spillet, kanskje med å argumentere for at det er for lite til å komme med dristige proklamasjoner. En annen liten uenighet kan være at det å være blant de 10 % av deltakerne ikke er høyt nok, slik at før kanskje topp 1 % er oppnådd, bør man ikke skryte av AI-ytelsen.

ANNONSE

Disse uenigheten virker litt skingrende.

Jeg sier det fordi påstanden om å være "overmenneske" heldigvis ikke ble påberopt. Lesere kjenner utvilsomt til mitt sure og sure syn på de i AI som fortsetter å komme med de store uttalelsene om at deres AI har nådd en overmenneskelig status. Jeg vil ikke gå inn på klagene mine om de overmenneskelige påstandene her, se lenken her for mine synspunkter.

Poenget mitt i dette tilfellet er at jeg mener indikasjonen av ytelse på menneskelig nivå sannsynligvis er generelt tillatt, forutsatt at alle har i bakhodet at dette er innenfor en ekstremt snever kontekst og at vi ikke prøver å gjøre dette til s.k. overmenneskelig. Jeg gjentar også den begrensede konteksten om og om igjen av en grunn som jeg neste gang skal belyse.

Jeg kan bare forestille meg at noen sosiale medier eller naive (muligens uanstendige) reportere kommer til å ta fullstendig ut av kontekst forestillingen om ytelse på menneskelig nivå.

Her er det jeg gruer meg til.

ANNONSE

Hold pusten.

Noen vil hevde at AI har mestret diplomati. Ja, en studie av et utviklet AI-system for diplomati viste utover en skygge av tvil at AI kan og nå har kapasitet til å gjøre alt som mennesker gjør for diplomati.

Send hjem de utenlandske diplomatene. Vi kan erstatte dem med AI.

Verden slik vi kjenner den har endret seg. Vi har produsert AI som er fullt lik mennesker i diplomati, og vi kan gjøre det mentale "logiske" spranget til ideen om at AI nå kan gjøre hva mennesker kan gjøre. Voila, vi har nå bevist at AI er på nivå med mennesker. Tilsynelatende gir denne studien klare bevis på sansende AI.

Merk mine ord, dette kommer definitivt til å være den merkelige, uansvarlige, irriterende oppfatningen av noen forfattere.

Jeg skal ikke utdype poenget. Vi går videre.

ANNONSE

Hvordan fungerer AI?

Her er en rask oppsummering fra papiret: «Cicero kobler en kontrollerbar dialogmodul med en strategisk resonneringsmotor. På hvert punkt i spillet modellerer Cicero hvordan de andre spillerne sannsynligvis vil handle basert på spillets tilstand og samtalene deres. Den planlegger deretter hvordan spillerne kan koordinere til deres gjensidige fordel og kartlegger disse planene i naturlige språkmeldinger» (ibid).

Det er en munnfull i den raske oppsummeringen.

Tillat meg å pakke ut litt.

En menneskelig spiller som spiller diplomati må forutse hva de andre menneskelige spillerne kommer til å gjøre. Du vil prøve å forhandle med andre spillere og få dem til å følge planene dine. De vil prøve å gjøre det samme med deg. De kan lyve for deg. Du lyver kanskje for dem. Du må kjempe med seks andre spillere, som alle har sine egne planer og tilnærminger.

ANNONSE

Multiagent-aspektene ved dette spillet er avgjørende for vanskelighetsgraden for å utvikle AI for å spille spillet. AI-en må holde styr på hva hver person kanskje vil gjøre, sammen med hva de sier de vil gjøre, sammen med hva som helst lureri de gjør med andre spillere. Dette må veies opp mot hva de forteller deg at de skal gjøre, og også hva du forteller dem at du vil gjøre.

Svimlende, men lett nok for mennesker, vanligvis.

På språket AI-feltet omtaler vi dette som Theory of Mind (ToM). Tenk på at du som menneske har en tendens til å teoretisere om hva andre mennesker tenker. Du kan ikke lirke opp noens knagg og se tankene deres. Du må gjette hva deres tanker er. Du kan spørre dem, men det de forteller deg kan være deres tanker eller kan være en sleipe versjon av tankene deres.

I tillegg til Theory of Mind-kompleksitetene, må vi legge til menneskelig språk i denne grumsete blandingen.

Når en person kommuniserer til deg på sitt naturlige språk, la oss si engelsk, er det mye rom for feil og feilkommunikasjon. Jeg forteller deg at jeg kommer til å ta over land X, men jeg sier feilaktig Y. Oopsie. Eller sa jeg land X, men du trodde feilaktig at jeg sa land Y. Hvis du tror at den slags forvirring ikke kan skje hvis alle bruker tekstmeldinger, tar du mye feil. Jeg kan skrive en melding som sier at jeg skal angripe et land, og jeg nevner ikke hvilket. Kanskje det er underforstått hvilken jeg "åpenbart" ville angripe. En spiller som mottar meldingen min kan anta at jeg må referere implisitt til land X, men kanskje jeg ville at de skulle tenke det.

ANNONSE

Videre og videre går det.

Hovedpoenget er at våre siste fremskritt innen AI angående Natural Language Processing (NLP), og spesielt det siste innen generative AI og Large Language Models (LLM) gjør denne typen naturlig språksituasjon nesten gjennomførbar. Tidligere var NLP vanligvis ikke god nok, og på samme måte hadde ikke LLM-ene vært mer veletablerte.

Tidligere ville AI sende meldinger som du nesten helt sikkert umiddelbart ville gjenkjenne som skrevet av et skriptet AI-system. Ordlyden var ikke flytende. Det var malt. Dette var en åpenbar giveaway at AI var en AI. I dag er det mye vanskeligere å skjønne at AI ikke er en menneskelig aktør i disse sammenhengene.

Som nevnt i sitatet ovenfor, har denne spesielle AI blitt utviklet for å inneholde en "kontrollerbar dialogmodul med en strategisk resonneringsmotor" (ibid). Dialogen kommer via dette: «Cicero genererer dialog ved å bruke en forhåndstrent språkmodell som ble videretrent på dialogdata fra menneskelige spill av diplomati. Avgjørende, i tillegg til å være forankret i både dialoghistorien og spillets tilstand, ble dialogmodellen opplært til å være kontrollerbar via intensjoner, som vi her definerer som et sett med planlagte handlinger for agenten og dens talepartner.»

ANNONSE

Der, legg merke til at domeneinnstillingen er avgjørende. Hvis du bare trente på dialoger av normal karakter over Internett, ville dette ikke nødvendigvis passet for diplomati spillkontekst. De som spiller spillet er vant til en slags stenografi for å diskutere spillet og foreslåtte trekk. Du vil at AI skal gjøre det samme. Trening av språkmodellen på domenespesifikke dialogdata er derfor en bemerkelsesverdig tilnærming.

For den uttalte motoren for strategisk resonnement, her er hva de sier: "Cicero bruker en strategisk resonneringsmodul for å intelligent velge intensjoner og handlinger. Denne modulen kjører en planleggingsalgoritme som forutsier retningslinjene til alle andre spillere basert på spilltilstanden og dialogen så langt, og tar hensyn til både styrken til forskjellige handlinger og sannsynligheten deres i menneskelige spill, og velger en optimal handling for Cicero basert på disse spådommene . Planlegging er avhengig av en verdi- og policyfunksjon trent via selvspill RL som straffet agenten for å avvike for langt fra menneskelig atferd for å opprettholde en menneskeforenlig policy» (ibid; merk at RL er en forkortelse for Reinforcement Learning).

I løpet av et spill kalibrerer alle spillerne sine posisjoner etter hvert trekk. Du kan ikke gå inn i dette spillet med en forhåndsdefinert fast strategi som er lite fleksibel og støpt i stein. Du må endre handlingene dine basert på hva de andre spillerne gjør. AI bør programmeres til å gjøre det samme. Ingen statisk strategi i seg selv. Fortsett i stedet å informere om situasjonen, trinn for trinn, og finn ut hva som virker som de neste beste trinnene å ta.

Det teknologiske grunnlaget for AI ble utviklet på denne måten: "Vi fikk et datasett med 125,261 XNUMX spill med diplomati spilt online på webDiplomacy.net. Av disse inneholdt 40,408 12,901,662 spill dialog, med totalt XNUMX XNUMX XNUMX meldinger utvekslet mellom spillere. Spillerkontoer ble avidentifisert og automatisert redaksjon av personlig identifiserbar informasjon (PII) ble utført av webDiplomacy. Vi refererer til dette datasettet heretter som WebDiplomacy” (ibid).

I likhet med hvordan du kan trene opp AI til å spille sjakk, hvor du tar tak i zillioner av sjakkspill og får AI til å matche mønsteret om hvordan spillene ble spilt, AI for dette diplomati spilling var sammenlignbart etablert.

De av dere som er AI-kyndige kan være nysgjerrige på hvilke basismodeller de brukte, her ser du: "Vi tok R2C2 (22) som vår basismodell - en 2.7B parameter transformatorbasert koder-dekoder modell forhåndsopplært på tekst fra Internett ved hjelp av et BART-de-noising-objektiv. Den forhåndstrente basismodellen ble deretter videretrent på WebDiplomacy via standard Maximum Likelihood Estimation” (ibid).

Videre tok de en noe uvanlig og spennende tilnærming til modelleringen av de andre spillerne med hensyn til deres tilregnede politikk i tankene: "En populær tilnærming i samarbeidsspill er å modellere de andre spillernes retningslinjer via overvåket læring på menneskelige data, som er vanlig referert til som atferdskloning (BC). Imidlertid er ren BC sprø, spesielt siden en overvåket modell kan lære falske sammenhenger mellom dialog og handlinger. For å løse dette problemet brukte Cicero varianter av piKL (26) for å modellere spillernes retningslinjer. piKL er en iterativ algoritme som forutsier policyer ved å anta at hver spiller i søker å både maksimere den forventede verdien av deres policy πi og minimere KL divergensen mellom πi og BC policyen, som vi kaller ankerpolicyen τi (ibid).

Jeg tror det dekker overlinjefasettene og gir deg et skikkelig inntrykk av hva AI gjør og hvordan den utfører den angitte oppgaven.

konklusjonen

Det er mye mer jeg vil nevne, men jeg holder på med denne diskusjonen og vil prøve å dekke noen få keystone-aspekter. Jeg tar sikte på å dekke mer i et påfølgende innlegg.

Har du noen gang hørt om fangens dilemma?

Det er et klassisk beslutningsrelatert problem.

Fangens dilemma innebærer at du må bestemme deg for om du vil rote ut eller tulle på en medfange. Den andre fangen kan også muligens rote deg ut. Det er en belønningsfunksjon slik at hvis du rater ut den andre fangen og de ikke rater deg ut, er det en slags seier for deg. Hvis de rater deg og du ikke rater dem ut, er det en slags seier for dem og en tapende holdning for deg. Hvis dere begge rater ut hverandre, taper dere begge. Se min dekning i detalj på lenken her.

Hvilken strategi ville du komme opp med når du står overfor fangedilemmaet?

Hvis det var en engangsavtale, kan du nesten snu en mynt. Hvis situasjonen ble gjentatt om og om igjen, og du hadde å gjøre med den samme andre fangen, kan du finne et mønster som kan dukke opp. En av de mest populære og ofte anbefalte mønstrene er kjent som tit-for-tat. Uansett hva den andre fangen gjør, gjør du det samme på neste trekk. Hvis de ikke rater deg ut, rater du dem ikke. Hvis de rater deg ut, rater du dem i neste trekk.

Du kan bli forundret over hvordan noe av dette relaterer seg til AI-infundert diplomati mens du spiller diplomati.

Her er avtalen.

I forhandlinger med andre må du ofte bestemme deg for om du skal fortelle dem sannheten eller lyve for dem. Et problem med å lyve er at hvis du blir fanget i løgnen, kommer sannsynligvis ikke den andre personen til å stole på deg fra da av. De hadde kanskje ikke helt stolt på deg til å begynne med, men nå som du har vist hånden din at du faktisk lyver, vil de utvilsomt bestemme at du er en løgner.

Noen spillere av diplomati lyver konstant. De mener dette er den beste strategien. Løgn, løgn og mer løgn. Andre spillere går helt motsatt. De hevder at du vil avstå fra å lyve hvis du kan gjøre det. Bruk bare løgn i de mest nødvendige situasjonene. Ved å spare på løgnen kan du bygge tillit hos andre spillere. Når du først har gått ned den liggende ruten og blitt oppdaget, er det ingen som kommer til å tro på et ord du sier.

Papiret som beskriver Cicero nevner denne betraktningen: "Til slutt er diplomati et spesielt utfordrende domene fordi suksess krever å bygge tillit med andre i et miljø som oppmuntrer spillere til ikke å stole på noen. Hver turs handlinger skjer samtidig etter ikke-bindende, private forhandlinger. For å lykkes, må en agent redegjøre for risikoen for at spillere ikke kan holde seg til sitt ord, eller at andre spillere selv kan tvile på agentens ærlighet» (ibid).

I følge papiret og de korte videoene fant forskerne til slutt ut at det å ha AI fortelle sannheten så mye som mulig så ut til å være den bedre overordnede strategien. På en måte kan du sammenligne dette med fangens dilemma. Start med å fortelle sannheten. Hvis motstanderen din forteller sannheten, fortsetter du å fortelle sannheten. Hvis de begynner å lyve, må du vurdere om du skal holde deg til å fortelle sannheten eller gå over til å lyve.

Man antar at dette er et hjertevarmende funn.

Husk at den vanskelige og spennende delen av diplomati er at du gjør dette med hensyn til seks andre spillere (kjent som et multiagentproblem). Du kan være strengt sannferdig med dem alle. Eller kanskje sannferdig for noen, men ikke andre. Det er også aspektet at når du lyver og blir fanget i en løgn til en annen spiller, kan dette potensielt observeres eller utledes av andre spillere. Ergo er du kjent eller antatt å lyve, selv om du ikke løy til en bestemt spiller som du håper tror du er sannferdig og som du prøver å være sannferdig mot.

Mennesker har en tendens til å finne ut og utvikle sine tilnærminger til løgn-sannhet når de utøver diplomati. Situasjonsavhengigheter kan være en stor faktor. Innsatsene på linjen er avgjørende å vurdere. En rekke faktorer spiller inn.

Det ville vært fascinerende å ha en AI-infundert diplomati maskinbaserte spillere spiller et veldig stort antall spill for å se hva resultatene kan antyde i hovedsak.

Vi vil kanskje også sette AI mot mindre enn seks andre spillere for å se hvordan det endrer ting. Vi kan også legge til AI i blandingen som mer enn én spiller. Anta for eksempel at vi hadde fem menneskelige spillere og to AI-spillere (vi setter opp AI-spillerne som separate forekomster slik at de ikke er beregningsmessig en og samme). Hva med fire mennesker og tre AI? Hva med seks AI og ett menneske?

En annen vei ville være å sette AI utelukkende mot AI. På den måten kunne vi kjøre gjennom en gazillion spill i rask rekkefølge. Oppsett av syv forskjellige forekomster av AI. Hver er sin egen separate spiller. Siden alt dette er innenfor datamaskinen, kan vi kjøre dem uten stans og produsere tusenvis eller millioner av spillforekomster.

Selvfølgelig er problemet med AI-versus-AI at vi har fjernet de menneskelige spillerne. Vi vet ikke at AI-versus-AI reflekterer hva menneskelige spillere ville gjort. I alle fall kan noen interessante resultater sees.

Jeg hadde tidligere uttalt at en begrensning ved AI av denne typen er at den vanligvis er snevert fokusert. Vi kan ikke uten videre vite at AI-en som spiller diplomati vil være anvendelig i diplomati i den virkelige verden. Videre kanskje AI-en som fungerer godt for diplomati vil ikke gjøre det spesielt bra i andre diplomati-orienterte nettspill. Det kan hende den ikke port over og i stedet er en slags ett-triks ponni.

Som det fremgår av forskningen om formuleringen av DipGame:

  • «Vi argumenterer for at i reelle forhandlinger er det viktig å ha kunnskap om domenet og man bør kunne resonnere rundt det. Man kan for eksempel ikke forvente å gjøre lønnsomme avtaler i antikvitetsbransjen uten å ha kunnskap om antikk, uansett hvor flink man er til å prute. Dessuten bør en god forhandler også være i stand til å resonnere om motstandernes ønsker. En god bilselger, for eksempel, ville prøve å finne ut hvilken type bil som best passer kundens behov for å øke sjansene for å gjøre en lønnsom avtale" (som tidligere sitert: Angela Fabregues og Carles Sierra, "DipGame: A Challenging Negotiation Testbed", Tekniske applikasjoner for kunstig intelligens, oktober 2011).

En gang mestring av AI i diplomati oppstår, bør alle øyne være rettet mot å bruke eller gjenbruke AI for å takle andre diplomatierelaterte spill. I tillegg bør forsøk på å bruke AI i virkelige diplomati-miljøer utforskes.

Jeg avslutter foreløpig med noen etiske AI-betraktninger.

For det første var det betryggende å legge merke til at Meta AI-teamet innså at arbeidet deres omfatter AI-etikk-forgreninger. Nøkterne spørsmål dukker opp. Er det riktig å "lure" folk til å spille mot AI uten å fortelle dem at de gjør det? Kan det naturlige språket som genereres av AI utilsiktet inneholde støtende ordlyd som blir formidlet til menneskelige spillere? Og så videre.

Sørg for å ta en titt på hvordan de håndterte de presserende bekymringene om etisk kunstig intelligens i tilleggsmaterialet (SM) i papiret deres: «Vi diskuterer etiske hensyn for denne forskningen videre i SM, inkludert personvernhensyn for databruk (SM, § A.1), potensielle skader som følge av giftig eller partisk språkgenerering (SM, §A.2), veier for misbruk av målorientert dialogteknologi (SM, §A.3), og AI-agent avsløring til menneskelige spillere (SM , §A.4)» (ibid).

Vi trenger flere AI-utviklere og deres lederskap for å være klar over etisk AI og ta oppmerksomme skritt for å være forsiktige og fornuftige i AI-arbeidet de gjør. I tillegg må de sørge for at de er gjennomsiktige om hvilke etiske AI-handlinger de har tatt og hvilke forutsetninger de har gjort.

Mitt siste element foreløpig innebærer den generelle frykten for antropomorfisering TIL.

Hvis vi forbedrer AI til å fremstå som svært diplomatisk, vil det da villede mennesker til å anta eller tro at AI er på nivå med mennesker i det fulle av respekt?

Det er en lett glatt bakke. En klønete AI som du samhandler med, gir bort en avslørende anelse om at det sannsynligvis er AI og ikke et menneske. En jevnt gjentatt AI som ser ut til å være overlegen diplomatisk balanse vil sannsynligvis få folk uten å nøle i fellen at AI er menneskelig, inkludert som om den har menneskelig sunn fornuft og alle menneskets forståelsesevner.

Som en side, innse også hvordan dette kan utnyttes i løpet av en diplomati spill. En menneskelig spiller som ser nesten poetisk tilsynelatende meldinger fra en annen spiller, kan kanskje innse at dette må være AI (nå langt utover den tidligere klønete AI), mens andre mennesker ikke ville være så velartikulert i stand til å komponere meldinger. Selvfølgelig, hvis AI fortsetter å tilpasse seg, kan det endre den poetiske ordlyden for å speile den kortfattede og løsaktige formuleringen til faktiske menneskelige spillere. På sin side kan menneskelige spillere gå over til poetisk språk, og prøve å gi bort at de er mennesker. Tanken er at kanskje andre menneskelige spillere vil være villige til å samkjøre med medmennesker over AI.

Det neste du vet, begynner spillet å gå over til å prøve å finne ut hvem som er mennesket og hvem som er AI. Hvis du kan finne ut hvilken som er hvilken, gir dette deg kanskje en fordel. På den annen side kan det være for ikke. AI kan ende opp med å være like kunnskapsrik i spillet som menneskene. Din gjetning om hvilken som er som gjør deg ikke særlig godt. Det kan være en distraktor fra bare å konsentrere seg om å prøve å vinne spillet, uavhengig av om AI-spillere eller menneskelige spillere er for hånden.

For forskere som ønsker å gjøre noen studier av menneskelige faktorer på denne typen tankevekkende oppfatning, kan du potensielt vurdere å bruke AI-infundert diplomati spiller og oppsøke villig diplomati ligaturneringer for å undersøke menneske-mot-AI-identifikasjon og atferdstilpasningsstrategier som oppstår.

La oss avslutte dette.

Mark Twain sa dette om diplomati: "Prinsippet om å gi og ta er prinsippet om diplomati - gi en og ta ti." Er det en ærlig vurdering av hvordan mennesker fungerer, eller er det bare litt tungen i kinnet-humor som kynisk, men feilaktig vurderer menneskets tilstand?

Tenk over disse ytterligere spørsmålene:

  • Hvis vi kan legge inn diplomati i AI, vil dette lære oss om hvordan mennesker instansierer diplomati og muligens la menneskeheten forbedre seg i kunsten å være diplomatisk?
  • Vil vi skape en usannhet av AI som ser ut til å være sansende når det ikke er noe av det slaget, alt på grunn av beregningsmessig å trekke en kanin opp av hatten for å vise frem menneskelignende diplomati?
  • Kan man finne en balanse mellom å ha AI gjennomsyret av diplomati slik at vi i mellomtiden blir varslet om at dette fortsatt bare er hverdagslig AI og derfor ikke skal antropomorfisere det?

De sier at diplomati er kunsten å la noen andre få viljen din. La oss sørge for at vår måte er den menneskelige måten, snarere enn AI-måten. Selv om jeg skal være diplomatisk, nå som jeg tenker nøye over det, og i tilfelle vi ender opp med AI-overherrer, bør vi kanskje tillate at vår måte er AI-måten, som forhåpentligvis henger sammen med en passende menneskelig måte.

Prøver bare å utøve et snev av kunstferdig diplomati.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/11/23/meta-ai-unveils-ai-infused-diplomatic-charmer-which-stirs-ai-ethics-and-ai-law- inn-udelikat-tiff/