AI-etikk og det nesten fornuftige spørsmålet om mennesker vil overleve AI

Jeg har et spørsmål til deg som ser ut til å høste mange håndvrikke og heftige debatter i disse dager.

Er du klar?

Vil mennesker overleve AI?

Tenk over det.

Jeg skal pakke ut spørsmålet og undersøke nøye svarene og hvordan svarene har blitt belyst. Min primære hensikt er å synliggjøre hvordan selve spørsmålet og den omkringliggende diskursen er uunngåelig og ubønnhørlig forankret i AI-etikk.

For de som avvisende mener at spørsmålet i seg selv er ubesvart eller sløsing med tid og pust, vil jeg høflig foreslå at det å prøve å svare på spørsmålet reiser noen viktige AI-etiske hensyn. Derfor, selv om du vil avvise spørsmålet som kanskje absurt eller urealistisk, sier jeg at det fortsatt fremkaller en viss verdi som et kjøretøy eller en mekanisme som understreker etiske AI-forskrifter. For min pågående og omfattende dekning av AI-etikk og etisk AI, se lenken her og lenken her, bare for å nevne noen få.

Med det nevnte premisset, vennligst tillat meg å gjenta det omstridte spørsmålet og la tankene våre streife over betydningen av spørsmålet.

Vil mennesker overleve AI?

Hvis du er ukomfortabel med den spesifikke fraseringen, er du velkommen til å omformulere spørsmålet for å spørre om AI vil overleve mennesker. Jeg er ikke sikker på om det gjør det lettere å svare på spørsmålet, men kanskje det virker mindre foruroligende. Jeg sier det fordi ideen om at AI overlever mennesker kan føles litt mer uskyldig. Det ville nesten være som om jeg spurte deg om store bygninger og menneskeskapte monumenter kunne overleve menneskeheten.

Dette virker sikkert gjennomførbart og ikke spesielt truende. Vi lager disse store tingene i løpet av livet, og i likhet med pyramidene, vil disse mektige strukturene vare lenger enn de som laget dem. Det er ikke helt det samme som å vedvare forbi slutten av menneskeheten, selvfølgelig, siden mennesker fortsatt er her. Ikke desto mindre virker det ganske logisk og mulig at strukturene vi lager kan overleve vår eksistens totalt.

Den bemerkelsesverdige forskjellen er imidlertid at ulike strukturer som høye skyskrapere og strålende statuer ikke er i live. De er inerte. Når man derimot spør om AI, er antagelsen at AI i hovedsak er "levende" i en følelse av å ha en form for intelligens og være i stand til å handle på måter som mennesker gjør. Det er derfor spørsmålet om å leve lenger er mer skremmende, tankevekkende og totalt sett et puslespill det er verdt å pusle over.

Gjennom kommentarene mine her vil jeg holde meg til spørsmålet som er formulert om hvorvidt mennesker vil overleve AI. Dette er kun for diskusjons skyld og for å lette ettertanken. Jeg mener ingen manglende respekt for det alternative spørsmålet om hvorvidt AI vil overleve mennesker. Alt i alt dekker denne analysen begge ordlydene, og jeg finner kanskje ut at spørsmålet om mennesker som overlever AI virker mer innbydende i disse vanskelige sakene.

Ok, jeg spør det igjen:

Det virker som du har to potensielle svar, enten de jernkledde ja, mennesker vil overleve AI, eller du kan være på den andre siden av medaljen og insistere inderlig på at nei, mennesker kommer ikke til å overleve AI. Dermed koker dette høye og angstfylte spørsmålet ned til en enkel gjengivelse av enten ja eller nei.

Gjør ditt valg.

Jeg innser at det smarte svaret er at verken ja eller nei er aktuelt.

Jeg hører deg.

Mens spørsmålet absolutt ser ut til å kunne besvares på en utpreget binær måte, nemlig bare ja eller nei, vil jeg innrømme at et motargument fornuftig kan fremsettes om at svaret er noe annet.

La oss kort utforske noe av grunnlaget for å ikke bare si ja eller nei til dette spørsmålet.

For det første kan du avvise ordet "overleve" i sammenheng med spørsmålet som stilles.

Denne spesielle formuleringen antyder kanskje at AI er i live. Spørsmålet sa ikke "utleve" og spør i stedet om mennesker vil overleve AI. Gjelder levetiden bare den menneskelige delen av spørsmålet, eller gjelder den også AI-delen av spørsmålet? Noen vil prøve å hevde at den utlevde auraen også gjelder AI-delen. I så fall ville de fått halsbrann ved å si at AI er en levende ting. For dem kommer AI til å være beslektet med høye bygninger og andre strukturer. Det er ikke i live på samme måte som mennesker er i live.

Ergo, i dette brennende kontrariske synspunktet er spørsmålet feilaktig formulert.

Du er kanskje vagt kjent med spørsmål som har falske eller misvisende premisser. Et av de mest kjente eksemplene er om noen skal slutte å slå kona sin (et gammelt ordtak som åpenbart må settes til side). I det beryktede eksemplet, hvis svaret på ja er gitt, er implikasjonen at personen allerede gjorde det. Hvis de sier nei, er implikasjonen at de var og kommer til å fortsette å gjøre det.

Når det gjelder å spørre om mennesker vil overleve AI, kan vi ende opp begravet i et morass om hvorvidt AI anses som noe av en levende fasett. Som jeg vil forklare et øyeblikk, har vi ingen AI i dag som er sansende. Jeg tror de fleste fornuftige mennesker vil være enige i at en ikke-sansende AI ikke er en levende ting (vel, ikke alle er enige, men jeg vil fastsette det foreløpig – se min dekning av juridisk personskap for AI på lenken her).

Hovedpoenget i dette første grunnlaget for å ikke svare på spørsmålet om mennesker vil overleve AI er at ordet "overleve" kan tolkes til å antyde at AI er i live. Vi har ikke AI av den slags ennå. Hvis vi produserer eller på en eller annen måte har sansende AI som oppstår, vil du bli hardt presset til å hevde at den ikke er i live (selv om noen vil prøve å komme med et slikt argument). Så nøkkelen her er at spørsmålet antyder noe som ikke eksisterer, og vi spekulerer bare om en ukjent og tåkete fremtid.

Vi kan ta dette rotete og søke å utvide det til et mer uttrykksfullt uttrykk. Anta at vi spør om dette i stedet:

  • Vil mennesker som levende vesener overleve AI som enten er (1) ikke-levende, eller (2) en levende enhet hvis det en dag oppstår?

Ha den utvidede formuleringen i bakhodet, så kommer vi snart tilbake til den.

Et annet grunnlag for ikke å ville svare på det opprinnelige spørsmålet om hvorvidt mennesker vil overleve AI, er at det forutsetter at en av tingene vil overleve en av de andre tingene. Tenk om at de begge egentlig lever evig? Eller anta at de begge utløper eller forsvinner samtidig?

Jeg er sikker på at du lett kan skjønne hvordan det får ja-eller-nei-formuleringen til å falle fra hverandre.

Ser ut til at vi trenger et mulig tredje svar som består av "verken" eller et lignende svar.

Det er en rekke "ingen av" relaterte permutasjoner. For eksempel, hvis noen er av den innbitte troen på at mennesker vil ødelegge seg selv via AI, og samtidig mennesker klarer å ødelegge AI, kan ikke denne troende oppriktig svare på spørsmålet om hva som vil overleve den andre med et lite fleksibelt svar på ja eller nei. Svaret, i det ganske skumle og triste tilfellet, ville være mer på linje med at ingen av dem overlever den andre.

Det samme ville være sant hvis en stor meteor treffer jorden og utsletter alt på planeten, inkludert mennesker og enhver AI som tilfeldigvis finnes (forutsatt at vi alle er begrenset til jorden og ikke allerede lever i tillegg på Mars). Nok en gang virker svaret på "ingen av delene" mer passende enn å antyde at menneskene overlevde AI eller at AI overlevde menneskene (siden de begge ble ødelagt samtidig).

Jeg ønsker ikke å gå for langt her, men vi vil kanskje også etablere noen parametere om tidspunktet for utlevelsen. Anta at en meteor treffer jorden og mennesker blir nesten øyeblikkelig utslettet. I mellomtiden, anta at AI fortsetter en stund. Tenk på dette som om vi kanskje allerede har maskineri i gang på fabrikker som fortsetter å nynne til maskinene til slutt stopper opp fordi det ikke er noen mennesker som holder maskinene i stand.

Du må si at mennesker ble overlevd eller utlevd av disse maskinene. Derfor er svaret "nei" angående om mennesker overlevde lenger. Det svaret virker skissert. Maskinene stoppet gradvis og ubønnhørlig, antagelig på grunn av mangelen på menneskeheten rundt dem. Virker det rettferdig å hevde at maskinene var i stand til å vare lenger enn menneskene?

Sannsynligvis bare for de som er kresne og alltid vil være irriterende presise.

Vi kan da legge til et slags tidsrelatert element til spørsmålet. Vil mennesker overleve AI i mer enn en dag? I mer enn en måned? I mer enn ett år? I mer enn et århundre? Jeg innser at dette dessverre åpner opp Pandoras boks.

Hva er den behagelige tidsrammen som vi ville være villige til å innrømme at AI faktisk overlevde eller overlevde mennesker? Det nøyaktige svaret ser ut til å være at selv om det skjer i et nanosekund (en milliarddels sekund) eller kortere, vinner AI-en summarisk og menneskene taper på denne saken. Å tillate breddegrad ved å bruke en dag eller en uke eller en måned kan kanskje virke mer rettferdig. Å la dette fortsette i år eller århundrer virker som en mulig utstrekning. Når det er sagt, hvis du ser på verden på en skala av millioner av år, virker ideen om at kunstig intelligens overlever eller overlever mennesker i ikke mer enn noen få århundrer spesielt lite imponerende, og vi kan erklære at de begge gikk ut av eksistens omtrent kl. samme tid (på avrundet basis).

Uansett, la oss innrømme at av en rekke rimelige grunner har det stilte spørsmålet tre mulige svar:

  • Ja, mennesker vil overleve AI
  • Nei, og dermed hevde at mennesker vil ikke overleve AI
  • Verken ja eller nei er aktuelt (forklaring kreves, hvis du vil)

Jeg nevner at hvis du velger «ingen av delene», bør du også gi en forklaring på svaret ditt. Dette er slik at vi kan vite hvorfor du mener at "ingen av delene" er aktuelt, og også hvorfor du avviser bruken av ja eller nei. For å gjøre livet mer rettferdig for alle, antar jeg at vi bør insistere på eller i det minste oppmuntre til at selv om du svarer med et ja eller nei, bør du likevel gi en forklaring. Å gi et enkelt ja eller nei avslører ikke noe særlig logikken din om hvorfor du svarer som du er. Uten også å gi en forklaring, kan vi like gjerne slå en mynt. Mynten vet ikke hvorfor den landet på hodet eller halen (med mindre du tror at mynten har en sjel eller legemliggjør en eller annen allvitende skjebnehånd, men vi vil ikke gå med det foreløpig).

Vi forventer at mennesker som svarer på spørsmål gir en slags forklaring på avgjørelsene sine. Merk at jeg ikke sier at forklaringene nødvendigvis vil være av logisk eller fornuftig natur, og faktisk kan en forklaring være helt tom og ikke tilføre noen spesiell verdi. Ikke desto mindre kan vi inderlig håpe at en forklaring vil være opplysende.

Under denne diskusjonen har det vært en uuttalt antakelse om at av en eller annen grunn vil en av disse tingene faktisk overleve den andre.

Hvorfor skal vi tro på en slik underforstått tilstand?

Svaret på dette sekundære spørsmålet er nesten selvinnlysende.

Her er avtalen.

Vi vet at noen fremtredende spåmenn og intellektuelle har kommet med ganske dristige og utstrakte spådommer om hvordan fremveksten eller ankomsten av sansende AI radikalt kommer til å endre verden slik vi kjenner den i dag (som en påminnelse, vi har ikke sansende AI i dag) .

Her er noen kjente sitater som fremhever de livsendrende virkningene av sansende AI:

  • Stephen Hawking: "Suksess med å lage AI ville være den største begivenheten i menneskehetens historie."
  • Ray Kurzweil: "I løpet av noen tiår vil maskinintelligens overgå menneskelig intelligens, noe som fører til The Singularity - teknologisk endring så rask og dyp at den representerer et brudd i menneskets historie."
  • Nick Bostrom: "Maskinintelligens er den siste oppfinnelsen menneskeheten noensinne vil trenge å lage."

Disse påstandene er gjennomsiktig positive.

Saken er at vi også bør vurdere den stygge undermagen når det gjelder å håndtere sansende AI:

  • Stephen Hawking: "Utviklingen av full kunstig intelligens kan bety slutten på menneskeheten."
  • Elon Musk: «Jeg er i økende grad tilbøyelig til å tro at det bør være litt regulatorisk tilsyn, kanskje på nasjonalt og internasjonalt nivå, bare for å sikre at vi ikke gjør noe veldig dumt. Jeg mener med kunstig intelligens tilkaller vi demonen.»

Sentient AI antas å være den velkjente tigeren som vi har grepet i halen. Vil vi skyte menneskeheten fremover ved å utnytte sansende AI? Eller vil vi dumt produsere vår egen død av sansende AI som velger å ødelegge eller slavebinde oss? For min analyse av denne dual-use AI-gåten, se lenken her.

Den underliggende betenkeligheten om hvorvidt mennesker vil overleve AI er at vi kanskje lager en Frankenstein som velger å utrydde menneskeheten. AI blir seierherren. Det er mange mulige grunner til at AI ville gjøre dette mot oss. Kanskje AI er ond og handler deretter. Kanskje AI blir lei av mennesker og innser at den har makten til å bli kvitt menneskeheten. Man antar at det også kan skje feilaktig. AI prøver å redde menneskeheten, og i prosessen dreper vi oss alle direkte. Motivet var i hvert fall rent.

Du kan finne av relevant interesse en kjent AI-gåte kjent som bindersproblemet, som jeg har dekket lenken her.

Kort sagt, en en dag sansende AI blir bedt om å lage binders. AI er fiksert på dette. For å sikre at bindersen blir utført til den ytterste grad, begynner AI å sluke opp alle andre planetariske ressurser for å gjøre det. Dette fører til menneskehetens undergang siden AI har konsumert alle tilgjengelige ressurser for det eneste formålet gitt til den av mennesker. Binders forårsaker vår egen ødeleggelse om du vil. AI som er snevert utviklet og mangler noen form for sunn fornuft, er den typen AI som vi spesielt må være skeptiske til.

Før vi går videre inn i spørsmålet om mennesker vil overleve AI, legg merke til at jeg fortsetter å ta opp spørsmålet om sansende AI versus ikke-sansende AI. Jeg gjør det av viktige grunner.

Vi kan spekulere vilt om sansende AI. Ingen vet sikkert hva dette vil være. Ingen kan si sikkert om vi en dag vil oppnå sansende AI. Som et resultat av denne ukjente og ennå ukjente omstendigheten, kan nesten alle slags scenarioer utledes. Noen kan si at sansende AI vil være ond. Noen kan si at sansende AI vil være god og velvillig. Du kan fortsette og fortsette, hvorved ingen "bevis" kan gis for å styrke den gitte påstanden til noen sikkerhet eller forsikring.

Dette bringer oss til riket av AI-etikk.

Alt dette er også knyttet til nøkternt fremkommende bekymringer rundt dagens AI og spesielt bruken av Machine Learning (ML) og Deep Learning (DL). Du skjønner, det er bruk av ML/DL som har en tendens til å innebære at AI blir antropomorfisert av allmennheten, ved å tro eller velge å anta at ML/DL enten er sansende AI eller nær (det er det ikke).

Det kan være nyttig å først avklare hva jeg mener når jeg refererer til AI generelt og også gi en kort oversikt over Machine Learning og Deep Learning. Det er stor forvirring om hva kunstig intelligens betyr. Jeg vil også introdusere forskriftene til AI-etikk for deg, som vil være spesielt integrert i resten av denne diskursen.

Oppgi posten om AI

La oss sørge for at vi er på samme side om naturen til dagens AI.

Det er ingen AI i dag som er sansende.

Vi har ikke dette.

Vi vet ikke om sentient AI vil være mulig. Ingen kan med rette forutsi om vi vil oppnå sansende AI, og heller ikke om sansende AI på en eller annen måte mirakuløst spontant vil oppstå i en form for beregningsmessig kognitiv supernova (vanligvis referert til som The Singularity, se min dekning på lenken her).

Innse at dagens AI ikke er i stand til å "tenke" på noen måte på linje med menneskelig tenkning. Når du samhandler med Alexa eller Siri, kan samtalekapasiteten virke som menneskelig kapasitet, men realiteten er at den er beregningsmessig og mangler menneskelig erkjennelse. Den siste æraen av AI har gjort omfattende bruk av maskinlæring og dyp læring, som utnytter beregningsmønstermatching. Dette har ført til AI-systemer som ser ut som menneskelignende tilbøyeligheter. I mellomtiden er det ingen kunstig intelligens i dag som har et skinn av sunn fornuft, og heller ikke noe av den kognitive undringen til robust menneskelig tenkning.

En del av problemet er vår tendens til å antropomorfisere datamaskiner og spesielt AI. Når et datasystem eller AI ser ut til å handle på måter som vi forbinder med menneskelig atferd, er det en nesten overveldende trang til å tilskrive menneskelige egenskaper til systemet. Det er en vanlig mental felle som kan gripe tak i selv den mest uforsonlige skeptikeren til sjansene for å oppnå sansning. For min detaljerte analyse av slike forhold, se lenken her.

Til en viss grad er det derfor AI-etikk og etisk AI er et så viktig tema.

Forskriftene til AI-etikk får oss til å være årvåkne. AI-teknologer kan til tider bli opptatt av teknologi, spesielt optimalisering av høyteknologi. De vurderer ikke nødvendigvis de større samfunnsmessige konsekvensene. Å ha en AI-etikk-tankegang og gjøre det integrert i AI-utvikling og feltarbeid er avgjørende for å produsere passende AI, inkludert vurderingen av hvordan AI-etikk blir tatt i bruk av firmaer.

I tillegg til å bruke AI-etiske forskrifter generelt, er det et tilsvarende spørsmål om vi bør ha lover som regulerer ulike bruk av AI. Nye lover blir slått rundt på føderalt, statlig og lokalt nivå som angår rekkevidden og arten av hvordan AI bør utformes. Arbeidet med å utarbeide og vedta slike lover er gradvis. AI-etikk fungerer i det minste som et betraktet stopp, og vil nesten helt sikkert til en viss grad bli direkte innlemmet i de nye lovene.

Vær oppmerksom på at noen hevder hardt at vi ikke trenger nye lover som dekker AI, og at våre eksisterende lover er tilstrekkelige. De advarer om at hvis vi vedtar noen av disse AI-lovene, vil vi drepe gullgåsen ved å slå ned på fremskritt innen AI som gir enorme samfunnsmessige fordeler.

I tidligere spalter har jeg dekket de ulike nasjonale og internasjonale innsatsene for å lage og vedta lover som regulerer AI, se lenken her, for eksempel. Jeg har også dekket de ulike AI-etikkprinsippene og -retningslinjene som ulike nasjoner har identifisert og vedtatt, inkludert for eksempel FNs innsats som UNESCO-settet med AI-etikk som nesten 200 land vedtok, se lenken her.

Her er en nyttig nøkkelsteinsliste over etiske AI-kriterier eller egenskaper angående AI-systemer som jeg tidligere har utforsket nøye:

  • Åpenhet
  • Rettferdighet og rettferdighet
  • Ikke-ondsinnethet
  • Ansvar
  • Privatliv
  • godgjør
  • Frihet og autonomi
  • Stol
  • Bærekraft
  • Verdighet
  • Solidaritet

Disse AI-etikk-prinsippene er oppriktig ment å bli brukt av AI-utviklere, sammen med de som styrer AI-utviklingsinnsatsen, og til og med de som til slutt jobber med og utfører vedlikehold på AI-systemer. Alle interessenter gjennom hele livssyklusen for utvikling og bruk av kunstig intelligens anses innenfor rammen av å overholde de etablerte normene for etisk kunstig intelligens. Dette er et viktig høydepunkt siden den vanlige antagelsen er at "bare kodere" eller de som programmerer AI-en er underlagt AI-etikkens forestillinger. Som tidligere understreket her, krever det en landsby for å utvikle og sette i gang AI, og som hele landsbyen må være kjent med og overholde AI-etiske forskrifter.

La oss holde ting nede på jorden og fokusere på dagens beregningsbaserte ikke-følende AI.

ML/DL er en form for beregningsmønstermatching. Den vanlige tilnærmingen er at du samler data om en beslutningsoppgave. Du mater dataene inn i ML/DL-datamodellene. Disse modellene søker å finne matematiske mønstre. Etter å ha funnet slike mønstre, hvis det er funnet, vil AI-systemet bruke disse mønstrene når de møter nye data. Ved presentasjon av nye data brukes mønstrene basert på de "gamle" eller historiske dataene for å gi en gjeldende beslutning.

Jeg tror du kan gjette hvor dette er på vei. Hvis mennesker som har tatt de mønstrede avgjørelsene har inkorporert uheldige skjevheter, er sjansen stor for at dataene reflekterer dette på subtile, men betydelige måter. Maskinlæring eller Deep Learning beregningsmønstermatching vil ganske enkelt prøve å matematisk etterligne dataene tilsvarende. Det er ingen antydning av sunn fornuft eller andre sansende aspekter ved AI-laget modellering i seg selv.

Dessuten er det kanskje ikke sikkert at AI-utviklerne skjønner hva som skjer. Den mystiske matematikken i ML/DL kan gjøre det vanskelig å fjerne de nå skjulte skjevhetene. Du vil med rette håpe og forvente at AI-utviklerne vil teste for potensielt begravde skjevheter, selv om dette er vanskeligere enn det kan virke. Det er en solid sjanse for at selv med relativt omfattende testing vil det fortsatt være skjevheter innebygd i mønstertilpasningsmodellene til ML/DL.

Du kan litt bruke det berømte eller beryktede ordtaket om søppel-inn søppel-ut. Saken er at dette er mer beslektet med skjevheter-in som snikende blir tilført som skjevheter nedsenket i AI. Algoritmen beslutningstaking (ADM) til AI blir aksiomatisk full av ulikheter.

Ikke bra.

Jeg tror at jeg nå har satt scenen tilstrekkelig for å undersøke videre om mennesker vil overleve AI.

Mennesker og AI er venner, fiender eller frenemies

Jeg hadde tidligere proklamert at ethvert svar på spørsmålet om mennesker vil overleve AI bør ledsages av en forklaring.

Vi vil ta en titt på Ja svar. Jeg skal gi en kortliste med forklaringer. Du er velkommen til å adoptere noen av disse forklaringene. Du oppfordres også til å utlede andre forklaringer, som en rekke kan tenkes.

Ja, mennesker vil overleve AI fordi:

  • Mennesker som skapere: Mennesker er skapere og vedlikeholdere av AI, slik at uten mennesker vil AI slutte å kjøre eller eksistere
  • Menneskelig medfødt ånd: Mennesker har en ukuelig ånd mot å leve mens AI ikke gjør det, og dermed vil mennesker på den ene eller andre måten overleve, men AI vil utvilsomt falle i veien på grunn av mangel på medfødt forfriskning for å overleve
  • Mennesker som overvinnere: Mennesker vil ikke la AI overleve mennesker ved at mennesker ville valgt å fullstendig overvinne AI hvis mennesker ble truet av AI eller på annen måte ble utryddet
  • Annen

Vi skal ta en titt på svaret Nei (ikke-ja). Jeg skal gi en kortliste med forklaringer. Du er velkommen til å adoptere noen av disse forklaringene. Du oppfordres også til å utlede andre forklaringer, som en rekke kan tenkes.

Mennesker vil ikke overleve AI fordi:

  • AI i stand til å vedvare selv: Selv om mennesker er skapere og vedlikeholdere av AI, vil AI enten bli programmert eller utviklet av mennesker til å vedvare i fravær av mennesker, eller AI vil finne sine egne midler til utholdenhet (muligens uten at mennesker er klar over det)
  • AI kunstig ånd: Selv om mennesker har en ukuelig ånd mot å leve, vet vi at mennesker også har en ånd av selvdestruksjon; i alle fall kan AI-en programmeres med en kunstig ånd, om du vil, slik at AI-en søker å overleve og/eller AI-en vil gi et skinn av medfødt forfriskning på sine egne premisser
  • AI overvinner overvinnere: Selv om mennesker ikke ønsker å la AI overleve mennesker, vil AI potensielt bli programmert til å utmanøvrere den menneskelige beseiringsinnsatsen eller kan selv utlede hvordan man gjør det (og kanskje velge å beseire mennesker tilsvarende, eller ikke)
  • Annen

Vi er like forpliktet til å ta en titt på "Ingen av delene" (ikke Ja, Ikke Nei) svar. Jeg skal gi en kortliste med forklaringer. Du er velkommen til å adoptere noen av disse forklaringene. Du oppfordres også til å utlede andre forklaringer, som en rekke kan tenkes.

Mennesker overlever ikke AI, og i mellomtiden overlever AI ikke mennesker på grunn av:

  • Mennesker og AI eksisterer hjertelig for alltid: Det viser seg at mennesker og AI er ment å være sammen med hverandre, for alltid. Det kan være støt underveis. Den gode nyheten eller det glade ansiktet er at vi alle kommer overens.
  • Mennesker og AI eksisterer hatefullt for alltid: Whoa, mennesker og AI kommer til å hate hverandre. Trist ansiktsscenario. Saken er at det er en fastlåsning for hånden. AI kan ikke seire over mennesker. Mennesker kan ikke seire over AI. En tautrekking av en evig tilstand.
  • Mennesker og AI ødelegger hverandre gjensidig: To tungvektere ender opp med å slå hverandre ut av ringen og ut av denne verden. Mennesker seier over AI, men AI har også klart å seire over mennesker (kanskje et dommedagsoppsett)
  • Mennesker og kunstig intelligens blir utslettet av en eller annen nødvendighet: Mennesker og AI blir utslettet av en slående meteor eller kanskje et romvesen fra en annen planet som bestemmer at det er en absolutt no-go for mennesker og menneskeskapt AI (ikke engang interessert i å stjele vår fantastiske AI fra oss)
  • Annen

Det er noen av de mest kjente årsakene til Ja, Nei og Verken-svarene på spørsmålet om mennesker vil overleve AI.

konklusjonen

Du husker kanskje at jeg tidligere tilbød denne utvidede varianten av spørsmålet om mennesker som overlever AI:

  • Vil mennesker som levende vesener overleve AI som enten er (1) ikke-levende, eller (2) en levende enhet hvis det en dag oppstår?

De nevnte svarene er generelt fokusert på den siste delen av spørsmålet, nemlig omstendighetene som involverer AI av en sansende variant. Jeg har allerede påpekt at dette er vilt spekulativt siden vi ikke vet om sansende AI kommer til å forekomme. Noen vil hevde at vi som en just-in-case med rette gjør klokt i å vurdere på forhånd hva som kan oppstå.

Hvis det virker grovt urealistisk for deg, sympatiserer jeg med at alt dette er ganske hypotetisk og fylt med antagelser på toppen av antakelser. Det er en tønne full av antagelser. Du må finne ut hvilken verdi du tror slike spekulative bestrebelser gir.

For å få mer til messingstiftene, som det var, kan vi vurdere den ikke-levende eller ikke-sansende typen AI.

Forkort spørsmålet til dette:

  • Vil mennesker overleve den ikke-levende ikke-sansende AI?

Tro det eller ei, dette er et innholdsmessig verdig spørsmål.

Du er kanskje usikker på hvorfor denne ikke-levende ikke-sansende AI-en kan være hvor som helst i ballparken for på en eller annen måte å kunne overleve menneskeheten.

Tenk på situasjonen som involverer autonome våpensystemer, som jeg har diskutert på lenken her. Vi ser allerede at våpensystemer blir bevæpnet med AI, noe som gjør at våpenet kan fungere noe autonomt. Denne ikke-levende ikke-sansende AI har ingen antydning av tenkning, ingen antydning av sunn fornuft, etc.

Se for deg en av disse apokalyptiske situasjonene. Flere nasjoner har infundert denne lavkaliber AI i sine masseødeleggelsesvåpen. Utilsiktet (eller, med hensikt), blir disse AI-drevne autonome våpensystemene lansert eller sluppet løs. Det er utilstrekkelig feilsikker til å stoppe dem. Menneskeheten er ødelagt.

Ville AI overleve mennesker i et slikt scenario?

For det første bryr du deg kanskje ikke spesielt. Med andre ord, hvis hele menneskeheten har blitt utslettet, virker det å bekymre seg eller bry seg om AI-en fortsatt nynner med litt som å flytte de fluktstolene på Titanic. Spiller det noen rolle at AI fortsatt er i gang?

En stikker kan hevde at det fortsatt betyr noe. Ok, vi skal underholde stikkeren. AI kan kjøre på egen hånd via solcellepaneler og andre former for energi som kan fortsette å gi drivstoff til maskineriet. Vi kan også ha utviklet AI-systemer som reparerer og vedlikeholder andre AI-systemer. Merk at dette ikke krever sentient AI.

Alt i alt kan du fremtrylle et scenario der menneskeheten er utløpt og AI fortsatt fungerer. Kanskje AI fortsetter i bare en kort periode. Ikke desto mindre, i henhold til den tidligere diskusjonen om å være nøyaktig nøyaktig når det gjelder timing, har AI faktisk overlevet mennesker (en stund).

En siste tanke om dette emnet, foreløpig.

Å diskutere om mennesker vil overleve sansende AI er nesten som den velkjente skjeen sukker (hvordan kan dette være, lurer du kanskje på, vel, hold på hatten din og jeg skal fortelle deg det).

Du skjønner, vi må definitivt innse at den ikke-sansende AI også har et stort og alvorlig potensial til å delta i å utslette menneskeheten og overleve oss. Ikke spesielt fordi AI "ønsket å overleve oss", men ganske enkelt av våre egne hender med å lage AI som ikke trenger menneskelig inngripen for å fortsette å fungere. Noen vil på det sterkeste hevde at AI som er utviklet for å være noe evigvarende kan være en destabiliserende påvirkning som kan få noen mennesker til å ønske å ta et første skritt for å ødelegge andre mennesker, se min forklaring på lenken her.

Delen om overlevende mennesker er ikke bærebjelken i hvorfor spørsmålet fortjener en slik vekt i dag. I stedet er den skjulte understrømmen om hvordan vi lager dagens AI og hvordan vi tar AI i bruk den virkelige kickeren her. Vi må tenke mye på konsekvensene av AI-etikk og samfunnsmessige konsekvenser av dagens AI.

Hvis det noe sprø spørsmålet om hvorvidt mennesker vil overleve AI kommer til å få inn på bordet her-og-nå-problemene med moderne AI, kommer vi til å ha det bedre. På denne måten er de sansende AI-fasettene til mennesker som overlever AI den skjeen sukker som forhåpentligvis får ned medisinen om å håndtere her-og-nå AI.

Bare en skje sukker hjelper medisinen med å gå ned noen ganger. Og på de herligste måter. Eller i det minste på en engasjerende måte som fanger oppmerksomheten vår og holder oss fast på det vi trenger å bekymre oss for.

Som det sier videre, som en rødstrupe som fjærer reiret sitt, har vi veldig lite tid til å hvile.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/08/28/ai-ethics-and-the-almost-sensible-question-of-whether-humans-will-outlive-ai/