Massivt brygging av "Trust Recession" har som mål å erodere ansvarlig AI sier AI-etikk og AI-lov

Jeg er sikker på at du er kjent med det gamle ordtaket om at et stigende tidevann løfter alle båter. Det er den andre siden av den mynten, kanskje ikke like kjent, nemlig at et avtagende tidevann senker alle skip.

Bottom-line, noen ganger tidevannet bestemmer om du skal opp eller ned.

Tidevannet kommer til å gjøre det det gjør. Du har kanskje ikke noe spesielt å si i saken. Hvis båten din ligger til kai eller ankret i tidevannet, er du på tidevannets innfall. Nøkkelen er å innse at tidevannet eksisterer, sammen med å forutse hvilken vei det er på vei. Med litt flaks kan du ri ut tidevannet og forbli uskadd.

La oss vurdere hvordan all denne sjømannspraten om båter og tidevann er relatert til kunstig intelligens (AI).

Først vil jeg introdusere for deg det stadig mer populære slagordet Ansvarlig AI. Den generelle oppfatningen er at vi ønsker AI som følger riktige og ønskelige menneskelige verdier. Noen omtaler dette som Ansvarlig AI. Andre diskuterer på samme måte Ansvarlig AI, Pålitelig AIog AI-justering, som alle berører det samme hjørnesteinsprinsippet. For min diskusjon om disse viktige spørsmålene, se lenken her og lenken her, bare for å nevne noen i min pågående og omfattende dekning av AI-etikk og AI-lov i Forbes-spalten min.

En avgjørende ingrediens som involverer AI-justeringsproblemet innebærer et skinn av tillit. Kan vi stole på at AI vil være trygg og forsvarlig? Kan vi stole på at de som lager kunstig intelligens vil forsøke å gjøre det på en ansvarlig og riktig måte? Kan vi ha tillit til de som driver med AI og er engasjert i drift og vedlikehold av AI?

Det er mye tillit.

Det er en kontinuerlig innsats fra AI-etikk og AI-lov for å styrke en følelse av tillit til AI. Troen er at ved å etablere passende "myke lover" som er foreskrevet som et sett med retningslinjer eller etiske AI-forskrifter, kan vi ha en kjempesjanse for å få AI-utviklere og AI-operatører til å følge etisk forsvarlig praksis. I tillegg, hvis vi lager og vedtar tilstrekkelig oppmerksomme lover og forskrifter som overvåker eller styrer AI, ansett som "harde lover" på grunn av å være plassert i de offisielle juridiske bøkene, er det en sterk mulighet for å lede AI mot en rett og juridisk tillatt vei.

Hvis folk ikke stoler på AI, vil de ikke kunne oppnå fordelene som god AI gir. Jeg vil et øyeblikk påpeke at det er det AI For Good og det er det dessverre også AI for Bad. Dårlig AI kan påvirke menneskeheten på et utall av ugunstige måter. Det er AI som opptrer på diskriminerende måter og utviser unødige skjevheter. Det er AI som indirekte eller indirekte kan skade mennesker. Og så videre.

Så det har vi AI For Good som vi brennende ønsker å bli utviklet og tatt i bruk. I mellomtiden er det AI for Bad som vi ønsker å begrense og prøve å forebygge. AI for Bad har en tendens til å undergrave tilliten til AI. AI For Good øker vanligvis tilliten til AI. Det oppstår en krevende kamp mellom de økende økningene i tillit som stadig blir skåret bort av den grusomme undergravingen av tillit.

Oppover går AI-tilliten, som senere blir slått ned. Deretter blir reduserte nivåer av AI-tillit trappet opp igjen. Frem og tilbake, nivåene av AI-tillit vippet. Det er nesten nok til å gjøre deg svimmel. Magen din surrer, i likhet med et utseende av sjøsyke som å være i en båt som vugger og gynger i havet.

Mens den kampen pågår, kan du hevde at det er en annen makroskopisk faktor som tjener en enda større anstrengelse på fremgangen i tillitsskaleringen. Det er noe mye større på spill. Opp- og nedturen av AI-tillit er på innfall av et sjømonsterflod. Ja, AI-tillit er som en båt som flyter i et rike som til syvende og sist er mer uttalt enn kampene og trefningene som finner sted mellom AI For Good og AI for Bad.

Hva i all verden er det jeg sikter til, spør du kanskje spørrende?

Jeg hentyder til massiv "tillitsresesjon" at samfunnet vårt for tiden er varig.

Tillat meg å belyse.

Det er mye snakk i media i dag om lavkonjunkturer.

I en økonomisk betydning regnes en resesjon som en sammentrekning av økonomien som vanligvis er forbundet med en nedgang i økonomisk aktivitet. Vi er normalt vitne til eller opplever en resesjon på grunn av økonomiske forhold som fall i realinntekt, en nedgang i BNP (bruttonasjonalprodukt), svekket sysselsetting og permitteringer, nedgang i industriproduksjon og lignende. Jeg skal ikke gå inn i en utvidet diskusjon om økonomiske resesjoner, der det er mye debatt om hva som utgjør en bona fide resesjon versus påståtte eller påståtte (du kan finne mange snakkende hoder som heftig debatterer dette emnet).

Forestillingen om en "resesjon" har utvidet seg til å omfatte andre aspekter av samfunnet, som går utover bare det økonomiske fokuset. Du kan referere til en nedbremsing av en eller annen ting som kanskje å bli fast i en resesjon. Det er et hendig ord med en rekke bruksområder.

Gjør deg klar for en bruk som du kanskje ikke har hørt spesielt om ennå.

En tillitsresesjon.

Det stemmer, vi kan snakke om et fenomen kjent som en tillit resesjon.

Hovedsaken er at samfunnet for øvrig kan oppleve en nedgang eller nedgang i tillit. Du har utvilsomt sanset dette. Hvis du bruker noen form for sosiale medier, ser det ut som om tilliten til våre store institusjoner som våre regjeringer eller store enheter har falt bratt. Ting føles sikkert slik.

Du er ikke alene om å ha følt det skremmende skjæret av et samfunnsomfattende fall i tillit.

En artikkel i The Atlantic med tittelen "The End Of Trust" postulerte i fjor disse nøkkelfunnene om hvor samfunnet vårt er på vei:

  • "Vi kan være midt i en tillitsresesjon"
  • "Tillitsspiral, når den først er startet, er vanskelig å reversere"
  • "Dens nedgang merkes vagt før den er tydelig sett"

En tillitsresesjon sniker seg liksom innover oss alle. Tomme for tomme svekker tilliten. Arbeidet med å bygge tillit blir vanskeligere og vanskeligere å oppnå. Skepsisen regjerer. Vi tviler på at tillit bør gis. Vi tror ikke engang at tillit kan oppnås spesielt (på en måte er tillit et spøkelse, en usannhet, den kan ikke gjøres konkret og pålitelig).

Saken er at vi trenger tillit til samfunnet vårt.

Per den samme artikkelen: «Tillit. Uten den forblir Adam Smiths usynlige hånd i lommen; Keynes 'dyreånder' er dempet. «Nesten hver kommersiell transaksjon har et element av tillit i seg selv», skrev den nobelprisvinnende økonomen Kenneth Arrow i 1972» (som sitert fra «The End Of Trust», The Atlantic, 24. november 2021, Jerry Useem).

Forskning tyder på at det er en nesten direkte sammenheng mellom økonomisk ytelse og elementet av tillit i samfunnet. Dette er kanskje en kontroversiell påstand, selv om den ser ut til å intuitivt holde vann. Tenk på denne bemerkelsesverdige påstanden: «Økonomens Paul Zak og Stephen Knack fant, i en studie publisert i 1998, at en 15 prosent stigning i en nasjons tro på at 'folk flest kan stole på' gir et helt prosentpoeng til økonomisk vekst hvert år» (ibid).

Ta et øyeblikk og reflekter over dine egne synspunkter om tillit.

Har du i dag et høyere nivå av tillit eller et redusert nivå av tillit i hvert av disse respektive rikene:

  • Tillit til regjeringen
  • Tillit til bedrifter
  • Stol på ledere
  • Stol på nasjoner
  • Stol på merkevarer
  • Stol på nyhetsmediene
  • Stol på enkeltmennesker

Hvis du virkelig kan si at tilliten din er høyere enn den en gang var for alle disse fasettene, er det et tøft av hatten til deg (du lever i en verden av uforskammet lykke). I det store og hele tør jeg påstå at mesteparten av planeten ville uttrykke det motsatte når det gjelder deres tillit til de hellige ikoniske elementene som har gått ned.

Utmerket slik.

Dataene ser ut til å støtte påstanden om at tilliten har erodert i samfunnet vårt. Velg noen av de nevnte rikene. Når det gjelder vår tro på statlige kapasiteter: "Tilliten til regjeringen falt kraftig fra toppen i 1964, ifølge Pew Research Center, og har, med noen få unntak, sprudlet siden" (ibid).

Du kan bli fristet til å hevde at tillit til enkeltpersoner ikke bør stå på listen. Selvfølgelig stoler vi fortsatt på hverandre. Det er bare de store dårlige institusjonene vi ikke lenger har tillit til. Person til person, tilliten vår må være den samme som den alltid har vært.

Beklager å fortelle deg dette: «Data om tillit mellom individuelle amerikanere er vanskeligere å få tak i; undersøkelser har stilt spørsmål om såkalt mellommenneskelig tillit mindre konsekvent, ifølge Pew. Men ved ett estimat svever prosentandelen av amerikanere som trodde at 'man kunne stole på de fleste' rundt 45 prosent så sent som på midten av 80-tallet; den er nå 30 prosent» (ibid).

Brutalt, men sant.

Et nylig intervju med eksperter på tillit førte til denne utstillingen:

· "Den dårlige nyheten er at hvis tillit er denne dyrebare naturressursen, er den truet. Så i 1972 var omtrent halvparten av amerikanerne enige om at folk flest kan stole på. Men i 2018 hadde det falt til rundt 30 %. Vi stoler langt mindre på institusjoner enn for 50 år siden. For eksempel, i 1970 stolte 80% av amerikanerne på det medisinske systemet. Nå er det 38%. TV-nyhetene på 1970-tallet var 46 %. Nå er det 11 %. Kongressen, 42% til 7%. Vi lever gjennom en massiv tillitsresesjon, og det skader oss på en rekke måter som sannsynligvis de fleste er helt uvitende om" (intervju av Jonathan Chang og Meghna Chakrabarti, "Essential Trust: The Brain Science Of Trust", WBUR, november 29, 2022, og siterte kommentarer fra Jamil Zaki, førsteamanuensis i psykologi ved Stanford University og direktør for Stanford Social Neuroscience Lab).

Ulike nasjonale og globale studier av tillit har identifisert barometre assosiert med samfunnsmessige tillitsnivåer. Selv et overfladisk blikk på resultatene viser at tilliten faller, faller, faller.

Den ellers gjennomsnittlige versjonen av en typisk tillit resesjon har blitt "oppgradert" til å bli merket som en massive tillit resesjon. Vi har ikke bare en ren-of-the-mill trust-resesjon; vi har i stedet en total, massiv tillitsresesjon. Stor tid. Blir større og større. Det gjennomsyrer alle former for vår eksistens. Og denne massive tillitsresesjonen berører hvert hjørne av det vi gjør og hvordan livene våre utspiller seg.

Inkludert kunstig intelligens.

Jeg vil tippe at du så det komme. Jeg hadde tidligere nevnt at en kamp av AI For Good versus AI for Bad finner sted. De fleste av dem i AI Ethics and AI Law-arenaen håndterer daglig oppturer og nedturer i disse tidligere kampene. Vi vil at ansvarlig AI skal vinne. Overraskende for mange som er i gang med disse slagene, er de ikke klar over virkningene på grunn av den massive tillitsresesjonen som på en måte overvelder alt som skjer på slagmarkene for AI-tillit.

Tidevannet er den massive tillitsresesjonen. Den kjempende tilliten om AI er en båt som går opp og ned av seg selv, og dessverre går nedover totalt på grunn av tidevannet som avtar. Ettersom samfunnet for øvrig er infisert av den massive tillitsresesjonen, er det også tilliten til AI.

Jeg vil ikke at dette skal virke defaitistisk.

Kampen for tillit til AI må fortsette. Alt jeg prøver å understreke er at mens disse kampene vedvarer, husk at tilliten som helhet renner ut av samfunnet. Det er mindre og mindre påkjenning eller styrking av tillit. De resterende magre rester av tillit kommer til å gjøre det stadig vanskeligere å vinne AI For Good tillitsambisjoner.

Det forbannede tidevannet tar alle skip ned, inkludert tilliten til AI.

Ta deg tid til å diskutere disse tre ganske slående spørsmålene:

  • Hva kan vi gjøre med det gjennomgripende samfunnsmessige massiv tillitsresesjon når det kommer til AI?
  • Er AI dømt til tillit på bunnen av kjellernivå, uansett hva AI-etikk eller AI-lov gjør?
  • Bør de i AI-feltet kaste inn håndkleet på AI-tillit helt og holdent?

Jeg er glad du spurte.

Før jeg dykker dypt inn i emnet, vil jeg først legge et viktig grunnlag om AI og spesielt AI-etikk og AI-lov, for å sikre at diskusjonen blir kontekstuelt fornuftig.

Den økende bevisstheten om etisk AI og også AI-lov

Den siste tiden med AI ble opprinnelig sett på som å være AI For Good, noe som betyr at vi kunne bruke AI for å forbedre menneskeheten. I hælene på AI For Good kom erkjennelsen av at vi også er fordypet i AI for Bad. Dette inkluderer AI som er utviklet eller selvforandret til å være diskriminerende og gjør beregningsmessige valg som gir unødige skjevheter. Noen ganger er AI bygget på den måten, mens den i andre tilfeller svinger inn i det ugunstige territoriet.

Jeg vil være helt sikker på at vi er på samme side om naturen til dagens AI.

Det er ingen AI i dag som er sansende. Vi har ikke dette. Vi vet ikke om sentient AI vil være mulig. Ingen kan med rette forutsi om vi vil oppnå sansende AI, og heller ikke om sansende AI på en eller annen måte mirakuløst spontant vil oppstå i en form for beregningsmessig kognitiv supernova (vanligvis referert til som singulariteten, se min dekning på lenken her).

Den typen AI som jeg fokuserer på består av den ikke-sansende AI som vi har i dag. Hvis vi ville spekulere vilt om sansende AI, kan denne diskusjonen gå i en radikalt annen retning. En sansende AI ville visstnok være av menneskelig kvalitet. Du må vurdere at den sansende AI er den kognitive ekvivalenten til et menneske. Mer så, siden noen spekulerer i at vi kan ha superintelligent AI, er det tenkelig at slik AI kan ende opp med å bli smartere enn mennesker (for min utforskning av superintelligent AI som en mulighet, se dekningen her).

Jeg vil på det sterkeste foreslå at vi holder ting nede på jorden og vurderer dagens beregningsbaserte ikke-følende AI.

Innse at dagens AI ikke er i stand til å "tenke" på noen måte på linje med menneskelig tenkning. Når du samhandler med Alexa eller Siri, kan samtalekapasiteten virke som menneskelig kapasitet, men realiteten er at den er beregningsmessig og mangler menneskelig erkjennelse. Den siste æraen av AI har gjort omfattende bruk av Machine Learning (ML) og Deep Learning (DL), som utnytter beregningsmønstermatching. Dette har ført til AI-systemer som ser ut som menneskelignende tilbøyeligheter. I mellomtiden er det ingen kunstig intelligens i dag som har et skinn av sunn fornuft, og heller ikke noe av den kognitive undringen til robust menneskelig tenkning.

Vær veldig forsiktig med å antropomorfisere dagens AI.

ML/DL er en form for beregningsmønstermatching. Den vanlige tilnærmingen er at du samler data om en beslutningsoppgave. Du mater dataene inn i ML/DL-datamodellene. Disse modellene søker å finne matematiske mønstre. Etter å ha funnet slike mønstre, hvis det er funnet, vil AI-systemet bruke disse mønstrene når de møter nye data. Ved presentasjon av nye data brukes mønstrene basert på de "gamle" eller historiske dataene for å gi en gjeldende beslutning.

Jeg tror du kan gjette hvor dette er på vei. Hvis mennesker som har tatt de mønstrede avgjørelsene har inkorporert uheldige skjevheter, er sjansen stor for at dataene reflekterer dette på subtile, men betydelige måter. Maskinlæring eller Deep Learning beregningsmønstermatching vil ganske enkelt prøve å matematisk etterligne dataene tilsvarende. Det er ingen antydning av sunn fornuft eller andre sansende aspekter ved AI-laget modellering i seg selv.

Dessuten kan AI-utviklerne kanskje ikke skjønne hva som skjer heller. Den mystiske matematikken i ML/DL kan gjøre det vanskelig å fjerne de nå skjulte skjevhetene. Du vil med rette håpe og forvente at AI-utviklerne vil teste for potensielt begravde skjevheter, selv om dette er vanskeligere enn det kan virke. Det er en solid sjanse for at selv med relativt omfattende testing vil det fortsatt være skjevheter innebygd i mønstertilpasningsmodellene til ML/DL.

Du kan litt bruke det berømte eller beryktede ordtaket om søppel-inn søppel-ut. Saken er at dette er mer beslektet med skjevheter-in som snikende blir tilført som skjevheter nedsenket i AI. Algoritmen beslutningstaking (ADM) til AI blir aksiomatisk full av ulikheter.

Ikke bra.

Alt dette har spesielt betydelige AI-etiske implikasjoner og gir et praktisk vindu til lærdom (selv før alle leksjonene skjer) når det kommer til å prøve å lovfeste AI.

I tillegg til å bruke AI-etiske forskrifter generelt, er det et tilsvarende spørsmål om vi bør ha lover som regulerer ulike bruk av AI. Nye lover blir slått rundt på føderalt, statlig og lokalt nivå som angår rekkevidden og arten av hvordan AI bør utformes. Arbeidet med å utarbeide og vedta slike lover er gradvis. AI-etikk fungerer i det minste som et betraktet stopp, og vil nesten helt sikkert til en viss grad bli direkte innlemmet i de nye lovene.

Vær oppmerksom på at noen hevder hardt at vi ikke trenger nye lover som dekker AI, og at våre eksisterende lover er tilstrekkelige. De advarer om at hvis vi vedtar noen av disse AI-lovene, vil vi drepe gullgåsen ved å slå ned på fremskritt innen AI som gir enorme samfunnsmessige fordeler.

I tidligere spalter har jeg dekket de ulike nasjonale og internasjonale innsatsene for å lage og vedta lover som regulerer AI, se lenken her, for eksempel. Jeg har også dekket de ulike AI-etikkprinsippene og -retningslinjene som ulike nasjoner har identifisert og vedtatt, inkludert for eksempel FNs innsats som UNESCO-settet med AI-etikk som nesten 200 land vedtok, se lenken her.

Her er en nyttig nøkkelsteinsliste over etiske AI-kriterier eller egenskaper angående AI-systemer som jeg tidligere har utforsket nøye:

  • Åpenhet
  • Rettferdighet og rettferdighet
  • Ikke-ondsinnethet
  • Ansvar
  • Privatliv
  • godgjør
  • Frihet og autonomi
  • Stol
  • Bærekraft
  • Verdighet
  • Solidaritet

Disse AI-etikk-prinsippene er oppriktig ment å bli brukt av AI-utviklere, sammen med de som styrer AI-utviklingsinnsatsen, og til og med de som til slutt jobber med og utfører vedlikehold på AI-systemer.

Alle interessenter gjennom hele AI-livssyklusen for utvikling og bruk anses innenfor rammen av å overholde de etablerte normene for etisk AI. Dette er et viktig høydepunkt siden den vanlige antakelsen er at "bare kodere" eller de som programmerer AI-en er underlagt AI-etikkens forestillinger. Som tidligere understreket her, kreves det en landsby for å utvikle og sette i gang AI, og som hele landsbyen må være kjent med og overholde AI-etiske forskrifter.

Jeg har også nylig undersøkt AI Bill of Rights som er den offisielle tittelen på det amerikanske regjeringens offisielle dokument med tittelen "Blueprint for an AI Bill of Rights: Making Automated Systems Work for the American People" som var resultatet av en årelang innsats fra Office of Science and Technology Policy (OSTP) ). OSTP er en føderal enhet som tjener til å gi råd til den amerikanske presidenten og det amerikanske eksekutivkontoret om ulike teknologiske, vitenskapelige og tekniske aspekter av nasjonal betydning. I den forstand kan du si at denne AI Bill of Rights er et dokument godkjent av og godkjent av det eksisterende amerikanske hvite hus.

I AI Bill of Rights er det fem hovedkategorier:

  • Sikre og effektive systemer
  • Algoritmisk diskrimineringsbeskyttelse
  • Datasikkerhet
  • Merknad og forklaring
  • Menneskelige alternativer, omtanke og tilbakefall

Jeg har nøye gjennomgått disse forskriftene lenken her.

Nå som jeg har lagt et nyttig grunnlag for disse relaterte AI-etikk- og AI-lov-emnene, er vi klare til å hoppe inn i det heftige emnet med å utforske den irriterende saken om det pågående massiv tillitsresesjon og dens innvirkning på AI-nivåer av tillit.

Få en større båt for å bygge opp tillit til AI

La oss se på mine tidligere postulerte spørsmål om dette emnet:

  • Hva kan vi gjøre med det gjennomgripende samfunnsmessige massiv tillitsresesjon når det kommer til AI?
  • Er AI dømt til tillit på bunnen av kjellernivå, uansett hva AI-etikk eller AI-lov gjør?
  • Bør de i AI-feltet kaste inn håndkleet på AI-tillit helt og holdent?

Jeg skal gå den optimistiske veien og argumentere for at vi kan gjøre noe med dette.

Jeg vil også på det sterkeste si at vi ikke skal kaste inn håndkleet. Nøkkelen er i stedet å jobbe enda hardere, pluss smartere, for å håndtere spørsmålet om tillit til AI. Delen om å være smartere innebærer å innse at vi er i en massiv tillitsresesjon og nøkternt ta hensyn til den makroskopiske truende faktoren. Ja, for alt vi gjør under den iherdige innsatsen for å vedta og støtte AI-etikk og AI-lov, må vi være på vakt og justere i henhold til den fallende strømmen av tillit.

Før jeg går videre inn i det optimistiske eller smilefjesvalget, antar jeg at det bare er rettferdig å tilby det kontrasterende synspunktet. Ok, her er det. Vi kan ikke gjøre noe med den massive tillitsresesjonen. Ingen vits i å prøve å vippe ved vindmøller, som man sier. Derfor er det bare å fortsette kampen, og hva som enn skjer med tidevannet, så får det være.

I det triste ansiktsscenarioet kan du foreslå at det er et skuldertrekk og en kapitulasjon at tidevannet er tidevannet. En dag vil forhåpentligvis den massive trust-resesjonen svekkes og bli bare en normal form for trust-resesjon. Så, med litt flaks, vil tillitsresesjonen sutre ut og tilliten har kommet tilbake. Vi kan til og med ende opp med en blomstrende følelse av tillit. En tillitsboom, så å si.

Jeg vil kategorisere valgene dine i følgende fem alternativer:

1) Den uvitende. Dette er de talsmennene på arenaen for AI Ethics and AI Law som ikke vet at det er en massiv tillitsresesjon. De vet ikke engang at de ikke vet.

2) Vet men bryr seg ikke. Dette er talsmenn innen AI Ethics og AI Law som vet om den massive tillitsresesjonen, men som rister den av seg. Kjør den ut, og ikke gjør noe annet nytt.

3) Kjenner og takler det. Dette er talsmenn innen AI Ethics og AI Law som vet om den massive tillitsresesjonen og har valgt å takle den. De justerer meldingene sine; de justerer tilnærmingen. Noen ganger inkluderer dette å blande tillitsresesjonen inn i deres strategier og innsats for å fremme tilliten til AI og søke den unnvikende ansvarlig AI.

4) Det å vite og utilsiktet gjøre ting verre. Dette er talsmenn innen AI Ethics og AI Law som vet om den massive trust-resesjonen, pluss at de har valgt å gjøre noe med det, men de ender opp med å skyte sin egen fot. Ved å reagere feil på samfunnstrenden, forverrer de ved en feiltakelse Ansvarlig AI og dropper tilliten til AI til enda lavere dybder.

5) Annen (skal forklares, et øyeblikk)

Hvilket av disse fem alternativene er du inne på?

Jeg ga med vilje det femte alternativet for de av dere som enten ikke liker noen av de fire andre, eller at dere virkelig tror det finnes andre muligheter og at ingen av de oppførte karakteriserer deres posisjon tilstrekkelig.

Du trenger ikke å være med på noen av valgene. Jeg tilbyr bare valgene for å skape en gjennomtenkt diskusjon om det meritterte emnet. Vi må snakke om massiv tillitsresesjon, Jeg tror. Det har ennå ikke skjedd mye dybdeanalyse i detaljene om ansvarlig AI og Trustworthy AI-arbeid når det gjelder den samfunnsmessige massive tillitsresesjonen.

På tide å åpne slusene (ok, det er kanskje overdrevet med disse ordspillene og ordspillet).

Hvis du lurer på hva et femte alternativ kan bestå av, her er en som du kan være interessert i.

AI eksepsjonalisme.

Det er en kontingent i AI-feltet som mener AI er et unntak fra de vanlige tingenes regler. Disse AI-eksepsjonalisme-tilhengerne hevder at du ikke rutinemessig kan bruke andre samfunnsmessige skrøner på AI. AI påvirkes ikke fordi det er et grandiost unntak.

I det litt dogmatiske synspunktet, ville min analogi av tidevann og AI-tillit som en båt som vipper opp og ned, blitt kastet ut av vinduet som en analog betraktning. AI-tillit er større enn tidevannet. Uansett hva som skjer i den massive tillitsresesjonen, kommer AI-tilliten til å gå hvor enn den går. Hvis tidevannet går opp, kan AI-tilliten gå opp eller gå ned. Hvis tidevannet går ned, kan AI-tilliten gå opp eller gå ned. Uavhengig av tidevannet har AI-tillit sin egen skjebne, sin egen skjebne, sin egen vei.

Jeg har en annen vri til deg.

Noen vil kanskje hevde at AI kommer til å påvirke materielt massiv tillitsresesjon.

Du skjønner, resten av denne diskusjonen har visstnok fått ting bakover. Det er ikke slik at den massive tillitsresesjonen kommer til å påvirke AI-tilliten, i stedet er det omvendt. Avhengig av hva vi gjør med AI, vil tillitsresesjonen potensielt bli dypere eller gjenopprette. AI-tillit vil avgjøre skjebnen til tidevannet. Jeg antar at du kan hevde at AI er så kraftig som en potensiell kraft at den er beslektet med solen, månen og jorden for å bestemme hvordan tidevannet kommer til å gå.

Hvis vi finner ut av AI-tillitsaspektene, og hvis folk stoler på AI, vil kanskje dette snu tillitsresesjonen. Folk vil skifte tillit i alle andre henseender av livet. De vil begynne å øke tilliten til myndigheter, bedrifter, ledere og så videre, alt på grunn av å ha allestedsnærværende pålitelig AI.

Usannsynlig?

Kanskje, kanskje ikke.

Uten å få deg i et dystert humør, innse at det motsatte perspektivet om AI-tillit også kan dukke opp. I dette tilfellet faller vi alle inn i en fullstendig mangel på tillit til AI. Vi blir så mistroiske at mistilliten smitter over på vår allerede massive tillitsresesjon. I sin tur gjør dette at den massive trust-resesjonen blir den supergigantiske mega-massive trust-resesjonen, mange ganger verre enn vi noen gang kunne forestille oss.

Legg denne ideen sammen med den gjengse forestillingen om AI som en eksistensiell risiko. Hvis AI begynner å virke som om den ekstreme risikoen kommer til å realiseres, nemlig at AI som kommer til å ta over menneskeheten og enten slavebinde oss eller utslette oss alle, ser det ut til at du har et solid argument for den massive tillitsresesjonen. en ganske sur nedadgående spiral.

Jeg får det.

Uansett, la oss håpe på den lykkeligere siden av ting, skal vi?

konklusjonen

Nå som du vet om massiv tillitsresesjon, hva kan du gjøre med AI-tillit?

Først, for de av dere som er gjennomsyret av AI Ethics and AI Law-området, sørg for å beregne Ansvarlig AI og Truverdig AI sysler via den samfunnsmessige konteksten knyttet til å være i en trust-resesjon. Du bør være forsiktig med å føle deg oppgitt over at din egen innsats for å øke tilliten til AI tilsynelatende er hemmet eller mindre enn vellykket med hensyn til hva du forventet skulle skje. Det kan være at innsatsen din i det minste hjelper, i mellomtiden, uten at du vet det, er trust-avløpsrøret rub-a-dub og tilraner deg din tapre aktivitet på en stille og dessverre skadelig måte. Ikke fortvil. Det kan være at hvis tillitsresesjonen ikke var i gang, ville du ha sett enorme fremskritt og usedvanlig prisverdige resultater.

For det andre må vi gjøre flere analyser på hvordan vi kan måle trust-resesjonen og på samme måte hvordan vi kan måle opp- og nedgangene for tillit til AI. Uten å ha pålitelige og godt aksepterte beregninger, over hele linja, flyter vi blindt i et hav der vi ikke vet hvor mange favner vi har mistet eller fått.

For det tredje, vurder måter å formidle at tillit til AI blir formet av den massive tillitsresesjonen. Få vet om dette. AI-innsidere burde tenke dypt rundt emnet. Også offentligheten for øvrig bør bringes opp i fart. Det er to budskap som skal formidles. Den ene er at det er en massiv tillitsresesjon. For det andre er tillit til AI underlagt lunkene i tillitsresesjonen, og vi må eksplisitt ta hensyn til det.

Som en siste bemerkning, foreløpig, forestiller jeg meg at du kjenner den berømte vitsen om fisken i en fiskebolle.

Slik går det.

To fisker svømmer frem og tilbake i en fiskeskål. Rundt og rundt, de går. Til slutt snur en av fiskene seg mot den andre og sier at den begynner å bli lei av å være i vannet. Den andre fisken overveier denne kommentaren. Noen tunge øyeblikk senere svarer den oppmerksomme fisken nysgjerrig: hva i huleste er vann?

Det er litt av en gammel spøk.

Vekten er ment å være at det som omgir deg kanskje ikke er lett gjenkjennelig. Du blir vant til det. Det er bare der. Du legger ikke merke til det fordi det er overalt og umerkelig med hensyn til dets tilstedeværelse (jeg vil nevne som et tillegg at noen kynikere ikke liker vitsen siden de insisterer på at ekte fisk vet at de faktisk er i vann, og innser "kognitivt ” som sådan, inkludert å kunne hoppe ut av vannet i luften osv.).

Som en praktisk fiskefortelling eller lignelse kan vi bruke denne praktiske dandy-allegorien for å påpeke at vi kanskje ikke innser at vi er i en massiv tillitsresesjon. Det er rundt oss, og vi føler det visceralt, men vi innser ikke bevisst at det er her.

På tide å ta av skylappene.

Ta et dypt pust og pust inn i det faktum at vår massive tillitsresesjon eksisterer. På sin side, for de av dere som kjemper dag etter dag for å fremme ansvarlig AI og samle tillit til AI, hold øynene åpne for hvordan tillitsresesjonen griper inn i deres tapre innsats.

Som Shakespeare berømt sa: "Vi må ta strømmen når den tjener, eller miste våre ventures."

Kilde: https://www.forbes.com/sites/lanceeliot/2022/12/04/massively-brewing-trust-recession-aims-to-erode-responsible-ai-says-ai-ethics-and-ai- lov/