AI-etikk Forsiktig å vurdere om det å tilby AI-fordommer Jaktpremier for å fange og nappe etisk onde, fullstendig autonome systemer er forsvarlig eller meningsløst

Wanted: AI bias jegere.

Det kan være en moderne annonse som du vil begynne å se dukke opp på sosiale mediekanaler og dukke opp i ulike stillingsannonser på nettet. Dette er et relativt nytt konsept eller rolle. Det fører med seg kontrovers. Noen ivrige troende argumenterer inderlig for at det gir rikelig mening og burde ha skjedd hele tiden, mens andre er ganske nervøst med noen alvorlige hodekløer og ikke så sikre på at dette er en god idé.

Hovedsaken i rollen består i å fjerne AI eventuelle skjulte skjevheter eller innebygd diskriminerende praksis. Til unnsetning kommer de ivrige og helt tidligere AI-fordommer jegere. De vil antagelig være datakyndige dusørjegere. Mer så, forhåpentligvis, gjennomsyret av dypet av AI-evner.

Har våpen, vil reise, og kan via AI-dyktig skarp skyting klare å avsløre disse uhyggelige og uheldige AI-skjevhetene.

Dette reiser en rekke vanskelige spørsmål om sensibiliteten av å følge en slik taktikk når det gjelder å oppdage AI-skjevheter. Som jeg vil diskutere et øyeblikk, vær så snill å vite at fremkomsten av AI også har ført med seg fremveksten av AI-skjevheter. En strøm av AI-fordommer. For min pågående og omfattende dekning av AI-etikk og etisk AI, se lenken her og lenken her, bare for å nevne noen få.

Hvordan skal vi oppdage at et bestemt AI-system har skjevheter?

Du kan betro AI-utviklerne som utviklet AI til å gjøre det. Saken er at de kan være så oppslukt av skjevheter at de selv ikke kan gjenkjenne skjevhetene i deres oppdiktede AI. Alt ser bra ut for dem. Eller de kan være så begeistret for AI og ha en følelse av selvstolthet over den at å måtte ta et kritisk blikk for å undersøke det for skjevheter ville være vanskelig og en reell nedtur. Mange andre slike grunner kan synes å undergrave at AI-utviklerne tar på seg denne oppgaven, inkludert mangel på ferdigheter til å finne ut de innebygde skjevhetene, mangel på tid i et prosjekt til å gjøre det, etc.

Ok, så fortsett og ansett eksterne konsulenter for å gjøre den skitne jobben for deg. Det viser seg at konsulenter med glede vil granske AI-en din for skjevheter, og belaste deg en pen krone for å gjøre det (mange og mange kroner). Innse at du må betale for at de skal komme i gang med AI-systemet ditt. Du må da få dem til å rote rundt, noe som kan ta et utallig antall kostbare arbeidstimer. Å bruke konsulenter er et alternativ hvis du har budsjett til det.

Inn i det potensielle "gapet" for hvordan man finner disse lumske AI-fordommerne kommer de heroiske og overveldende AI-skjevhetene dusørjegerne.

Du betaler vanligvis ikke dem på forhånd. De prøver å finne AI-fordommer på sin egen tid og må betale sine egne regninger mens de gjør det. Bare hvis de lykkes med å finne skjevheter, får de betalt. Jeg antar at du lett kan hevde at på en passende måte å tenke på, er det den konvensjonelle definisjonen av en dusørjeger. Få betalt hvis du lykkes. Ikke få betalt hvis du ikke lykkes. Periode, slutten av historien.

Bounty-programmer har eksistert siden i det minste romernes tid, og derfor kan vi anta at de fungerer, etter å ha holdt ut som en praksis i alle disse årene.

Her er et fascinerende stykke historisk trivia for deg. Etter sigende forkynte en postet melding under Romerriket i byen Pompeii at dusørjegere var nødvendig for å finne en kobbergryte som ble borte fra en liten butikk. Belønningen for gjenvinningen av kobbergryten var en imponerende premie på sekstifem bronsemynter. Beklager å si at vi ikke vet om noen dusørjeger fant kobberpotten og gjorde krav på bronsemyntene, men vi vet at dusørjakten absolutt har fortsatt siden de eldgamle tider.

I mer moderne tid er du kanskje klar over at det på 1980-tallet var noen bemerkelsesverdige gaver som ble tilbudt for å finne datafeil eller feil i hyllevarepakker, og så tilbød Netscape på 1990-tallet markant en dusør for å finne feil i nettleseren deres. (blir et av de mest fremtredende firmaene den dagen for å gjøre det). Google og Facebook hadde valgt dusørjakt etter feil som startet i henholdsvis 2010 og 2013 år. Noen år senere, i 2016, kom til og med det amerikanske forsvarsdepartementet (DoD) inn i handlingen ved å ha en "Hack the Pentagon"-premierinnsats (merk at den offentlig fokuserte dusøren var for feil funnet på forskjellige DoD-relaterte nettsteder og ikke i forsvarsoppgavekritiske systemer).

La oss grave dypere inn i bug bounty-emnet. Jeg innser at jeg i hovedsak har som mål å snakke om AI-skjevheter i dusørjakt i denne diskusjonen, men det er noen ganske relevante paralleller til bug-bounty-arenaen.

Noen er beviselig forundret over at ethvert firma ønsker å tilby en dusør for å finne feil (eller, i dette tilfellet, AI-skjevheter) i systemene deres.

På overflaten virker dette som en "du ber om det" slags strategi. Hvis du lar verden få vite at du ønsker velkommen til de som kan prøve å finne hull i programvaren din, virker det som å be innbruddstyvene om å prøve å bryte seg inn i huset ditt. Selv om du allerede tror at du har et ganske bra tyverialarmsystem og at ingen skal kunne komme inn i ditt sikrede hjem, kan du tenke deg å spørre og faktisk bønnfalle innbruddstyver om at alle skal komme ned til ditt bosted og se om de kan knekke inn i det. Å, problemene vi vever for oss selv.

Det samme kan sies om å be om dusørjegere for å finne skjevheter i AI-en din.

For det første betyr det kanskje at du allerede tror eller til og med rett og slett vet at AI-en din har skjevheter. Det er en sjokkerende rettferdig underforstått innrømmelse som få ser ut til å være villige til og som potensielt kan gi tilbakeslag.

For det andre vet du ikke sikkert hva de dusørjegerne kan gjøre. De kunne velge å fortelle hele verden at de fant skjevheter i AI-en din. Man antar at dette kan miste belønningen, selv om noen kanskje liker oppmerksomheten eller har som mål å styrke statusen sin for å få konsulentjobber og andre inntektsgenererende muligheter. Det kan kanskje være helt altruistisk. Det kan være en form for AI-aktivisme. Jeg kan fortsette.

For det tredje kan det være en snik vri på hele saken. En dusørjeger som hevder å lete etter AI-fordommer kan være djevelsk og pirke rundt for å finne måter å angripe AI-systemet ditt på. Det hele er en charade for til slutt å gjennomføre et alvorlig nettangrep. Du har kanskje antatt at de prøvde å hjelpe, mens de har feil i hjertet. Trist, men mulig.

For det fjerde kan vi bli enda mer lurt forvridd i denne saken. En dusørjeger finner noen pinlige og potensielt søksmålsfremmende AI-skjevheter. Dusøren er en mengde dollar som vi vil kalle X. I stedet for å kreve dusøren, gjør dusørjegeren en slags merkelig løsepenge-provokasjon. Hvis du betaler dusørjegeren et beløp på ti ganger X eller kanskje himmelen grensen, vil de fortelle deg om AI-biasene. Du har frist til søndag kveld ved midnatt til å svare. Etter det tidspunktet vil AI-biasene bli avslørt for alle å se. Uff, en forferdelig knipe å være i.

For det femte, de siste er de såkalte "hack to return" cyberskurkene som etter å ha stjålet en haug med nettdeig, bestemmer seg for å omvende seg og returnere noe av det dårlig skaffede byttet som de grep. Selskapet som får pengene sine delvis tilbake, er da villig til å vurdere det gjenværende stjålne beløpet som en etterfølgende dusør belønnet til tyvene. Det virker som om alle "vinner" ved at hoveddelen av midlene blir gitt tilbake og i mellomtiden blir cyberskurkene ikke forfulgt på lovlig vis, pluss at de får piratpremien. Er dette forsvarlig eller lumsk å opprettholde urettmessige handlinger?

Jeg innser at noen av dere kanskje sier at ingen burde gi ut AI som har noen skjevheter i seg. Det ser ut til å løse hele dette dilemmaet om hvorvidt man skal bruke AI-fordommer dusørjegere eller ikke. Bare ikke få deg selv inn i en dusørsituasjon. Sørg for at AI-utviklerne dine gjør det rette og ikke tillater AI-forstyrrelser i AI-systemene deres. Bruk kanskje konsulenter til å dobbeltsjekke. I hovedsak, gjør det du trenger å gjøre for å unngå å tenke på eller be de AI-bias dusørjegerne komme til bordet.

Ja, det virker helt fornuftig. Problemet er at det også er litt drømmende. Kompleksiteten til mange AI-systemer er så stor at det vil være vanskelig å prøve å sikre at ikke en eneste unse av AI-skjevheter dukker opp. På toppen av det er noen AI-systemer med hensikt utviklet for å justere og "lære" mens de går. Dette betyr at på et fremtidig tidspunkt kan AI-en du utviklet, som la oss late som i begynnelsen var rent og uten skjevheter, gravitere mot å legemliggjøre skjevheter (jeg mener ikke det på en antropomorf måte, som jeg vil forklare videre etter hvert som vi gå med på dette emnet).

De som favoriserer dusørjakt etter programvarefeil er tilbøyelige til å hevde at det er fornuftig å tilby slike dusører. Vi kan vurdere begrunnelsen deres og se om det også gjelder AI-fordomsområdet.

Tilhengere av bug-bounties understreker at i stedet for å prøve å late som om det ikke er noen hull i systemet ditt, hvorfor ikke oppmuntre til å finne hull ved å gjøre det på en "kontrollert" måte? I motsetning til dette, uten en slik dusørinnsats, kan du bare håpe og be om at ved en tilfeldighet vil ingen finne et hull, men hvis du i stedet tilbyr en dusør og forteller de som finner et hull at de vil bli belønnet, tilbyr det en sjansen til å feste hullet på egen hånd og deretter forhindre at andre i all hemmelighet finner det på et senere tidspunkt.

Det samme kan sies i brukstilfellet av AI-skjevheter. Hvis du tilbyr en tilstrekkelig dusør, vil dusørjegerne forhåpentligvis gjøre deg oppmerksom på oppdagelsen av AI-skjevheter. Du kan da takle AI-biasene på en relativt stillegående og målt måte. Dette kan forhindre et mye større og mer skremmende problem senere, nemlig at noen andre finner AI-fordommer i AI-en din og skriker om det til himmelen.

Vanligvis vil et firma som ønsker å aktivere skuddpremiejakt på feil sette på plass en sårbarhetsavsløringspolicy (VDP). VDP indikerer hvordan feilene skal finnes og rapporteres til firmaet, sammen med hvordan belønningen eller dusøren vil bli gitt til jegeren. Vanligvis vil VDP kreve at jegeren ender opp med å signere en taushetserklæring (NDA) slik at de ikke vil avsløre for andre hva de fant.

Forestillingen om å bruke en NDA med dusørjegere har en del kontroverser. Selv om det kanskje er fornuftig for selskapet som tilbyr dusøren å ønske å beholde mor på eksponeringene som er funnet, sies det også å kvele den generelle bevisstheten om slike feil. Antagelig, hvis programvarefeil er tillatt å bli snakket om, vil det potensielt hjelpe sikkerheten til andre systemer hos andre firmaer som deretter vil styrke eksponeringene deres. Noen dusørjegere vil ikke signere en NDA, delvis på grunn av publikums ønske og delvis på grunn av forsøk på å holde sin egen identitet skjult. Husk også at NDA-aspektet vanligvis ikke oppstår før etter at jegeren hevder at de har funnet en feil, i stedet for å kreve det på forhånd.

Noen VDPer fastsetter at NDA bare er for en begrenset tidsperiode, slik at firmaet først kan finne en løsning på det tilsynelatende hullet og deretter etterpå for å tillate bredere avsløring om det. Når hullet er tettet, tillater firmaet en løsning av NDA slik at resten av verden kan vite om feilen. Den typiske tiden til oppløsning for dusørjaktede insekter er angivelig rundt 15-20 dager når et firma ønsker å koble det til med en gang, mens det i andre tilfeller kan strekke seg til 60-80 dager. Når det gjelder å betale dusørjegeren, den såkalte time-to-pay, etter at hullet har blitt bekreftet at det faktisk eksisterer, har dusørbetalingene angivelig en tendens til å være innen 15-20 dager for de mindre tilfellene og rundt 50-60 dager for de større instansene (disse er stadig skiftende bransjeindikasjoner og kun nevnt som illustrative).

Bør AI-fordommer dusørjegere også bli bedt om å delta i en VDP og håndtere en NDA?

Du kan få et ja og nei på det spørsmålet. Ja, noen firmaer bør gå den veien. Nei, du velger kanskje ikke nødvendigvis å gå den veien. Faktorer inkluderer størrelsen og arten til AI, potensialet til eventuelle AI-forstyrrelser som er involvert, og en haug med andre etiske, juridiske og forretningsmessige hensyn som gjør seg gjeldende.

Jeg kan legge til at det å etablere en dusørjakt for AI-skjevheter i AI-en din er en mye høyere ordre enn du kanskje antar ved et første øyekast.

Vi starter med den formidable muligheten for at du vil bli overveldet av AI-skjevheter dusørjegere.

Akkurat nå vil du være vanskelig å finne mange som vil ha et slikt telekort. Det er ikke mange rundt. Det er det ville vestens dager i den forbindelse. Men hvis forestillingen om AI-skjevheter i dusørjakt slår fast, spesielt når dusørene er rikelig og rikt givende, kan du satse på at alle vil dykke ned i svømmebassenget for skjevhetsjakt.

Vil du ha alle slags riffraff som forfølger AI-fordommer i AI-systemet ditt? Du vil få noen takers som faktisk er eksperter på denne typen ting. Du vil få andre takers som er amatører og som kan lage et rot eller gråte ulv. Det neste du vet, alle som kan stave "kunstig intelligens" vil komme for å grave i gullgruven din av et AI-system for disse dyrebare AI-fordommer-gullklumpene. Gullrushet er i gang. Det er kanskje ikke bra for deg.

Du må granske premiejegerinnleveringene. Det vil være mye "støy" i de rapporterte påstandene, i den forstand at mange av de påståtte AI-biasene ikke eksisterer, selv om dusørjegeren insisterer på at de fant noen. Tenk deg hvor mye arbeid dine egne AI-team vil kreve for å undersøke dusørkravene, utforske gyldigheten av hver, og deretter potensielt gå frem og tilbake med dusørjegeren om hvorvidt gull ble oppdaget eller ikke.

Noen vil hevde at det er en annen grunn til å gjøre hele greia selv. Du kan uunngåelig oppdage at bounty-tingen er mer trøbbel enn det var verdt.

Her er et annet spørsmål å tenke på. Hvordan vil dusørjegerne vite hvordan en AI-bias ser ut? I hovedsak, uten noen antydning av hva du skal se etter, kan enhver skinnende stein hevdes å vise frem en AI-skjevhet i den oppfattede AI-gullgruven som blir gravd ut.

I det gamle vestens dager, anta at du tilbød en belønning for fangsten av Billy the Kid (en berømt fredløs). Hvis du gjorde det og ikke tok med et bilde av hvordan Billy så ut, forestill deg hvor mange dusørjegere som kan trekke inn noen som de håpet eller trodde var Billy the Kid, inn på sheriffkontoret. Du kan bli oversvømmet med falske Billy's. Dette er dårlig siden du antagelig må se på hver enkelt, stille undersøkelsesspørsmål og prøve å finne ut om personen virkelig var Billy eller ikke.

Poenget er at for å sette opp AI-bias bounty-innsatsen, vil du være lurt å prøve å avklare hva du anser AI-bias å bestå av. Dette krever en Goldilocks-type kalibrering. Du vil ikke være så begrensende at dusørjegerne overser AI-fordommer bare fordi de ikke passer inn i din fastsatte definisjon, og du vil heller ikke at de skal rope «Eureka!» hver eneste bit av en AI-bias som de kanskje finner.

Du trenger akkurat den riktige Goldilocks-balansen av hva AI-bias består av, og gir derfor helst eksplisitte retninger om dette.

Mye av denne AI-biasene dusørjakten kommer til å være fokusert på AI-baserte maskinlæringssystemer (ML) og dyplæringssystemer (DL). Dette er fornuftig siden fremveksten av ML/DL-gjennomtrengning vokser, pluss at det ser ut til å ha noen av de mest sannsynlige utfordringene med å omfatte unødige AI-skjevheter.

Disse forskerne identifiserer hvor fremtredende en AI-fordommer dusørjaktinnsats kan være, spesielt i ML/DL-sammenheng: "Over tid har programvare- og sikkerhetsmiljøene utviklet "bug bounties" i et forsøk på å snu lignende dynamikk mellom systemutviklere og deres kritikere (eller hackere) mot mer interaktive og produktive mål. Håpet er at ved bevisst å invitere eksterne parter til å finne programvare- eller maskinvarefeil i systemene deres, og ofte gi økonomiske insentiver for å gjøre det, vil et sunnere og raskere reagerende økosystem utvikle seg. Det er naturlig for ML-fellesskapet å vurdere en lignende «bias bounty»-tilnærming til rettidig oppdagelse og reparasjon av modeller og systemer med skjevhet eller annen uønsket atferd. I stedet for å finne feil i programvare, inviteres eksterne parter til å finne skjevheter - for eksempel (demografiske eller andre) undergrupper av input som en trent modell underpresterer - og belønnes for å gjøre det" (i papiret "An Algorithmic Framework for Bias Bounties» av Ira Globus-Harris, Michael Kearns og Aaron Roth).

I forskningsartikkelen skisserer forfatterne en foreslått tilnærming til hva slags AI-skjevheter som dusørjegere kan søke etter. Det er også en indikasjon på hvordan man vurderer dusørjegerkravene knyttet til de påståtte AI-skjevhetene som ble oppdaget slik. I henhold til mine tidligere bemerkninger her, er oddsen at du vil motta spesielle krav og må skille AI-biasene hvete fra agnene.

Før vi går inn på litt mer kjøtt og poteter om de ville og ullaktige betraktningene som ligger til grunn for AI-biasjakt, la oss etablere noen ekstra grunnleggende om dypt integrerte emner. Vi trenger et kort dykk i AI-etikk og spesielt bruken av Machine Learning (ML) og Deep Learning (DL).

Du er kanskje vagt klar over at en av de høyeste stemmene i disse dager i AI-feltet og til og med utenfor AI-feltet består av å rope etter et større utseende av etisk AI. La oss ta en titt på hva det betyr å referere til AI-etikk og etisk AI. På toppen av det vil vi utforske hva jeg mener når jeg snakker om maskinlæring og dyplæring.

Et bestemt segment eller del av AI-etikken som har fått mye oppmerksomhet i media, består av AI som viser uheldige skjevheter og ulikheter. Du er kanskje klar over at da den siste æraen med kunstig intelligens kom i gang var det et stort utbrudd av entusiasme for det noen nå kaller AI For Good. Dessverre begynte vi å være vitne til etter den fossende spenningen AI for Bad. For eksempel har forskjellige AI-baserte ansiktsgjenkjenningssystemer blitt avslørt å inneholde rasemessige skjevheter og kjønnsskjevheter, som jeg har diskutert på lenken her.

Anstrengelser for å kjempe tilbake mot AI for Bad er aktivt i gang. Dessuten høyrøstet lovlig jakten på å tøyle urettferdighetene, er det også et betydelig løft mot å omfavne AI-etikk for å rette opp AI-eiendommen. Tanken er at vi bør ta i bruk og støtte viktige etiske AI-prinsipper for utvikling og felt av AI for å undergrave AI for Bad og samtidig varsle og fremme det som er å foretrekke AI For Good.

På en beslektet oppfatning er jeg en talsmann for å prøve å bruke AI som en del av løsningen på AI-problemer, og bekjempe ild med ild på den måten å tenke på. Vi kan for eksempel bygge inn etiske AI-komponenter i et AI-system som vil overvåke hvordan resten av AI gjør ting og dermed potensielt fange opp i sanntid enhver diskriminerende innsats, se diskusjonen min på lenken her. Vi kan også ha et eget AI-system som fungerer som en type AI Ethics-monitor. AI-systemet fungerer som en tilsynsmann for å spore og oppdage når en annen AI går inn i den uetiske avgrunnen (se min analyse av slike evner på lenken her).

Om et øyeblikk vil jeg dele med deg noen overordnede prinsipper som ligger til grunn for AI-etikk. Det er mange slike lister som flyter rundt her og der. Du kan si at det ennå ikke er en enestående liste over universell appell og samtidighet. Det er den uheldige nyheten. Den gode nyheten er at det i det minste er lett tilgjengelige AI Ethics-lister, og de pleier å være ganske like. Alt i alt tyder dette på at vi ved en form for begrunnet konvergens finner veien mot en generell fellestrekk av hva AI-etikk består av.

Først, la oss kort dekke noen av de generelle etiske AI-reglene for å illustrere hva som bør være en viktig vurdering for alle som lager, driver med eller bruker AI.

For eksempel, som uttalt av Vatikanet i Roma oppfordrer til AI-etikk og som jeg har dekket i dybden på lenken her, dette er deres identifiserte seks primære AI-etiske prinsipper:

  • Åpenhet: I prinsippet må AI-systemer kunne forklares
  • Inkludering: Alle menneskers behov må tas i betraktning slik at alle kan komme til nytte, og alle kan tilbys best mulige forutsetninger for å uttrykke seg og utvikle seg.
  • Ansvar: De som designer og distribuerer bruken av AI må fortsette med ansvar og åpenhet
  • Opartiskhet: Ikke skap eller handle i henhold til partiskhet, og dermed ivareta rettferdighet og menneskeverd
  • Pålitelighet: AI-systemer må kunne fungere pålitelig
  • Sikkerhet og personvern: AI-systemer må fungere sikkert og respektere brukernes personvern.

Som uttalt av det amerikanske forsvarsdepartementet (DoD) i deres Etiske prinsipper for bruk av kunstig intelligens og som jeg har dekket i dybden på lenken her, dette er deres seks primære AI-etiske prinsipper:

  • Ansvarlig: DoD-personell vil utøve passende nivåer av dømmekraft og omsorg mens de fortsatt er ansvarlige for utvikling, distribusjon og bruk av AI-evner.
  • Rettferdig: Avdelingen vil ta bevisste skritt for å minimere utilsiktet skjevhet i AI-evner.
  • Sporbar: Avdelingens AI-evner vil bli utviklet og distribuert slik at relevant personell har en passende forståelse av teknologien, utviklingsprosessene og operasjonelle metoder som gjelder for AI-evner, inkludert transparente og reviderbare metoder, datakilder og designprosedyre og dokumentasjon.
  • Pålitelig: Avdelingens AI-evner vil ha eksplisitte, veldefinerte bruksområder, og sikkerheten, sikkerheten og effektiviteten til slike evner vil være gjenstand for testing og forsikring innenfor de definerte bruksområdene gjennom hele livssyklusen.
  • Styres: Avdelingen vil designe og konstruere AI-evner for å oppfylle deres tiltenkte funksjoner samtidig som den har evnen til å oppdage og unngå utilsiktede konsekvenser, og evnen til å koble ut eller deaktivere utplasserte systemer som viser utilsiktet oppførsel.

Jeg har også diskutert ulike kollektive analyser av AI-etiske prinsipper, inkludert å ha dekket et sett utviklet av forskere som undersøkte og kondenserte essensen av en rekke nasjonale og internasjonale AI-etiske prinsipper i en artikkel med tittelen "The Global Landscape Of AI Ethics Guidelines" (publisert i Natur), og at dekningen min utforsker kl lenken her, som førte til denne keystone-listen:

  • Åpenhet
  • Rettferdighet og rettferdighet
  • Ikke-ondsinnethet
  • Ansvar
  • Privatliv
  • godgjør
  • Frihet og autonomi
  • Stol
  • Bærekraft
  • Verdighet
  • Solidaritet

Som du direkte kan gjette, kan det være ekstremt vanskelig å prøve å finne de spesifikke underliggende prinsippene. Enda mer så er innsatsen for å gjøre disse brede prinsippene til noe helt håndfast og detaljert nok til å brukes når man lager AI-systemer, også en tøff nøtt å knekke. Det er lett generelt å vinke litt med hånden om hva AI-etiske forskrifter er og hvordan de generelt skal overholdes, mens det er en mye mer komplisert situasjon i AI-kodingen som må være den veritable gummien som møter veien.

AI-etikkprinsippene skal brukes av AI-utviklere, sammen med de som styrer AI-utviklingsinnsatsen, og til og med de som til slutt arbeider med og utfører vedlikehold på AI-systemer. Alle interessenter gjennom hele livssyklusen for utvikling og bruk av kunstig intelligens anses innenfor rammen av å overholde de etablerte normene for etisk kunstig intelligens. Dette er et viktig høydepunkt siden den vanlige antagelsen er at "bare kodere" eller de som programmerer AI-en er underlagt AI-etikkens forestillinger. Som tidligere nevnt, kreves det en landsby for å utforme og sette opp AI, og som hele landsbyen må være kjent med og etterleve AI-etiske forskrifter.

La oss også sørge for at vi er på samme side om naturen til dagens AI.

Det er ingen AI i dag som er sansende. Vi har ikke dette. Vi vet ikke om sentient AI vil være mulig. Ingen kan med rette forutsi om vi vil oppnå sansende AI, og heller ikke om sansende AI på en eller annen måte mirakuløst spontant vil oppstå i en form for beregningsmessig kognitiv supernova (vanligvis referert til som singulariteten, se min dekning på lenken her).

Den typen AI som jeg fokuserer på består av den ikke-sansende AI som vi har i dag. Hvis vi ville spekulere vilt om selvbevisst AI, denne diskusjonen kan gå i en radikalt annen retning. En sansende AI ville visstnok være av menneskelig kvalitet. Du må vurdere at den sansende AI er den kognitive ekvivalenten til et menneske. Mer så, siden noen spekulerer i at vi kan ha superintelligent AI, er det tenkelig at slik AI kan ende opp med å bli smartere enn mennesker (for min utforskning av superintelligent AI som en mulighet, se dekningen her).

La oss holde ting mer jordnære og vurdere dagens beregningsbaserte ikke-følende AI.

Innse at dagens AI ikke er i stand til å "tenke" på noen måte på linje med menneskelig tenkning. Når du samhandler med Alexa eller Siri, kan samtalekapasiteten virke som menneskelig kapasitet, men realiteten er at den er beregningsmessig og mangler menneskelig erkjennelse. Den siste æraen av AI har gjort omfattende bruk av Machine Learning (ML) og Deep Learning (DL), som utnytter beregningsmønstermatching. Dette har ført til AI-systemer som ser ut som menneskelignende tilbøyeligheter. I mellomtiden er det ingen kunstig intelligens i dag som har et skinn av sunn fornuft, og heller ikke noe av den kognitive undringen til robust menneskelig tenkning.

ML/DL er en form for beregningsmønstermatching. Den vanlige tilnærmingen er at du samler data om en beslutningsoppgave. Du mater dataene inn i ML/DL-datamodellene. Disse modellene søker å finne matematiske mønstre. Etter å ha funnet slike mønstre, hvis det er funnet, vil AI-systemet bruke disse mønstrene når de møter nye data. Ved presentasjon av nye data brukes mønstrene basert på de "gamle" eller historiske dataene for å gi en gjeldende beslutning.

Jeg tror du kan gjette hvor dette er på vei. Hvis mennesker som har tatt de mønstrede avgjørelsene har inkorporert uheldige skjevheter, er sjansen stor for at dataene reflekterer dette på subtile, men betydelige måter. Maskinlæring eller Deep Learning beregningsmønstermatching vil ganske enkelt prøve å matematisk etterligne dataene tilsvarende. Det er ingen antydning av sunn fornuft eller andre sansende aspekter ved AI-laget modellering i seg selv.

Dessuten er det kanskje ikke sikkert at AI-utviklerne skjønner hva som skjer. Den mystiske matematikken i ML/DL kan gjøre det vanskelig å fjerne de nå skjulte skjevhetene. Du vil med rette håpe og forvente at AI-utviklerne vil teste for potensielt begravde skjevheter, selv om dette er vanskeligere enn det kan virke. Det er en solid sjanse for at selv med relativt omfattende testing vil det fortsatt være skjevheter innebygd i mønstertilpasningsmodellene til ML/DL.

Du kan litt bruke det berømte eller beryktede ordtaket om søppel-inn søppel-ut. Saken er at dette er mer beslektet med skjevheter-in som snikende blir tilført som skjevheter nedsenket i AI. Algoritmen beslutningstaking (ADM) til AI blir aksiomatisk full av ulikheter.

Ikke bra.

La oss nå gå tilbake til temaet AI-biasjakt.

For de av dere som vurderer en AI-bias dusørjakt, her er mine anbefalte syv nøkkeltrinn for hvordan du best går frem:

1) Vurdere. Vurder egnetheten til en AI-bias dusørjaktforsøk for dine omstendigheter og i henhold til dine AI-systemer

2) utforming. Utform en passende AI-bias tilnærming til dusørjakt

3) Implementere. Implementer og publiser dine AI-bias-premiejaktbestræbelser

4) Felt. Angi AI-forutsetninger for dusørkrav og behandle deretter

5) Fix. Fiks eller juster AI-en din i forhold til disse oppdagede AI-bias-eksponeringene

6) Juster. Juster AI-biasene dusørjakt etter behov

7) Avslutt. Avbryt AI-bias dusørjakten når den ikke lenger er nødvendig

I min serie med trinn ovenfor, merk at jeg nevner at du antagelig vil ønske å fikse eller justere AI-en din basert på å fastslå at en påstått AI-bias faktisk eksisterer i AI-systemet ditt. Dette gir rikelig mening. Du vil nesten helt sikkert ønske å støtte opp alle funnet AI-skjevheter. Tenk på de juridiske (og etiske) konsekvensene hvis du ikke gjør det. Det er én ting å hevde at du ikke visste at det fantes en AI-skjevhet og derfor tillot den å eksistere, mens det er mye mer ustabilt å ha registrert at du ble gjort oppmerksom på en AI-skjevhet og ikke gjorde noe med det.

Arten og graden av AI-fiksingen eller -justeringen vil selvfølgelig være avhengig av hvor betydelige AI-skjevhetene var og hvor dypt innebygd problemene er. Hvis du er heldig, vil kanskje en beskjeden mengde endringer i AI rette opp i saken. Det andre potensialet er at du kanskje må gjøre en hel omskrivning av AI. For ML/DL-typen AI kan dette kreve å gå tilbake til tegnebrettet og starte på nytt med et helt nytt sett med data og en ryddet ML/DL-modell. Jeg har diskutert fremkomsten av AI-disgorgement eller AI-ødeleggelse som et potensielt rettsmiddel mot usmakelig AI, se lenken her.

Et spørsmål å tenke over er om du vil at dusørjegerne muligens skal gjøre mer enn bare å identifisere eksistensen av AI-skjevheter. For eksempel kan du blidgjøre dusøren ved å indikere at foreslåtte rettinger også er velkomne. En AI-bias funnet av en dusørjeger kan utbetales en angitt belønning eller premie. Hvis dusørjegeren også kan tilby en levedyktig fastsette til AI-bias kan de da bli gitt en ekstra belønning.

Noen hevder at dette er en bro for langt. De sier at du bør holde AI-bias dusørjegerne utelukkende fokusert på å finne AI-bias. Du kommer til å skape en haug med uønskede negative konsekvenser ved å invitere dem til også å foreslå reparasjoner. Hold ting enkelt. Målet er å få så mange ekstra øyne til å oppdage AI-skjevheter slik at du kan bestemme hva du skal gjøre videre. Ikke gjørme vannet.

Et vanskelig aspekt som må finne ut, innebærer størrelsen på belønningen eller premien for dusørjegerne som virkelig oppdager AI-fordommer. Du vil at utbetalingen skal være demonstrativ. Uten en høy nok belønning vil du ikke få mange dusørjegere, eller de vil ikke være spesielt ivrige etter å oppsøke AI-biasene i AI-systemene dine. De kan i stedet konsentrere seg om andre AI-bias bounty bestrebelser.

Videre, som nevnt, vil du prøve å undertrykke en trang fra dusørjegerne til å gjøre sine AI-bias-funn om til andre former for gull. Hvis belønningen virker svak, kan den irritere dusørjegere til å søke andre høyere utbetalinger. De kan ta en løsepengevare-tilnærming mot deg. De kan erklære at de har en saftig AI-skjevhet som en konkurrent ville elske å vite om og kunne bruke mot firmaet ditt ved å si at AI-bias eksisterer i AI-en din. Dermed selger de den oppdagede AI-bias til høystbydende. Og så videre.

Man antar at hvis du setter belønningen til et ekstremt høyt område, ber du også om potensielle problemer. Dette kan tiltrekke seg alle slags nøttejegere. De på sin side kan oversvømme sosiale medier med tåkete påstander om at de har funnet en mengde AI-skjevheter, og gjør det for sin egen selvreklame og uten egentlig å ha vært med på noen AI-skjevheter. På en måte skinner den økte belønningen din utilsiktet et lys på AI-en din og driver en rekke uhyggelige møll til tilsvarende å bli tiltrukket av den glødende lysstrålen.

En annen vurdering involverer tilgjengelighet til AI-en din.

For å aktivere en AI-premiejakt-mulighet, må dusørjegerne få tilstrekkelig tilgang til AI-en din. De kommer ikke til å ha mye flaks med å finne AI-fordommer hvis de er helt utestengt. Men du vil ikke gi opp cybersikkerhetsbeskyttelsen din, siden det kan kompromittere AI-systemet ditt fullstendig.

Du kan prøve å få dusørjegerne til å signere ulike juridisk bindende erklæringer og deretter gi dem den nødvendige tilgangen. Noen dusørjegere kommer ikke til å like den typen tilnærming. Deres synspunkt er at de bare vil gjøre det enhver offentlig tilgjengelig og åpen bane tillater. De er så å si frie mavericks, og liker så å si ikke å bli salet. Å få dem til å sette signaturen sin på skremmende juridiske dokumenter vil føre til at mange av dem unngår å søke etter AI-skjevheter i AI-en din. Eller de kan bli irritert på den juridiske hansken din og bestemmer seg for at de vil se hva de kan finne via offentlige midler, og gjør det med den kanskje skarpe trangen til å vise deg hvor sårbar du egentlig er.

Jeg har enda en vinkel som kan få hodet til å snurre.

En AI-kyndig dusørjeger kan bestemme seg for å utvikle et AI-system som kan granske AI-en din og muligens oppdage AI-skjevheter i AI-en din. Dette er verktøymakeren som velger å lage et verktøy for å gjøre jobben i stedet for å utføre manuelt arbeid selv. I stedet for møysommelig å undersøke AI-en din, bruker den AI-kyndige dusørjegeren tiden sin på å lage et AI-verktøy som gjør det samme. De bruker deretter AI-verktøyet på AI-en din. Det fine er også at de antagelig kan gjenbruke AI-verktøyet på alle andre som også tilbyr en dusørjaktmulighet på deres respektive AI.

Jeg vet hva du sannsynligvis tenker. Hvis et AI-verktøy kan utvikles for å undersøke AI for skjevheter, bør produsenten av AI-en som blir gransket for AI-bias enten lage et slikt AI-verktøy eller kjøpe et til eget bruk. I teorien trenger de da ikke å kjempe med hele dusørjeger-karnevalet, til å begynne med. Bare bruk AI for å finne AI-biasene deres.

Ja, dette er noe du kan forvente vil gradvis oppstå. I mellomtiden vil bærebjelken i denne innsatsen sannsynligvis bestå av AI-utviklere som driver dusørjakt. De kan bruke forskjellige verktøy for å hjelpe deres innsats, men på kort sikt er det usannsynlig at de bare tankeløst setter AI-verktøyet på automatisk og tar en lur slik at verktøyet gjør hele AI-bias på jakt etter dem.

Vi er ikke der ennå.

På dette tidspunktet i denne tungtveiende diskusjonen vil jeg vedde på at du ønsker noen illustrative eksempler som kan vise frem dette emnet. Det er et spesielt og sikkert populært sett med eksempler som ligger meg nært på hjertet. Du skjønner, i min egenskap som ekspert på AI, inkludert de etiske og juridiske konsekvensene, blir jeg ofte bedt om å identifisere realistiske eksempler som viser AI-etikk-dilemmaer, slik at emnets noe teoretiske natur lettere kan forstås. Et av de mest stemningsfulle områdene som på en levende måte presenterer dette etiske AI-kvandalet, er fremkomsten av AI-baserte ekte selvkjørende biler. Dette vil tjene som en praktisk brukssak eller eksempel for rikelig diskusjon om emnet.

Her er et bemerkelsesverdig spørsmål som er verdt å vurdere: Belyser fremkomsten av AI-baserte ekte selvkjørende biler noe om bruken av AI-bias dusørjakt, og i så fall, hva viser dette?

Tillat meg et øyeblikk å pakke ut spørsmålet.

Først, merk at det ikke er en menneskelig sjåfør involvert i en ekte selvkjørende bil. Husk at ekte selvkjørende biler kjøres via et AI-kjøresystem. Det er ikke behov for en menneskelig sjåfør ved rattet, og det er heller ikke en bestemmelse om at et menneske kan kjøre kjøretøyet. For min omfattende og pågående dekning av autonome kjøretøy (AV) og spesielt selvkjørende biler, se lenken her.

Jeg vil gjerne forklare hva som menes når jeg refererer til ekte selvkjørende biler.

Forstå nivåene av selvkjørende biler

Som en avklaring er sanne selvkjørende biler de hvor AI kjører bilen helt alene, og det ikke er noen menneskelig assistanse under kjøreoppgaven.

Disse førerløse kjøretøyene regnes som nivå 4 og nivå 5 (se min forklaring på denne lenken her), mens en bil som krever en menneskelig sjåfør for å dele kjøreinnsatsen vanligvis vurderes på nivå 2 eller nivå 3. Bilene som deler kjøreoppgaven beskrives som semi-autonome, og inneholder vanligvis en rekke automatiserte tillegg som omtales som ADAADA
S (Advanced Driver-Assistance Systems).

Det er ennå ikke en ekte selvkjørende bil på nivå 5, og vi vet ennå ikke engang om dette vil være mulig å oppnå, og heller ikke hvor lang tid det vil ta å komme dit.

I mellomtiden prøver nivå 4-innsatsen gradvis å få litt trekkraft ved å gjennomgå veldig smale og selektive offentlige kjørebaneprøver, selv om det er kontrovers om denne testen skal være tillatt i seg selv (vi er alle liv-eller-død marsvin i et eksperiment. som foregår på våre motorveier og motorveier, noen hevder, se dekning min på denne lenken her).

Siden semi-autonome biler krever en menneskelig sjåfør, vil ikke adopsjonen av disse typer biler være markant annerledes enn å kjøre konvensjonelle kjøretøyer, så det er ikke mye nytt per se å dekke om dem om dette emnet (skjønt, som du vil se på et øyeblikk er poengene som blir gjort neste, generelt anvendelige).

For semi-autonome biler er det viktig at publikum må varsles om et urovekkende aspekt som har oppstått i det siste, nemlig at til tross for de menneskelige sjåførene som fortsetter å legge ut videoer av seg som sovner ved rattet på en nivå 2 eller nivå 3-bil , vi alle trenger å unngå å bli villedet til å tro at sjåføren kan fjerne oppmerksomheten fra kjøreoppgaven mens han kjører en semi-autonom bil.

Du er den ansvarlige parten for kjøringen av kjøretøyet, uavhengig av hvor mye automatisering som kan kastes i et nivå 2 eller nivå 3.

Selvkjørende biler og AI Bias dusørjakt

For sanne selvkjørende kjøretøyer på nivå 4 og nivå 5 vil det ikke være en menneskelig sjåfør involvert i kjøreoppgaven.

Alle beboere vil være passasjerer.

AI driver kjøringen.

Et aspekt å umiddelbart diskutere innebærer det faktum at AI involvert i dagens AI-kjøresystemer ikke er viktig. Med andre ord, AI er helt en samling av databasert programmering og algoritmer, og absolutt ikke i stand til å resonnere på samme måte som mennesker kan.

Hvorfor er denne ekstra vekt om at AI ikke er følsom?

Fordi jeg vil understreke at når jeg diskuterer AI-kjøresystemets rolle, tilskriver jeg ikke menneskelige kvaliteter til AI. Vær oppmerksom på at det i disse dager er en pågående og farlig tendens til å antropomorfisere AI. I hovedsak tildeler folk menneskelig følsomhet til dagens AI, til tross for det ubestridelige og ubestridelige faktum at ingen slik AI eksisterer ennå.

Med den avklaringen kan du se for deg at AI-kjøresystemet ikke på en eller annen måte "vet" om fasettene ved kjøring. Kjøring og alt det innebærer må programmeres som en del av maskinvaren og programvaren til den selvkjørende bilen.

La oss dykke ned i de mange aspektene som kommer til å spille om dette emnet.

For det første er det viktig å innse at ikke alle AI selvkjørende biler er like. Hver bilprodusent og selvkjørende teknologifirma tar sin tilnærming til å utvikle selvkjørende biler. Som sådan er det vanskelig å komme med omfattende utsagn om hva AI-kjøresystemer vil gjøre eller ikke.

Når du sier at et AI -kjøresystem ikke gjør noen spesielle ting, kan dette senere bli forbikjørt av utviklere som faktisk programmerer datamaskinen til å gjøre akkurat det. Steg for steg blir AI -kjøresystemer gradvis forbedret og utvidet. En eksisterende begrensning i dag eksisterer kanskje ikke lenger i en fremtidig iterasjon eller versjon av systemet.

Jeg håper det gir en tilstrekkelig litani av forbehold til å ligge til grunn for det jeg skal fortelle.

I mine spalter har jeg allerede diskutert grundig bruken av bugs-orienterte dusørjegere i riket for autonome kjøretøy og selvkjørende biler. Denne tilnærmingen har faktisk funnet sted i denne nisjen. Det er de vanlige debattene om det er en god idé eller ikke. Innsatsen har som regel vært av begrenset karakter, ofte holdt relativt stille.

En likeledes diskurs kan oppstå når fokuset skifter mot å jakte på AI-skjevheter i stedet for å søke systemfeil i seg selv. Noen antyder at det er en darned hvis du gjør det, darned hvis du ikke gåter.

Her er hvorfor.

For det første, for å være tydelig, er det mange måter autonome kjøretøy og selvkjørende biler vil bli utsatt for AI-forstyrrelser, se min dekning på lenken her og lenken her, bare for å nevne noen få. Bilprodusenter og selvkjørende bilfirmaer vil virke klokt å prøve å forhindre at disse AI-fordommer dukker opp i deres AI-systemer. Den juridiske og etiske ildstormen mot slike firmaer vil utvilsomt være intens.

Er bruken av en AI-forutsetning for dusørjakt en passende tilnærming i denne spesifikke konteksten?

Ett svar er at ja, dette vil være nyttig og gi en overflod av "gratis" sett med nye øyne for å prøve å fange eventuelle innebygde AI-skjevheter til en AI-selvkjørende bil eller lignende. De fleste av AI-utviklerne som bygger selvkjørende biler er opptatt med å lage AI som trygt kan kjøre en bil fra punkt A til punkt B. De er opptatt av den kjerneevnen og har verken tid eller oppmerksomhet til AI-fordommer som kan være et sted i deres AI.

Det andre svaret er at nei, det å tillate dusørjakt for autonome kjøretøy og selvkjørende biler på et hvilket som helst grunnlag, enten det er for feil eller AI-skjevheter, bare burde unngås hardt. Argumentet er at disse kjøretøyene og deres AI er av liv-eller-død kaliber. Å rote med AI på noen måte kan på en eller annen måte være ødeleggende for AI og påvirke hva AI-kjøresystemet gjør.

Et motargument til det siste punktet er at dusørjegerne ikke skal være i stand til å endre AI-en de undersøker. Dermed er det ingen fare for at de roter med AI-en og får AI-en i denne sammenhengen til å plutselig bli et vanvittig AI-kjøresystem. Dusørjegerne har kun lesetilgang. Å tillate dem å gå videre ville være ganske dumt og en stor feil.

Motargumentet til det motargumentet er at ved å tillate og oppmuntre dusørjegere til å undersøke AI-en din, blir hele saken vanskelig. Disse dusørjegerne kan finne ut måter å utnytte eventuelle feil eller skjevheter på. Disse utnyttelsene kan i sin tur være for utspekulerte formål. Det er bedre å ikke invitere "innbruddstyver" inn i hjemmet ditt, for å si det sånn. Når de har tatt ut skjøten, vil du til slutt være i en haug med problemer.

For de som har AI-systemer av en størrelsesorden som er mindre enn liv-eller-død, er troen at konsekvensene av et dusørjaktforsøk som går galt er mye mindre risikabelt. Kanskje det. På den annen side, hvis et firma har skutt pengene sine inn i et AI-system som dusørjegere klarer å tilrane seg, kan du anta at omdømmeskadene og andre potensielle skader fortsatt vil skade.

Det er ingen gratis lunsj når det kommer til AI-bias dusørjakt.

En rask sluttkommentar foreløpig.

Da den beryktede fredløsen Jesse James ble søkt under det gamle vesten, ble det trykket en "Etterlyst"-plakat som tilbød en dusør på $5,000 XNUMX for hans fangst (som sa "død eller levende"). Det var en ganske stor sum penger på den tiden. Et av hans egne gjengmedlemmer valgte å skyte Jesse og samle inn belønningen. Jeg antar at det viser hvor effektiv en dusør kan være.

Vil bruken av AI-bias dusørjegere være en god ting, eller vil det være en dårlig ting?

Hvis du velger å sette i gang en AI-bias dusørjeger-forsøk, vil jeg foreslå at du holder øynene vidåpne og ser deg over skulderen til enhver tid. Dette er fornuftig for deg og din AI. Du vet aldri hva som kan skje, inkludert at en snikende dusørjeger på en eller annen måte legger inn en AI-skjevhet i det skjulte i AI-en din og roper til verden at de har funnet en skruppelløs AI-skjevhet i AI-en din. Kanskje gjør det i et frekt og overdimensjonert forsøk på å søke dusørbelønningen, pluss å utrope seg selv som en helt som egentlig fikk den hyllede Jesse James.

Når jeg tenker på det, vil en sansende kunstig intelligens sannsynligvis ikke like ideen om en foruroligende død-eller-levende-foranstaltning, kan man smektende spekulere.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/07/16/ai-ethics-cautiously-assessing-whether-offering-ai-biases-hunting-bounties-to-catch-and-nab- etisk-onde-fullstendig-autonome-systemer-er-forsiktig-eller-fjerne-