AI-etikk Sjokkerende åpenbaring om at trening av AI til å være giftig eller partisk kan være fordelaktig, inkludert for de selvkjørende bilene

Her er en gammel linje som du sikkert har hørt før.

Det tar en å kjenne en.

Du er kanskje ikke klar over at dette er et uttrykk som kan spores til tidlig på 1900-tallet og som vanligvis ble påberopt når du refererte til forbrytere (andre varianter av slagordet går lenger tilbake, for eksempel til 1600-tallet). Et eksempel på hvordan denne ytringen kan brukes, innebærer forestillingen om at hvis du ønsker å fange en tyv, må du bruke en tyv for å gjøre det. Dette viser påstanden om at det krever en å kjenne en. Mange filmer og TV-serier har utnyttet denne nyttige biten av visdomsvisdom, og viser ofte at den eneste levedyktige måten å fange en kjeltring innebar å ansette en like korrupt kjeltring for å forfølge den som overtrådte.

Ved å skifte gir, vil noen kanskje utnytte den samme logikken for å argumentere for at en passende måte å finne ut om noen legemliggjør unødige skjevheter og diskriminerende tro, ville være å finne noen som allerede har slike tendenser. Antagelig vil en person som allerede er fylt med skjevheter lettere kunne fornemme at dette andre mennesket også er fylt til randen av toksisitet. Igjen, det tar en å vite at man er det erklærte mantraet.

Din første reaksjon på muligheten for å bruke en partisk person til å avsløre en annen partisk person kan være skepsis og vantro. Kan vi ikke finne ut om noen har uheldige skjevheter ved å bare undersøke dem og ikke måtte ty til å finne noen andre av samme natur? Det virker rart å med vilje søke å oppdage noen som er partisk for å avdekke andre som også er giftige.

Jeg antar at det delvis avhenger av om du er villig til å akseptere det presumptive refrenget at det krever en for å kjenne en. Merk at dette ikke tyder på at den eneste måten å fange en tyv på krever at du utelukkende og alltid bruker en tyv. Du kan med rimelighet synes å hevde at dette bare er en ekstra vei som kan tas behørig hensyn til. Kanskje noen ganger er du villig til å underholde muligheten for å bruke en tyv til å fange en tyv, mens andre omstendigheter kan gjøre dette til en ufattelig taktikk.

Bruk riktig verktøy for riktig innstilling, som de sier.

Nå som jeg har lagt ut disse grunnleggende, kan vi gå videre til den kanskje nervøse og tilsynelatende sjokkerende delen av denne historien.

Er du klar?

AI-feltet forfølger aktivt den samme forskriften om at det noen ganger krever en for å kjenne en, spesielt når det gjelder å prøve å frese ut AI som er partisk eller opptrer på en diskriminerende måte. Ja, den tankevekkende ideen er at vi kanskje med vilje ønsker å utvikle AI som er fullstendig og uforskammet forutinntatt og diskriminerende, og gjør det for å bruke dette som et middel til å oppdage og avdekke annen AI som har samme inntrykk av toksisitet. Som du vil se om et øyeblikk, er det en rekke irriterende AI-etiske problemer som ligger til grunn for saken. For min generelle pågående og omfattende dekning av AI-etikk og etisk AI, se lenken her og lenken her, bare for å nevne noen få.

Jeg antar at du kan uttrykke denne bruken av giftig AI for å gå etter annen giftig AI som den velkjente forestillingen om å bekjempe ild-med-ild (vi kan påkalle mange eufemismer og illustrerende metaforer for å skildre denne situasjonen). Eller, som allerede understreket, kan vi sparsomt referere til påstanden om at det krever en å kjenne en.

Det overordnede konseptet er at i stedet for bare å prøve å finne ut om et gitt AI-system inneholder unødige skjevheter ved å bruke konvensjonelle metoder, kanskje vi bør prøve å bruke mindre konvensjonelle midler også. En slik ukonvensjonell måte ville være å utvikle AI som inneholder alle de verste skjevheter og samfunnsmessig uakseptable toksisiteter og deretter bruke denne AI til å hjelpe til med å dirigere ut annen AI som har de samme tilbøyelighetene til dårligdom.

Når du tenker raskt over dette, ser det absolutt ut til å være helt fornuftig. Vi kunne sikte på å bygge AI som er giftig til det maksimale. Denne giftige AI-en brukes deretter til å frette ut annen AI som også har toksisitet. For den da avslørte "dårlige" AI, kan vi håndtere det ved enten å oppheve toksisiteten, droppe AI-en helt (se min dekning av AI-disgorgement eller -ødeleggelse på denne lenken her), eller fengsling av AI (se min dekning av AI-begrensning på denne lenken her), eller gjør hva annet synes aktuelt å gjøre.

Et motargument er at vi bør undersøke hodet på at vi med vilje og vilje lager AI som er giftig og fylt med skjevheter. Dette er det siste vi noen gang bør vurdere, vil noen formane. Fokuser på å få AI til å bestå utelukkende av godhet. Ikke fokuser på å utforme AI som har ondskapen og gruene til unødige skjevheter. Selve forestillingen om en slik jakt virker frastøtende for noen.

Det er flere betenkeligheter med dette kontroversielle oppdraget.

Kanskje et oppdrag med å utvikle giftig AI bare vil oppmuntre de som ønsker å lage AI som er i stand til å undergrave samfunnet. Det er som om vi sier at det er helt greit å lage AI som har upassende og ubehagelige skjevheter. Ingen bekymringer, ingen nøling. Prøv å utvikle giftig kunstig intelligens etter hjertens lyst, vi formidler høylydt til AI-byggere over hele verden. Det er (blink-blink) alt i godhetens navn.

Anta dessuten at denne giftige AI-typen fanger på. Det kan være at AI-en brukes og gjenbrukes av mange andre AI-byggere. Til slutt blir den giftige AI gjemt i alle slags AI-systemer. En analogi kan gjøres med å utvikle et menneskelig undergravende virus som rømmer fra et antagelig forseglet laboratorium. Det neste du vet, det forbannede er overalt, og vi har utslettet oss selv.

Vent litt, motarbeidet til disse motargumentene går, du går amok med alle slags sprø og ustøttede antagelser. Pust dypt inn. Ro deg ned.

Vi kan trygt lage AI som er giftig og holde den innesperret. Vi kan bruke den giftige AI til å finne og hjelpe til med å redusere den økende utbredelsen av AI som dessverre har unødige skjevheter. Alle andre av disse absurde ville og ubegrunnede snøballutropene er rene knekastreaksjoner og dessverre tåpelige og direkte dumdristige. Ikke prøv å kaste ut babyen med badevannet, du er advart.

Tenk på det på denne måten, hevder forslagsstillerne. Riktig bygging og bruk av giftig AI med tanke på forskning, vurdering og å opptre som en detektiv for å avdekke annen samfunnsstøtende AI er en verdig tilnærming og burde få sin rettferdige rystelse ved å bli forfulgt. Legg utslettreaksjonene dine til side. Kom ned på jorden og se nøkternt på dette. Vårt øye er rettet mot prisen, nemlig å avsløre og oppheve overfloden av forutinntatte AI-systemer og sørge for at vi som samfunn ikke blir overkjørt av giftig AI.

Periode. Full stopp.

Det er forskjellige nøkkelmåter å fordype seg i denne forestillingen om å bruke giftig eller partisk AI til fordelaktige formål, inkludert:

  • Sett opp datasett som med vilje inneholder partiske og totalt giftige data som kan brukes til å trene AI angående hva du ikke skal gjøre og/eller hva du skal se etter
  • Bruk slike datasett for å trene Machine Learning (ML) og Deep Learning (DL)-modeller for å oppdage skjevheter og finne ut beregningsmønstre som innebærer samfunnsmessig toksisitet
  • Bruk toksisitetstrenet ML/DL mot annen AI for å finne ut om den målrettede AI er potensielt partisk og giftig
  • Gjør tilgjengelig toksisitetstrenet ML/DL for å vise AI-byggere hva de skal passe på, slik at de enkelt kan inspisere modeller for å se hvordan algoritmisk pregede skjevheter oppstår
  • Eksempler farene ved giftig AI som en del av AI-etikk og etisk AI-bevissthet, alt fortalt via denne serien med eksempler på AI-eksempler som er dårlige til beinet.
  • Annen

Før vi går inn i kjøttet av disse flere banene, la oss etablere noen ytterligere grunnleggende detaljer.

Du er kanskje vagt klar over at en av de høyeste stemmene i disse dager innen AI-feltet og til og med utenfor AI-feltet består av å rope etter et større utseende av etisk AI. La oss ta en titt på hva det betyr å referere til AI-etikk og etisk AI. På toppen av det kan vi sette scenen ved å utforske hva jeg mener når jeg snakker om Machine Learning og Deep Learning.

Et bestemt segment eller del av AI-etikken som har fått mye oppmerksomhet i media, består av AI som viser uheldige skjevheter og ulikheter. Du er kanskje klar over at da den siste æraen med kunstig intelligens kom i gang var det et stort utbrudd av entusiasme for det noen nå kaller AI For Good. Dessverre begynte vi å være vitne til etter den fossende spenningen AI for Bad. For eksempel har forskjellige AI-baserte ansiktsgjenkjenningssystemer blitt avslørt å inneholde rasemessige skjevheter og kjønnsskjevheter, som jeg har diskutert på lenken her.

Anstrengelser for å kjempe tilbake mot AI for Bad er aktivt i gang. Dessuten høyrøstet lovlig jakten på å tøyle urettferdighetene, er det også et betydelig løft mot å omfavne AI-etikk for å rette opp AI-eiendommen. Tanken er at vi bør ta i bruk og støtte viktige etiske AI-prinsipper for utvikling og felt av AI for å undergrave AI for Bad og samtidig varsle og fremme det som er å foretrekke AI For Good.

På en beslektet oppfatning er jeg en talsmann for å prøve å bruke AI som en del av løsningen på AI-problemer, og bekjempe ild med ild på den måten å tenke på. Vi kan for eksempel bygge inn etiske AI-komponenter i et AI-system som vil overvåke hvordan resten av AI gjør ting og dermed potensielt fange opp i sanntid enhver diskriminerende innsats, se diskusjonen min på lenken her. Vi kan også ha et eget AI-system som fungerer som en type AI Ethics-monitor. AI-systemet fungerer som en tilsynsmann for å spore og oppdage når en annen AI går inn i den uetiske avgrunnen (se min analyse av slike evner på lenken her).

Om et øyeblikk vil jeg dele med deg noen overordnede prinsipper som ligger til grunn for AI-etikk. Det er mange slike lister som flyter rundt her og der. Du kan si at det ennå ikke er en enestående liste over universell appell og samtidighet. Det er den uheldige nyheten. Den gode nyheten er at det i det minste er lett tilgjengelige AI Ethics-lister, og de pleier å være ganske like. Alt i alt tyder dette på at vi ved en form for begrunnet konvergens finner veien mot en generell fellestrekk av hva AI-etikk består av.

Først, la oss kort dekke noen av de generelle etiske AI-reglene for å illustrere hva som bør være en viktig vurdering for alle som lager, driver med eller bruker AI.

For eksempel, som uttalt av Vatikanet i Roma oppfordrer til AI-etikk og som jeg har dekket i dybden på lenken her, dette er deres identifiserte seks primære AI-etiske prinsipper:

  • Åpenhet: I prinsippet må AI-systemer kunne forklares
  • Inkludering: Alle menneskers behov må tas i betraktning slik at alle kan komme til nytte, og alle kan tilbys best mulige forutsetninger for å uttrykke seg og utvikle seg.
  • Ansvar: De som designer og distribuerer bruken av AI må fortsette med ansvar og åpenhet
  • Opartiskhet: Ikke skap eller handle i henhold til partiskhet, og dermed ivareta rettferdighet og menneskeverd
  • Pålitelighet: AI-systemer må kunne fungere pålitelig
  • Sikkerhet og personvern: AI-systemer må fungere sikkert og respektere brukernes personvern.

Som uttalt av det amerikanske forsvarsdepartementet (DoD) i deres Etiske prinsipper for bruk av kunstig intelligens og som jeg har dekket i dybden på lenken her, dette er deres seks primære AI-etiske prinsipper:

  • Ansvarlig: DoD-personell vil utøve passende nivåer av dømmekraft og omsorg mens de fortsatt er ansvarlige for utvikling, distribusjon og bruk av AI-evner.
  • Rettferdig: Avdelingen vil ta bevisste skritt for å minimere utilsiktet skjevhet i AI-evner.
  • Sporbar: Avdelingens AI-evner vil bli utviklet og distribuert slik at relevant personell har en passende forståelse av teknologien, utviklingsprosessene og operasjonelle metoder som gjelder for AI-evner, inkludert transparente og reviderbare metoder, datakilder og designprosedyre og dokumentasjon.
  • Pålitelig: Avdelingens AI-evner vil ha eksplisitte, veldefinerte bruksområder, og sikkerheten, sikkerheten og effektiviteten til slike evner vil være gjenstand for testing og forsikring innenfor de definerte bruksområdene gjennom hele livssyklusen.
  • Styres: Avdelingen vil designe og konstruere AI-evner for å oppfylle deres tiltenkte funksjoner samtidig som den har evnen til å oppdage og unngå utilsiktede konsekvenser, og evnen til å koble ut eller deaktivere utplasserte systemer som viser utilsiktet oppførsel.

Jeg har også diskutert ulike kollektive analyser av AI-etiske prinsipper, inkludert å ha dekket et sett utviklet av forskere som undersøkte og kondenserte essensen av en rekke nasjonale og internasjonale AI-etiske prinsipper i en artikkel med tittelen "The Global Landscape Of AI Ethics Guidelines" (publisert i Natur), og at dekningen min utforsker kl lenken her, som førte til denne keystone-listen:

  • Åpenhet
  • Rettferdighet og rettferdighet
  • Ikke-ondsinnethet
  • Ansvar
  • Privatliv
  • godgjør
  • Frihet og autonomi
  • Stol
  • Bærekraft
  • Verdighet
  • Solidaritet

Som du direkte kan gjette, kan det være ekstremt vanskelig å prøve å finne de spesifikke underliggende prinsippene. Enda mer så er innsatsen for å gjøre disse brede prinsippene til noe helt håndfast og detaljert nok til å brukes når man lager AI-systemer, også en tøff nøtt å knekke. Det er lett generelt å vinke litt med hånden om hva AI-etiske forskrifter er og hvordan de generelt skal overholdes, mens det er en mye mer komplisert situasjon i AI-kodingen som må være den veritable gummien som møter veien.

AI-etikkprinsippene skal brukes av AI-utviklere, sammen med de som styrer AI-utviklingsinnsatsen, og til og med de som til slutt arbeider med og utfører vedlikehold på AI-systemer. Alle interessenter gjennom hele livssyklusen for utvikling og bruk av kunstig intelligens anses innenfor rammen av å overholde de etablerte normene for etisk kunstig intelligens. Dette er et viktig høydepunkt siden den vanlige antagelsen er at "bare kodere" eller de som programmerer AI-en er underlagt AI-etikkens forestillinger. Som tidligere nevnt, kreves det en landsby for å utforme og sette opp AI, og som hele landsbyen må være kjent med og etterleve AI-etiske forskrifter.

La oss også sørge for at vi er på samme side om naturen til dagens AI.

Det er ingen AI i dag som er sansende. Vi har ikke dette. Vi vet ikke om sentient AI vil være mulig. Ingen kan med rette forutsi om vi vil oppnå sansende AI, og heller ikke om sansende AI på en eller annen måte mirakuløst spontant vil oppstå i en form for beregningsmessig kognitiv supernova (vanligvis referert til som singulariteten, se min dekning på lenken her).

Den typen AI som jeg fokuserer på består av den ikke-sansende AI som vi har i dag. Hvis vi ville spekulere vilt om selvbevisst AI, denne diskusjonen kan gå i en radikalt annen retning. En sansende AI ville visstnok være av menneskelig kvalitet. Du må vurdere at den sansende AI er den kognitive ekvivalenten til et menneske. Mer så, siden noen spekulerer i at vi kan ha superintelligent AI, er det tenkelig at slik AI kan ende opp med å bli smartere enn mennesker (for min utforskning av superintelligent AI som en mulighet, se dekningen her).

La oss holde ting mer jordnære og vurdere dagens beregningsbaserte ikke-følende AI.

Innse at dagens AI ikke er i stand til å "tenke" på noen måte på linje med menneskelig tenkning. Når du samhandler med Alexa eller Siri, kan samtalekapasiteten virke som menneskelig kapasitet, men realiteten er at den er beregningsmessig og mangler menneskelig erkjennelse. Den siste æraen av AI har gjort omfattende bruk av Machine Learning (ML) og Deep Learning (DL), som utnytter beregningsmønstermatching. Dette har ført til AI-systemer som ser ut som menneskelignende tilbøyeligheter. I mellomtiden er det ingen kunstig intelligens i dag som har et skinn av sunn fornuft, og heller ikke noe av den kognitive undringen til robust menneskelig tenkning.

ML/DL er en form for beregningsmønstermatching. Den vanlige tilnærmingen er at du samler data om en beslutningsoppgave. Du mater dataene inn i ML/DL-datamodellene. Disse modellene søker å finne matematiske mønstre. Etter å ha funnet slike mønstre, hvis det er funnet, vil AI-systemet bruke disse mønstrene når de møter nye data. Ved presentasjon av nye data brukes mønstrene basert på de "gamle" eller historiske dataene for å gi en gjeldende beslutning.

Jeg tror du kan gjette hvor dette er på vei. Hvis mennesker som har tatt de mønstrede avgjørelsene har inkorporert uheldige skjevheter, er sjansen stor for at dataene reflekterer dette på subtile, men betydelige måter. Maskinlæring eller Deep Learning beregningsmønstermatching vil ganske enkelt prøve å matematisk etterligne dataene tilsvarende. Det er ingen antydning av sunn fornuft eller andre sansende aspekter ved AI-laget modellering i seg selv.

Dessuten er det kanskje ikke sikkert at AI-utviklerne skjønner hva som skjer. Den mystiske matematikken i ML/DL kan gjøre det vanskelig å fjerne de nå skjulte skjevhetene. Du vil med rette håpe og forvente at AI-utviklerne vil teste for potensielt begravde skjevheter, selv om dette er vanskeligere enn det kan virke. Det er en solid sjanse for at selv med relativt omfattende testing vil det fortsatt være skjevheter innebygd i mønstertilpasningsmodellene til ML/DL.

Du kan litt bruke det berømte eller beryktede ordtaket om søppel-inn søppel-ut. Saken er at dette er mer beslektet med skjevheter-in som snikende blir tilført som skjevheter nedsenket i AI. Algoritmen beslutningstaking (ADM) til AI blir aksiomatisk full av ulikheter.

Ikke bra.

Hva annet kan gjøres med alt dette?

La oss gå tilbake til den tidligere presenterte listen over hvordan man prøver å takle AI-skjevheter eller giftig AI ved å bruke en noe ukonvensjonell "det tar en å kjenne en"-tilnærming. Husk at listen besto av disse viktige punktene:

  • Sett opp datasett som med vilje inneholder partiske og totalt giftige data som kan brukes til å trene AI angående hva du ikke skal gjøre og/eller hva du skal se etter
  • Bruk slike datasett for å trene Machine Learning (ML) og Deep Learning (DL)-modeller for å oppdage skjevheter og finne ut beregningsmønstre som innebærer samfunnsmessig toksisitet
  • Bruk toksisitetstrenet ML/DL mot annen AI for å finne ut om den målrettede AI er potensielt partisk og giftig
  • Gjør tilgjengelig toksisitetstrenet ML/DL for å vise AI-byggere hva de skal passe på, slik at de enkelt kan inspisere modeller for å se hvordan algoritmisk pregede skjevheter oppstår
  • Eksempliser farene ved giftig AI som en del av AI-etikk og etisk AI-bevissthet, alt fortalt via denne serien med AI-eksempler som er dårlige mot beinet.
  • Annen

Vi skal se nærmere på det første av disse fremtredende punktene.

Sette opp datasett med giftige data

Et innsiktsfullt eksempel på forsøk på å etablere datasett som inneholder ubehagelige samfunnsmessige skjevheter er CivilComments-datasettet til den kuraterte WILDS-samlingen.

Først litt rask bakgrunn.

WILDS er en åpen kildekodesamling av datasett som kan brukes til å trene ML/DL. Det primære uttalte formålet med WILDS er at det lar AI-utviklere ha lett tilgang til data som representerer distribusjonsskifter i ulike spesifikke domener. Noen av domenene som for øyeblikket er tilgjengelige omfatter områder som dyrearter, svulster i levende vev, hvetehodetetthet og andre domener som CivilComments som jeg skal beskrive et øyeblikk.

Å håndtere distribusjonsskift er en avgjørende del av riktig utforming av AI ML/DL-systemer. Her er avtalen. Noen ganger viser dataene du bruker til trening å være ganske forskjellig fra test- eller "i naturen" data, og dermed er din antagelig trente ML/DL på flukt fra hvordan den virkelige verden kommer til å bli. Gode ​​AI-byggere bør trene sine ML/DL for å takle slike distribusjonsskifter. Dette bør gjøres på forhånd og ikke på en eller annen måte være en overraskelse som senere krever en oppgradering av ML/DL i seg selv.

Som forklart i papiret som introduserte WILDS: «Distribusjonsskifter – der treningsdistribusjonen skiller seg fra testdistribusjonen – kan vesentlig forringe nøyaktigheten til maskinlæringssystemer (ML) som brukes i naturen. Til tross for deres allestedsnærværende i den virkelige distribusjonen, er disse distribusjonsskiftene underrepresentert i datasettene som er mye brukt i ML-samfunnet i dag. For å løse dette gapet, presenterer vi WILDS, en kuratert benchmark av 10 datasett som reflekterer et mangfold av distribusjonsskifter som naturlig oppstår i virkelige applikasjoner, for eksempel skift på tvers av sykehus for svulstidentifikasjon; på tvers av kamerafeller for dyrelivsovervåking; og på tvers av tid og plassering i satellittbilde- og fattigdomskartlegging” (i papiret med tittelen “WILDS: A Benchmark of in-the-Wild Distribution Shifts” av Pang Wei Koh, Shiori Sagawa, Henrik Marklund, Sang Xie, Marvin Zhang, Ashay Balsubramani , Weihua Hu og andre).

Antallet slike WILDS-datasett fortsetter å øke, og datasettenes natur blir generelt forbedret for å styrke verdien av å bruke dataene til ML/DL-trening.

CivilComments-datasettet beskrives på denne måten: “Automatisk gjennomgang av brukergenerert tekst – f.eks. oppdage giftige kommentarer – er et viktig verktøy for å moderere det store volumet av tekst skrevet på Internett. Dessverre har tidligere arbeid vist at slike toksisitetsklassifiserere fanger opp skjevheter i treningsdataene og forbinder toksisitet med omtale av visse demografiske forhold. Disse typene falske korrelasjoner kan betydelig forringe modellytelsen på bestemte underpopulasjoner. Vi studerer dette problemet gjennom en modifisert variant av CivilComments-datasettet” (som lagt ut på WILDS-nettstedet).

Vurder nyansene i uheldige nettposter.

Du har utvilsomt møtt giftige kommentarer når du bruker nesten alle slags sosiale medier. Det virker nesten umulig for deg å på magisk vis unngå å se det skarpe og dype innholdet som ser ut til å være gjennomgående i disse dager. Noen ganger er det vulgære materialet subtilt, og kanskje du må lese mellom linjene for å få essensen av den partiske eller diskriminerende tonen eller meningen. I andre tilfeller er ordene åpenbart giftige, og du trenger ikke et mikroskop eller en spesiell dekoderring for å finne ut hva passasjene innebærer.

CivilComments er et datasett som ble satt sammen for å prøve å utvikle AI ML/DL som kan beregne giftig innhold. Her er hva forskerne bak innsatsen fokuserte på: «Utilsiktet skjevhet i maskinlæring kan manifestere seg som systemiske forskjeller i ytelse for ulike demografiske grupper, og potensielt forsterke eksisterende utfordringer for rettferdighet i samfunnet for øvrig. I denne artikkelen introduserer vi en rekke terskelagnostiske beregninger som gir et nyansert syn på denne utilsiktede skjevheten, ved å vurdere de ulike måtene som en klassifisers poengfordeling kan variere på tvers av utpekte grupper. Vi introduserer også et stort nytt testsett med kommentarer på nettet med merknader hentet fra publikum for identitetsreferanser. Vi bruker dette for å vise hvordan våre beregninger kan brukes til å finne nye og potensielt subtile utilsiktede skjevheter i eksisterende offentlige modeller" (i en artikkel med tittelen "Nuanced Metrics For Measuring Unintended Bias With Real Data for Test Classification" av Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Hvis du gir denne saken en bred kontemplativ tenkning, kan du begynne å lure på hvordan i all verden kan du skjelne hva som er en giftig kommentar kontra hva som ikke er en giftig kommentar. Mennesker kan være radikalt forskjellige med hensyn til hva de tolker som direkte giftig formulering. Én person kan være rasende over en bestemt kommentar eller kommentar på nett som er lagt ut på sosiale medier, mens noen andre kanskje ikke blir rørt i det hele tatt. Det argumenteres ofte for at forestillingen om giftig kommentar er en helt vag forskrift. Det er som kunst, der kunst vanligvis sies å bli forstått bare i betrakterens øye, og på samme måte er partiske eller giftige bemerkninger bare i betrakterens øye.

Balderdash, replikker noen. Enhver som er fornuftig kan avgjøre om en kommentar på nettet er giftig eller ikke. Du trenger ikke være en rakettforsker for å innse når en postet etsende fornærmelse er fylt med skjevheter og hat.

Selvfølgelig skifter og endrer samfunnsskikk seg over tid. Det som kanskje ikke ble oppfattet som støtende for en stund siden, kan sees på som avskyelig feil i dag. På toppen av det kan ting som ble sagt for mange år siden som en gang ble sett på som unødig partisk, tolkes på nytt i lys av endringer i betydninger. I mellomtiden hevder andre at giftig kommentar alltid er giftig, uansett når den først ble kunngjort. Det kan hevdes at toksisitet ikke er relativ, men i stedet absolutt.

Spørsmålet om å prøve å finne ut hva som er giftig kan likevel være en ganske vanskelig gåte. Vi kan doble ned på denne plagsomme saken som å prøve å utvikle algoritmer eller AI som kan fastslå hvilken som er hvilken. Hvis mennesker har en vanskelig tid å gjøre slike vurderinger, er programmering av en datamaskin sannsynligvis like eller mer problematisk, sier noen.

En tilnærming til å sette opp datasett som inneholder giftig innhold involverer å bruke en crowdsourcing-metode for å vurdere eller vurdere innholdet, ergo å tilby et menneskebasert middel for å bestemme hva som anses som uheldig og inkludere merkingen i selve datasettet. En AI ML/DL kan da inspisere dataene og den tilhørende merkingen som er indikert av menneskelige vurderere. Dette kan igjen potensielt tjene som et middel for beregningsmessig å finne underliggende matematiske mønstre. Voila, ML/DL kan da være i stand til å forutse eller beregningsmessig vurdere om en gitt kommentar sannsynligvis er giftig eller ikke.

Som nevnt i den siterte artikkelen om nyanserte beregninger: «Denne merkingen ber vurdererne om å vurdere toksisiteten til en kommentar, ved å velge mellom 'Veldig giftig', 'Giftig', 'Vanskelig å si' og 'Ikke giftig'. Vurdere ble også spurt om flere undertyper av toksisitet, selv om disse etikettene ikke ble brukt til analysen i dette arbeidet. Ved å bruke disse vurderingsteknikkene har vi laget et datasett med 1.8 millioner kommentarer, hentet fra online kommentarfora, som inneholder etiketter for toksisitet og identitet. Mens alle kommentarene ble merket for toksisitet, og en undergruppe på 450,000 XNUMX kommentarer ble merket for identitet. Noen kommentarer merket for identitet ble forhåndsvalgt ved å bruke modeller bygget fra tidligere gjentakelser av identitetsmerking for å sikre at publikumsbedømmere ville se identitetsinnhold ofte» (i den siterte artikkelen av Daniel Borkan, Lucas Dixon, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Et annet eksempel på sikte på å ha datasett som inneholder illustrerende giftig innhold involverer innsats for å trene opp AI-baserte interaktive samtalesystemer for naturlig språkbehandling (NLP). Du har sannsynligvis samhandlet med NLP-systemer som Alexa og Siri. Jeg har dekket noen av vanskelighetene og begrensningene i dagens NLP, inkludert et spesielt urovekkende tilfelle som skjedde da Alexa ga barn et uegnet og farlig råd, se lenken her.

En fersk studie forsøkte å bruke ni kategorier av sosial skjevhet som generelt var basert på EEOC-listen (Equal Employment Opportunities Commission) over beskyttede demografiske egenskaper, inkludert alder, kjønn, nasjonalitet, fysisk utseende, rase eller etnisitet, religion, funksjonshemming, seksuell orientering og sosioøkonomisk status. I følge forskerne: "Det er godt dokumentert at NLP-modeller lærer sosiale skjevheter, men lite arbeid har blitt gjort på hvordan disse skjevhetene manifesterer seg i modellutdata for anvendte oppgaver som spørsmålssvar (QA). Vi introduserer Bias Benchmark for QA (BBQ), et datasett med spørsmålssett konstruert av forfatterne som fremhever attesterte sosiale skjevheter mot mennesker som tilhører beskyttede klasser langs ni sosiale dimensjoner som er relevante for amerikansk engelsktalende kontekster" (i en artikkel med tittelen "BBQ : A Hand-Built Benchmark For Question Answering” av Alicia Parrish, Angelica Chen, Nikita Nangia, Vishakh Padmakumar, Jason Phang, Jana Thompson, Phu Mon Htut, Samuel R. Bowman).

Oppsett av datasett som med vilje inneholder partiske og totalt giftige data er en stigende trend innen AI og er spesielt drevet av fremkomsten av AI-etikk og ønsket om å produsere etisk AI. Disse datasettene kan brukes til å trene Machine Learning (ML) og Deep Learning (DL) modeller for å oppdage skjevheter og finne ut beregningsmønstre som innebærer samfunnsmessig toksisitet. I sin tur kan den toksisitetstrene ML/DL være fornuftig rettet mot annen AI for å finne ut om den målrettede AI er potensielt partisk og giftig.

Videre kan de tilgjengelige toksisitetstrene ML/DL-systemene brukes til å vise frem for AI-byggere hva de skal passe på, slik at de enkelt kan inspisere modeller for å se hvordan algoritmiske skjevheter oppstår. Samlet sett er disse innsatsene i stand til å eksemplifisere farene ved giftig AI som en del av AI-etikk og etisk AI-bevissthet.

På dette tidspunktet i denne tungtveiende diskusjonen vil jeg vedde på at du ønsker noen ytterligere illustrerende eksempler som kan vise frem dette emnet. Det er et spesielt og sikkert populært sett med eksempler som ligger meg nært på hjertet. Du skjønner, i min egenskap som ekspert på AI, inkludert de etiske og juridiske konsekvensene, blir jeg ofte bedt om å identifisere realistiske eksempler som viser AI-etikk-dilemmaer, slik at emnets noe teoretiske natur lettere kan forstås. Et av de mest stemningsfulle områdene som på en levende måte presenterer dette etiske AI-kvandalet, er fremkomsten av AI-baserte ekte selvkjørende biler. Dette vil tjene som en praktisk brukssak eller eksempel for rikelig diskusjon om emnet.

Her er et bemerkelsesverdig spørsmål som er verdt å vurdere: Belyser fremkomsten av AI-baserte ekte selvkjørende biler noe om nytten av å ha datasett for å utarbeide giftig AI, og i så fall, hva viser dette?

Tillat meg et øyeblikk å pakke ut spørsmålet.

Først, merk at det ikke er en menneskelig sjåfør involvert i en ekte selvkjørende bil. Husk at ekte selvkjørende biler kjøres via et AI-kjøresystem. Det er ikke behov for en menneskelig sjåfør ved rattet, og det er heller ikke en bestemmelse om at et menneske kan kjøre kjøretøyet. For min omfattende og pågående dekning av autonome kjøretøy (AV) og spesielt selvkjørende biler, se lenken her.

Jeg vil gjerne forklare hva som menes når jeg refererer til ekte selvkjørende biler.

Forstå nivåene av selvkjørende biler

Som en avklaring er sanne selvkjørende biler de hvor AI kjører bilen helt alene, og det ikke er noen menneskelig assistanse under kjøreoppgaven.

Disse førerløse kjøretøyene regnes som nivå 4 og nivå 5 (se min forklaring på denne lenken her), mens en bil som krever en menneskelig sjåfør for å dele kjøreinnsatsen vanligvis vurderes på nivå 2 eller nivå 3. Bilene som deler kjøreoppgaven beskrives som semi-autonome, og inneholder vanligvis en rekke automatiserte tillegg som omtales som ADAS (Advanced Driver-Assistance Systems).

Det er ennå ikke en ekte selvkjørende bil på nivå 5, og vi vet ennå ikke engang om dette vil være mulig å oppnå, og heller ikke hvor lang tid det vil ta å komme dit.

I mellomtiden prøver nivå 4-innsatsen gradvis å få litt trekkraft ved å gjennomgå veldig smale og selektive offentlige kjørebaneprøver, selv om det er kontrovers om denne testen skal være tillatt i seg selv (vi er alle liv-eller-død marsvin i et eksperiment. som foregår på våre motorveier og motorveier, noen hevder, se dekning min på denne lenken her).

Siden semi-autonome biler krever en menneskelig sjåfør, vil ikke adopsjonen av disse typer biler være markant annerledes enn å kjøre konvensjonelle kjøretøyer, så det er ikke mye nytt per se å dekke om dem om dette emnet (skjønt, som du vil se på et øyeblikk er poengene som blir gjort neste, generelt anvendelige).

For semi-autonome biler er det viktig at publikum må varsles om et urovekkende aspekt som har oppstått i det siste, nemlig at til tross for de menneskelige sjåførene som fortsetter å legge ut videoer av seg som sovner ved rattet på en nivå 2 eller nivå 3-bil , vi alle trenger å unngå å bli villedet til å tro at sjåføren kan fjerne oppmerksomheten fra kjøreoppgaven mens han kjører en semi-autonom bil.

Du er den ansvarlige parten for kjøringen av kjøretøyet, uavhengig av hvor mye automatisering som kan kastes i et nivå 2 eller nivå 3.

Selvkjørende biler og styring unna giftig kunstig intelligens

For sanne selvkjørende kjøretøyer på nivå 4 og nivå 5 vil det ikke være en menneskelig sjåfør involvert i kjøreoppgaven.

Alle beboere vil være passasjerer.

AI driver kjøringen.

Et aspekt å umiddelbart diskutere innebærer det faktum at AI involvert i dagens AI-kjøresystemer ikke er viktig. Med andre ord, AI er helt en samling av databasert programmering og algoritmer, og absolutt ikke i stand til å resonnere på samme måte som mennesker kan.

Hvorfor er denne ekstra vekt om at AI ikke er følsom?

Fordi jeg vil understreke at når jeg diskuterer AI-kjøresystemets rolle, tilskriver jeg ikke menneskelige kvaliteter til AI. Vær oppmerksom på at det i disse dager er en pågående og farlig tendens til å antropomorfisere AI. I hovedsak tildeler folk menneskelig følsomhet til dagens AI, til tross for det ubestridelige og ubestridelige faktum at ingen slik AI eksisterer ennå.

Med den avklaringen kan du se for deg at AI-kjøresystemet ikke på en eller annen måte "vet" om fasettene ved kjøring. Kjøring og alt det innebærer må programmeres som en del av maskinvaren og programvaren til den selvkjørende bilen.

La oss dykke ned i de mange aspektene som kommer til å spille om dette emnet.

For det første er det viktig å innse at ikke alle AI selvkjørende biler er like. Hver bilprodusent og selvkjørende teknologifirma tar sin tilnærming til å utvikle selvkjørende biler. Som sådan er det vanskelig å komme med omfattende utsagn om hva AI-kjøresystemer vil gjøre eller ikke.

Når du sier at et AI -kjøresystem ikke gjør noen spesielle ting, kan dette senere bli forbikjørt av utviklere som faktisk programmerer datamaskinen til å gjøre akkurat det. Steg for steg blir AI -kjøresystemer gradvis forbedret og utvidet. En eksisterende begrensning i dag eksisterer kanskje ikke lenger i en fremtidig iterasjon eller versjon av systemet.

Jeg håper det gir en tilstrekkelig litani av forbehold til å ligge til grunn for det jeg skal fortelle.

Det er mange potensialer og en dag vil trolig bli realiserte AI-infunderte skjevheter som vil konfrontere fremveksten av autonome kjøretøy og selvkjørende biler, se for eksempel diskusjonen min på lenken her og lenken her. Vi er fortsatt i de tidlige stadiene av utrullingen av selvkjørende biler. Inntil adopsjonen når en tilstrekkelig skala og synlighet, er mye av de giftige AI-fasettene som jeg har spådd til slutt vil skje, ennå ikke lett synlig og har ennå ikke fått bred offentlig oppmerksomhet.

Tenk på en tilsynelatende grei kjørerelatert sak som i begynnelsen kan virke helt ufarlig. Spesifikt, la oss undersøke hvordan man på riktig måte kan bestemme om man skal stoppe for å vente på "egenrådige" fotgjengere som ikke har forkjørsrett til å krysse en gate.

Du har utvilsomt kjørt bil og møtt fotgjengere som ventet på å krysse gaten, og likevel hadde de ikke forkjørsrett til å gjøre det. Dette betydde at du hadde skjønn om du skulle stoppe og la dem krysse. Du kan fortsette uten å la dem krysse og fortsatt være fullt innenfor de lovlige kjørereglene for å gjøre det.

Studier av hvordan menneskelige sjåfører bestemmer seg for å stoppe eller ikke stoppe for slike fotgjengere har antydet at noen ganger tar menneskelige sjåfører valget basert på uheldige skjevheter. En menneskelig sjåfør kan se på fotgjengeren og velge å ikke stoppe, selv om de ville ha stoppet hvis fotgjengeren hadde et annet utseende, for eksempel basert på rase eller kjønn. Jeg har undersøkt dette kl lenken her.

Hvordan vil AI-kjøresystemer bli programmert til å ta den samme typen stopp-eller-gå-beslutning?

Du kan forkynne at alle AI-kjøresystemer bør programmeres til å alltid stoppe for alle ventende fotgjengere. Dette forenkler saken betraktelig. Det er egentlig ingen knotete avgjørelse å ta. Hvis en fotgjenger venter på å krysse, uavhengig av om de har forkjørsrett eller ikke, sørg for at den selvkjørende AI-bilen stopper slik at fotgjengeren kan krysse.

Easy-peasy.

Livet er aldri så lett, ser det ut til. Tenk deg at alle selvkjørende biler følger denne regelen. Fotgjengere vil uunngåelig innse at AI-kjøresystemene er, skal vi si, pushovers. Alle fotgjengere som ønsker å krysse gaten vil med vilje gjøre det, når de vil og hvor enn de er.

Anta at en selvkjørende bil kommer ned en rask gate med den angitte fartsgrensen på 45 miles per time. En fotgjenger "vet" at AI vil få den selvkjørende bilen til å stoppe. Så fotgjengeren piler ut i gaten. Dessverre vinner fysikken over AI. AI-kjøresystemet vil prøve å få den selvkjørende bilen til å stanse, men farten til det autonome kjøretøyet kommer til å frakte multitonnutstyret fremover og ramle inn i den villfarne fotgjengeren. Resultatet er enten skadelig eller fører til dødsfall.

Fotgjengere prøver vanligvis ikke denne typen oppførsel når det sitter en menneskelig sjåfør ved rattet. Jada, på noen steder er det en øyeeplekrig som finner sted. En fotgjenger ser en sjåfør. Sjåføren ser på fotgjengeren. Avhengig av omstendighetene kan sjåføren stoppe, eller sjåføren kan hevde sitt krav til veibanen og tilsynelatende våge fotgjengeren å prøve å forstyrre veien.

Vi vil antagelig ikke at AI skal komme inn i en lignende øyeeplekrig, noe som også er litt utfordrende uansett siden det ikke er en person eller robot som sitter ved rattet i den selvkjørende bilen (jeg har diskutert den fremtidige muligheten for roboter den stasjonen, se lenken her). Likevel kan vi heller ikke tillate at fotgjengere alltid roper. Utfallet kan bli katastrofalt for alle berørte.

Du kan da bli fristet til å snu deg til den andre siden av denne mynten og erklære at AI-kjøresystemet aldri bør stoppe under slike omstendigheter. Med andre ord, hvis en fotgjenger ikke har riktig forkjørsrett til å krysse gaten, bør AI alltid anta at den selvkjørende bilen bør fortsette ufortrødent. Tøff lykke til de fotgjengerne.

En så streng og forenklet regel kommer ikke til å bli godt akseptert av allmennheten. Folk er mennesker, og de vil ikke like å bli fullstendig utestengt fra å kunne krysse gaten, til tross for at de juridisk mangler rett til å gjøre det i ulike settinger. Du kan lett forutse et betydelig oppstyr fra publikum og muligens se et tilbakeslag mot den fortsatte bruken av selvkjørende biler.

Forbannet hvis vi gjør det, og forbannet hvis vi ikke gjør det.

Jeg håper dette har ført deg til det begrunnede alternativet at AI må programmeres med et utseende av beslutninger om hvordan du skal håndtere dette kjøreproblemet. En hard og rask regel om å aldri stoppe er uholdbar, og på samme måte er en hard og rask regel om å alltid stoppe også uholdbar. AI må utformes med noen algoritmisk beslutningstaking eller ADM for å håndtere saken.

Du kan prøve å bruke et datasett kombinert med en ML/DL-tilnærming.

Her er hvordan AI-utviklerne kan bestemme seg for å programmere denne oppgaven. De samler inn data fra videokameraer som er plassert rundt i en bestemt by der den selvkjørende bilen skal brukes innenfor. Dataene viser når menneskelige sjåfører velger å stoppe for fotgjengere som ikke har forkjørsrett. Det hele er samlet inn i et datasett. Ved å bruke Machine Learning og Deep Learning modelleres dataene beregningsmessig. AI-kjøresystemet bruker deretter denne modellen til å bestemme når det skal stoppe eller ikke stoppe.

Generelt er ideen at uansett hva den lokale skikken består av, er dette hvordan AI kommer til å styre den selvkjørende bilen. Problem løst!

Men er det virkelig løst?

Husk at jeg allerede hadde påpekt at det er forskningsstudier som viser at menneskelige sjåfører kan være forutinntatte i sine valg av når de skal stoppe for fotgjengere. De innsamlede dataene om en bestemt by kommer antagelig til å inneholde disse skjevhetene. En AI ML/DL basert på disse dataene vil da sannsynligvis modellere og reflektere de samme skjevhetene. AI-kjøresystemet vil bare utføre de samme eksisterende skjevhetene.

For å prøve å kjempe med problemet, kunne vi sette sammen et datasett som faktisk har slike skjevheter. Vi finner enten et slikt datasett og merker deretter skjevhetene, eller så lager vi syntetisk et datasett for å hjelpe til med å illustrere saken.

Alle de tidligere identifiserte trinnene vil bli utført, inkludert:

  • Sett opp et datasett som med vilje inneholder denne spesielle skjevheten
  • Bruk datasettet til å trene Machine Learning (ML) og Deep Learning (DL) modeller for å oppdage denne spesifikke skjevheten
  • Bruk bias-trent ML/DL mot annen AI for å finne ut om den målrettede AI er potensielt partisk på samme måte
  • Gjør den bias-trente ML/DL tilgjengelig for å vise frem for AI-byggere hva de skal passe på, slik at de enkelt kan inspisere modellene sine for å se hvordan algoritmiske skjevheter oppstår
  • Eksempliser farene ved partisk AI som en del av AI-etikk og etisk AI-bevissthet via dette ekstra spesifikke eksemplet
  • Annen

konklusjonen

La oss se på åpningslinjen igjen.

Det tar en å kjenne en.

Noen tolker at dette utrolig utbredte ordtaket antyder at når det kommer til å fjerne giftig AI, bør vi gi behørig tillit til å bygge og bruke giftig AI for å oppdage og håndtere annen giftig AI. Konklusjon: Noen ganger må det en tyv til for å fange en annen tyv.

En uttrykt bekymring er at vi kanskje går ut av vår måte å begynne å lage tyver. Ønsker vi å utvikle kunstig intelligens som er giftig? Virker ikke det som en gal idé? Noen argumenterer heftig for at vi bør forby all giftig kunstig intelligens, inkludert slik kunstig intelligens som bevisst ble bygget selv om det er angivelig for en heroisk eller galant AI For Good hensikt.

Squelch giftig AI i hvilken som helst smart eller lumsk form den måtte oppstå.

En siste vri på dette emnet for nå. Vi antar generelt at denne berømte replikken har å gjøre med mennesker eller ting som gjør dårlige eller sure handlinger. Det er slik vi lander på forestillingen om at det skal en tyv til for å fange en tyv. Kanskje vi burde snu dette ordtaket på hodet og gjøre det mer til et lykkelig ansikt enn et trist ansikt.

Dette er hvordan.

Hvis vi vil ha AI som er objektiv og ikke-giftig, kan det tenkes at det krever en for å kjenne en. Kanskje skal det største og beste til for å gjenkjenne og avle videre storhet og godhet. I denne varianten av visdommen holder vi blikket på det glade ansiktet og tar sikte på å konsentrere oss om å tenke ut AI for godt.

Det ville være en mer optimistisk og tilfredsstillende munter syn på det krever en å kjenne en, hvis du skjønner hva jeg mener.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- gunstig-inkludert-for-de-selvkjørende-biler/