AI-etikk stivnet av de saltende AI-etikere som "initierer" etisk AI-praksis

Salting har vært en del i nyhetene i det siste.

Jeg sikter ikke til saltet du putter i maten din. I stedet tar jeg opp «saltingen» som er forbundet med en provoserende og tilsynelatende svært kontroversiell praksis knyttet til samspillet mellom arbeidskraft og næringsliv.

Du skjønner, denne typen salting innebærer omstendighetene der en person prøver å bli ansatt i et firma for å tilsynelatende initiere, eller noen kan uten tvil si tilskynde til etablering av en fagforening der. De siste nyhetsberetningene som diskuterer dette fenomenet peker på firmaer som Starbucks, Amazon og andre kjente og enda mindre kjente firmaer.

Jeg vil først dekke det grunnleggende om salting, og deretter vil jeg bytte til et beslektet emne som du kanskje er ganske overakt over, nemlig at det ser ut til å finne sted en slags salting innen kunstig intelligens (AI). Dette har avgjørende AI-etiske hensyn. For min pågående og omfattende dekning av AI-etikk og etisk AI, se lenken her og lenken her, bare for å nevne noen få.

La oss nå gå inn på det grunnleggende om hvordan salting vanligvis fungerer.

Anta at en bedrift ikke har noen fagforeninger i arbeidsstyrken. Hvordan kan en fagforening på en eller annen måte få fotfeste i det firmaet? En måte ville være å ta grep utenfor selskapet og prøve å appellere til arbeiderne om at de burde melde seg inn i en fagforening. Dette kan innebære å vise frem bannere i nærheten til selskapets hovedkvarter eller sende arbeiderne flygeblader eller bruke sosiale medier, og så videre.

Dette er en utvendig type tilnærming.

En annen vei ville være å anspore innenfra en gnist som kan få ballen til å rulle. Hvis minst én ansatt kunne bli utløst som en heiagjeng for å omfavne en fagforening i firmaet, ville dette kanskje starte en eventuell intern kavalkade av støtte for fagforening der. Selv om en slik ansatt ikke tjente som en ut-og-ut cheerer, kan de i det stille være i stand til å samle intern støtte blant arbeidere og være en relativt skjult kraft i organisasjonen for å drive fagforening.

På den måten kan en fagforening tenke på måtene en slik ansatt kan aktiveres på. Fagforeningen kan bruke uendelig mye energi på å finne den nålen i høystakken. Blant kanskje hundrevis eller tusenvis av arbeidere i firmaet, kan det være vanskelig å prøve å oppdage den såkalte utvalgte, som vil favorisere fagforening.

Det ville være nyttig å lettere "oppdage" den gnistinduserende arbeideren (eller finne opp dem, så å si).

Dette leder oss til voila-ideen som kanskje får selskapet til å ansette en slik person til en daglig rolle i firmaet. I hovedsak, implanter den riktige typen fagforening som ansporer personen inn i firmaet. Du trenger ikke å prøve å appellere til mengden av arbeidere alt fortalt fra utsiden og i stedet sette inn den ene aktiverende personen slik at du vet sikkert at gnisten din er ansatt der.

Den nyansatte arbeideren søker deretter å innpode en fagforeningsinteresse i firmaet, og gjør i mellomtiden den jobben de ellers ble ansatt for å gjøre (uttrykker det som ofte omtales som en "genuin interesse" i jobben). Merk at personen er aktivt ansatt i firmaet og aktivt utfører arbeid som kreves av dem som ansatt. I det vanlige riket med salting er de ikke bare en fagforeningsbasert ikke-spesifikk jobbrelatert arbeidstaker som kanskje er innebygd i selskapet.

Noen har varslet denne tilnærmingen.

De oppfordrer til at det sparer tid og ressurser når det gjelder en fagforening som søker å inspirere arbeidere i et firma til å vurdere å melde seg inn i en fagforening. Andre ansatte er vanligvis mer villige til å lytte til og bli aktivisert av en medarbeider. Den alternative tilnærmingen med å prøve fra utsiden for å få gjennomslag anses som mindre forlokkende, der en medarbeider gir en kraftig motivasjon til arbeidere i selskapet sammenlignet med noen "utenforstående" som faktisk blir sett på som lite mer enn uinvolverte og upassende agenda-pressende utenforstående.

Ikke alle er fornøyd med saltingsmetoden.

Bedrifter vil ofte hevde at dette er en rikelig snik og uærlig praksis. Den generelle gestalten av tilnærmingen er at en spion blir plassert midt i firmaet. Det er ikke det personen ble ansatt for å gjøre. De ble antagelig ansatt for å gjøre den uttalte jobben sin, mens i stedet, hele assorterte shenanigans virker som den djevelske implanteringen av en veritabel trojansk hest.

Motkravet fra fagforeningene er at hvis personen gjør sin oppgitte jobb, er det ingen skade og ingen styggdom. Antagelig en ansatt, eller skal vi si noen ansatt i firmaet, kan vanligvis velge å søke fagforening. Denne spesielle ansatte vil tilfeldigvis gjøre det. Det faktum at de kom inn i selskapet med den tanken i tankene er bare noe som enhver nyansatt medarbeider også kan vurdere.

Vent litt, bedrifter vil svare, dette er noen som av design ønsket å komme til selskapet med det formål å starte en fagforening. Det er deres drevne ønske. Den nyansatte medarbeideren har gjort narr av ansettelsesprosessen og utnytter deres jobbsøkende ambisjoner som et skjult påskudd til fordel for fagforeningen.

Rundt og rundt går denne opphetede diskursen.

Husk at det er en mengde juridiske hensyn som oppstår i disse innstillingene. Alle slags regler og forskrifter som gjelder for eksempel National Labor Relations Act (NLRA) og National Labour Relations Board (NRLB) er en del av disse gambitene. Jeg vil ikke at du skal få inntrykk av at ting er greie på disse frontene. Mange juridiske komplikasjoner florerer.

Vi bør også tenke på variasjonene som spiller sammen med salting.

Ta muligheten for at personen som ønsker å bli ansatt åpent er en talsmann for fagforeningen gjennom hele prosessen med å søke å få jobb i firmaet. Denne personen kan dukke opp til jobbintervjuet iført en skjorte eller andre klær som tydelig gjør det klart at de er for fagforeninger. De kan under intervjuer bringe opp håpet om at selskapet en dag vil omfavne fagforening. Etc.

I så fall vil noen hevde at virksomheten visste hva den gikk inn på. Fra begynnelsen hadde selskapet mange indikasjoner på intensjonene til personen. Du kan da ikke sutre etterpå hvis den nye medarbeideren etter å bli ansatt vil gjøre alt de kan for å få fagforeningen inn døren. Firmaet har så å si skutt sin egen fot, og alt annet er bare krokodilletårer.

Dansen på dette er imidlertid igjen mer kompleks enn det ser ut til. Per juridiske spørsmål som kan oppstå, kan noen som ellers er kvalifisert for å bli ansatt, hvis de blir avvist av innleieselskapet, hevde at de med vilje ble oversett som et resultat av en anti-fagforeningsskjevhet av selskapet. Nok en gang blir NRLA og NRLB trukket inn i den rotete affæren.

Jeg vil raskt lede deg gjennom en rekke andre hensyn som dukker opp i saltingsriket. Jeg vil også at du skal være klar over at salting ikke bare er et fenomen som bare gjelder i USA. Det kan forekomme i andre land også. Naturligvis er lovene og praksisene i landene dramatisk forskjellige, og derfor er salting enten ikke spesielt nyttig eller muligens til og med direkte forbudt i noen lokaliteter, mens saltingens natur kan bli betydelig endret basert på de juridiske og kulturelle sedene og faktisk kan har fortsatt potens.

Rådfør deg med din kjære arbeidsrettsadvokat uansett hvilken jurisdiksjon av interesse angår deg.

Noen tilleggsfaktorer om salting inkluderer:

  • Komme betalt. Noen ganger får personen betalt av fagforeningen for å utføre oppgaven med å bli ansatt i firmaet. De kan da bli betalt av både selskapet og fagforeningen under deres funksjonstid i firmaet eller kanskje ikke lenger bli betalt av fagforeningen når de er ansatt av firmaet.
  • Synlighet. Noen ganger holder personen seg nede eller forblir helt stille under ansettelsesprosessen om sine fagforeningsintensjoner, mens i andre tilfeller er personen åpenlyst vokal om hva de har tenkt å gjøre. En tilsynelatende halvveis tilnærming er at personen vil fortelle hva de har som mål å gjøre hvis de blir eksplisitt spurt under intervjuene, og dermed antyde at det er opp til firmaet å frese ut slike intensjoner, noe som er en byrde som bedriftene hevder er underhåndskonsultasjon og anstrenger juridiske grenser.
  • Timing. Personen en gang ansatt kan velge å vente med å påta seg sin fagforeningskapasitet. De kan potensielt vente uker, måneder eller til og med år for å aktiveres. Oddsen er at det er større sannsynlighet for at de kommer i gang når de har blitt akklimatisert til firmaet og har etablert et personlig fotfeste som ansatt i firmaet. Hvis de starter umiddelbart, kan dette undergrave deres forsøk på å bli sett på som en insider og kaste dem som en inntrenger eller outsider.
  • Trinn tatt. Noen ganger vil personen eksplisitt kunngjøre i firmaet at de nå søker å omfavne fagforening, noe som kan skje kort tid etter å ha blitt ansatt eller skje en stund etterpå (i henhold til min indikasjon ovenfor om tidsfaktoren). På den annen side kan personen velge å tjene i en undercover-rolle, gi informasjon til fagforeningen og ikke bringe oppmerksomhet til seg selv. Dette er til tider lammet som å være en saltende føflekk, selv om andre vil understreke at personen ellers kan være utsatt for interne risikoer hvis de uttaler seg direkte.
  • tenure. En person som tar på seg en salteinnsats kan ende opp med å få en fagforeningsmessig drivkraft i gang (de er en "salter"). De kan potensielt forbli i firmaet gjennom hele fagforeningsprosessen. Når det er sagt, noen ganger velger en slik person å forlate firmaet som har blitt utløst og velger å gå til et annet firma for å starte på nytt med de utløste aktivitetene. Argumentene rundt dette er intense. Et synspunkt er at dette tydelig viser at personen ikke hadde jobben i firmaet i hjertet. Det kontrasterende synspunktet er at de sannsynligvis vil finne seg selv i grumsete og muligens uholdbare farvann ved å forbli i firmaet når fagforeningens innsats har fått gjennomslag.
  • Utfallet. Et saltingsforsøk garanterer ikke et bestemt utfall. Det kan være at personen øker bevisstheten om fagforening og innsatsen kommer i gang, ergo "vellykket" salting har funnet sted. Et annet resultat er at personen ikke klarer å få noen slik trekkraft. Enten gir de opp jakten og forblir i firmaet, kanskje venter på en ny sjanse på et senere tidspunkt, eller så forlater de firmaet og prøver vanligvis å salte i et annet firma.
  • Profesjonell Salter. Noen anser seg selv som sterke talsmenn for salting, og de setter sin ære i å tjene som en salter, så å si. De salter gjentatte ganger, og går fra firma til firma mens de gjør det. Andre vil gjøre dette på en engangsbasis, kanskje på grunn av en spesiell preferanse eller for å se hvordan det er, og deretter velge å ikke gjenta i en slik rolle. Du kan helt sikkert forestille deg hvilke typer personlig press og potensielt stress som kan oppstå når du er i en salterkapasitet.

Disse faktorene vil være tilstrekkelig for nå for å fremheve rekkevidden og dynamikken til salting. Jeg vil se på disse faktorene i sammenheng med AI og etiske AI-betraktninger.

Hovedsaken er at noen mennesker søker å bli ansatt i et firma for å sette i gang eller sette i gang etableringen av AI-etikkprinsipper i selskapet. Dette er deres primære motivasjon for å gå på jobb i firmaet.

På en måte salter de ikke for fagforeningsformål, men "salter" i stedet for å prøve å få et selskap forankret i etiske AI-forskrifter.

Jeg vil si mye mer om dette et øyeblikk.

Før vi går inn på litt mer kjøtt og poteter om de ville og ullaktige betraktningene som ligger til grunn for salting i en AI-sammenheng, la oss legge ut noen ekstra grunnleggende om dypt essensielle emner. Vi trenger et kort dykk i AI-etikk og spesielt bruken av Machine Learning (ML) og Deep Learning (DL).

Du er kanskje vagt klar over at en av de høyeste stemmene i disse dager i AI-feltet og til og med utenfor AI-feltet består av å rope etter et større utseende av etisk AI. La oss ta en titt på hva det betyr å referere til AI-etikk og etisk AI. På toppen av det vil vi utforske hva jeg mener når jeg snakker om maskinlæring og dyplæring.

Et bestemt segment eller del av AI-etikken som har fått mye oppmerksomhet i media, består av AI som viser uheldige skjevheter og ulikheter. Du er kanskje klar over at da den siste æraen med kunstig intelligens kom i gang var det et stort utbrudd av entusiasme for det noen nå kaller AI For Good. Dessverre begynte vi å være vitne til etter den fossende spenningen AI for Bad. For eksempel har forskjellige AI-baserte ansiktsgjenkjenningssystemer blitt avslørt å inneholde rasemessige skjevheter og kjønnsskjevheter, som jeg har diskutert på lenken her.

Anstrengelser for å kjempe tilbake mot AI for Bad er aktivt i gang. Dessuten høyrøstet lovlig jakten på å tøyle urettferdighetene, er det også et betydelig løft mot å omfavne AI-etikk for å rette opp AI-eiendommen. Tanken er at vi bør ta i bruk og støtte viktige etiske AI-prinsipper for utvikling og felt av AI for å undergrave AI for Bad og samtidig varsle og fremme det som er å foretrekke AI For Good.

På en beslektet oppfatning er jeg en talsmann for å prøve å bruke AI som en del av løsningen på AI-problemer, og bekjempe ild med ild på den måten å tenke på. Vi kan for eksempel bygge inn etiske AI-komponenter i et AI-system som vil overvåke hvordan resten av AI gjør ting og dermed potensielt fange opp i sanntid enhver diskriminerende innsats, se diskusjonen min på lenken her. Vi kan også ha et eget AI-system som fungerer som en type AI Ethics-monitor. AI-systemet fungerer som en tilsynsmann for å spore og oppdage når en annen AI går inn i den uetiske avgrunnen (se min analyse av slike evner på lenken her).

Om et øyeblikk vil jeg dele med deg noen overordnede prinsipper som ligger til grunn for AI-etikk. Det er mange slike lister som flyter rundt her og der. Du kan si at det ennå ikke er en enestående liste over universell appell og samtidighet. Det er den uheldige nyheten. Den gode nyheten er at det i det minste er lett tilgjengelige AI Ethics-lister, og de pleier å være ganske like. Alt i alt tyder dette på at vi ved en form for begrunnet konvergens finner veien mot en generell fellestrekk av hva AI-etikk består av.

Først, la oss kort dekke noen av de generelle etiske AI-reglene for å illustrere hva som bør være en viktig vurdering for alle som lager, driver med eller bruker AI.

For eksempel, som uttalt av Vatikanet i Roma oppfordrer til AI-etikk og som jeg har dekket i dybden på lenken her, dette er deres identifiserte seks primære AI-etiske prinsipper:

  • Åpenhet: I prinsippet må AI-systemer kunne forklares
  • Inkludering: Alle menneskers behov må tas i betraktning slik at alle kan komme til nytte, og alle kan tilbys best mulige forutsetninger for å uttrykke seg og utvikle seg.
  • Ansvar: De som designer og distribuerer bruken av AI må fortsette med ansvar og åpenhet
  • Opartiskhet: Ikke skap eller handle i henhold til partiskhet, og dermed ivareta rettferdighet og menneskeverd
  • Pålitelighet: AI-systemer må kunne fungere pålitelig
  • Sikkerhet og personvern: AI-systemer må fungere sikkert og respektere brukernes personvern.

Som uttalt av det amerikanske forsvarsdepartementet (DoD) i deres Etiske prinsipper for bruk av kunstig intelligens og som jeg har dekket i dybden på lenken her, dette er deres seks primære AI-etiske prinsipper:

  • Ansvarlig: DoD-personell vil utøve passende nivåer av dømmekraft og omsorg mens de fortsatt er ansvarlige for utvikling, distribusjon og bruk av AI-evner.
  • Rettferdig: Avdelingen vil ta bevisste skritt for å minimere utilsiktet skjevhet i AI-evner.
  • Sporbar: Avdelingens AI-evner vil bli utviklet og distribuert slik at relevant personell har en passende forståelse av teknologien, utviklingsprosessene og operasjonelle metoder som gjelder for AI-evner, inkludert transparente og reviderbare metoder, datakilder og designprosedyre og dokumentasjon.
  • Pålitelig: Avdelingens AI-evner vil ha eksplisitte, veldefinerte bruksområder, og sikkerheten, sikkerheten og effektiviteten til slike evner vil være gjenstand for testing og forsikring innenfor de definerte bruksområdene gjennom hele livssyklusen.
  • Styres: Avdelingen vil designe og konstruere AI-evner for å oppfylle deres tiltenkte funksjoner samtidig som den har evnen til å oppdage og unngå utilsiktede konsekvenser, og evnen til å koble ut eller deaktivere utplasserte systemer som viser utilsiktet oppførsel.

Jeg har også diskutert ulike kollektive analyser av AI-etiske prinsipper, inkludert å ha dekket et sett utviklet av forskere som undersøkte og kondenserte essensen av en rekke nasjonale og internasjonale AI-etiske prinsipper i en artikkel med tittelen "The Global Landscape Of AI Ethics Guidelines" (publisert i Natur), og at dekningen min utforsker kl lenken her, som førte til denne keystone-listen:

  • Åpenhet
  • Rettferdighet og rettferdighet
  • Ikke-ondsinnethet
  • Ansvar
  • Privatliv
  • godgjør
  • Frihet og autonomi
  • Stol
  • Bærekraft
  • Verdighet
  • Solidaritet

Som du direkte kan gjette, kan det være ekstremt vanskelig å prøve å finne de spesifikke underliggende prinsippene. Enda mer så er innsatsen for å gjøre disse brede prinsippene til noe helt håndfast og detaljert nok til å brukes når man lager AI-systemer, også en tøff nøtt å knekke. Det er lett generelt å vinke litt med hånden om hva AI-etiske forskrifter er og hvordan de generelt skal overholdes, mens det er en mye mer komplisert situasjon i AI-kodingen som må være den veritable gummien som møter veien.

AI-etikkprinsippene skal brukes av AI-utviklere, sammen med de som styrer AI-utviklingsinnsatsen, og til og med de som til slutt arbeider med og utfører vedlikehold på AI-systemer. Alle interessenter gjennom hele livssyklusen for utvikling og bruk av kunstig intelligens anses innenfor rammen av å overholde de etablerte normene for etisk kunstig intelligens. Dette er et viktig høydepunkt siden den vanlige antagelsen er at "bare kodere" eller de som programmerer AI-en er underlagt AI-etikkens forestillinger. Som tidligere nevnt, kreves det en landsby for å utforme og sette opp AI, og som hele landsbyen må være kjent med og etterleve AI-etiske forskrifter.

La oss også sørge for at vi er på samme side om naturen til dagens AI.

Det er ingen AI i dag som er sansende. Vi har ikke dette. Vi vet ikke om sentient AI vil være mulig. Ingen kan med rette forutsi om vi vil oppnå sansende AI, og heller ikke om sansende AI på en eller annen måte mirakuløst spontant vil oppstå i en form for beregningsmessig kognitiv supernova (vanligvis referert til som singulariteten, se min dekning på lenken her).

Den typen AI som jeg fokuserer på består av den ikke-sansende AI som vi har i dag. Hvis vi ville spekulere vilt om selvbevisst AI, denne diskusjonen kan gå i en radikalt annen retning. En sansende AI ville visstnok være av menneskelig kvalitet. Du må vurdere at den sansende AI er den kognitive ekvivalenten til et menneske. Mer så, siden noen spekulerer i at vi kan ha superintelligent AI, er det tenkelig at slik AI kan ende opp med å bli smartere enn mennesker (for min utforskning av superintelligent AI som en mulighet, se dekningen her).

La oss holde ting mer jordnære og vurdere dagens beregningsbaserte ikke-følende AI.

Innse at dagens AI ikke er i stand til å "tenke" på noen måte på linje med menneskelig tenkning. Når du samhandler med Alexa eller Siri, kan samtalekapasiteten virke som menneskelig kapasitet, men realiteten er at den er beregningsmessig og mangler menneskelig erkjennelse. Den siste æraen av AI har gjort omfattende bruk av Machine Learning (ML) og Deep Learning (DL), som utnytter beregningsmønstermatching. Dette har ført til AI-systemer som ser ut som menneskelignende tilbøyeligheter. I mellomtiden er det ingen kunstig intelligens i dag som har et skinn av sunn fornuft, og heller ikke noe av den kognitive undringen til robust menneskelig tenkning.

ML/DL er en form for beregningsmønstermatching. Den vanlige tilnærmingen er at du samler data om en beslutningsoppgave. Du mater dataene inn i ML/DL-datamodellene. Disse modellene søker å finne matematiske mønstre. Etter å ha funnet slike mønstre, hvis det er funnet, vil AI-systemet bruke disse mønstrene når de møter nye data. Ved presentasjon av nye data brukes mønstrene basert på de "gamle" eller historiske dataene for å gi en gjeldende beslutning.

Jeg tror du kan gjette hvor dette er på vei. Hvis mennesker som har tatt de mønstrede avgjørelsene har inkorporert uheldige skjevheter, er sjansen stor for at dataene reflekterer dette på subtile, men betydelige måter. Maskinlæring eller Deep Learning beregningsmønstermatching vil ganske enkelt prøve å matematisk etterligne dataene tilsvarende. Det er ingen antydning av sunn fornuft eller andre sansende aspekter ved AI-laget modellering i seg selv.

Dessuten er det kanskje ikke sikkert at AI-utviklerne skjønner hva som skjer. Den mystiske matematikken i ML/DL kan gjøre det vanskelig å fjerne de nå skjulte skjevhetene. Du vil med rette håpe og forvente at AI-utviklerne vil teste for potensielt begravde skjevheter, selv om dette er vanskeligere enn det kan virke. Det er en solid sjanse for at selv med relativt omfattende testing vil det fortsatt være skjevheter innebygd i mønstertilpasningsmodellene til ML/DL.

Du kan litt bruke det berømte eller beryktede ordtaket om søppel-inn søppel-ut. Saken er at dette er mer beslektet med skjevheter-in som snikende blir tilført som skjevheter nedsenket i AI. Algoritmen beslutningstaking (ADM) til AI blir aksiomatisk full av ulikheter.

Ikke bra.

La oss gå tilbake til vårt fokus på salting i en AI-sammenheng.

For det første fjerner vi ethvert utseende av fagforeningselementet fra terminologien til salting og bruker i stedet bare salting som et generalisert paradigme eller tilnærming som mal. Så vær så snill å legge til side de fagforeningsrelaterte fasettene for denne AI-relaterte saltingsdiskusjonen.

For det andre, som tidligere nevnt, innebærer salting i denne AI-sammenheng at noen mennesker kan søke å bli ansatt i et firma for å sette i gang eller sette i gang etableringen av AI-etikkprinsipper i selskapet. Dette er deres primære motivasjon for å gå på jobb i firmaet.

For å presisere, det er absolutt mange som blir ansatt i et firma, og de har allerede i tankene at AI-etikk er viktig. Dette er imidlertid ikke i forkant av deres grunnlag for å prøve å bli ansatt av det bestemte firmaet av interesse. I hovedsak kommer de til å bli ansatt for å gjøre en slags AI-utviklings- eller distribusjonsjobb, og for noe de bringer praktisk inn i seg en sterk tro på etisk AI.

De vil da jobbe så godt de kan for å tilføre eller inspirere AI-etikk i selskapet. Bra for dem. Vi trenger flere som har det som et inderlig inderlig ønske.

Men det er ikke saltingen jeg hentyder til her. Tenk deg at noen velger ut et bestemt selskap som ikke ser ut til å gjøre mye om noe relatert til å omfavne AI-etikk. Personen bestemmer seg for at de skal bli ansatt av det firmaet hvis de kan gjøre det i en eller annen daglig AI-jobb (eller kanskje til og med en ikke-AI-rolle), og da vil deres primære fokus være å installere eller sette i gang AI-etikkprinsipper i selskap. Det er ikke deres primære jobboppgave og ikke engang oppført i jobboppgavene deres (jeg nevner dette fordi, selvfølgelig, hvis en blir ansatt for å med vilje få til AI-etikk, "salter" de ikke på samme måte som konnotasjon og utseende her).

Denne personen bryr seg ikke spesielt om jobben i seg selv. Selvfølgelig vil de gjøre hva jobben består av, og de er antagelig kvalifisert til å gjøre det. I mellomtiden er deres virkelige agenda å anspore Ethical AI til å bli en del av firmaet. Det er oppdraget. Det er målet. Jobben i seg selv er bare et middel eller et redskap for å tillate dem å gjøre det innenfra.

Du kan si at de kunne gjøre det samme fra utenfor firmaet. De kan prøve å lobbye AI-teamene i selskapet for å bli mer involvert i AI-etikk. De kan prøve å skamme firmaet til å gjøre det, kanskje ved å legge ut på blogger eller ta andre skritt. Og så videre. Saken er at de fortsatt ville være en outsider, akkurat som tidligere påpekt når man diskuterte det overordnede premisset om salting.

Er AI-salting-personen svikefull?

Vi blir igjen minnet om det samme spørsmålet som ble stilt om fagforeningskonteksten med salting. Personen kan insistere på at det ikke er noe bedrag i det hele tatt. De ble ansatt for å gjøre en jobb. De gjør jobben. Det hender at de i tillegg er en intern talsmann for AI-etikk og jobber mektig for å få andre til å gjøre det samme. Ingen skade, ingen stygg.

De vil sannsynligvis også påpeke at det ikke er noen spesiell ulempe ved å anspore firmaet til etisk kunstig intelligens. Til syvende og sist vil dette hjelpe selskapet med å muligens unngå søksmål som ellers kan oppstå hvis AI produseres som ikke overholder AI-etiske forskrifter. De redder dermed selskapet fra seg selv. Selv om personen kanskje ikke bryr seg spesielt om å gjøre jobben for hånden, gjør de jobben og gjør samtidig selskapet klokere og sikrere via et høyrøstet push mot etisk AI.

Vent litt, replikkerer noen, denne personen er uoppriktig. De kommer tilsynelatende til å hoppe av når AI Ethics-omfavnelsen inntreffer. Hjertet deres er ikke i firmaet eller jobben. De bruker selskapet til å fremme sin egen agenda. Visst, agendaen virker god nok, og søker å få etisk AI på topp, men dette kan gå for langt.

Du skjønner, argumentet går videre at jakten på AI-etikk kan bli altfor nidkjær. Hvis personen kom for å få igangsatt etisk kunstig intelligens, kan det hende de ikke ser på et større bilde av hva firmaet generelt har å gjøre med. Med unntak av alt annet kan denne personen myopisk distrahere firmaet og ikke være villig til å tillate AI-etikk-adopsjon på et begrunnet grunnlag og i et forsvarlig tempo.

De kan bli en forstyrrende misnøye som bare kontinuerlig krangler om hvor firmaet sitter når det gjelder etiske AI-forskrifter. Andre AI-utviklere kan bli distrahert av skravlingen på én melodi. Å få AI-etikk inn i blandingen er absolutt fornuftig, selv om teater og andre potensielle forstyrrelser i firmaet kan hindre etisk AI-fremgang i stedet for å hjelpe den.

Rund og rundt går vi.

Vi kan nå se på de ekstra faktorene om salting som jeg tidligere tilbød:

  • Komme betalt. Det kan tenkes at personen i utgangspunktet kan bli betalt av en enhet som ønsker å få et firma til å omfavne AI-etikk, kanskje med sikte på å gjøre det uskyldig eller kanskje selge firmaet et bestemt sett med AI-etikkverktøy eller -praksis. Generelt usannsynlig, men verdt å nevne.
  • Synlighet. Personen tar kanskje ikke spesielt opp sitt AI Ethics andakt oppdrag når han går gjennom ansettelsesprosessen. I andre tilfeller kan de sørge for at det er foran og i sentrum, slik at ansettelsesfirmaet forstår uten tvetydighet angående deres hengivne fokus. Dette skjønt er mer sannsynlig å bli utformet som om AI-etikk er en sekundær bekymring og at jobben er deres primære bekymring, snarere enn omvendt.
  • Timing. Personen som en gang ble ansatt, kan velge å vente med å begynne med AI-etikk. De kan potensielt vente uker, måneder eller til og med år før de aktiveres. Oddsen er at det er større sannsynlighet for at de kommer i gang når de har blitt akklimatisert til firmaet og har etablert et personlig fotfeste som ansatt i firmaet. Hvis de starter umiddelbart, kan dette undergrave deres forsøk på å bli sett på som en insider og kaste dem som en inntrenger eller outsider.
  • Trinn tatt. Noen ganger vil personen eksplisitt kunngjøre i firmaet at de nå søker å øke oppmerksomheten til AI-etikk, noe som kan skje kort tid etter at de ble ansatt eller oppstå en stund etterpå (i henhold til min ovenfor angående tidsfaktor). På den annen side kan personen velge å tjene i en undercover-rolle, jobbe stille i firmaet og ikke gi seg selv spesiell oppmerksomhet. De kan også gi informasjon til pressen og andre utenforstående om hvilke AI Ethics utelatelser eller feil som finner sted i firmaet.
  • tenure. En person som tar på seg en salteinnsats kan ende opp med å få en AI-etikk-impuls i gang. De kan potensielt forbli i firmaet gjennom hele prosessen med å ta i bruk etisk kunstig intelligens. Når det er sagt, noen ganger velger en slik person å forlate firmaet som har blitt utløst og velger å gå til et annet firma for å starte på nytt med de utløste aktivitetene. Argumentene rundt dette er intense. Et synspunkt er at dette tydelig viser at personen ikke hadde jobben i firmaet i hjertet. Det kontrasterende synspunktet er at de sannsynligvis vil finne seg selv i grumsete og muligens uholdbare farvann ved å forbli i firmaet hvis de nå blir stemplet som høye stemmer eller bråkmakere.
  • Utfallet. Et saltingsforsøk garanterer ikke et bestemt utfall. Det kan være at personen øker bevisstheten om etisk AI og innsatsen kommer i gang, ergo har "vellykket" salting funnet sted. Et annet resultat er at personen ikke klarer å få noen slik trekkraft. Enten gir de opp jakten og forblir i firmaet, kanskje venter på en ny sjanse på et senere tidspunkt, eller så forlater de firmaet og prøver vanligvis å salte i et annet firma.
  • Profesjonell Salter. Noen mennesker kan betrakte seg selv som en sterk talsmann for salting av AI-etikk, og de setter sin ære i å tjene som en salter, så å si. De salter gjentatte ganger, og går fra firma til firma mens de gjør det. Andre kan gjøre dette på en engangsbasis, kanskje på grunn av en spesiell preferanse eller for å se hvordan det er, og deretter velge å ikke gjenta i en slik rolle. Du kan helt sikkert forestille deg hvilke typer personlig press og potensielt stress som kan oppstå når du er i en salterkapasitet.

Hvorvidt denne typen AI-etikk-orientert salting slår fast, gjenstår å se. Hvis bedrifter er trege med å fremme etisk kunstig intelligens, kan dette føre til at ivrige AI-etikere tar på seg salting. De innser kanskje ikke helt at de holder på med salting. Med andre ord, noen går til selskap X og prøver å få gjennomslag for AI Ethics, kanskje gjør det, og innser at de burde gjøre det samme andre steder. De skifter deretter over til firma Y. Skyll og gjentar.

Igjen, vektleggingen er imidlertid at AI-etikk-omfavnelse er deres høyeste prioritet. Å få jobben er sekundær eller ikke engang spesielt viktig, annet enn å kunne komme inn og gjøre innsidearbeidet med salting relatert til etisk AI.

Jeg vil også legge til at de som studerer og analyserer AI-etikk-aspekter nå har et noe nytt tillegg til emnene for forskning på etisk AI:

  • Bør disse saltingstiltakene for AI Ethics generelt tolereres eller unngås?
  • Hva driver de som ønsker å salte i denne AI-sammenhengen?
  • Hvordan bør bedrifter reagere på en antatt handling med AI-kontekstsalting?
  • Vil det være utviklet metoder for å oppmuntre til AI-relatert salting som dette?
  • Etc.

Til en viss grad er det derfor AI-etikk og etisk AI er et så viktig tema. Forskriftene til AI-etikk får oss til å være årvåkne. AI-teknologer kan til tider bli opptatt av teknologi, spesielt optimalisering av høyteknologi. De vurderer ikke nødvendigvis de større samfunnsmessige konsekvensene. Å ha en AI-etikk-tankegang og gjøre det integrert i AI-utvikling og feltarbeid er avgjørende for å produsere passende AI, inkludert (kanskje overraskende eller ironisk nok) vurderingen av hvordan AI-etikk blir tatt i bruk av firmaer.

I tillegg til å bruke AI-etiske forskrifter generelt, er det et tilsvarende spørsmål om vi bør ha lover som regulerer ulike bruk av AI. Nye lover blir slått rundt på føderalt, statlig og lokalt nivå som angår rekkevidden og arten av hvordan AI bør utformes. Arbeidet med å utarbeide og vedta slike lover er gradvis. AI-etikk fungerer i det minste som et betraktet stopp, og vil nesten helt sikkert til en viss grad bli direkte innlemmet i de nye lovene.

Vær oppmerksom på at noen hevder hardt at vi ikke trenger nye lover som dekker AI, og at våre eksisterende lover er tilstrekkelige. Faktisk varsler de at hvis vi vedtar noen av disse AI-lovene, vil vi drepe gullgåsen ved å slå ned på fremskritt innen AI som gir enorme samfunnsmessige fordeler.

På dette tidspunktet i denne tungtveiende diskusjonen vil jeg vedde på at du ønsker noen illustrative eksempler som kan vise frem dette emnet. Det er et spesielt og sikkert populært sett med eksempler som ligger meg nært på hjertet. Du skjønner, i min egenskap som ekspert på AI, inkludert de etiske og juridiske konsekvensene, blir jeg ofte bedt om å identifisere realistiske eksempler som viser AI-etikk-dilemmaer, slik at emnets noe teoretiske natur lettere kan forstås. Et av de mest stemningsfulle områdene som på en levende måte presenterer dette etiske AI-kvandalet, er fremkomsten av AI-baserte ekte selvkjørende biler. Dette vil tjene som en praktisk brukssak eller eksempel for rikelig diskusjon om emnet.

Her er et bemerkelsesverdig spørsmål som er verdt å vurdere: Belyser fremkomsten av AI-baserte ekte selvkjørende biler noe om AI-relatert salting, og i så fall, hva viser dette?

Tillat meg et øyeblikk å pakke ut spørsmålet.

Først, merk at det ikke er en menneskelig sjåfør involvert i en ekte selvkjørende bil. Husk at ekte selvkjørende biler kjøres via et AI-kjøresystem. Det er ikke behov for en menneskelig sjåfør ved rattet, og det er heller ikke en bestemmelse om at et menneske kan kjøre kjøretøyet. For min omfattende og pågående dekning av autonome kjøretøy (AV) og spesielt selvkjørende biler, se lenken her.

Jeg vil gjerne forklare hva som menes når jeg refererer til ekte selvkjørende biler.

Forstå nivåene av selvkjørende biler

Som en avklaring er sanne selvkjørende biler de hvor AI kjører bilen helt alene, og det ikke er noen menneskelig assistanse under kjøreoppgaven.

Disse førerløse kjøretøyene regnes som nivå 4 og nivå 5 (se min forklaring på denne lenken her), mens en bil som krever en menneskelig sjåfør for å dele kjøreinnsatsen vanligvis vurderes på nivå 2 eller nivå 3. Bilene som deler kjøreoppgaven beskrives som semi-autonome, og inneholder vanligvis en rekke automatiserte tillegg som omtales som ADAS (Advanced Driver-Assistance Systems).

Det er ennå ikke en ekte selvkjørende bil på nivå 5, og vi vet ennå ikke engang om dette vil være mulig å oppnå, og heller ikke hvor lang tid det vil ta å komme dit.

I mellomtiden prøver nivå 4-innsatsen gradvis å få litt trekkraft ved å gjennomgå veldig smale og selektive offentlige kjørebaneprøver, selv om det er kontrovers om denne testen skal være tillatt i seg selv (vi er alle liv-eller-død marsvin i et eksperiment. som foregår på våre motorveier og motorveier, noen hevder, se dekning min på denne lenken her).

Siden semi-autonome biler krever en menneskelig sjåfør, vil ikke adopsjonen av disse typer biler være markant annerledes enn å kjøre konvensjonelle kjøretøyer, så det er ikke mye nytt per se å dekke om dem om dette emnet (skjønt, som du vil se på et øyeblikk er poengene som blir gjort neste, generelt anvendelige).

For semi-autonome biler er det viktig at publikum må varsles om et urovekkende aspekt som har oppstått i det siste, nemlig at til tross for de menneskelige sjåførene som fortsetter å legge ut videoer av seg som sovner ved rattet på en nivå 2 eller nivå 3-bil , vi alle trenger å unngå å bli villedet til å tro at sjåføren kan fjerne oppmerksomheten fra kjøreoppgaven mens han kjører en semi-autonom bil.

Du er den ansvarlige parten for kjøringen av kjøretøyet, uavhengig av hvor mye automatisering som kan kastes i et nivå 2 eller nivå 3.

Selvkjørende biler og AI Etikk Salting

For sanne selvkjørende kjøretøyer på nivå 4 og nivå 5 vil det ikke være en menneskelig sjåfør involvert i kjøreoppgaven.

Alle beboere vil være passasjerer.

AI driver kjøringen.

Et aspekt å umiddelbart diskutere innebærer det faktum at AI involvert i dagens AI-kjøresystemer ikke er viktig. Med andre ord, AI er helt en samling av databasert programmering og algoritmer, og absolutt ikke i stand til å resonnere på samme måte som mennesker kan.

Hvorfor er denne ekstra vekt om at AI ikke er følsom?

Fordi jeg vil understreke at når jeg diskuterer AI-kjøresystemets rolle, tilskriver jeg ikke menneskelige kvaliteter til AI. Vær oppmerksom på at det i disse dager er en pågående og farlig tendens til å antropomorfisere AI. I hovedsak tildeler folk menneskelig følsomhet til dagens AI, til tross for det ubestridelige og ubestridelige faktum at ingen slik AI eksisterer ennå.

Med den avklaringen kan du se for deg at AI-kjøresystemet ikke på en eller annen måte "vet" om fasettene ved kjøring. Kjøring og alt det innebærer må programmeres som en del av maskinvaren og programvaren til den selvkjørende bilen.

La oss dykke ned i de mange aspektene som kommer til å spille om dette emnet.

For det første er det viktig å innse at ikke alle AI selvkjørende biler er like. Hver bilprodusent og selvkjørende teknologifirma tar sin tilnærming til å utvikle selvkjørende biler. Som sådan er det vanskelig å komme med omfattende utsagn om hva AI-kjøresystemer vil gjøre eller ikke.

Når du sier at et AI -kjøresystem ikke gjør noen spesielle ting, kan dette senere bli forbikjørt av utviklere som faktisk programmerer datamaskinen til å gjøre akkurat det. Steg for steg blir AI -kjøresystemer gradvis forbedret og utvidet. En eksisterende begrensning i dag eksisterer kanskje ikke lenger i en fremtidig iterasjon eller versjon av systemet.

Jeg håper det gir en tilstrekkelig litani av forbehold til å ligge til grunn for det jeg skal fortelle.

La oss skissere et scenario som viser en AI-relatert saltingssituasjon.

En bilprodusent som streber mot utviklingen av helt autonome selvkjørende biler skynder seg videre med prøver på offentlige veier. Firmaet er under et stort press for å gjøre det. De blir overvåket av markedet, og hvis de ikke ser ut til å være i forkant av utviklingen av selvkjørende biler, lider deres aksjekurs tilsvarende. I tillegg har de allerede investert milliarder av dollar og investorer begynner å bli utålmodige etter den dagen selskapet kan kunngjøre at deres selvkjørende biler er klare for daglig kommersiell bruk.

En AI-utvikler følger nøye med på bilprodusentens innsats. Rapporterte tilfeller av at AI-kjøresystemet blir forvirret eller gjør feil blir stadig oftere sett i nyhetene. Ulike tilfeller inkluderer kollisjoner med andre biler, kollisjoner med syklister og andre uheldige hendelser.

Firmaet prøver generelt å holde denne hysj-hysj. AI-utvikleren har snakket privat med noen av ingeniørene i firmaet og lært at AI-etikk-forskriftene i beste fall bare blir gitt leppeservice. For min dekning om slike saker om å unngå etisk kunstig intelligens av bedrifter, se lenken her.

Hva skal denne AI-utvikleren gjøre?

De føler seg tvunget til å gjøre noe.

La oss gjøre litt puslespill og vurdere to veier som hver kan bli utført av denne AI-utvikleren.

En vei er at AI-utvikleren tar til media for å prøve å bringe frem i lyset den tilsynelatende mangelen på passende oppmerksomhet til AI-etikk-forskriftene fra bilprodusenten. Kanskje velger denne bekymrede AI-spesialisten å skrive blogger eller lage vlogger for å synliggjøre disse bekymringene. En annen mulighet er at de får et eksisterende medlem av AI-teamet til å bli en slags varslere, et tema jeg har dekket på lenken her.

Dette er definitivt en ansett utenforstående-tilnærming av denne AI-utvikleren.

En annen vei er at AI-utvikleren tror på sin magefølelse at de kanskje kan få gjort mer innenfra firmaet. Kompetansesettet til AI-utvikleren er godt innstilt på AI-fasetter som involverer selvkjørende biler, og de kan lett søke på de publiserte AI-ingeniørjobbene i selskapet. AI-utvikleren bestemmer seg for å gjøre det. Videre er drivkraften utelukkende konsentrert om å få bilprodusenten til å være mer seriøs med etisk kunstig intelligens. Jobben i seg selv betyr ikke noe særlig for denne AI-utvikleren, annet enn at de nå vil kunne jobbe overbevisende innenfra.

Det kan være at AI-utvikleren får jobben, men oppdager så at det er enorm intern motstand og målet om etisk AI er meningsløst. Personen forlater selskapet og bestemmer seg for å sikte på en annen bilprodusent som kanskje er mer villig til å forstå hva AI-utvikleren har som mål å oppnå. Nok en gang gjør de det for å oppnå AI-etikkbetraktningene og ikke for bærebjelken i hva AI-jobben består av.

konklusjonen

Forestillingen om å referere til disse AI-relaterte innsatsene som en form for salting vil garantert føre til at noen får halsbrann ved overbruk av en allerede etablert terminologi eller vokabular. Salting er ganske mye forankret i fagforeningsaktiviteter knyttet til arbeidskraft og næringsliv. Forsøk på å overbelaste ordet med disse andre typene tilsynelatende beslektede aktiviteter, selv om de er helt urelaterte til fagforeningsmessig karakter, er potensielt villedende og forvirrende.

Anta at vi kommer opp med en annen fraseologi.

Peppering?

Vel, det ser ikke ut til å fremkalle den samme følelsen som salting. Det ville vært en oppoverbakke kamp å prøve å få det fastsatt og inkludert i vårt daglige språkleksikon.

Uansett hva vi finner på, og hvilket navn eller slagord som virker passende, vet vi én ting med sikkerhet. Å prøve å få firmaer til å omfavne AI-etikk er fortsatt en kamp i oppoverbakke. Vi må prøve. Prøvingen må gjøres på de riktige måtene.

Det virker som om uansett hvilken side av gjerdet du faller på, må vi ta den formaningen med en passende klype salt.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/08/13/ai-ethics-flummoxed-by-those-salting-ai-ethicists-that-instigate-ethical-ai-practices/