AI-etikk og det truende debaklet når New York City-loven som krever revisjoner for AI-skjevheter kommer i gang

Noen ganger blir de beste intensjoner beklagelig knust av en alvorlig mangel på oppmerksomhet på detaljer.

Et godt eksempel på denne visdomsvisdommen er verdig å utforske.

Nærmere bestemt, la oss se nærmere på en ny lov i New York City angående kunstig intelligens (AI) som trer i kraft 1. januar 2023. Du kan lett vinne et betydelig veddemål på at all slags forvirring, bestyrtelse og problemer vil oppstå når loven trer i kraft. Selv om problemene ikke er av design, vil de utvilsomt oppstå som et resultat av en dårlig design eller i det minste en utilstrekkelig bestemmelse av nødvendige detaljer som enkelt burde og kunne vært utformet og eksplisitt angitt.

Jeg sikter til en lokal lov som ble vedtatt i fjor 11. desember 2021 i den ærverdige byen New York som etter planen skal tre i aksjon i begynnelsen av 2023. Vi er for øyeblikket bare noen måneder unna den store oppvåkningen som denne nye loven kommer til å røre på seg. Jeg skulle ønske at jeg kunne si at den ambisiøse loven sømløst kommer til å gjøre det den skal gjøre, nemlig å håndtere potensielle AI-skjevheter når det gjelder å ta ansettelsesbeslutninger. Akk, selv om intensjonen er prisverdig, vil jeg lede deg gjennom de gapende smutthullene, utelatelsene og mangelen på spesifisitet som vil undergrave denne loven og gjøre arbeidsgivere gale når de prøver å takle de utilsiktede, men likevel ganske ugunstige konsekvensene av den.

Du kan kanskje si at dette er den klassiske saken om å gå videre med en halvferdig plan. En aktet maksime tilskrevet Dwight Eisenhower var at en plan er ingenting mens planlegging er alt. Kort sagt, denne spesielle loven kommer til å gi et levende eksempel på hvordan lovgivere noen ganger kan komme til kort ved å unnlate å tenke gjennom på forhånd de nødvendige opplysningene slik at loven oppfyller dens prisverdige mål og kan vedtas på sikkert rimelige og forsvarlige måter.

Et debakel venter.

Unnskyldninger står allerede i kø.

Noen forståsegpåere har sagt at du aldri helt kan spesifisere en lov og må se den i aksjon for å vite hvilke aspekter av loven som må justeres (en generell truisme som blir vridd ut av proporsjoner i dette tilfellet). Videre argumenterer de heftig for at dette spesielt er tilfelle når det kommer til den nye nyheten av AI-relaterte lover. Pokker, formaner de, AI er høyteknologisk trolldom som vi ikke vet så mye om som lovgivere, derfor er logikken at det er bedre å ha noe på de juridiske sidene enn å ha ingenting der i det hele tatt.

På overflaten høres det absolutt overbevisende ut. Grav dypere, og du skjønner at det er potensielt tullete, inkludert og spesielt når det gjelder denne spesifikke loven. Denne loven kunne lett fastsettes mer behendig og fornuftig. Vi trenger ikke trylledrikker. Vi trenger ikke vente til det oppstår kaos. På det tidspunktet loven ble utformet, kunne riktig type formulering og detaljer vært etablert.

La oss også sørge for at den upassende, flytende ideen om at adopsjonsaspektene ikke kunne spåes på forhånd er smertelig absurd. Det er lovlig mumbo-jumbo håndvifting av det mest tomløse slaget. Det er mange allerede kjente betraktninger om håndtering av AI-skjevheter og gjennomføring av AI-revisjoner som lett kunne blitt kokt inn i denne loven. Det samme kan sies for enhver annen jurisdiksjon som vurderer å etablere en slik lov. Ikke la deg lure til å tro at vi bare må ty til blindt å kaste en lovlig pil i den ville vinden og lide kvaler. En haug av juridisk tenkning kombinert med en passende forståelse av AI er allerede mulig, og det er ikke nødvendig å bare gripe sugerør.

Jeg kan legge til at det fortsatt er tid til å få dette rettet opp. Klokken tikker fortsatt. Det kan være mulig å våkne før alarmklokkene begynner å ringe. De nødvendige rådene kan utledes og gjøres kjent. Tiden er knapp, så dette må prioriteres.

I alle fall, sørg for at du forstår vekten her.

Tillat meg å inderlig klargjøre at en slik lov angående AI-skjevheter har fortjeneste. Jeg skal forklare hvorfor et øyeblikk. Jeg vil også beskrive hvilke problemer det er med denne nye loven som mange vil si er den første noensinne som ble satt inn i de juridiske bøkene (andre varianter finnes, kanskje ikke helt som denne).

Du kan faktisk forvente at lignende lover gradvis vil tre i kraft over hele landet. En bemerkelsesverdig bekymring er at hvis dette New York City-first-mover-forsøket går dårlig, kan det føre til at resten av landet er på vakt mot å vedta slike lover. Det er ikke den rette leksjonen å lære. Den riktige lærdommen er at hvis du skal skrive en slik lov, gjør det fornuftig og med behørig omtanke.

Lover som er slengt inn i bøkene uten tilstrekkelig undersøkelse kan være ganske opprørende og skape alle slags nedstrømsvansker. I den forstand, vennligst ikke kast babyen ut med badevannet (et gammelt ordtak, burde sannsynligvis pensjoneres). Hovedsaken er at slike lover kan være genuint produktive og beskyttende når de er riktig sammensatt.

Akkurat denne kommer dessverre ikke til å gjøre det ut porten.

All slags panisk veiledning kommer garantert fra lovens aktører og håndhevere. Merk av i kalenderen din for slutten av januar og ut i februar 2023 for å følge med på hva som skjer. Fingerpeking kommer til å bli enormt intenst.

Ingen er spesielt squawking akkurat nå fordi loven ikke har landet ennå på hodet til arbeidsgivere som vil bli sonket av den nye loven. Tenk deg at dette er et metaforisk sett et slags jordskjelv som skal finne sted i åpningsukene i 2023. Få forbereder seg på jordskjelvet. Mange vet ikke engang at jordskjelvet allerede er ploppet inn på kalenderen. Når alt dette er sagt, så snart jordskjelvet inntreffer, vil mange svært forbløffede og sjokkerte bedrifter lure på hva som skjedde og hvorfor rotet måtte oppstå.

Alt dette har spesielt betydelige AI-etiske implikasjoner og gir et praktisk vindu til lærdom (selv før alle leksjonene skjer) når det kommer til å prøve å lovfeste AI. For min pågående og omfattende dekning av AI-etikk, kan Ethical AI, sammen med AI Law blant de juridiske fasettene av AI-styring, finnes på lenken her og lenken her, bare for å nevne noen.

Denne juridiske historien om elendighet er relatert til tidligere fremvoksende bekymringer om dagens AI og spesielt bruken av Machine Learning (ML) og Deep Learning (DL) som en form for teknologi og hvordan den blir brukt. Du skjønner, det er bruk av ML/DL som har en tendens til å innebære at AI blir antropomorfisert av allmennheten, ved å tro eller velge å anta at ML/DL enten er sansende AI eller nær (det er det ikke). I tillegg kan ML/DL inneholde aspekter ved beregningsmønstermatching som er uønskede eller direkte upassende, eller ulovlige fra etiske eller juridiske perspektiver.

Det kan være nyttig å først avklare hva jeg mener når jeg refererer til AI generelt og også gi en kort oversikt over Machine Learning og Deep Learning. Det er stor forvirring om hva kunstig intelligens betyr. Jeg vil også introdusere forskriftene til AI-etikk for deg, som vil være spesielt integrert i resten av denne diskursen.

Oppgi posten om AI

La oss sørge for at vi er på samme side om naturen til dagens AI.

Det er ingen AI i dag som er sansende.

Vi har ikke dette.

Vi vet ikke om sentient AI vil være mulig. Ingen kan med rette forutsi om vi vil oppnå sansende AI, og heller ikke om sansende AI på en eller annen måte mirakuløst spontant vil oppstå i en form for beregningsmessig kognitiv supernova (vanligvis referert til som The Singularity, se min dekning på lenken her).

Innse at dagens AI ikke er i stand til å "tenke" på noen måte på linje med menneskelig tenkning. Når du samhandler med Alexa eller Siri, kan samtalekapasiteten virke som menneskelig kapasitet, men realiteten er at den er beregningsmessig og mangler menneskelig erkjennelse. Den siste æraen av AI har gjort omfattende bruk av maskinlæring og dyp læring, som utnytter beregningsmønstermatching. Dette har ført til AI-systemer som ser ut som menneskelignende tilbøyeligheter. I mellomtiden er det ingen kunstig intelligens i dag som har et skinn av sunn fornuft, og heller ikke noe av den kognitive undringen til robust menneskelig tenkning.

En del av problemet er vår tendens til å antropomorfisere datamaskiner og spesielt AI. Når et datasystem eller AI ser ut til å handle på måter som vi forbinder med menneskelig atferd, er det en nesten overveldende trang til å tilskrive menneskelige egenskaper til systemet. Det er en vanlig mental felle som kan gripe tak i selv den mest uforsonlige skeptikeren til sjansene for å oppnå sansning.

Til en viss grad er det derfor AI-etikk og etisk AI er et så viktig tema.

Forskriftene til AI-etikk får oss til å være årvåkne. AI-teknologer kan til tider bli opptatt av teknologi, spesielt optimalisering av høyteknologi. De vurderer ikke nødvendigvis de større samfunnsmessige konsekvensene. Å ha en AI-etikk-tankegang og gjøre det integrert i AI-utvikling og feltarbeid er avgjørende for å produsere passende AI, inkludert vurderingen av hvordan AI-etikk blir tatt i bruk av firmaer.

I tillegg til å bruke AI-etiske forskrifter generelt, er det et tilsvarende spørsmål om vi bør ha lover som regulerer ulike bruk av AI. Nye lover blir slått rundt på føderalt, statlig og lokalt nivå som angår rekkevidden og arten av hvordan AI bør utformes. Arbeidet med å utarbeide og vedta slike lover er gradvis. AI-etikk fungerer i det minste som et betraktet stopp, og vil nesten helt sikkert til en viss grad bli direkte innlemmet i de nye lovene.

Vær oppmerksom på at noen hevder hardt at vi ikke trenger nye lover som dekker AI, og at våre eksisterende lover er tilstrekkelige. De advarer om at hvis vi vedtar noen av disse AI-lovene, vil vi drepe gullgåsen ved å slå ned på fremskritt innen AI som gir enorme samfunnsmessige fordeler. Se for eksempel min dekning på lenken her.

I tidligere spalter har jeg dekket de ulike nasjonale og internasjonale innsatsene for å lage og vedta lover som regulerer AI, se lenken her, for eksempel. Jeg har også dekket de ulike AI-etikkprinsippene og -retningslinjene som ulike nasjoner har identifisert og vedtatt, inkludert for eksempel FNs innsats som UNESCO-settet med AI-etikk som nesten 200 land vedtok, se lenken her.

Her er en nyttig nøkkelsteinsliste over etiske AI-kriterier eller egenskaper angående AI-systemer som jeg tidligere har utforsket nøye:

  • Åpenhet
  • Rettferdighet og rettferdighet
  • Ikke-ondsinnethet
  • Ansvar
  • Privatliv
  • godgjør
  • Frihet og autonomi
  • Stol
  • Bærekraft
  • Verdighet
  • Solidaritet

Disse AI-etikk-prinsippene er oppriktig ment å bli brukt av AI-utviklere, sammen med de som styrer AI-utviklingsinnsatsen, og til og med de som til slutt jobber med og utfører vedlikehold på AI-systemer. Alle interessenter gjennom hele livssyklusen for utvikling og bruk av kunstig intelligens anses innenfor rammen av å overholde de etablerte normene for etisk kunstig intelligens. Dette er et viktig høydepunkt siden den vanlige antagelsen er at "bare kodere" eller de som programmerer AI-en er underlagt AI-etikkens forestillinger. Som tidligere understreket her, krever det en landsby for å utvikle og sette i gang AI, og som hele landsbyen må være kjent med og overholde AI-etiske forskrifter.

La oss holde ting nede på jorden og fokusere på dagens beregningsbaserte ikke-følende AI.

ML/DL er en form for beregningsmønstermatching. Den vanlige tilnærmingen er at du samler data om en beslutningsoppgave. Du mater dataene inn i ML/DL-datamodellene. Disse modellene søker å finne matematiske mønstre. Etter å ha funnet slike mønstre, hvis det er funnet, vil AI-systemet bruke disse mønstrene når de møter nye data. Ved presentasjon av nye data brukes mønstrene basert på de "gamle" eller historiske dataene for å gi en gjeldende beslutning.

Jeg tror du kan gjette hvor dette er på vei. Hvis mennesker som har tatt de mønstrede avgjørelsene har inkorporert uheldige skjevheter, er sjansen stor for at dataene reflekterer dette på subtile, men betydelige måter. Maskinlæring eller Deep Learning beregningsmønstermatching vil ganske enkelt prøve å matematisk etterligne dataene tilsvarende. Det er ingen antydning av sunn fornuft eller andre sansende aspekter ved AI-laget modellering i seg selv.

Dessuten er det kanskje ikke sikkert at AI-utviklerne skjønner hva som skjer. Den mystiske matematikken i ML/DL kan gjøre det vanskelig å fjerne de nå skjulte skjevhetene. Du vil med rette håpe og forvente at AI-utviklerne vil teste for potensielt begravde skjevheter, selv om dette er vanskeligere enn det kan virke. Det er en solid sjanse for at selv med relativt omfattende testing vil det fortsatt være skjevheter innebygd i mønstertilpasningsmodellene til ML/DL.

Du kan litt bruke det berømte eller beryktede ordtaket om søppel-inn søppel-ut. Saken er at dette er mer beslektet med skjevheter-in som snikende blir tilført som skjevheter nedsenket i AI. Algoritmen beslutningstaking (ADM) til AI blir aksiomatisk full av ulikheter.

Ikke bra.

Jeg tror at jeg nå har satt scenen for tilstrekkelig å diskutere rollen til AI innenfor rubrikken stille slutte.

AI som brukes i ansettelsesbeslutninger

New York City-loven fokuserer på temaet ansettelsesbeslutninger.

Hvis du i det siste har prøvd å søke på en moderne jobb nesten hvor som helst på denne jorden, har du sannsynligvis møtt et AI-basert element i beslutningsprosessen for ansettelse. Selvfølgelig vet du kanskje ikke at det er der, siden det kan være gjemt bak kulissene og du ikke ville ha noen enkel måte å se at et AI-system hadde vært involvert.

En vanlig slagord som brukes for å referere til disse AI-systemene er at de blir vurdert Automatiserte verktøy for ansettelsesavgjørelse, forkortet AEDT.

La oss se hvordan NYC-loven definerte disse verktøyene eller appene som innebærer ansettelsesbeslutninger:

  • «Begrepet «automatisert ansettelsesbeslutningsverktøy» betyr enhver beregningsprosess, avledet fra maskinlæring, statistisk modellering, dataanalyse eller kunstig intelligens, som gir forenklet utdata, inkludert en poengsum, klassifisering eller anbefaling, som brukes til vesentlig å hjelpe eller erstatte skjønnsmessige beslutninger for å ta ansettelsesbeslutninger som påvirker fysiske personer. Begrepet «automatisert verktøy for ansettelsesbeslutninger» inkluderer ikke et verktøy som ikke automatiserer, støtter, bistår i vesentlig grad eller erstatter skjønnsmessige beslutningsprosesser og som ikke påvirker fysiske personer vesentlig, inkludert, men ikke begrenset til, et søppelpostfilter, brannmur, antivirusprogramvare, kalkulator, regneark, database, datasett eller annen kompilering av data” (NYC, Int 1894-2020, underkapittel 25, seksjon 20-870).

Jeg skal kort undersøke denne formuleringen siden den er avgjørende for hele lovens natur og omfang.

For det første, som jeg har sagt mange ganger i skriftene mine, består en av de vanskeligste hindringene når man skriver lover om AI av å prøve å definere hva AI betyr på en tilfredsstillende måte. Det er ingen enestående, lovlig skuddsikker standard som alle har landet på. Alle slags definisjoner finnes. Noen er nyttige, noen er ikke. Se mine analyser på lenken her.

Du kan bli fristet til å tro at det ikke spiller noen rolle hvordan vi kan definere AI. Beklager, men du tar feil om det.

Problemet er at hvis AI-definisjonen er vagt spesifisert i en gitt lov, tillater den de som utvikler AI å prøve å gå rundt loven ved tilsynelatende å hevde at programvaren eller systemet deres ikke er AI-infundert. De vil hevde med stor frimodighet at loven ikke gjelder programvaren deres. På samme måte kan noen som bruker programvaren også hevde at loven ikke gjelder dem fordi programvaren eller systemet de bruker faller utenfor AI-definisjonen angitt i loven.

Mennesker er så vanskelige.

En av de smarteste måtene å unngå å bli berørt av en lov du ikke liker, er å hevde at loven ikke gjelder deg. I dette tilfellet vil du forsøke å stykkevis fjerne definisjonen av AEDT. Målet ditt, forutsatt at du ikke vil at loven skal være på ryggen, ville være å juridisk argumentere for at definisjonen gitt i loven er feil av hva ditt arbeidsrelaterte datasystem er eller gjør.

En slik lov kan både hjelpes og til tider undergraves ved å med vilje inkludere ekskluderende bestemmelser i definisjonen.

Ta en ny titt på definisjonen av AEDT som angitt i denne loven. Du har forhåpentligvis observert at det er en ekskluderende klausul som sier "...ikke inkluderer et verktøy som ikke automatiserer, støtter, bistår eller erstatter skjønnsmessige beslutningsprosesser og som ikke påvirker fysiske personer i vesentlig grad ...".

På den ene siden er grunnlaget for å inkludere slik eksklusjon avgjort nyttig.

Det ser ut til å antyde (etter min lekmanns syn) at AEDT må gi et spesifikt formål og brukes på en reell måte. Hvis AEDT er, skal vi si overfladisk eller perifert, og hvis ansettelsesbeslutningen fortsatt er ganske menneskelig håndlaget, bør kanskje det brukte programvaresystemet ikke tolkes som en AEDT. Dessuten, hvis programvaren eller systemet ikke "materiell" påvirker fysiske personer (mennesker), så virker det ikke verdt å holde føttene til ilden, som det var.

Fornuftig nok vil du ikke at en lov skal overdrive omfanget og oppsluke alt inkludert kjøkkenvasken. Å gjøre det er i hovedsak urettferdig og tyngende for dem som loven ikke var ment å omfatte. De kan bli fanget opp i et myr som fungerer som et av disse fangstnettene. Antagelig bør lovene våre være forsiktige med å unngå å trekke uskyldige inn i lovens virkeområde.

Alt er vel og bra.

En kyndig advokat er nødt til å innse at en eksklusjonsklausul kan være et slags lovlig komme-ut-av-fengsel-kort (som en side, denne spesielle loven fastsetter sivile straffer, ikke straffestraff, så komme ut av fengselet bemerkning er bare metaforisk og for smakfull punchiness). Hvis noen skulle hevde at et selskap brukte en AEDT i ansettelsesbehandling, ville en av de første måtene å prøve å overvinne dette kravet være å hevde at den såkalte AEDT faktisk var i det ekskluderende området. Du kan prøve å vise at den såkalte AEDT ikke gjør det automatisere ansettelsesvedtaket, eller det gjør det ikke støtte ansettelsesvedtaket, eller det gjør det ikke hjelpe betydelig or erstatte skjønnsmessige beslutningsprosesser.

Du kan deretter gå den kronglete veien for å identifisere hva ordene "automatisere", "støtte", "vesentlig hjelpe" eller "erstatte" betyr i denne sammenhengen. Det er et ganske hendig lovlig kaninhull. En overbevisende sak kan gjøres for at programvaren eller systemet som påstås å være en AEDT er en del av ekskluderende indikasjoner. Derfor, ingen skade, ingen stygg, angående denne spesielle loven.

Det er klart at autoriserte advokater bør konsulteres for slike saker (ingen antydning av juridisk rådgivning er angitt her, og dette er helt og holdent et lekmannssyn).

Poenget mitt her er at det kommer til å bli slingringsmonn i denne nye loven. Slingringsrommet vil tillate noen arbeidsgivere som virkelig bruker en AEDT å kanskje finne et smutthull for å komme seg rundt AEDT-bruken. Den andre siden av den mynten er at det kan være firmaer som ikke virkelig bruker en AEDT som vil bli fanget av denne loven. Det kan fremsettes en påstand om at det de brukte faktisk var en AEDT, og de må finne et middel for å vise at deres programvare eller systemer falt utenfor AEDT og inn under den ekskluderende bestemmelsen.

Vi kan komme med denne dristige spådommen:

  • Det vil utvilsomt være arbeidsgivere som bevisst bruker en AEDT som potensielt vil prøve å gå ut av sitt juridiske ansvar.
  • Det vil uunngåelig være arbeidsgivere som ikke bruker en AEDT som henger seg fast i påstander om at de bruker en AEDT, noe som tvinger dem til å måtte gjøre en "ekstra" innsats for å vise frem at de ikke bruker en AEDT.

Jeg skal videre utdype disse tallrike permutasjonene og kombinasjonene når vi kommer videre i denne diskusjonen. Vi har mye mer terreng å trå.

Å bruke en AEDT i seg selv er ikke den delen av dette problemet som gir opphav til demonstrative bekymringer, det er hvordan AEDT utfører sine handlinger som får den juridiske irritasjonen til å strømme på. Poenget er at hvis AEDT kanskje også introduserer skjevheter knyttet til beslutningstaking i ansettelse, er du i potensielt varmt vann (vel, liksom).

Hvordan skal vi vite om en AEDT faktisk introduserer AI-ladede skjevheter i en arbeidsbeslutningsinnsats?

Svaret etter denne loven er at det skal gjennomføres en AI-revisjon.

Jeg har tidligere og ofte dekket arten av AI-revisjoner og hva de er, sammen med å notere eksisterende ulemper og dårlig definerte fasetter, som f.eks. lenken her og lenken her, blant mange andre lignende innlegg. Enkelt sagt er ideen at akkurat som du kan utføre en finansiell revisjon av et firma eller gjøre en teknologirevisjon relatert til et datasystem, kan du gjøre en revisjon på et AI-system. Ved hjelp av spesialiserte revisjonsteknikker, verktøy og metoder undersøker og vurderer du hva et AI-system består av, inkludert for eksempel å prøve å finne ut om det inneholder skjevheter av en eller annen art.

Dette er et voksende oppmerksomhetsområde.

Du kan forvente at dette underfeltet av revisjon som er viet til AI-revisjon vil fortsette å vokse. Det er lett tydelig at etter hvert som vi vil få flere og flere AI-systemer som slippes løs på markedet, og i sin tur vil det bli mer og mer krav om AI-revisjoner. Nye lover vil bidra til å utløse dette. Selv uten disse lovene, kommer det til å være AI-revisjoner i rikelig grad ettersom mennesker og selskaper hevder at de har blitt krenket av AI og vil forsøke å gi en håndgripelig dokumentert indikasjon på at skaden var tilstede og knyttet til AI-en som ble brukt.

AI-revisorer kommer til å bli hotte og etterspurte.

Det kan være en spennende jobb. Et kanskje spennende element innebærer å bli fordypet i det siste og beste innen AI. AI fortsetter å utvikle seg. Når dette skjer, må en skarpsinnet AI-revisor holde seg på tærne. Hvis du er en revisor som har blitt lei av å gjøre konvensjonelle revisjoner i hverdagen, gir den øyeåpnende alltid nye AI-revisjonsarenaen løftet (jeg sier dette for å delvis heve statusen til revisorer siden de ofte er de ukjente heltene som jobber i skyttergravene og har en tendens til å bli neglisjert for sine bestrebelser).

I tillegg har jeg vært sertifisert datasystemrevisor (en slik betegnelse er CISA) og har utført IT-revisjoner (Informasjonsteknologi) mange ganger over mange år, inkludert AI-revisjoner. Som oftest får du ikke den anerkjennelsen du fortjener for en slik innsats. Du kan sikkert gjette hvorfor. I det store og hele har revisorer en tendens til å finne ting som er feil eller ødelagt. I den forstand er de ganske hjelpsomme, selv om dette av noen kan oppfattes som dårlige nyheter, og budbringeren av dårlige nyheter er vanligvis ikke spesielt plassert på en pidestall.

Tilbake til saken.

Angående NYC-loven, her er hva loven sier om AI-revisjon og forsøk på å avdekke AI-skjevheter:

  • «Begrepet «bias revisjon» betyr en upartisk evaluering av en uavhengig revisor. Slik skjevhetsrevisjon skal omfatte, men ikke være begrenset til, testing av et automatisert ansettelsesbeslutningsverktøy for å vurdere verktøyets ulike innvirkning på personer av en hvilken som helst komponent 1-kategori som kreves rapportert av arbeidsgivere i henhold til underseksjon (c) i avsnitt 2000e-8 i tittelen. 42 i USAs kodeks som spesifisert i del 1602.7 av tittel 29 i koden for føderale forskrifter» (NYC, Int 1894-2020, underkapittel 25, seksjon 20-870).

Som en oppsummering, her er hvor vi er så langt med å pakke ut denne loven:

  • Loven dekker Automated Employment Decision Tools (AEDT)
  • En definisjon av sorter er inkludert for å identifisere hva en AEDT er
  • Definisjonen av AEDT nevner også ekskluderende bestemmelser
  • Hovedsaken er at loven ønsker å avsløre AI-skjevheter i AEDT
  • For å finne ut om AI-skjevheter er tilstede, må det gjøres en AI-revisjon
  • AI-revisjonen vil antagelig gjøre kjent eventuelle AI-skjevheter

Vi kan deretter grave litt mer inn i loven.

Her er hva en ansettelsesbeslutning består av:

  • "Begrepet 'ansettelsesbeslutning' betyr å screene kandidater for ansettelse eller ansatte for forfremmelse i byen" (NYC, Int 1894-2020, underkapittel 25, seksjon 20-870).

Legg merke til at det begrensende aspektet ved "byen" antyder at saken bare omhandler ansettelsesrelaterte omstendigheter i NYC. Det er også verdt å merke seg at en ansettelsesbeslutning som definert innebærer screening av kandidater, som er den vanlige konnotasjonen av det vi tenker på som en ansettelsesbeslutning, pluss at den også inkluderer forfremmelser.

Dette er en dobbel puslespill i den forstand at bedrifter må innse at de må være på toppen av hvordan deres AEDT (hvis de bruker en) blir brukt til innledende ansettelsesinnstillinger og også når de promoterer i firmaet. Du kan sannsynligvis gjette eller anta at mange firmaer ikke vil være helt klar over at kampanjeelementet også er innenfor denne rubrikken. De vil uunngåelig overse den ekstra konstruksjonen på egen risiko.

Jeg skal deretter gi et ekstra nøkkelutdrag av loven for å belyse essensen av det som blir tolket som ulovlig av denne loven:

  • "Krav til automatiserte ansettelsesbeslutningsverktøy. en. I byen skal det være ulovlig for en arbeidsgiver eller et arbeidsformidlingsbyrå å bruke et automatisert arbeidsbeslutningsverktøy for å screene en kandidat eller ansatt for en ansettelsesbeslutning med mindre: 1. Et slikt verktøy har vært gjenstand for en partisk revisjon utført ikke mer enn ett år før bruk av slikt verktøy; og 2. Et sammendrag av resultatene av den siste skjevhetsrevisjonen av et slikt verktøy, samt distribusjonsdatoen for verktøyet som slik revisjon gjelder for, er gjort offentlig tilgjengelig på nettsiden til arbeidsgiveren eller arbeidsformidlingen før bruk av slikt verktøy ...” (NYC, Int 1894-2020, underkapittel 25, seksjon 20-871). Det er flere underklausuler som du kanskje vil ta en titt på, hvis du er sterkt interessert i den juridiske formuleringen.

Skeptikere og kritikere har hevdet at dette virker noe lunt med hensyn til den ulovlige aktiviteten som blir kalt ut.

De sier at loven bare snevert og minimalt fokuserer på gjennomføre en AI-revisjon og formidling resultatene, snarere enn om AI-revisjonen oppdaget AI-skjevheter og hva om noen konsekvenser dette har hatt i å ta ansettelsesbeslutninger som faller inn under denne lovens virkeområde. I hovedsak er det tilsynelatende ulovlig å ikke velge å utføre en slik AI-revisjon (når det er aktuelt, som diskutert tidligere), pluss at det også er ulovlig i tilfellet hvis du utfører AI-revisjonen, men gjør ikke offentliggjøre det.

Loven virker taus på spørsmålet om AI-skjevheter ble oppdaget og tilstede eller ikke. Likeledes, taushet om hvorvidt AI-bias påvirket noen relatert til en fremtredende sysselsettingsbeslutningsaktivitet. Nøkkelen er å tilsynelatende "bare" gjennomføre en AI-revisjon og fortelle om det.

Går ikke denne loven langt nok?

En del av motargumentet for å hevde at dette tilsynelatende er tilfredsstillende med hensyn til rekkevidden eller omfanget av det denne loven omfatter, er at hvis en AI-revisjon finner AI-skjevheter, og hvis disse AI-skjevhetene er knyttet til bestemte ansettelsesbeslutningsinstanser, vil personen eller personer som er skadet vil være i stand til å forfølge arbeidsgiveren under annen lover. Det er derfor ikke nødvendig å inkludere dette aspektet i denne spesielle loven.

Denne loven skal angivelig bringe slike saker frem i lyset.

Når dagens lys er kastet over disse uheldige praksisene, kan alle slags andre juridiske veier forfølges hvis AI-skjevheter er eksisterende og påvirker folk. Uten denne loven går argumentet at de som bruker AEDT-er ville gjort det mens de muligens løper amok og har potensielt tonnevis av AI-skjevheter, som de som søker arbeid eller de som søker forfremmelse ikke ville vite at det finner sted.

Ta dem til overflaten. Få dem til å fortelle. Kom deg under panseret. Se hva som er inne i den motoren. Det er mantraet i dette tilfellet. Ut fra dette dukker opp og forteller, kan ytterligere handlinger utføres.

I tillegg til å søke rettslige skritt som et resultat av å belyse at en AI-revisjon kanskje har rapportert at AI-skjevheter var til stede, er det også troen på at publisering av disse resultatene vil få omdømmemessige konsekvenser. Arbeidsgivere som blir vist frem som bruker AEDT-er som har AI-skjevheter, vil sannsynligvis lide sosiale vrede, for eksempel via sosiale medier og lignende. De vil bli avslørt for sin ugudelige handling og skammet seg over å korrigere oppførselen deres, og kan også finne seg selv berøvet folk som søker å jobbe der på grunn av betenkeligheter med at AI-fordommer hindrer ansettelse eller tilraner seg forfremmelser.

De oppgitte straffene knyttet til å være ulovlig er disse:

  • «Straff. en. Enhver person som bryter en bestemmelse i dette underkapittelet eller en regel kunngjort i henhold til dette underkapittelet er ansvarlig for en sivil straff på ikke mer enn $500 for et første brudd og hvert ytterligere brudd som skjer på samme dag som det første bruddet, og ikke mindre enn $500 eller mer enn $1,500 for hvert påfølgende brudd» (NYC, Int 1894-2020, underkapittel 25, seksjon 20-872). Det er flere underklausuler som du kanskje vil ta en titt på, hvis du er sterkt interessert i den juridiske formuleringen.

Skeptikere og kritikere hevder at straffene ikke er harde nok. Et stort firma skulle visstnok håne eller le av de minimale dollarbøtene som var involvert. Andre påpeker at boten kan ende opp med å bli mer enn det man ser, slik at hvis et firma skulle ha tusen dollar med brudd hver dag (bare ett scenario, det er mange andre scenarier), vil et års verdi være rundt 365,000 XNUMX dollar, forutsatt at firmaet rett og slett ignorerte loven i et helt år og slapp unna med å gjøre det (synes vanskelig å forestille seg, men kan skje, og kan til og med skje lenger eller for en høyere kulminasjon av dagbøter, i teorien).

I mellomtiden er noen bekymret for mindre virksomheter og de tilhørende bøtene. Hvis en liten bedrift som knapt får endene til å møtes, blir rammet av bøtene, og angivelig ikke gjorde det av en bevisst motivasjon for å omgå loven, kan bøtene påvirke deres vekselvirksomhet i vesentlig grad.

Keystone-problematiske vurderinger

Jeg har et enkelt og greit spørsmål til deg.

I sammenheng med denne loven, hva utgjør egentlig en AI-revisjon?

Problematisk er det ingen definitiv indikasjon innenfor lovens narrativ. Alt vi ser ut til å bli fortalt er at "biasrevisjonen" skal utføres via "en upartisk evaluering av en uavhengig revisor" (i henhold til lovens ordlyd).

Du kan kjøre en Mac-lastebil gjennom det gapende hullet.

Her er hvorfor.

Tenk på dette ganske foruroligende eksempelet. En svindler kontakter et firma i NYC og forklarer at de leverer en tjeneste slik at de vil gjøre en såkalt "bias revisjon" av AEDT. De lover at de vil gjøre det "upartisk" (hva nå enn det betyr). De fremholder seg selv som en uavhengig revisor, og de har salvet seg som en. Ikke behov for noen form for regnskaps- eller revisjonstrening, grader, sertifiseringer eller noe lignende. Kanskje de gjør seg bryet med å skrive ut noen visittkort eller raskt sette opp et nettsted som viser deres uavhengige revisors stilling.

De vil belaste firmaet med et beskjedent gebyr på for eksempel $100. Tjenesten deres består i å kanskje stille noen spørsmål om AEDT og deretter proklamere at AEDT er partisk. De sender deretter en rapport som er én side stor og deklarerer «resultatene» av den såkalte revisjonen. Firmaet legger pliktoppfyllende ut dette på nettsiden sin.

Har firmaet overholdt denne loven?

Fortell meg.

Ser ut som de har det.

Du kan umiddelbart bli overrasket over at revisjonen ble utført på en overfladisk måte (det er å være høflig og sjenerøs i dette spesielle scenariet). Du kan bli forstyrret over at skjevhetsdeteksjonen (eller mangelen på den) kanskje i hovedsak var forhåndsbestemt (voila, du ser ut til å være bias-fri). Du kan være opprørt over at de publiserte resultatene kan gi en aura av å ha bestått en streng revisjon av en erfaren, trent, erfaren, sertifisert revisor.

Ja, det gjør om størrelsen ting opp.

En arbeidsgiver kan være lettet over at de fikk fullført dette "tullete" kravet og forbannet glad for at det bare kostet dem sølle 100 dollar. Arbeidsgiveren innser kanskje internt og stille at den uavhengige revisjonen var en charade, men det er tilsynelatende ikke på deres skuldre å bestemme. De ble presentert for en påstått uavhengig revisor, revisor gjorde arbeidet som revisor sa var i samsvar, firmaet betalte for det, de fikk resultatene, og de la ut resultatene.

Noen arbeidsgivere vil gjøre dette og innse at de følger loven. Ikke desto mindre vil de tro at de er fullstendig kompatible.

Andre arbeidsgivere kan bli lurt. Alt de vet er behovet for å overholde loven. Heldigvis for dem (eller slik de antar), kontakter en "uavhengig revisor" dem og lover at en klagerevisjon og et resultat kan fås for $100. For å unngå å få den daglige boten på $500 eller mer, tror firmaet at de har fått en gave fra himmelen. De betaler $100, "revisjonen" finner sted, de får en gratis helseerklæring angående deres mangel på AI-fordommer, de legger ut resultatene, og de glemmer dette til neste gang de må gjøre en ny slik revisjon .

Hvordan skal ethvert firma i NYC som er underlagt denne loven, vite hva som er god overholdelse av loven?

I tilfelle du ikke allerede har en viss pirring i magen, kan vi gjøre ting verre. Jeg håper du ikke har spist et måltid de siste timene siden neste vri vil være vanskelig å holde intakt.

Er du klar?

Denne falske tjenesteleverandøren viser seg å være mer en shammer enn du kanskje hadde trodd. De får firmaet til å registrere seg for $100-tjenesten for å utføre den upartiske bias-revisjonen som en uavhengig revisor. Se, de gjør "revisjonen" og oppdager at det er skjevheter i hver krok og hjørne av AEDT.

De har AI-skjevheter som en kakerlakkangrep.

Jepp, sier firmaet, hva kan vi gjøre med det?

Ikke noe problem, blir de fortalt, vi kan fikse disse AI-biasene for deg. Det vil koste deg bare $50 per hver slik skjevhet som ble funnet. Ok, sier firmaet, vær så snill å fikse dem, takk for at du gjorde det. Tjenesteleverandøren gjør litt koding og forteller firmaet at de fikset hundre AI-bias, og derfor vil belaste dem $5,000 (det er $50 per AI-bias som skal fikses, multiplisert med 100 funnet).

Ouff, firmaet føler seg klemt, men det er fortsatt bedre enn å møte bruddet på $500 eller mer per dag, så de betaler den "uavhengige revisoren" og får deretter en ny rapport som viser at de nå er partiske. Dette legger de stolt ut på nettsiden sin.

Lite vet de at dette var en svindler, en svindel, en svindel.

Du kan insistere på at denne tjenesteleverandøren skal straffes for lureri. Å fange og stoppe disse trikserne kommer til å bli mye vanskeligere enn du kanskje forestiller deg. Akkurat som å gå etter de utenlandsbaserte prinsene som har en formue for deg, sannsynligvis befinner seg i et fremmed land utenfor rekkevidden av amerikansk lov, kan det samme skje i dette tilfellet også.

Forvent at det vil dukke opp en hyttenæring på grunn av denne nye loven.

Det vil være godtroende revisorer som søker å tilby disse tjenestene. Bra for dem. Det vil være skissemessige revisorer som går etter dette arbeidet. Det vil være falskt utropte revisorer som går etter dette arbeidet.

Jeg nevnte at tjenesteleverandørscenarioet innebar å be om $100 for å utføre den såkalte AI-revisjonen. Det var bare en oppdiktet plassholder. Kanskje noen vil belaste $10 (virker uklar). Kanskje noen $50 (fortsatt skissert). Etc.

Anta at en tjenesteleverandør sier at det vil koste 10,000 XNUMX dollar å gjøre jobben.

Eller $100,000 XNUMX for å gjøre det.

Muligens $1,000,000 XNUMX XNUMX for å gjøre det.

Noen arbeidsgivere vil ikke ha noen anelse om hvor mye dette kan eller bør koste. Markedsføringen av disse tjenestene kommer til å være gratis for alle. Dette er en lov for å tjene penger for de som lovlig utfører disse tjenestene, og en pengeskaper for de som også blir underhendt i å gjøre det. Det vil være vanskelig å vite hvilken som er hvilken.

Jeg vil også be deg tenke på et annet gapende hull.

I sammenheng med denne loven, hva utgjør egentlig en AI-bias?

Bortsett fra omtalen av USAs føderale regelverk (dette svarer ikke spesielt på spørsmålet om AI-skjevheter og fungerer ergo ikke som et stopp eller løser i saken), ville du bli hardt presset til å hevde at denne nye lov gir noen materiell indikasjon på hva AI-skjevheter er. Nok en gang vil dette være helt åpent for vidt forskjellige tolkninger, og du vil ikke spesielt vite hva som ble søkt etter, hva som ble funnet, og så videre. Arbeidet som utføres av selv bona fide AI-revisorer vil nesten sannsynligvis være uforlignelig med andre, slik at hver av dem vil ha en tendens til å bruke sine proprietære definisjoner og tilnærminger.

Kort sagt, vi kan se med beven og bekymring for hva arbeidsgivere vil møte som et resultat av denne løsaktige, men velmente loven:

  • Noen arbeidsgivere vil kjenne til loven og følge oppriktig og fullt ut etter beste evne
  • Noen arbeidsgivere vil vite om loven og marginalt overholde den slankeste, billigste og muligens ubehagelige veien de kan finne eller som kommer til dørstokken deres
  • Noen arbeidsgivere vil vite om loven og tro at de ikke er innenfor lovens virkeområde, så de vil ikke gjøre noe med det (selv om det viser seg at de kan være innenfor virkeområdet)
  • Noen arbeidsgivere vil vite om loven og bestemme seg for å ignorere den, kanskje de tror at ingen vil legge merke til det eller at loven ikke vil bli håndhevet, eller at loven vil bli funnet å være uhåndhevbar, etc.
  • Noen arbeidsgivere vil ikke vite om loven og vil bli tatt på flatfot, og strever etter å overholde
  • Noen arbeidsgivere vil ikke vite om loven og vil i elendig fall bli flådd av svindlere
  • Noen arbeidsgivere vil ikke vite om loven, de er ikke innenfor virkeområdet, men de blir likevel flådd av svindlere som overbeviser dem om at de er innenfor rammen
  • Noen arbeidsgivere vil ikke vite om loven og vil ikke gjøre noe med det, mens de på mirakuløst vis aldri blir tatt eller svirret for deres tilsyn
  • Annen

En avgjørende faktor å huske på er omfanget eller skaleringen knyttet til denne nye loven.

I følge ulike rapporterte statistikker angående antall virksomheter i New York City, er antallet vanligvis angitt som et sted rundt 200,000 XNUMX eller så bedrifter (la oss bruke det som en størrelsesorden). Forutsatt at dette er en rimelig tilnærming, er antagelig de virksomhetene som arbeidsgivere underlagt denne nye loven. Ta derfor de ovennevnte flere måtene som arbeidsgivere kommer til å reagere på denne loven og overvei hvor mange som vil være i hver av de forskjellige bøttene som jeg nettopp har nevnt.

Det er et ganske svimlende skaleringsproblem.

I tillegg, ifølge rapportert statistikk, er det kanskje 4 millioner jobber i privat sektor i New York City, pluss et estimert antall på 300,000 XNUMX eller så offentlige ansatte ansatt av NYC-regjeringen (igjen, bruk de som størrelsesordener i stedet for nøyaktige tellinger). Hvis du tar i betraktning at nyansettelser tilsynelatende er innenfor rammen av denne nye loven, sammen med forfremmelser knyttet til alle de eksisterende og fremtidige arbeiderne, er antallet ansatte som på en eller annen måte vil bli berørt av denne loven, ærlig talt forbløffende .

The Big Apple har en ny lov som ved første øyekast ser ut til å være ufarlig og tilsynelatende ubetydelig eller dagligdags, men når du innser skaleringsfaktorene som er involvert, kan det få hodet til å snurre

konklusjonen

Jeg nevnte i begynnelsen av denne diskusjonen at dette er en velment ny lov.

Alt jeg nettopp har beskrevet som potensielle smutthull, utelatelser, hull, problemer og lignende, kunne lett forutses. Dette er ikke rakettvitenskap. Jeg kan legge til at det er enda flere iboende bekymringer og forvirrende aspekter ved denne loven som jeg på grunn av plassbegrensninger her ikke har ropt opp.

Du kan finne dem like lett som du kan skyte fisk i en tønne.

Lover av denne typen bør utformes nøye for å prøve å forhindre denne typen lumske slutter. Jeg antar at de seriøse komponistene søkte å skrive en lov som de mente var relativt jernkledd og kanskje i verste fall ville få noen små små drypp her eller der. Dessverre er det en brannslange av drypp. Mye gaffatape kommer til å være nødvendig.

Kunne loven vært skrevet på en mer belyst måte for å lukke disse ganske tilsynelatende smutthullene og tilhørende problemstillinger?

Ja, rikelig.

Nå, når det er tilfelle, kan du indignert formane at en slik lov utvilsomt vil være mye lengre. Det er alltid en avveining av å ha en lov som fortsetter og fortsetter, blir uhåndterlig, versus å være kortfattet og kompakt. Du ønsker imidlertid ikke å oppnå kortfattethet ved å miste det som ville være materiell og fortjenstfull klarhet og spesifisitet. En kort lov som åpner for skjellsord er rik på problemer. En lengre lov, selv om den tilsynelatende er mer kompleks, vil vanligvis være en verdig avveining hvis den unngår, avverger eller i det minste minimerer nedstrømsproblemer under adopsjonsstadiet.

Saint Augustine sa berømt: "Det virker for meg at en urettferdig lov ikke er noen lov i det hele tatt."

Vi kan gi en konsekvens av at en rettferdig lov som er sammensatt av problematisk språk, er en lov som tigger om å produsere dystre problemer. I dette tilfellet ser vi ut til å sitte igjen med den store juristen Oliver Wendell Holmes Jr.s kloke ord, nemlig at en side med historie er verdt et halvt kilo logikk.

Følg med da historien snart er i ferd med å bli laget.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/09/23/ai-ethics-and-the-looming-debacle-when-that-new-york-city-law-requiring-ai- skjevheter-revisjon-sparker-i-gir/