Her er hvorfor bedrifter har et svulstig kjærlighet-hat-forhold til AI-etikkstyrer

Bør en virksomhet etablere et AI-etikkråd?

Du kan bli overrasket over å vite at dette ikke er et enkelt ja-eller-nei-svar.

Før jeg kommer inn på kompleksiteten som ligger til grunn for fordeler og ulemper ved å sette på plass et AI Ethics Advisory Board, la oss sørge for at vi alle er på samme side om hva et AI Ethics Advisory Board består av og hvorfor det har steget til overskriftsnivå prominens.

Som alle vet, har kunstig intelligens (AI) og den praktiske bruken av AI til forretningsaktiviteter gått gjennom taket som et must-have for moderne bedrifter. Du ville bli hardt presset til å argumentere noe annet. Til en viss grad har infusjonen av AI gjort produkter og tjenester bedre, pluss til tider ført til lavere kostnader forbundet med å tilby nevnte produkter og tjenester. En kjekk liste over effektivitet og effektivitetsøkninger kan potensielt tilskrives den fornuftige og passende bruken av AI. Kort sagt, tillegg eller utvidelse av det du gjør ved å inkorporere AI kan være et ganske lønnsomt forslag.

Det er også det skal vi si stor sprut som følger med å legge til AI i bedriftens bestrebelser.

Bedrifter er høylytte og stolte over bruken av kunstig intelligens. Hvis AI tilfeldigvis også forbedrer varene dine, er det flott. I mellomtiden er påstander om bruk av AI tilstrekkelig oppsiktsvekkende til at du stort sett kan gjøre de samme tingene som du gjorde før, men samtidig tjene mye mer penger ved å kaste rundt banneret til AI som en del av forretningsstrategien din og ut- døren varer.

Det siste punktet om noen ganger å lure litt om hvorvidt AI virkelig blir brukt, får oss til å gå inn på arenaen for AI-etikk. Det er alle slags direkte falske påstander om AI fra bedrifter. Enda verre består kanskje av å bruke AI som viser seg å være den såkalte AI for Bad.

For eksempel har du utvilsomt lest om de mange tilfellene av AI-systemer som bruker Machine Learning (ML) eller Deep Learning (DL) som har inngrodde rasemessige skjevheter, kjønnsskjevheter og annen utilbørlig upassende diskriminerende praksis. For min pågående og omfattende dekning av disse sakene knyttet til uønsket AI og fremveksten av skrikende krav om AI-etikk og etisk AI, se lenken her og lenken her, bare for å nevne noen få.

Så vi har disse sure driverne skjult i den tilsynelatende rosenrøde AI-bruken av bedrifter:

  • Hule påstander om å bruke AI når det faktisk ikke er noen AI eller ubetydelig AI-infusjon
  • Falske påstander om bruk av kunstig intelligens som er utformet for å villede
  • Utilsiktet inkludering av AI som viser seg å gi upassende skjevheter og er diskriminerende
  • Målrettet formet AI for å forkynne dårlige skjevheter og avskyelige diskriminerende handlinger
  • Annen

Hvordan oppstår denne typen tankeløs eller skammelig praksis i bedrifter?

En bemerkelsesverdig brikke i puslespillet er mangelen på AI-etikkbevissthet.

Toppledere er kanskje ikke klar over selve ideen om å utvikle AI som følger et sett med etiske AI-forskrifter. AI-utviklerne i et slikt firma kan ha en viss bevissthet om saken, selv om de kanskje bare er kjent med AI-etikkteorier og ikke vet hvordan de skal bygge bro over gapet i den daglige AI-utviklingen. Det er også omstendighetene til AI-utviklere som ønsker å omfavne AI-etikk, men som deretter får et sterkt tilbakeslag når ledere og ledere tror at dette vil bremse deres AI-prosjekter og øke kostnadene ved å utvikle AI.

Mange toppledere innser ikke at mangel på overholdelse av AI-etikk sannsynligvis vil ende opp med å sparke dem og selskapet i ryggen etter utgivelsen av AI, som er fylt med vanskelige og helt stygge problemer. Et firma kan bli fanget med dårlig kunstig intelligens i sin midte som så sørgelig undergraver firmaets ellers lenge opparbeidede omdømme (omdømme risiko). Kunder kan velge å ikke lenger bruke selskapets produkter og tjenester (tapsrisiko for kunder). Konkurrenter kan utnytte denne feilen (konkurranserisiko). Og det er mange advokater klare til å hjelpe de som har blitt overtrådt, med sikte på å reise heftige søksmål mot firmaer som har tillatt råtten AI inn i selskapets varer (juridisk risiko).

Kort sagt, ROI (avkastning på investering) for å gjøre passende bruk av AI-etikk er nesten helt sikkert mer fordelaktig enn sammenlignet med nedstrømskostnadene forbundet med å sitte på toppen av en stank av dårlig AI som ikke burde vært utviklet eller utgitt.

Det viser seg at ikke alle har fått det notatet, for å si det sånn.

AI-etikk får bare gradvis gjennomslag.

Noen mener at lovens lange arm uunngåelig kan være nødvendig for ytterligere å inspirere til å ta i bruk etiske AI-tilnærminger.

I tillegg til å bruke AI-etiske forskrifter generelt, er det et tilsvarende spørsmål om vi bør ha særegne lover for å styre ulike utviklinger og bruk av AI. Nye lover blir faktisk slått rundt på internasjonalt, føderalt, statlig og lokalt nivå som angår rekkevidden og arten av hvordan AI bør utformes. Arbeidet med å utarbeide og vedta slike lover er avmålt. AI-etikk fungerer i det minste som et betraktet stopp, og vil nesten helt sikkert til en viss grad bli direkte innlemmet i de nye lovene.

Vær oppmerksom på at noen hevder hardt at vi ikke trenger nye lover som dekker AI, og at våre eksisterende lover er tilstrekkelige. Faktisk varsler de at hvis vi vedtar noen av disse AI-lovene, vil vi drepe gullgåsen ved å slå ned på fremskritt innen AI som gir enorme samfunnsmessige fordeler. Se for eksempel min dekning på lenken her og lenken her.

La oss sørge for at vi alle er på samme side om hva det grunnleggende om AI-etikk inneholder.

I spaltedekningen min har jeg tidligere diskutert ulike kollektive analyser av AI-etikkprinsipper, som denne vurderingen på lenken her, som tilbyr en nyttig nøkkelsteinsliste over etiske AI-kriterier eller egenskaper angående AI-systemer:

  • Åpenhet
  • Rettferdighet og rettferdighet
  • Ikke-ondsinnethet
  • Ansvar
  • Privatliv
  • godgjør
  • Frihet og autonomi
  • Stol
  • Bærekraft
  • Verdighet
  • Solidaritet

Disse AI-etikk-prinsippene er oppriktig ment å bli brukt av AI-utviklere, sammen med de som styrer AI-utviklingsinnsatsen, og til og med de som til slutt jobber med og utfører vedlikehold på AI-systemer.

Alle interessenter gjennom hele livssyklusen for utvikling og bruk av kunstig intelligens anses innenfor rammen av å overholde de etablerte normene for etisk kunstig intelligens. Dette er et viktig høydepunkt siden den vanlige antagelsen er at "bare kodere" eller de som programmerer AI-en er underlagt AI-etikkens forestillinger. Det kreves en landsby for å utforme og sette i gang AI, og som hele landsbyen må være kjent med og overholde AI-etiske forskrifter.

Et middel for å prøve å introdusere og opprettholde vedvarende oppmerksomhet angående bruken av AI-etikk-forskriftene kan delvis gjennomføres ved å etablere et AI-etikkråd.

Vi vil pakke ut fasettene i AI Ethics Advisory Board neste gang.

AI-etikktavler og hvordan du gjør dem riktig

Bedrifter kan være på forskjellige stadier av AI-adopsjon, og likeledes på forskjellige stadier av å omfavne AI-etikk.

Se for deg et selskap som ønsker å komme i gang med AI Ethics-omfavnelse, men som ikke er sikker på hvordan det skal gjøres. Et annet scenario kan være et firma som allerede har drevet med AI-etikk, men som virker usikker på hva som må gjøres for å fremme innsatsen. Et tredje scenario kan være et firma som aktivt har utviklet og brukt AI og internt har gjort mye for å legemliggjøre AI-etikk, selv om de innser at det er en sjanse for at de går glipp av annen innsikt, kanskje på grunn av intern gruppetenkning.

For alle disse scenariene kan det være fornuftig å sette på plass et AI-etikkråd.

Forestillingen er ganske grei (vel, for å presisere, den generelle oppfatningen er den velkjente toppen av isfjellet, og djevelen er helt sikkert i detaljene, som vi et øyeblikk vil dekke).

Et AI-etikkrådgivningsråd består vanligvis av primært eksterne rådgivere som blir bedt om å tjene i et spesielt rådgivende styre eller utvalg for firmaet. Det kan også være noen interne deltakere inkludert i styret, men ideen er vanligvis å skaffe rådgivere fra utenfor firmaet, og det kan gi et semi-uavhengig perspektiv på hva selskapet gjør.

Jeg sier semi-uavhengig siden det utvilsomt vil være noen potensielle uavhengighetskonflikter som kan oppstå med de utvalgte medlemmene av AI Ethics Advisory Board. Hvis firmaet betaler rådgiverne, reiser det det åpenbare spørsmålet om de betalte medlemmene føler seg avhengige av firmaet for en lønnsslipp eller at de kan være urolige for å kritisere gavehesten de har i hånden. På den annen side er bedrifter vant til å bruke eksterne betalte rådgivere for alle slags vurderte uavhengige meninger, så dette er litt vanlig og forventet uansett.

AI Ethics Advisory Board blir vanligvis bedt om å møtes med jevne mellomrom, enten personlig eller på virtuell ekstern basis. De brukes som klangbunn av firmaet. Oddsen er også at medlemmene får ulike interne dokumenter, rapporter og notater om arbeidet som pågår knyttet til AI i firmaet. Spesielle medlemmer av AI Ethics Advisor Board kan bli bedt om å delta på interne møter som passer deres spesifikke ekspertise. Etc.

Foruten å kunne se hva som skjer med AI i firmaet og gi friske øyne, har AI Ethics Advisory Board vanligvis en dobbel rolle som å være en ekstern-til-inn-leverandør av det siste innen AI og Ethical AI. Interne ressurser har kanskje ikke tid til å grave inn i hva som skjer utenfor firmaet, og ergo kan få skarpt fokuserte og skreddersydde, state-of-the-art synspunkter fra AI Ethics rådgivende styremedlemmer.

Det er også innsiden til utsiden av et AI Ethics Advisory Board også.

Dette kan være vanskelig.

Konseptet er at AI Ethics Advisory Board brukes til å la omverdenen få vite hva firmaet gjør når det kommer til AI og AI Ethics. Dette kan være nyttig som et middel til å styrke omdømmet til firmaet. De AI-infunderte produktene og tjenestene kan oppfattes som mer pålitelige på grunn av det gyldne godkjenningsstempelet fra AI Ethics Advisory Board. I tillegg kan oppfordringer om at firmaet skal gjøre mer med etisk AI bli noe avsløret ved å påpeke at et AI-etikkråd allerede benyttes av selskapet.

Spørsmål som vanligvis blir brakt til et AI Ethics Advisory Board av firmaet som bruker en slik mekanisme inkluderer ofte:

  • Bør firmaet bruke kunstig intelligens for et bestemt produkt eller en bestemt tjeneste, eller virker det for urovekkende?
  • Tar firmaet hensyn til hele spekteret av AI-etikk i sin AI-innsats?
  • Har firmaet falt inn i gruppetenkning og blitt uvillig eller ute av stand til å se potensielt forstyrrende AI-etikk-fall som venter på denne innsatsen?
  • Hva slags nyeste tilnærminger til AI-etikk bør firmaet forsøke å ta i bruk?
  • Ville det være mulig å gi ekstern anerkjennelse for vår AI-etikkinnsats og forpliktelsen til dette?
  • Annen

Å benytte seg av et rådgivende råd for AI-etikk er absolutt fornuftig, og firmaer har i økende grad marsjert nedover denne veien.

Vær oppmerksom på at det er en annen side ved denne mynten.

På den ene siden av medaljen kan AI-etikkrådgivningen være det nest beste siden oppskåret brød. Ikke overse den andre siden av mynten, de kan også være en monumental hodepine, og du kan angre på at du gikk inn i dette vanskelige territoriet (som du vil se i denne diskusjonen, kan ulempene håndteres, hvis du vet hva du gjør).

Bedrifter begynner å innse at de kan finne seg selv i en vanskelig sak når de velger å gå AI Ethics Advisory Board-veien. Du kan hevde at denne manipulasjonen er litt beslektet med å leke med ilden. Du skjønner, ild er et veldig kraftig element som du kan bruke til å lage mat, beskytte deg mot rovdyr mens du er i villmarken, holde deg varm, bringe frem lys og gi en rekke nyttige og viktige fordeler.

Brann kan også brenne deg hvis du ikke er i stand til å håndtere det godt.

Det har vært forskjellige nyhetsoverskrifter i nyere tid som levende viser de potensielle farene ved å ha et rådgivende råd for AI-etikk. Hvis et medlem oppsummert bestemmer seg for at de ikke lenger tror at firmaet gjør de riktige etiske AI-aktivitetene, kan det misfornøyde medlemmet slutte med et stort humør. Forutsatt at personen sannsynligvis er godt kjent innen AI-feltet eller industrien, vil hoppeskipet deres garantert fange bred medieoppmerksomhet.

Et firma må da gå i forsvar.

Hvorfor forlot medlemmet?

Hva driver bedriften ondskapsfullt med?

Noen firmaer krever at medlemmene av AI Ethics Advisory Board signerer NDAer (non-disclosure agreements), som tilsynelatende vil beskytte firmaet hvis medlemmet bestemmer seg for å gå "rogue" og kaste selskapet. Problemet er imidlertid at selv om personen forblir relativt taus, er det likevel en sannsynlig erkjennelse av at de ikke lenger sitter i AI Ethics Advisory Board. Dette i seg selv vil reise alle slags øyenbrynshevende spørsmål.

Videre, selv om en NDA eksisterer, vil noen ganger medlemmet prøve å skjørte rundt bestemmelsene. Dette kan inkludere å referere til ikke navngitte wink-wink generiske "casestudier" for å fremheve AI Ethics anomalier som de mener firmaet snikende utførte.

Det falne medlemmet kan være helt frekk og komme direkte ut og navngi sine bekymringer om selskapet. Om dette er et klart brudd på NDA er kanskje noe mindre avgjørende enn det faktum at ordet spres om etiske AI-bekymringer. Et firma som prøver å saksøke medlemmet for brudd på NDA kan brutalt bringe varmt vann på seg selv, vekke oppmerksomhet til tvisten og fremstå som den klassiske David mot Goliat-duellen (firmaet er det store "monsteret").

Noen toppledere antar at de ganske enkelt kan oppnå et økonomisk oppgjør med ethvert medlem av AI Ethics Advisory Board som føler at firmaet gjør feil, inkludert å ignorere eller bagatellisere uttalte bekymringer.

Dette er kanskje ikke så lett som man antar.

Medlemmene er ofte etisk anlagte og vil ikke uten videre trekke seg tilbake fra det de oppfatter som en etisk rett-mot-gal kamp. De kan også ellers være økonomisk stabile og ikke villige til å barbere sine etiske forskrifter, eller de kan ha annen ansettelse som forblir uberørt av at de har forlatt AI Ethics Advisory Board.

Som det kan være tydelig, innser noen senere at et AI-etikkråd er et tveegget sverd. Det er en enorm verdi og viktig innsikt en slik gruppe kan formidle. Samtidig leker du med ilden. Det kan være at et medlem eller medlemmer bestemmer seg for at de ikke lenger tror at firmaet gjør et troverdig etisk AI-arbeid. I nyhetene har det til tider vært indikasjoner på at et helt rådgivende råd for AI-etikk slutter sammen, alt på en gang, eller har en overvekt av medlemmene som kunngjør at de forlater.

Vær klar for det gode og problemene som kan oppstå med AI Ethics advisory boards.

Selvfølgelig er det tider at selskaper faktisk ikke gjør de riktige tingene når det kommer til AI-etikk.

Derfor håper og forventer vi at et rådgivende råd for AI-etikk i det firmaet vil gå opp for å gjøre dette kjent, antagelig internt i firmaet først. Hvis firmaet fortsetter på den oppfattede dårlige veien, vil medlemmene helt sikkert virke etisk bundet (muligens også juridisk) til å ta andre handlinger som de mener er passende (medlemmer bør konsultere sin personlige advokat for slike juridiske råd). Det kan være at dette er den eneste måten å få selskapet til å endre sine måter. En drastisk handling fra et medlem eller et sett av medlemmer kan se ut til å være den siste utveien som medlemmene håper vil snu utviklingen. I tillegg vil disse medlemmene sannsynligvis ikke være en del av noe som de brennende tror har kommet på avveie fra AI Ethics.

En nyttig måte å vurdere disse mulighetene på er denne:

  • Firmaet er på villspor, medlem velger å forlate på grunn av en antatt mangel på fast overholdelse
  • Firmaet er ikke på villspor, men medlem mener at firmaet er og dermed går ut på grunn av en opplevd mangel på etterlevelse

Omverdenen vil ikke nødvendigvis vite om medlemmet som går ut har et godt grunnlag for bekymring for firmaet, eller om det kan være en idiosynkratisk eller feilaktig inntrykk av medlemmet. Det er også den ganske enkle muligheten for at et medlem forlater gruppen på grunn av andre forpliktelser eller av personlige årsaker som ikke har noe å gjøre med hva firmaet driver med.

Hovedpoenget er at det er viktig for ethvert firma som tar i bruk et AI-etikkråd å tenke gjennom hele spekteret av livssyklusfaser knyttet til gruppen.

Med alt det snakket om problematiske aspekter, ønsker jeg ikke å formidle inntrykk av å holde meg unna å ha et AI Ethics Advisory Board. Det er ikke budskapet. Den virkelige kjernen er å ha et AI-etikkråd og sørge for at du gjør det på riktig måte. Gjør det til ditt kjære mantra.

Her er noen av de ofte nevnte fordelene med et AI Ethics Advisory Board:

  • Ha et middel til å sprette AI-prosjekter og ideer fra en semi-uavhengig privat gruppe
  • Utnytt ekspertise innen AI-etikk som er fra utenfor firmaet
  • Mål å unngå AI-etikk-guffaws og direkte katastrofer fra firmaet
  • Vær en PR-booster for firmaet og dets AI-systemer
  • Utbrudd av intern gruppetenkning om AI og AI-etikk
  • Få et nytt blikk på AI-innovasjoner og deres praktiske egenskaper
  • Forbedre stillingen og statusen til firmaet
  • Tjen som en uhemmet stemme når den faste AI-innsatsen er dårligere
  • Annen

Her er vanlige måter firmaer roter til og undergraver deres AI-etikkråd (ikke gjør dette!):

  • Gi vag og forvirrende veiledning om oppdrag og formål
  • Kun sparsomt konsultert og ofte dårlig timet etter at hesten allerede er ute av fjøset
  • Holdt i mørket
  • Fed sterkt filtrert informasjon som gir en misvisende fremstilling av ting
  • Brukes kun som et utstillingsvindu og ikke for noe annet verdiskapende formål
  • Ikke tillatt å gjøre noen form for leting om interne forhold
  • Fratatt tilstrekkelige ressurser til å utføre arbeidet sitt tilstrekkelig
  • Mangel på eksplisitt lederskap i gruppen
  • Mangel på oppmerksomhet fra ledelsen i firmaet angående gruppen
  • Forventes å gi blind godkjenning til det som presenteres
  • Tilfeldig når det gjelder medlemmer som er valgt
  • Behandlet med liten respekt og tilsynelatende bare et merke
  • Annen

Et annet ofte forvirrende problem involverer arten og oppførselen til de forskjellige medlemmene som sitter i et AI-etikkråd, som noen ganger kan være problematisk på disse måtene:

  • Noen medlemmer er kanskje bare konseptualiserere av AI-etikk i stedet for å være kjent med AI-etikk som praksis, og gir derfor minimalistisk forretningskyndig innsikt
  • Noen kan være bombastiske når det kommer til AI-etikk og er usedvanlig vanskelige å håndtere gjennom hele deltakelsen
  • Infighting kan bli en betydelig distraktor, ofte sammenstøt mellom store egoer, og få gruppen til å bli dysfunksjonell
  • Noen kan være altfor travle og overengasjerte slik at de er på avstand fra AI-etikkrådgivningen
  • Noen har en dypt holdt urokkelig mening om AI-etikk som er lite fleksibel og urealistisk
  • Noen er utsatt for emosjonelle snarere enn analytiske og systemiske hensyn som ligger til grunn for AI-etikk
  • Kan være beslektet med det berømte ordtaket om å være som en flokk med katter som ikke vil fokusere og vandrer målløst
  • Annen

Noen firmaer ser ut til å sette sammen et AI Ethics Advisory Board på en litt frivillig basis. Ingen tanker går på medlemmene som skal velges. Ingen tanke går på hva de hver bringer til bordet. Det går ingen tanker om hvor ofte møter og hvordan møtene skal gjennomføres. Ingen tanke går på å drive AI Ethics Advisory Board, alt fortalt. Etc.

På en måte, på grunn av din egen mangel på oppfinnsomhet, setter du sannsynligvis et togvrak i bevegelse.

Ikke gjør det.

Kanskje denne listen over riktige ting å gjøre er nå tilsynelatende åpenbart for deg basert på diskursen så langt, men du ville kanskje bli sjokkert over å vite at få firmaer ser ut til å få dette riktig:

  • Identifiser eksplisitt oppdraget og formålet til AI Ethics Advisory Board
  • Sørg for at gruppen får passende oppmerksomhet på toppledernivå
  • Identifiser hvilken type medlemmer som passer best for gruppen
  • Henvend deg til de ønskede medlemmene og sjekk at de passer for gruppen
  • Lag passende avtaler med de valgte medlemmene
  • Etablere logistikk av møter, frekvens mv.
  • Bestem medlemmenes plikter, omfang og dybde
  • Forutse de interne ressursene som trengs for å hjelpe gruppen
  • Bevilge tilstrekkelige ressurser til gruppen selv
  • Hold AI Ethics Advisory Board aktiv og løpende inn
  • Ha eskaleringer forhåndsplanlagt for når bekymringer oppstår
  • Angi hvordan nød- eller kriseorienterte hendelser vil bli håndtert
  • Roter elementene ut eller inn etter behov for å holde blandingen egnet
  • På forhånd har forutsett utgangsveier for medlemmene
  • Annen

konklusjonen

For noen år siden ble mange av bilprodusentene og selvkjørende teknologibedriftene som begynner å utvikle AI-baserte selvkjørende biler plutselig bedt om å ta i bruk AI Ethics Advisory Boards. Inntil det tidspunktet hadde det virket som om det var liten bevissthet om å ha en slik gruppe. Det ble antatt at det interne fokuset på Etisk AI ville være tilstrekkelig.

Jeg har diskutert grundig i spalten min de forskjellige uheldige AI-etikkens bortfall eller forglemmelser som til tider har ført til problemer med selvkjørende biler som mindre kjøretøyulykker, åpenbare bilkollisjoner og andre ulykker. Se min dekning på lenken her. Betydningen av AI-sikkerhet og lignende beskyttelse må være det viktigste hensynet for de som lager autonome kjøretøy. Advisory boards for AI-etikk i denne nisjen bidrar til å holde AI-sikkerhet som en viktig prioritet.

Min favorittmåte å uttrykke denne typen åpenbaring om AI-etikk er å sammenligne saken med jordskjelv.

Californians innbyggere er utsatt for jordskjelv fra tid til annen, noen ganger ganske heftige. Du tror kanskje at det å være forberedt på jordskjelv vil være en alltid tilstedeværende vurdering. Ikke så. Syklusen fungerer på denne måten. Et betydelig jordskjelv skjer og folk blir påminnet om å være jordskjelvforberedt. En kort stund haster det med å gjennomføre slike forberedelser. Etter en stund avtar oppmerksomheten rundt dette. Forberedelsene faller i veien eller blir på annen måte neglisjert. Boom, et nytt jordskjelv rammer, og alle de som burde vært forberedt blir fanget «uvitende» som om de ikke hadde skjønt at et jordskjelv en dag kunne oppstå.

Bedrifter gjør ofte noe av det samme om AI Ethics Advisory Boards.

De starter ikke en, og så plutselig, etter en katastrofe med AI deres, blir de reaktivt ansporet til handling. De starter spinkelt et AI Ethics Advisory Board. Den har mange av problemene jeg tidligere har sitert her. AI Ethics Advisory Board faller fra hverandre. Beklager, en ny AI-katastrofe i firmaet vekker behovet for AI Ethics Advisory Board.

Vask, skyll og gjenta.

Bedrifter opplever definitivt at de noen ganger har et hat-kjærlighetsforhold til deres AI-etikkrådgivningsarbeid. Når det gjelder å gjøre ting på riktig måte, er kjærlighet i luften. Når det gjelder å gjøre ting på feil måte, springer hat voldsomt frem. Sørg for at du gjør det som er nødvendig for å holde kjærligheten i gang og avverge hatet når det gjelder å etablere og vedlikeholde et AI Ethics Advisory Board.

La oss gjøre dette om til et kjærlighet-kjærlighet-forhold.

Kilde: https://www.forbes.com/sites/lanceeliot/2022/08/08/heres-why-businesses-are-having-a-tumultuous-love-hate-relationship-with-ai-ethics-boards/