3 grunner til at organisasjonen din trenger eksterne algoritmebedømmere

Av Satta Sarmah-Hightower

Bedriftsledere skviser all verdien de kan ut av kunstig intelligens (AI). En 2021 KPMG-studie finner et flertall av bedriftsledere i regjering, industriell produksjon, finansielle tjenester, detaljhandel, biovitenskap og helsetjenester sier AI er minst moderat funksjonell i deres organisasjoner. Studien finner også at halvparten av respondentene sier at organisasjonen deres fremskyndet innføringen av AI som svar på Covid-19-pandemien. Hos organisasjoner der AI har blitt tatt i bruk, sier minst halvparten at teknologien har overgått forventningene.

AI-algoritmer er i økende grad ansvarlige for en rekke av dagens interaksjoner og innovasjoner – fra personlig tilpassede produktanbefalinger og kundeservice erfaringer til bankene lånebeslutninger Til og med politiets reaksjon.

Men for alle fordelene de tilbyr, kommer AI-algoritmer med store risikoer hvis de ikke blir effektivt overvåket og evaluert for motstandskraft, rettferdighet, forklarbarhet og integritet. For å hjelpe bedriftsledere med å overvåke og evaluere AI, viser studien det refereres til ovenfor at en økende antall bedriftsledere ønsker at regjeringen skal regulere AI for å la organisasjoner investere i riktig teknologi og forretningsprosesser. For nødvendig støtte og tilsyn er det lurt å vurdere eksterne vurderinger som tilbys av en tjenesteleverandør med erfaring i å tilby slike tjenester. Her er tre grunner.

1. Algoritmer er "svarte bokser"

AI-algoritmer – som lærer av data for å løse problemer og optimalisere oppgaver – gjør systemene smartere, slik at de kan samle inn og generere innsikt mye raskere enn mennesker noen gang kunne.

Noen interessenter anser imidlertid disse algoritmene for å være «svarte bokser», forklarer Drew Rosen, en revisjonssjef i KPMG, et ledende profesjonelt servicefirma. Spesifikt kan det hende at visse interessenter ikke forstår hvordan algoritmen kom til en bestemt avgjørelse og kan derfor ikke være trygge på beslutningens rettferdighet eller nøyaktighet.

"Resultatene hentet fra algoritmen kan være utsatt for skjevhet og feiltolkning av resultater," sier Rosen. "Det kan også føre til noen risikoer for enheten når de utnytter disse resultatene og deler [dem] med publikum og deres interessenter."

En algoritme som bruker feil data, for eksempel, er i beste fall ineffektiv – og i verste fall skadelig. Hvordan kan det se ut i praksis? Tenk på en AI-basert chatbot som gir feil kontoinformasjon til brukere eller et automatisert språkoversettelsesverktøy som oversetter tekst på en unøyaktig måte. Begge tilfellene kan resultere i alvorlige feil eller feiltolkninger for offentlige enheter eller selskaper, så vel som for komponentene og kundene som stoler på avgjørelser tatt av disse algoritmene.

En annen bidragsyter til black-box-problemet er når iboende skjevhet siver inn i utviklingen av AI-modeller, noe som potensielt kan føre til partisk beslutningstaking. Kredittlångivere bruker for eksempel i økende grad AI for å forutsi kredittverdigheten til potensielle låntakere for å ta utlånsbeslutninger. Imidlertid kan det oppstå en risiko når viktige input til AI, for eksempel en potensiell låntakers kredittscore, har en vesentlig feil, noe som fører til at disse personene blir nektet lån.

Dette fremhever behovet for en ekstern bedømmer som kan fungere som en upartisk evaluator og gi en fokusert vurdering, basert på aksepterte kriterier, av relevansen og påliteligheten til de historiske dataene og forutsetningene som driver en algoritme.

2. Interessenter og regulatorer krever åpenhet

I 2022 var det ingen gjeldende rapporteringskrav for ansvarlig AI. Imidlertid sier Rosen, "akkurat som hvordan styrende organer introduserte ESG [miljø, sosial og styring]-regulering til rapporter om visse ESG-målinger, det er bare et spørsmål om tid at vi ser ytterligere reguleringsrapporteringskrav for ansvarlig AI.»

Faktisk med virkning fra 1. januar 2023, New York City Lokal lov 144 krever at det gjennomføres en skjevhetsrevisjon på et automatisert ansettelsesbeslutningsverktøy før det tas i bruk.

Og på føderalt nivå National Artificial Intelligence Initiative Act av 2020– som bygger på en 2019-vedtak— fokuserer på AI tekniske standarder og veiledning. I tillegg har Lov om algoritmisk ansvarlighet kan kreve konsekvensvurderinger av automatiserte beslutningssystemer og utvidede kritiske beslutningsprosesser. Og i utlandet Lov om kunstig intelligens har blitt foreslått, og tilbyr et omfattende regelverk med spesifikke mål for AI-sikkerhet, overholdelse, styring og pålitelighet.

Med disse endringene er organisasjoner under et styringsmikroskop. En algoritmebedømmer kan levere slike rapporter som tar for seg regulatoriske krav og øker interessentenes åpenhet samtidig som man unngår risikoen for at interessentene feiltolker eller er villedet av vurderingens resultater.

3. Selskaper drar nytte av langsiktig risikostyring

Steve Camara, en partner i KPMGs teknologisikringspraksis, spår AI-investeringer vil fortsette å vokse etter hvert som enheter fortsetter med å automatisere prosesser, utvikle innovasjoner som forbedrer kundeopplevelsen og distribuere AI-utvikling på tvers av forretningsfunksjoner. For å forbli konkurransedyktige og lønnsomme, vil organisasjoner trenge effektive kontroller som ikke bare adresserer de umiddelbare manglene ved AI, men som også reduserer langsiktige risikoer forbundet med AI-drevet forretningsdrift.

Det er her eksterne bedømmere trer inn som en pålitelig, kunnskapsrik ressurs. Ettersom organisasjoner i økende grad omfavner AI-integritet som en forretningsmuliggjører, kan partnerskapet bli mindre av en ad hoc-tjeneste og mer et konsistent samarbeid, forklarer Camara.

"Vi ser en vei videre der det må være et kontinuerlig forhold mellom organisasjoner som utvikler og operasjonaliserer AI på en kontinuerlig basis og en objektiv ekstern bedømmer," sier han.

Et blikk mot hva som kommer neste

I fremtiden kan organisasjoner bruke eksterne vurderinger på mer syklisk basis når de for eksempel utvikler nye modeller, tar inn nye datakilder, integrerer tredjepartsleverandørløsninger eller navigerer etter nye samsvarskrav.

Når ytterligere regulerings- og samsvarskrav er pålagt, kan eksterne bedømmere være i stand til å tilby tjenester for direkte å evaluere hvor godt en organisasjon har implementert eller brukt AI i forhold til disse kravene. Disse bedømmerne vil da være best posisjonert til å dele vurderingsresultater på en klar og konsistent måte.

For å utnytte teknologien samtidig som den beskytter mot sine begrensninger, må en organisasjon søke eksterne bedømmere for å levere rapporter som den deretter kan stole på for å demonstrere større åpenhet når de implementerer algoritmer. Derfra kan både organisasjonen og interessentene bedre forstå AIs kraft – og dens begrensninger.

Kilde: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/