Federal Trade Commission har som mål å få ned hammeren på de overdimensjonerte ubegrunnede påstandene om generativ AI ChatGPT og annen AI, advarer AI-etikk og AI-lov

Få ned hammeren.

Det er hva Federal Trade Commission (FTC) sier at den kommer til å gjøre angående den pågående og stadig verre bruken av overdimensjonerte ubegrunnede påstander om kunstig intelligens (AI).

I et offisielt blogginnlegg 27. februar 2023, med tittelen "Keep Your AI Claims In Check" av advokat Michael Atleson fra FTC Division of Advertising Practices, bemerket noen helt hamrende ord at AI ikke bare er en form for beregningsbasert høyteknologi, men det har blitt en markedsføringsjackpot som til tider har gått utover rimelighetens område:

  • "Og hva er egentlig 'kunstig intelligens'? Det er et tvetydig begrep med mange mulige definisjoner. Det refererer ofte til en rekke teknologiske verktøy og teknikker som bruker beregning for å utføre oppgaver som spådommer, beslutninger eller anbefalinger. Men én ting er sikkert: det er et markedsføringsbegrep. Akkurat nå er det varmt. Og hos FTC er en ting vi vet om hete markedsføringsvilkår at noen annonsører ikke vil være i stand til å stoppe seg selv fra å overbruke og misbruke dem» (FTC-nettstedet).

AI tilbyr store muligheter for markedsførere som virkelig ønsker å gå berserk og hype ut av hvilket som helst underliggende AI-forsterket eller AI-drevet produkt eller tjeneste som selges til forbrukere.

Du skjønner, fristelsen til å forskyve overdrivelse må være enorm, spesielt når en markedsfører ser andre firmaer gjøre det samme. Konkurransedyktig juice krever at du gjør en klassisk over-the-top når konkurrentene roper om at deres AI går på vannet. Kanskje AI-en din tilsynelatende er bedre fordi den flyr i luften, slipper unna tyngdekraftens grenser og klarer å tygge tyggegummi på samme tid.

Inn i den sprø bruken av AI-proklamerte ferdigheter som grenser til eller direkte grenser til usannheter og bedrag, trer lovens lange arm, nemlig FTC og andre føderale, statlige og lokale byråer (se min pågående dekning av slike anstrengelser, inkludert internasjonale regulatoriske bestrebelser også, kl lenken her).

Du er potensielt klar over at som et føderalt byrå omfatter FTC Bureau of Consumer Protection, som har mandat til å beskytte forbrukere mot ansett som villedende handlinger eller praksis i kommersielle omgivelser. Dette oppstår ofte når selskaper lyver eller villeder forbrukere om produkter eller tjenester. FTC kan bruke sin mektige statlige dyktighet til å slå ned på slike fornærmende firmaer.

FTC-blogginnlegget som jeg siterte, ga også denne noe pittige uttalelsen:

  • "Markedsførere bør vite at - for FTC-håndhevelsesformål - falske eller ubegrunnede påstander om et produkts effektivitet er vårt brød og smør."

På en måte har de som insisterer på å overdrive påstandene sine om AI som mål å være ristet brød. FTC kan søke å få AI-fordringshaveren til å avstå og potensielt møte harde straffer for overtredelsene som er utført.

Her er noen av potensielle handlinger som FTC kan ta:

  • «Når Federal Trade Commission finner et tilfelle av svindel begått mot forbrukere, inngir byrået søksmål til føderal distriktsdomstol for umiddelbare og permanente ordre om å stoppe svindel; forhindre svindlere fra å begå svindel i fremtiden; fryse sine eiendeler; og få erstatning til ofrene. Når forbrukere ser eller hører en annonse, enten det er på Internett, radio eller TV, eller andre steder, sier føderal lov at en annonse må være sannferdig, ikke villedende, og, når det er hensiktsmessig, støttet av vitenskapelig bevis. FTC håndhever disse lovene om sannhet-i-annonsering, og den bruker de samme standardene uansett hvor en annonse vises – i aviser og magasiner, på nettet, i posten eller på reklametavler eller busser» (FTC-nettstedet i avsnittet om Sannhet i reklame)

Det har vært en rekke relativt nylige høyprofilerte eksempler på at FTC går etter falske reklamehendelser.

For eksempel fikk L'Oreal problemer for å reklamere for at deres hudpleieprodukter fra Paris Youth Code var "klinisk bevist" for å få folk til å se "synlig yngre ut" og "forsterke gener". vitenskapelige bevis og FTC tok grep deretter. Et annet fremtredende eksempel besto av at Volkswagen annonserte at dieselbilene deres brukte "ren diesel" og ergo angivelig slapp ut ganske små mengder forurensning. I dette tilfellet ble utslippstestene som Volkswagen utførte, utført på uredelig vis for å maskere deres sanne utslipp. Håndhevelsestiltak fra FTC førte til en kompensasjonsordning for berørte forbrukere.

Forestillingen om at AI også burde få lignende gransking i henhold til udokumenterte eller kanskje helt uredelige påstander er absolutt en betimelig og verdig sak.

Det er en uttalt mani rundt kunstig intelligens akkurat nå som drevet av fremkomsten av Generativ AI. Denne spesielle typen AI vurderes generative fordi den er i stand til å generere utdata som nesten ser ut til å være utviklet av en menneskelig hånd, selv om AI-en beregningsmessig gjør det. En AI-app kjent som ChatGPT av selskapet OpenAI har fått enorm oppmerksomhet og drevet AI-mani inn i stratosfæren. Jeg vil om et øyeblikk forklare hva generativ AI handler om og beskrive naturen til AI-appen ChatGPT.

Selvfølgelig har AI totalt sett eksistert en stund. Det har vært en rekke berg-og-dal-baner opp- og nedturer knyttet til løftene om hva AI kan oppnå. Du kan si at vi er på et nytt høydepunkt. Noen mener dette bare er utgangspunktet og vi går videre rett opp. Andre er brennende uenige og hevder at den generative AI-gambiten vil treffe en vegg, nemlig at den snart vil nå en blindvei, og berg-og-dal-banen vil gå nedover.

Tiden vil vise.

FTC har tidligere oppfordret til at krav som dekker AI må være passende balansert og rimelig. I et offisielt FTC-blogginnlegg av 19. april 2021, med tittelen "Aiming For Truth, Fairness, And Equity In Your Company's Use Of AI", bemerket Elisa Jillson de flere måtene håndhevingshandlinger lovlig oppstår og fremhevet spesielt bekymringer over AI som gir unødige skjevheter :

  • "FTC har flere tiår med erfaring med å håndheve tre lover som er viktige for utviklere og brukere av AI."
  • "Seksjon 5 i FTC-loven. FTC-loven forbyr urettferdig eller villedende praksis. Det vil inkludere salg eller bruk av – for eksempel – rasistisk partiske algoritmer.»
  • "Fair Credit Reporting Act. FCRA kommer i spill under visse omstendigheter der en algoritme brukes til å nekte folk arbeid, bolig, kreditt, forsikring eller andre fordeler.»
  • "Lik kreditt mulighet lov. ECOA gjør det ulovlig for et selskap å bruke en forutinntatt algoritme som resulterer i kredittdiskriminering på grunnlag av rase, farge, religion, nasjonal opprinnelse, kjønn, sivilstatus, alder eller fordi en person mottar offentlig hjelp.»

En fremtredende bemerkning i det nevnte blogginnlegget nevner denne tydelig uttalte påstanden:

  • "I henhold til FTC-loven må dine uttalelser til både bedriftskunder og forbrukere være sannferdige, ikke-villedende og støttet av bevis" (ibid).

Det juridiske språket i paragraf 5 i FTC-loven gjenspeiler denne følelsen:

  • "Urettferdige metoder for konkurranse i eller som påvirker handel, og urettferdige eller villedende handlinger eller praksiser i eller som påvirker handel, erklæres herved ulovlige" (kilde: Seksjon 5 i FTC-loven).

Virker som en lettelse å vite at FTC og andre offentlige etater holder øynene åpne og klar med en hammer dinglende over hodet på enhver organisasjon som kan våge å sende ut urettferdige eller villedende meldinger om AI.

Betyr alt dette at du kan være rolig og anta at disse AI-produsentene og AI-promotørene vil være forsiktige i sine markedsføringspåstander om AI, og de vil være oppmerksomme på ikke å komme med ublu eller opprørende formaninger?

Pokker nei.

Du kan forvente at markedsførere vil være markedsførere. De vil ha som mål å komme med overdimensjonerte og ubegrunnede påstander om AI til tidenes ende. Noen vil gjøre det og være blindt uvitende om at slike påstander kan få dem og deres selskap i problemer. Andre vet at påstandene kan skape problemer, men de regner med at sjansen for å bli tatt er liten. Det er også noen som satser på at de kan skjøre fra kanten av saken og juridisk argumentere for at de ikke gled over i det grumsete vannet av å være usanne eller villedende.

La advokatene finne ut av det, sier noen AI-markedsførere. I mellomtiden full damp. Hvis en dag FTC eller et annet statlig organ banker på døren, så må det være. Pengene som skal tjenes er nå. Kanskje legge en klatt av den tidligere deigen i et slags fond for å håndtere nedstrøms juridiske spørsmål. For nå er pengetoget i gang, og du ville være overveldende dum å gå glipp av den enkle sausen du kan få.

Det er en rekke rasjonaliseringer rundt annonsering av AI til det ultimate:

  • Alle kommer med merkelige AI-påstander, så vi kan like godt gjøre det også
  • Ingen kan si sikkert hvor skillelinjen går angående sannheter om AI
  • Vi kan ordne våre påstander om vår AI for å holde oss en tomme eller to innenfor sikkerhetssonen
  • Regjeringen vil ikke ta tak i det vi gjør, vi er en liten fisk i et stort hav
  • Rettferdighetshjul er så trege at de ikke kan holde tritt med hastigheten på AI-fremskritt
  • Hvis forbrukerne faller for våre AI-påstander, er det på dem, ikke på oss
  • AI-utviklerne i firmaet vårt sa at vi kunne si det jeg sa i markedsføringspåstandene våre
  • Ikke la det juridiske teamet stikke nesen i disse AI-greiene som vi utbasunerer, de vil ganske enkelt sette kibosh på våre fantastiske AI-markedsføringskampanjer og være en velkjent kjepp i gjørma
  • Annen

Er disse rasjonaliseringene en oppskrift på suksess eller en oppskrift på katastrofe?

For AI-produsenter som ikke tar hensyn til disse alvorlige og nøkterne juridiske betenkeligheter, vil jeg foreslå at de er på vei mot en katastrofe.

I samråd med mange AI-selskaper på daglig og ukentlig basis, advarer jeg dem om at de bør søke solid juridisk rådgivning siden pengene de tjener i dag potensielt kommer til å bli gitt tilbake og enda mer når de står overfor sivile søksmål fra forbrukere kombinert med statlig håndhevelsestiltak. Avhengig av hvor langt ting går, kan kriminelle ettervirkninger også sitte i vingene.

I dagens spalte vil jeg ta for meg den økende bekymringen for at markedsføringshypen som ligger til grunn for AI i økende grad krysser grensen til forverring av ubehagelig og villedende praksis. Jeg skal se på grunnlaget for disse betenkeligheter. Videre vil dette av og til inkludere å referere til de som bruker og utnytter AI-appen ChatGPT siden det er 600-pundsgorillaen til generativ AI, men husk at det er mange andre generative AI-apper, og de er generelt basert på de samme overordnede prinsippene.

I mellomtiden lurer du kanskje på hva generativ AI faktisk er.

La oss først dekke det grunnleggende om generativ kunstig intelligens, og deretter kan vi se nærmere på den presserende saken.

Inn i alt dette kommer en rekke AI-etikk og AI-lovbetraktninger.

Vær oppmerksom på at det pågår et arbeid for å innarbeide etiske AI-prinsipper i utviklingen og bruken av AI-apper. En voksende kontingent av bekymrede og tidligere AI-etikere prøver å sikre at arbeidet med å utvikle og ta i bruk AI tar hensyn til et syn på å gjøre AI For Good og avverge AI for Bad. På samme måte er det foreslått nye AI-lover som blir slått rundt som potensielle løsninger for å forhindre at AI-arbeidet går amok på menneskerettigheter og lignende. For min pågående og omfattende dekning av AI-etikk og AI-lov, se lenken her og lenken her, bare for å nevne noen få.

Utviklingen og kunngjøringen av etiske AI-forskrifter blir forfulgt for å forhåpentligvis forhindre at samfunnet faller i en myriade av AI-fremkallende feller. For min dekning av FNs AI-etiske prinsipper slik de er utviklet og støttet av nesten 200 land gjennom innsatsen til UNESCO, se lenken her. På samme måte utforskes nye AI-lover for å prøve å holde AI på en jevn kjøl. En av de siste opptakene består av et sett med foreslåtte AI Bill of Rights som det amerikanske hvite hus nylig ga ut for å identifisere menneskerettigheter i en tidsalder med AI, se lenken her. Det kreves en landsby for å holde AI- og AI-utviklere på en rettmessig vei og avskrekke målrettet eller utilsiktet underhendt innsats som kan undergrave samfunnet.

Jeg vil flette AI-etikk og AI-lovrelaterte betraktninger inn i denne diskusjonen.

Grunnleggende om generativ AI

Den mest kjente forekomsten av generativ AI er representert av en AI-app kalt ChatGPT. ChatGPT sprang inn i den offentlige bevisstheten tilbake i november da den ble utgitt av AI-forskningsfirmaet OpenAI. Helt siden ChatGPT har høstet store overskrifter og forbløffende overskredet sine tildelte femten minutter med berømmelse.

Jeg tipper du har sikkert hørt om ChatGPT eller kanskje til og med kjenner noen som har brukt det.

ChatGPT regnes som en generativ AI-applikasjon fordi den tar som input fra en bruker og deretter genererer eller produserer en produksjon som består av et essay. AI er en tekst-til-tekst-generator, selv om jeg beskriver AI som en tekst-til-essay-generator siden det lettere tydeliggjør hva den vanligvis brukes til. Du kan bruke generativ AI til å komponere lange komposisjoner, eller du kan få den til å gi ganske korte pittige kommentarer. Det er alt etter ditt bud.

Alt du trenger å gjøre er å skrive inn en melding, og AI-appen vil generere et essay for deg som prøver å svare på spørsmålet ditt. Den komponerte teksten vil virke som om essayet ble skrevet av menneskelig hånd og sinn. Hvis du skulle skrive inn en melding som sa "Fortell meg om Abraham Lincoln", vil den generative AI gi deg et essay om Lincoln. Det finnes andre moduser for generativ AI, for eksempel tekst-til-kunst og tekst-til-video. Jeg vil her fokusere på tekst-til-tekst-variasjonen.

Din første tanke kan være at denne generative evnen ikke virker som en så stor sak når det gjelder å produsere essays. Du kan enkelt gjøre et online søk på Internett og lett finne tonnevis av essays om president Lincoln. Kickeren i tilfellet med generativ AI er at det genererte essayet er relativt unikt og gir en original komposisjon i stedet for en kopi. Hvis du skulle prøve å finne det AI-produserte essayet på nettet et sted, ville du neppe oppdaget det.

Generativ AI er forhåndsopplært og bruker en kompleks matematisk og beregningsmessig formulering som er satt opp ved å undersøke mønstre i skrevne ord og historier over nettet. Som et resultat av å undersøke tusenvis og millioner av skriftlige passasjer, kan AI spy ut nye essays og historier som er en blanding av det som ble funnet. Ved å legge til ulike sannsynlighetsfunksjoner, er den resulterende teksten ganske unik i forhold til det som har blitt brukt i treningssettet.

Det er mange bekymringer rundt generativ AI.

En avgjørende ulempe er at essayene produsert av en generativ-basert AI-app kan ha ulike usannheter innebygd, inkludert åpenbart usanne fakta, fakta som er misvisende fremstilt, og tilsynelatende fakta som er helt oppdiktet. Disse fabrikkerte aspektene blir ofte referert til som en form for AI hallusinasjoner, et slagord som jeg misliker, men som dessverre ser ut til å ha blitt populært uansett (for min detaljerte forklaring om hvorfor dette er elendig og uegnet terminologi, se min dekning på lenken her).

En annen bekymring er at mennesker lett kan ta æren for et generativt AI-produsert essay, til tross for at de ikke har skrevet essayet selv. Du har kanskje hørt at lærere og skoler er ganske bekymret for fremveksten av generative AI-apper. Studenter kan potensielt bruke generativ AI for å skrive sine tildelte essays. Hvis en student hevder at et essay er skrevet av egen hånd, er det liten sjanse for at læreren kan se om det i stedet ble forfalsket av generativ AI. For min analyse av denne elev- og lærerforvirrende fasetten, se min dekning på lenken her og lenken her.

Det har vært noen vanvittige store påstander på sosiale medier om Generativ AI hevder at denne siste versjonen av AI faktisk er det sansende AI (nei, de tar feil!). De innen AI Ethics og AI Law er spesielt bekymret for denne spirende trenden med utstrakte påstander. Du kan høflig si at noen mennesker overdriver hva dagens AI kan gjøre. De antar at AI har evner som vi ennå ikke har klart å oppnå. Det er uheldig. Enda verre kan de tillate seg selv og andre å komme i alvorlige situasjoner på grunn av en antagelse om at AI vil være sansende eller menneskelignende når det gjelder å kunne handle.

Ikke antropomorfiser AI.

Hvis du gjør det, vil du bli fanget i en klissete og hard avhengighetsfelle av å forvente at AI skal gjøre ting den ikke er i stand til å utføre. Når det er sagt, er det siste innen generativ AI relativt imponerende for hva det kan gjøre. Vær imidlertid oppmerksom på at det er betydelige begrensninger som du kontinuerlig bør huske på når du bruker en generativ AI-app.

En siste forvarsel for nå.

Uansett hva du ser eller leser i et generativt AI-svar som synes for å bli formidlet som rent saklig (datoer, steder, personer osv.), sørg for å være skeptisk og være villig til å dobbeltsjekke det du ser.

Ja, datoer kan lages, steder kan gjøres opp, og elementer som vi vanligvis forventer å være uanstendige er alle gjenstand for mistanker. Ikke tro det du leser og hold et skeptisk øye når du undersøker generative AI-essays eller utganger. Hvis en generativ AI-app forteller deg at Abraham Lincoln fløy rundt i landet i sitt private jetfly, ville du utvilsomt vite at dette er malarky. Dessverre er det kanskje noen mennesker som ikke innser at jetfly ikke fantes på hans tid, eller de vet kanskje, men unnlater å legge merke til at essayet kommer med denne frekke og opprørende falske påstanden.

En sterk dose sunn skepsis og en vedvarende tankegang av vantro vil være din beste ressurs når du bruker generativ AI. Vær også på vakt mot potensielle personverninntrengninger og tap av datakonfidensialitet, se diskusjonen min på lenken her.

Vi er klare til å gå inn i neste fase av denne oppklaringen.

AI som den største historien som noen gang er fortalt

La oss nå gjøre et dypdykk i forvrengningene som blir fortalt om AI.

Jeg vil fokusere på generativ AI. Når det er sagt, er stort sett alle typer kunstig intelligens underlagt de samme bekymringene om urettferdig eller villedende reklame. Husk dette bredere synet. Jeg sier dette til de som er AI-produsenter av noe slag, og sikrer at de alle blir informert om disse sakene og ikke er begrenset til bare de som lager generative AI-apper.

Det samme gjelder alle forbrukere. Uansett hvilken type AI du vurderer å kjøpe eller bruke, vær forsiktig med falske eller villedende påstander om AI.

Her er hovedemnene jeg vil dekke med deg i dag:

  • 1) Hvem er hva om potensielle AI-falskheter
  • 2) Forsøk på å bruke rømningsklausuler for å unngå AI-ansvar
  • 3) FTC gir nyttige ord med forsiktighet om AI-annonsering
  • 4) FTC serverer også advarende ord om AI-skjevheter
  • 5) Handlingene du trenger å gjøre med AI-annonseringsplagene dine

Jeg vil dekke hvert av disse viktige emnene og komme med innsiktsfulle betraktninger som vi alle bør tenke nøye over. Hvert av disse emnene er en integrert del av et større puslespill. Du kan ikke se på bare ett stykke. Du kan heller ikke se på noen brikke isolert fra de andre brikkene.

Dette er en intrikat mosaikk og hele puslespillet må gis skikkelig harmonisk vurdering.

Hvem er hva om potensielle AI-falskheter

Det må gjøres et viktig avklaringspunkt om de ulike aktørene eller interessentene som er involvert i disse sakene.

Det er AI-produsentene som lager kjernen i en generativ AI-app, og så er det andre som bygger på toppen av den generative AI for å lage en app avhengig av den underliggende generative AI. Jeg har diskutert hvordan bruken av API (applikasjonsprogrammeringsgrensesnitt) lar deg skrive en app som utnytter generativ AI, se min dekning på lenken her. Et godt eksempel inkluderer at Microsoft har lagt til generative AI-funksjoner fra OpenAI til deres Bing-søkemotor, som jeg har dekket i dybden på lenken her.

De potensielle synderne ved å komme med villedende eller falske påstander om AI kan omfatte:

  • AI-forskere
  • AI-utviklere
  • AI-markedsførere
  • AI-produsenter som utvikler kjerne-AI som generativ AI
  • Bedrifter som bruker generativ kunstig intelligens i sine programvaretilbud
  • Bedrifter som er avhengige av bruk av generativ AI i sine produkter og tjenester
  • Bedrifter som er avhengige av firmaer som bruker generativ kunstig intelligens i sine produkter eller tjenester
  • Etc.

Du kan se på dette som en forsyningskjede. Alle som er involvert i AI mens den fortsetter langs banen eller hansken til AI-en som blir utviklet og felt, kan lett komme med villedende eller uredelige påstander om AI-en.

De som laget den generative AI kan være rettferdige skytespillere, og det viser seg at de andre som pakker den generative AI inn i produktene eller tjenestene deres, er de som blir djevelske og kommer med ubegrunnede påstander. Det er én mulighet.

En annen mulighet er at skaperne av AI er de som kommer med de falske påstandene. De andre som da inkluderer den generative AI i varene sine, vil sannsynligvis gjenta disse påstandene. På et tidspunkt kan det oppstå en juridisk hengemyr. Det kan oppstå et lovbrudd som først sikter mot firmaet som gjentok påstandene, hvorav de i sin tur tilsynelatende ville peke juridiske fingre mot AI-produsenten som startet kravskredet. Dominoene begynner å falle.

Poenget er at firmaer som tror at de kan stole på andres falske påstander, er nødt til å lide av en frekk oppvåkning om at de ikke nødvendigvis kommer til å gå frie på grunn av slik avhengighet. Også de vil utvilsomt ha føttene holdt til ilden.

Når push kommer til å skyve, blir alle fast i en gjørmete stygg juridisk kamp.

Forsøk på å bruke rømningsklausuler for å unngå AI-ansvar

Jeg nevnte tidligere at paragraf 5 i FTC-loven gir juridisk språk om ulovlig reklamepraksis. Det er forskjellige juridiske smutthull som enhver skarpsindig advokat potensielt vil bruke til fordel for sin klient, antagelig med rette hvis klienten faktisk forsøkte å omgjøre eller avlede det de anså for å være en falsk anklage.

Tenk for eksempel på denne seksjon 5-klausulen:

  • «Kommisjonen skal ikke ha myndighet i henhold til denne seksjonen eller seksjon 57a ​​i denne tittelen til å erklære ulovlig en handling eller praksis med den begrunnelse at en slik handling eller praksis er urettferdig med mindre handlingen eller praksisen forårsaker eller sannsynligvis vil forårsake betydelig skade på forbrukere som er ikke med rimelighet kan unngås av forbrukerne selv og ikke oppveies av utlignende fordeler for forbrukere eller konkurranse. Ved å avgjøre om en handling eller praksis er urettferdig, kan kommisjonen vurdere etablerte offentlige retningslinjer som bevis som skal vurderes sammen med alle andre bevis. Slike hensyn til offentlig politikk kan ikke tjene som hovedgrunnlag for en slik avgjørelse» (kilde: § 5 i FTC-loven).

Noen har tolket den klausulen slik at hvis si at et firma annonserte AI og gjorde det på en ellers tilsynelatende uhyggelig måte, oppstår spørsmålet om reklamen kanskje var i stand til å unnslippe skjærsilden så lenge annonsene: (a) mislyktes: å forårsake "vesentlig skade for forbrukere", (b) og slik var "unngåelig av forbrukerne selv", og (c) ble "ikke oppveid av utlignende fordeler for forbrukere eller konkurranse".

Tenk deg denne brukssaken. Et firma bestemmer seg for å hevde at deres generative AI kan hjelpe din mentale helse. Det viser seg at firmaet har laget en app som inneholder den generative AI fra en populær AI-produsent. Den resulterende appen sies å være i stand til å "hjelpe deg med å oppnå fred i sinnet med AI som samhandler med deg og beroliger din fortvilte sjel."

Som en sidenotat har jeg diskutert farene ved at generativ AI brukes som rådgiver for mental helse, se min analyse på lenken her og lenken her.

Tilbake til historien. Anta at en forbruker abonnerer på den generative AI som angivelig kan hjelpe deres mentale helse. Forbrukeren sier at de stolte på annonsene fra firmaet som tilbyr AI-appen. Men etter å ha brukt AI, tror forbrukeren at de mentalt ikke har det bedre enn før. For dem bruker AI-appen villedende og falsk reklame.

Jeg vil ikke fordype meg i de juridiske forviklingene og vil ganske enkelt bruke dette som en hendig folie (konsulter advokaten din for passende juridisk rådgivning). For det første, fikk forbrukeren "betydelig skade" som følge av bruk av AI-appen? Et argument er at de ikke ble påført en «materiell» skade og bare tilsynelatende ikke fikk det de trodde de ville oppnå (et motargument er at dette utgjør en form for «materiell skade» og så videre). For det andre, kunne forbrukeren med rimelighet ha unngått en slik skade hvis det oppsto en skade? Det antatte forsvaret er litt at forbrukeren ikke på en eller annen måte var tvunget til å bruke AI-appen og i stedet frivillig velger å gjøre det, pluss at de kan ha brukt AI-appen på feil måte og derfor undergravd de forventede fordelene osv. For det tredje gjorde AI-appen ev. har betydelig nok verdi eller fordel for forbrukerne til at kravet fra denne forbrukeren oppveies i det hele?

Du kan forvente at mange av AI-produsentene og de som utvider produktene og tjenestene deres med AI kommer til å hevde at uansett hva deres AI eller AI-infunderte tilbud gjør, gir de på balansen en netto fordel for samfunnet ved å inkorporere AI . Logikken er at hvis produktet eller tjenesten ellers er til fordel for forbrukerne, øker eller styrker tillegget av AI disse fordelene. Ergo, selv om det er noen potensielle ulemper, overvelder oppsidene ulempene (forutsatt at ulempene ikke er samvittighetsløse).

Jeg stoler på at du kan se hvorfor advokater er rikelig nødvendig av de som bruker eller bruker kunstig intelligens.

FTC gir nyttige ord med forsiktighet om AI-annonsering

For å gå tilbake til blogginnlegget fra 27. februar 2023 av FTC, er det noen ganske nyttige forslag for å avverge AI-annonseringsproblemet utenfor grensene.

Her er noen viktige punkter eller spørsmål som ble reist i blogginnlegget:

  • "Overdriver du hva AI-produktet ditt kan gjøre?"
  • "Lover du at AI-produktet ditt gjør noe bedre enn et ikke-AI-produkt?"
  • "Er du klar over risikoen?"
  • "Bruker produktet faktisk AI i det hele tatt?"

La oss kort pakke ut noen av de spisse spørsmålene.

Tenk på det andre punktpunktet om AI-produkter versus et ansett sammenlignbart ikke-AI-produkt. Det er fristende forlokkende å annonsere at det AI-forsterkede produktet ditt er tonnevis bedre enn det ikke-AI-sammenlignbare produktet som finnes. Du kan vinke alle slags ville hender hele dagen ved å bare hylle at siden AI blir inkludert i produktet ditt, må det være bedre. Nemlig alt sammenlignbart som ikke klarer å bruke AI er åpenbart og iboende underordnet.

Dette bringer opp det berømte legendariske slagordet "Hvor er biff?"

Vekten er at hvis du ikke har noe håndfast og innholdsmessig for å støtte påstanden, er du på ganske squishy og juridisk fare. Du er på kvikksand. Hvis du blir bedt om det, må du vise frem en form for tilstrekkelig eller tilstrekkelig bevis på at det AI-tilsatte produktet faktisk er bedre enn ikke-AI-produktet, forutsatt at du fremsetter en slik påstand. Dette beviset burde ikke være en forvrengt affære etterpå. Du ville klokere og tryggere å ha dette i hånden på forhånd, før du kommer med disse reklamepåstandene.

I teorien bør du være i stand til å gi et rimelig inntrykk av bevis for å støtte en slik påstand. Du kan for eksempel ha gjort en undersøkelse eller testing som involverer de som bruker ditt AI-tilsatte produkt sammenlignet med de som bruker et ikke-AI-sammenlignbart produkt. Dette er en liten pris å betale for potensielt å takle en truende straff nedover veien.

En annen advarsel er at du ikke gjør den blunk-blink-typen av tullete anstrengelser for å prøve å støtte reklamepåstandene dine om AI. Oddsen er at hvis du tilbyr en undersøkelse du har gjort av AI-brukere versus ikke-AI-brukere, vil den bli nøye inspisert av andre eksperter. De kan for eksempel merke seg at du kanskje legger tommelen på skalaen etter hvordan du valgte de som ble undersøkt eller testet. Eller kanskje du vil så langt som å betale brukerne som bruker AI for å få dem til å si hvor flott produktet ditt er. All slags lureri er mulig. Jeg tviler på at du vil inn dobbelt trøbbel når de sleipe påfunn blir oppdaget.

Skift til et av de andre punktene, tenk på den fjerde kulen som spør om AI i det hele tatt brukes i en bestemt omstendighet.

Den raske og skitne tilnærmingen i disse dager består av at opportunister velger å merke enhver form for programvare som inneholder eller består av AI. Kan like gjerne komme med på AI-vognen, sier noen. De er litt i stand til å komme unna med dette fordi definisjonen av AI er generelt tåkete og spenner vidt, se min dekning i Bloomberg-loven på det irriterende juridiske spørsmålet om hva AI er for lenken her.

Forvirringen over hva AI er vil potensielt gi et beskyttende dekke, men det er ikke ugjennomtrengelig.

Her er hva FTC-bloggen nevner:

  • "I en undersøkelse kan FTC-teknologer og andre se under panseret og analysere andre materialer for å se om det som er inne stemmer overens med påstandene dine."

I den forstand, uansett om du bruker "AI" for å strengt følge et akseptert definisjonsvalg av AI eller ikke, vil du likevel bli holdt til påstandene om hva programvaren ble erklært å kunne gjøre.

Jeg satte pris på denne ekstra kommentaren som fulgte punktet ovenfor i FTC-bloggen:

  • "Før du merker produktet ditt som AI-drevet, vær også oppmerksom på at bare å bruke et AI-verktøy i utviklingsprosessen er ikke det samme som et produkt som har AI i seg."

Det er et subtilt poeng som mange kanskje ellers ikke ville ha vurdert. Her er hva den foreslår. Noen ganger kan du bruke en AI-utvidet programvare når du utvikler en applikasjon. Den faktiske målrettede appen vil ikke inneholde AI. Du bruker ganske enkelt AI for å hjelpe deg med å lage AI-appen.

Du kan for eksempel bruke ChatGPT til å generere programmeringskode for deg. Koden som produseres vil ikke nødvendigvis ha noen AI-komponenter. Appen din vil ikke være rimelig kvalifisert til å hevde at den inneholder AI i seg selv (med mindre du selvfølgelig velger å inkludere noen form for AI-teknikker eller teknologi i den). Du kan muligens si at du brukte AI for å hjelpe deg med å skrive programmet. Selv dette må sies med omtanke og forsiktighet.

FTC serverer også advarende ord om AI-skjevheter

FTC-bloggen som jeg nevnte her om emnet AI-skjevheter gir noen nyttige advarsler som jeg mener er ganske verdt å huske på (jeg skal liste dem opp om et øyeblikk).

Når det kommer til generativ kunstig intelligens, er det fire store bekymringer for fallgruvene ved dagens evner:

  • feil
  • usannheter
  • AI Hallusinasjoner
  • skjevheter

La oss ta en kort titt på bekymringene for AI-bias.

Her er min omfattende liste over forutinntatte veier som må utforskes fullt ut for alle generative AI-implementeringer (diskutert nøye på lenken her):

  • Forstyrrelser i hentede data fra Internett som ble brukt til dataopplæring av den generative AI
  • Forstyrrelser i de generative AI-algoritmene som brukes til å matche mønsteret på de hentede dataene
  • Forstyrrelser i den generelle AI-designen til den generative AI og dens infrastruktur
  • Fordommer til AI-utviklerne enten implisitt eller eksplisitt i utformingen av den generative AI
  • Forstyrrelser til AI-testerne enten implisitt eller eksplisitt i testingen av den generative AI
  • Forstyrrelser av RLHF (forsterkende læring ved menneskelig tilbakemelding) enten implisitt eller eksplisitt ved at de tildelte menneskelige anmelderne gir opplæringsveiledning til den generative AI
  • Forstyrrelser i AI-felttilretteleggingen for operativ bruk av den generative AI
  • Forstyrrelser i ethvert oppsett eller standardinstruksjoner etablert for den generative AI i daglig bruk
  • Forstyrrelser med hensikt eller utilsiktet omfattet av forespørslene som legges inn av brukeren av den generative AI
  • Forstyrrelser av en systemisk tilstand versus et ad hoc-opptreden som en del av den tilfeldige sannsynlige utdatagenereringen av den generative AI
  • Forstyrrelser som oppstår som et resultat av justeringer underveis eller i sanntid eller datatrening som oppstår mens den generative AI er under aktiv bruk
  • Skjevheter introdusert eller utvidet under AI-vedlikehold eller vedlikehold av den generative AI-applikasjonen og dens mønstermatchende koding
  • Annen

Som du kan se, er det mange måter unødige skjevheter kan snike seg inn i utviklingen og feltet av AI. Dette er ikke en en-og-gjort slags bekymring. Jeg sammenligner dette med en muldvarp-situasjon. Du må være flittig og til enhver tid forsøke å oppdage og fjerne eller redusere AI-skjevhetene i AI-appene dine.

Vurder disse fornuftige punktene i FTC-bloggen av 19. april 2021 (disse punktene gjelder fortsatt, uansett om de er eldgamle når det gjelder tidsskalaer for AI-utvikling):

  • "Start med riktig grunnlag"
  • "Se opp for diskriminerende utfall"
  • "Omfavn åpenhet og uavhengighet"
  • "Ikke overdriv hva algoritmen din kan gjøre eller om den kan levere rettferdige eller objektive resultater"
  • "Fortell sannheten om hvordan du bruker data"
  • "Gjør mer godt enn skade"
  • "Hold deg selv ansvarlig – eller vær klar til at FTC gjør det for deg"

En av mine favoritter av punktene ovenfor er den fjerde som er oppført, som refererer til den ofte brukte påstanden eller myten om at på grunn av inkorporering av AI, må en gitt app være objektiv.

Slik går det.

Vi vet alle at mennesker er partiske. Vi faller på en eller annen måte i den mentale fellen at maskiner og AI er i stand til å være objektive. Derfor, hvis vi er i en situasjon der vi kan velge mellom å bruke et menneske versus AI når vi søker en form for tjeneste, kan vi bli fristet til å bruke AI. Håpet er at AI ikke vil være partisk.

Dette håpet eller antagelsen kan forsterkes hvis skaperen eller feltmannen til AI-en proklamerer at deres AI er utvilsomt og uten tvil objektiv. Det er den trøstende prikken over i-en. Vi er allerede klare til å bli ledet ned den primulastien. Reklamen slår ut avtalen.

Problemet er at det ikke er noen spesiell forsikring om at AI er objektiv. AI-produsenten eller AI-feltspilleren kan lyve om AI-fordommer. Hvis det virker altfor ondskapsfullt, la oss vurdere at AI-makeren eller AI-feltspilleren kanskje ikke vet om deres AI har skjevheter eller ikke, men de bestemmer seg uansett for å komme med en slik påstand. For dem virker dette som en rimelig og forventet påstand.

FTC-bloggen indikerte dette avslørende eksempelet: «La oss for eksempel si at en AI-utvikler forteller kundene at produktet deres vil gi «100 % objektive ansettelsesbeslutninger», men algoritmen ble bygget med data som manglet rase- eller kjønnsmangfold. Resultatet kan være bedrag, diskriminering – og en rettshåndhevelse fra FTC" (ibid).

Handlingene du trenger å gjøre med AI-annonseringsplagene dine

Bedrifter vil noen ganger få seg inn i potensielt varmt vann fordi den ene hånden ikke vet hva den andre hånden gjør.

I mange selskaper, når en AI-app er klar for utgivelse, vil markedsføringsteamet få lite informasjon om hva AI-appen gjør. Den klassiske linjen er at AI-detaljene er rett over hodet på dem, og de er ikke teknisk kunnskapsrike nok til å forstå det. Inn i dette gapet kommer potensialet for merkelig AI-reklame. Markedsførerne gjør det de kan, basert på hva slags godbiter eller godbiter som deles med dem.

Jeg sier ikke at markedsføringssiden ble lurt. Bare at det ofte er et gap mellom AI-utviklingssiden av huset og markedsføringssiden. Selvfølgelig er det anledninger når markedsføringsteamet i hovedsak er lurt. AI-utviklerne kan skryte av utropte supermenneskelige AI-evner, som markedsførerne antagelig ikke har noen meningsfull måte å tilbakevise eller uttrykke forsiktighet på. Vi kan vurdere andre katastrofale permutasjoner. Det kan være at AI-utviklerne var på forhånd om begrensningene til AI, men markedsføringssiden valgte å legge til litt juice ved å overdrive hva AI kan gjøre. Du vet hvordan det er, disse AI-teknikerne forstår bare ikke hva som skal til for å selge noe.

Noen må være dommer og sørge for at de to litt ulike avdelingene har et skikkelig møte mellom sinnene. Den utformede reklamen må være basert på grunnlag som AI-utviklerne burde kunne gi bevis eller bevis for. Videre, hvis AI-utviklerne er gjennomsyret av ønsketenkning og allerede drikker AI Kool-Aid, må dette identifiseres slik at markedsføringsteamet ikke blir blendet av altfor optimistiske og grunnløse forestillinger.

I noen bedrifter er rollen som en Chief AI Officer har blitt fløyet som en mulig forbindelse for å sikre at ledergruppen på de høyeste nivåene vurderer hvordan AI kan brukes i firmaet og som en del av selskapets produkter og tjenester. Denne rollen vil forhåpentligvis også tjene til å bringe sammen AI-siden av huset og markedsføringssiden av huset, og gni albuene med markedssjefen eller Chief Marketing Officer (CMO). Se min diskusjon om denne nye rollen, på lenken her.

En annen svært viktig rolle må inkluderes i disse sakene.

Den juridiske siden av huset er like avgjørende. En Chief Legal Officer (CLO) eller hovedrådgiver eller ekstern rådgiver bør være involvert i AI-fasettene gjennom utviklingen, feltingen og markedsføringen av AI. Dessverre er det juridiske teamet ofte det siste som får vite om slik AI-innsats. Et firma som får en juridisk melding som et resultat av et søksmål eller etterforskning av føderale byråer, vil plutselig innse at kanskje de juridiske folkene burde være involvert i deres AI-utplassering.

En smartere tilnærming er å inkludere det juridiske teamet før hesten er ute av fjøset. Lenge før hesten er ute av fjøset. Mye, mye tidligere. For min dekning om kunstig intelligens og juridisk praksis, se lenken her og lenken her, for eksempel.

Et nylig nettoppslag med tittelen "Risks Of Overselling Your AI: The FTC Is Watching" av advokatfirmaet Debevoise & Plimpton (et globalt anerkjent internasjonalt advokatfirma, med hovedkontor i New York City), skrevet av Avi Gesser, Erez Liebermann, Jim Pastore, Anna R. Gressel, Melissa Muse, Paul D. Rubin, Christopher S. Ford, Mengyi Xu, og med en publisert dato 6. mars 2023, gir en spesielt innsiktsfull indikasjon på handlinger som bedrifter bør iverksette angående deres AI-innsats.

Her er noen utvalgte utdrag fra blogginnlegget (hele innlegget er på lenken her):

  • "Andre. AI-definisjon. Vurder å lage en intern definisjon av hva som passende kan karakteriseres som AI, for å unngå påstander om at selskapet feilaktig hevder at et produkt eller en tjeneste bruker kunstig intelligens, når det bare bruker en algoritme eller enkel ikke-AI-modell.»
  • "Andre. Varelager. Vurder å lage en oversikt over offentlige uttalelser om selskapets AI-produkter og tjenester.»
  • "Andre. Kunnskap: Lær dine markedsføringsoverholdelsesteam om FTC-veiledningen og om problemene med definisjonen av AI."
  • "Andre. gjennomgang: Vurder å ha en prosess for å gjennomgå alle gjeldende og foreslåtte offentlige uttalelser om selskapets AI-produkter og -tjenester for å sikre at de er nøyaktige, kan underbygges og ikke overdriver eller overløfter."
  • "Andre. Leverandørkrav: For AI-systemer som leveres til selskapet av en leverandør, vær forsiktig så du ikke bare gjentar leverandørkrav om AI-systemet uten å sikre nøyaktigheten.»
  • "Andre. Risikovurdering: For AI-applikasjoner med høy risiko bør selskaper vurdere å gjennomføre konsekvensanalyser for å bestemme forutsigbare risikoer og hvordan de best kan redusere disse risikoene, og deretter vurdere å avsløre disse risikoene i eksterne uttalelser om AI-applikasjonene."

Etter å ha vært en toppleder og global CIO/CTO, vet jeg hvor viktig det juridiske teamet er for utvikling og felting av interne og eksternt vendte AI-systemer, inkludert ved lisensiering eller anskaffelse av tredjeparts programvarepakker. Spesielt med AI-innsats. Det juridiske teamet må være innebygd eller i det minste betraktes som en nær og kjærlig alliert av teknologiteamet. Det er en mengde lovlige landminer knyttet til all teknologi og markant for AI som et firma bestemmer seg for å bygge eller ta i bruk.

AI er i dag på toppen av listen over potensielle lovlige landminer.

Sammenkoblingen av AI-teknologiene med markedsføringsguruene og med de juridiske advokatene er den beste sjansen du har til å gjøre ting riktig. Få alle tre sammen, kontinuerlig og ikke for sent eller en gang, slik at de kan finne ut en markedsførings- og annonseringsstrategi og distribusjon som gir fordelene med AI-implementering. Målet er å minimere spekteret av lovens lange arm og kostbare og omdømmeskadelige søksmål, samtidig som man maksimerer den passende rettferdige og balanserte anerkjennelsen som AI reelt sett gir.

Goldilocks-prinsippet gjelder for AI. Du vil fremheve at AI kan gjøre store ting, forutsatt at den kan og gjør, beviselig støttet av velutviklede bevis og bevis. Du vil ikke utilsiktet vike unna alt AI tilfører som verdi. Dette undergraver AI-tilsetningsegenskapene. Og i den andre ytterligheten, du vil absolutt ikke lage sprø, skrytende annonser som går av stabelen og kommer med påstander som er uhyggelige og åpne for juridiske forviklinger.

Suppen må ha akkurat passe temperatur. For å oppnå dette kreves dyktige og AI-kyndige kokker fra det tekniske teamet, markedsføringsteamet og det juridiske teamet.

I et nylig innlegg fra advokatfirmaet Arnold & Porter (et velkjent multinasjonalt advokatfirma med hovedkontor i Washington, DC), skrev Isaac E. Chao og Peter J. Schildkraut et stykke med tittelen "FTC Warns: All You Need To Know About AI You Learned In Kindergarten” (publisert dato 7. mars 2023, tilgjengelig på lenken her), og la denne avgjørende advarende vektleggingen av de juridiske forpliktelsene knyttet til bruk av kunstig intelligens:

  • "I et nøtteskall, ikke bli så opptatt av magien til AI at du glemmer det grunnleggende. Villedende reklame utsetter et selskap for ansvar i henhold til føderale og statlige forbrukerlover, hvorav mange åpner for private handlingsrettigheter i tillegg til myndighetshåndhevelse. Villlede kunder – spesielt B2B-kunder – kan også søke erstatning i henhold til ulike kontrakts- og erstatningsteorier. Og offentlige selskaper må bekymre seg for SEC- eller aksjonærpåstander om at de ikke-støttede påstandene var vesentlige."

Innse at selv om AI-en din ikke er rettet mot forbrukere, er du ikke aksiomatisk ute av kroken med hensyn til potensielle juridiske eksponeringer. Kunder som er bedrifter kan også bestemme at AI-påstandene dine feilaktig eller kanskje bedragerisk villedet dem. All slags juridisk fare kan oppstå.

konklusjonen

Mange mennesker venter på å se hvilken AI-relatert debakel som oppstår fra det eksisterende og voksende AI-vanviddet. Noen mener at vi trenger et Volkswagen-kaliber-eksemplar eller en L'Oréal-statur-arketype for å få alle til å innse at tilfellene med opprørende ubegrunnede påstander om AI ikke kommer til å bli tolerert.

Inntil et stort nok juridisk tull angående en AI-reklame utenfor området får bred oppmerksomhet på sosiale medier og i hverdagsnyhetene, er bekymringen at AI som kan skryte av bonanza kommer til å vedvare. Markedsføringen av kunstig intelligens kommer til å fortsette å klatre oppover rangstigen. Høyere og høyere går dette. Hver neste AI må gjøre en oppgradering av de før den.

Mitt råd er at du sannsynligvis ikke vil være arketypen og lande i historiebøkene for å ha blitt tatt med hånden i AI-utsmyknings-kakeglasset. Ikke et godt utseende. Kostbar. Kan muligens ødelegge virksomheten og tilhørende karrierer.

Blir du tatt?

Jeg oppfordrer innstendig at hvis du er oppmerksom på hva du gjør, vil det ikke være en marerittaktig bekymring å bli tatt, siden du vil ha gjort riktig due diligence og kan sove rolig med hodet plassert på puten.

For de av dere som ikke er villige til å følge det rådet, vil jeg gi det siste ordet for denne milde varslingsbemerkningen i FTC-bloggen 27. februar 2023: «Uansett hva den kan eller ikke kan gjøre, er AI viktig, og det samme er påstandene du kommer med om det. Du trenger ikke en maskin for å forutsi hva FTC kan gjøre når disse påstandene ikke støttes."

Vel, jeg antar at man kan bruke AI for å hjelpe deg med å unngå ulovlig AI-reklame, men det er en fortelling for en annen dag. Bare husk å være gjennomtenkt og sannferdig om AI-en din. Det og forsikre deg om at du har de beste juridiske beaglene som gir sin hengivne juridiske visdom i disse sakene.

Kilde: https://www.forbes.com/sites/lanceeliot/2023/03/12/federal-trade-commission-aims-to-bring-down-the-hammer-on-those-outsized-unfounded-claims- about-generative-ai-chatgpt-and-other-ai-warns-ai-ethics-and-ai-law/