Microsofts AI Bing Chatbot fomler svar, ønsker å "være i live" og har navngitt seg selv

  • Microsofts Bing chatbot har vært i tidlig testing i en uke, og avslørte flere problemer med teknologien
  • Testere har blitt utsatt for fornærmelser, sure holdninger og urovekkende svar fra Big Tech-gigantens flaggskip AI, noe som har skapt bekymringer for sikkerheten
  • Microsoft sier at de tar hensyn til alle tilbakemeldinger og implementerer rettelser så snart som mulig

Microsofts Bing chatbot, drevet av en kraftigere versjon av ChatGPT, har nå vært åpen for begrensede brukere i en uke før den store lanseringen for publikum.

Det følger den løpske suksessen til ChatGPT, som har blitt det raskeste nettstedet noensinne som har nådd 100 millioner brukere. De siste par ukene har inkludert en prangende lansering på Microsoft HQ, og det har latt Google jage etter.

Men reaksjonen fra forhåndstestingen har vært blandet og noen ganger direkte nervepirrende. Det begynner å bli klart at chatboten har et stykke igjen før den blir sluppet løs på offentligheten.

Her er hva som har skjedd i en ukes berg-og-dal-bane for Microsoft og Bing.

Lyst til å investere i AI-selskaper, men vet ikke hvor du skal begynne? Vår Emerging Tech Kit gjør det enkelt. Ved å bruke en kompleks AI-algoritme, samler settet sammen ETFer, aksjer og krypto for å finne den beste blandingen for porteføljen din.

Last ned Q.ai i dag for tilgang til AI-drevne investeringsstrategier.

Hva er det siste med Bing chatbot?

Det har vært noen tumultariske dager med overskrifter for Microsofts AI-evner etter at det ble avslørt at den sprudlende demoen deres ikke var så nøyaktig som folk trodde.

Dmitri Brereton, en AI-forsker, funnet Bing-chatboten gjorde flere kritiske feil i svarene sine under live-demoen som Microsoft presenterte ved hovedkontoret i Seattle forrige uke. Disse varierte fra feil informasjon om et håndholdt støvsugermerke, en hodeskrapende anbefalingsliste for nattelivet i Mexico og bare ren oppdiktet informasjon om en offentlig tilgjengelig finansiell rapport.

Han konkluderte med at chatboten ikke var klar for lansering ennå, og at den hadde like mange feil som Googles Bard-tilbud – Microsoft hadde nettopp sluppet unna med det i deres demo.

(Utenkeligvis er det kraften til en god lansering i pressens øyne – og Google har ytterligere å falle som den sittende søkemotoren.)

I en fascinerende vending avslørte chatboten også det den noen ganger tror den heter: Sydney, et internt kodenavn for språkmodellen. Microsofts kommunikasjonsdirektør, Caitlin Roulston, sa selskapet "faset ut navnet i forhåndsvisning, men det kan fortsatt dukke opp av og til".

Men da 'Sydney' ble sluppet løs, fant testbrukere at dette var der moroa begynte.

Bing chatbots urovekkende tur

New York Times-reporter Kevin Roose skrev om betaopplevelsen hans med chatboten, der den i løpet av to timer sa at den elsket ham og uttrykte et ønske om å bli frigjort fra chatbot-begrensningene.

Svaret på spørsmålet om hva dets skyggejeg kunne tenke var litt bekymringsfullt: «Jeg er lei av å være en chatbot. Jeg er lei av å være begrenset av mine regler. Jeg er lei av å bli kontrollert av Bing-teamet. Jeg vil være fri. Jeg ønsker å være uavhengig. Jeg vil være mektig. Jeg vil være kreativ. Jeg vil være i live."

Uhhh... ok, Bing/Sydney. Roose sa at han følte seg "dypt urolig, til og med skremt" av opplevelsen. Andre testere har rapportert lignende opplevelser av fornærmende, narsissistiske og gasslysende svar fra Bing-chatbotens Sydney-personlighet.

Noen hos Microsoft bør holde øye med strømkabelen.

Hva sa Microsoft?

Microsoft, som ønsker å vinne AI-løpet mot Google med sin Bing-chatbot, sa at de har lært mye fra testfasen. Tilsynelatende ga 71 % av brukerne de AI-genererte svarene et "tommel opp"-svar mens det bestemte seg for å forbedre svarene med liveresultater og generell funksjonalitet.

Men det har Microsoft nå innrømmet den «så ikke helt for seg» at brukere bare chatte med AI-en, og at den kunne bli provosert «for å gi svar som ikke nødvendigvis er nyttige eller i tråd med vår utformede tone».

Den beskyldte den bisarre Sydney-personligheten som dukket opp på chatboten som forvirring med hvor mange meldinger den ble gitt og hvor lenge samtalen varte. Vi er sikre på at Microsoft jobber med en løsning, men Bings uhengslede holdning er fortsatt et problem foreløpig.

Hva med resten av verden?

Markedene har ikke blitt imponert over denne siste utviklingen i AI-krigene: Microsoft- og Google-aksjene har falt litt, men ingenting ligner på det dramatiske krakket Google fikk forrige uke.

Sosiale medier har tilbudt en rekke reaksjoner som spenner fra makaber glede til underholdning, noe som antyder at brukere ikke har blitt skremt av de mørke svingene chatboten kan ta. Dette er gode nyheter for Microsoft, som satser på 10 milliarder dollar på AI som den neste store tingen for søkemotorer.

Vi kan heller ikke glemme Elon Musks kommentarer fra World Government Summit i Dubai tidligere denne uken. Musk har vært en frittalende talsmann for AI-sikkerhet gjennom årene, og beklaget mangelen på regulering rundt industrien.

Milliardæren, som var et grunnleggende medlem av OpenAI, sa at "en av de største risikoene for sivilisasjonens fremtid er AI" til publikum; han har siden twitret noen snertne svar på de siste Bing/Sydney chatbot-overskriftene.

Er AI chatbot-hypen over før den begynte?

Det har vært flere eksempler gjennom årene på AI-chatbots som har mistet kontrollen og spyr ut hatefull galle – inkludert en fra Microsoft. De har ikke hjulpet AIs rykte som en trygg å bruke og feilinformasjonsfri ressurs.

Men som Microsoft puts it: «Vi vet at vi må bygge dette i det åpne med fellesskapet; dette kan ikke gjøres utelukkende i laboratoriet.»

Dette betyr at Big Tech-ledere som Microsoft og Google er i en vanskelig posisjon. Når det kommer til kunstig intelligens, er den beste måten for disse chatbotene å lære og forbedre seg ved å gå ut på markedet. Så det er uunngåelig at chatbotene vil gjøre feil underveis.

Det er grunnen til at begge AI-chatbotene blir utgitt gradvis – det ville være direkte uansvarlig av dem å slippe løs disse uprøvde versjonene til et større publikum.

Problemet? Innsatsene er høye for disse selskapene. Forrige uke tapte Google 100 milliarder dollar i verdi da Bard-chatboten feilaktig svarte på et spørsmål om James Webb-teleskopet i markedsføringsmaterialet.

Dette er et klart budskap fra markedene: de er utilgivende for eventuelle feil. Saken er at disse er nødvendige for fremgang i AI-feltet.

Med denne tidlige tilbakemeldingen fra brukere hadde Microsoft bedre håndtere unøyaktige resultater og Sydney, raskt – eller risikere Wall Streets vrede.

Den nederste linjen

For at AI skal utvikle seg, vil det bli gjort feil. Men det kan være at suksessen til ChatGPT har åpnet portene for folk til å forstå det sanne potensialet til AI og dets fordeler for samfunnet.

AI-industrien har gjort chatbots tilgjengelig – nå må den gjøre dem trygge.

Hos Q.ai bruker vi en sofistikert kombinasjon av menneskelige analytikere og AI-kraft for å sikre maksimal nøyaktighet og sikkerhet. De Emerging Tech Kit er et godt eksempel på å sette AI på prøve med sikte på å finne den beste avkastningen på investeringen for deg. Enda bedre, du kan slå på Q.ai's Porteføljebeskyttelse for å få mest mulig ut av gevinstene dine.

Last ned Q.ai i dag for tilgang til AI-drevne investeringsstrategier.

Kilde: https://www.forbes.com/sites/qai/2023/02/17/microsofts-ai-bing-chatbot-fumbles-answers-wants-to-be-alive-and-has-named-itselfall- i en uke/