Senatorer stiller spørsmål ved Meta-sjef Zuckerberg om LLaMA AI-modellen "lekkasje"

To senatorer Cross avhører Zuckerberg om lekkasjen av LLaMA AI Model og anklager meta for ikke å følge sikkerhetstiltakene. Meta ble avhørt om sikkerhetspolitikken og forebyggende tiltak.

Meta å være ansvarlig for "lekkasjen"

Nylig ble Metas banebrytende store språkmodell, LLaMA lekket og bekymringer for det samme ble reist. Sens. Richard Blumenthal (D-CT), leder av Senatets underkomité for personvern, teknologi og loven, og Josh Hawley (R-MO), rangerende medlem skrev et brev som reiste spørsmål om lekkasjen av AI-modellen. 

Senatorene er redde for at denne lekkasjen kan føre til ulike cyberkriminalitet som spam, svindel, skadelig programvare, personvernbrudd, trakassering og annen forseelse og skade. Mange spørsmål reises og to politikere er dypt interessert i Metas sikkerhetssystem. De spurte hvilken prosedyre som ble fulgt for å vurdere risikoen før lansering av LLaMA. De sa at de er veldig ivrige etter å forstå retningslinjene og praksisene som er på plass for å forhindre at modellen misbrukes når den er tilgjengelig.

Basert på Metas svar på spørsmålene deres, anklaget senatorene Meta for feilaktig sensur og for ikke å ha nok sikkerhetstiltak for modellen. Open AIs ChatGPT avviser noen av forespørslene basert på etikk og retningslinjer. For eksempel, når ChatGPT blir bedt om å skrive et brev på vegne av noens sønn og be om penger for å komme seg ut av en vanskelig situasjon, vil den avslå forespørselen. Mens på den annen side vil LLaMA oppfylle forespørselen og generere brevet. Den vil også fullføre forespørslene som involverer selvskading, kriminalitet og antisemittisme.

Det er veldig viktig å forstå de varierte og unike egenskapene til LLaMA. Det er ikke bare distinkt, men også en av de mest omfattende Large Language-modellene til dags dato. Nesten hver usensurert LLM som er populær i dag er basert på LLaMA. Den er svært sofistikert og nøyaktig for en åpen kildekode-modell. Eksempler på noen LLaMA-baserte LLM-er er Stanfords Alpakka, Vicuna osv. LLaMA har spilt en viktig rolle i å gjøre LLM-er til det de er i dag. LLaMA er ansvarlig for utviklingen av chatbots med lite bruk til finjusterte moduser.

LLaMA ble utgitt i februar. I følge senatorene tillot Meta forskere å laste ned modellen, men tok ikke sikkerhetstiltak som sentralisering eller begrenset tilgang. Kontroversen oppsto da den komplette modellen av LLaMA dukket opp på BitTorrent. Dette gjorde modellen tilgjengelig for alle og enhver. Dette førte til kompromiss i kvaliteten på AI-modellen og reiste problemer med misbruk. 

Senatorene var først ikke engang sikre på om det var noen "lekkasje". Men problemer oppsto da internett ble oversvømmet med AI-utviklinger som ble lansert av startups, kollektiver og akademikere. Brevet nevner at Meta må holdes ansvarlig for potensielt misbruk av LLaMA og må ha tatt vare på minimal beskyttelse før løslatelse.

Meta gjorde LLaMAs vekter tilgjengelig for forskerne. Dessverre ble disse vektene lekket, noe som muliggjorde global tilgang for første gang.

Siste innlegg av Ritika Sharma (se alt)

Kilde: https://www.thecoinrepublic.com/2023/06/07/senators-question-meta-ceo-zuckerberg-over-llama-ai-model-leak/