lang icon En
Jan. 26, 2025, 9:54 a.m.
2908

Otkrivena velika sigurnosna rupa u Meta Llama LLM okviru.

Brief news summary

Značajna sigurnosna rupa, označena kao CVE-2024-50050, pronađena je u Meta-inoj Llama velikoj jezičkoj modelnoj arhitekturi. Ova ranjivost, ocijenjena sa 6.3 na CVSS skali i proglašena kritičnom s ocjenom 9.3 od strane Snyk-a, potiče od deserializacije nepouzdanih podataka, omogućavajući napadačima da izvrše proizvoljni kod na Llama serveru za inferenciju putem malicioznih unosa. Problem proizlazi iz nesigurnog rukovanja pickle formatom u Python Inference API, a napadači mu mogu pristupiti putem ZeroMQ soketa. Kao odgovor na ovo, Meta je 10. oktobra lansirala verziju 0.0.41, implementirajući sigurniji JSON format za prenos podataka. Ovaj incident podsjeća na sličan problem u OpenAI-ovom ChatGPT-u, koji je nedovoljno upravljao HTTP POST zahtjevima, što je povećalo rizik od DDoS napada. Stručnjaci upozoravaju da AI okviri često sadrže ranjivosti zbog nesigurnih praksi kodiranja, povećavajući vjerovatnoću njihove upotrebe u kibernetičkim napadima. U cilju rješavanja ovih sigurnosnih izazova, kreiraju se novi alati poput ShadowGenes koji pomažu organizacijama da prate istorije modela i poboljšaju svoje mjere sigurnosti AI.

Ozbiljna sigurnosna ranjivost otkrivena je u Meta-inom Llama okviru velikih jezičkih modela (LLM), što potencijalno omogućava napadačima da izvrše proizvoljni kod na llama-stack inferencnom serveru. Poznata kao CVE-2024-50050, greška ima CVSS ocjenu od 6. 3 prema Meti, dok firma za sigurnost lanca snabdevanja Snyk ocjenjuje da je kritična sa ocjenom 9. 3. Prema riječima Avija Lumelskyja, istraživača iz Oligo Security, pogođene verzije Meta-inog Llama su podložne deserializaciji nepouzdanih podataka, što omogućava napadačima da pošalju štetne podatke koji se mogu deserializovati kako bi se izvršio proizvoljni kod. Ova ranjivost je povezana sa izvršenjem koda na daljinu u Python Inference API-ju, koji automatski deserializuje Python objekte koristeći pickle biblioteku—smatrana rizikom za izvršenje proizvoljnog koda kada se obrađuju nepouzdani podaci. Napadači mogu iskoristiti ovu grešku ako je ZeroMQ soket, korišćen za razvoj AI aplikacija sa Meta-inim Llama modelima, izložen preko mreže. Prenošenjem oblikovanih zlonamjernih objekata, napadač bi mogao ostvariti izvršenje koda na domaćinskoj mašini putem operacije unpickling. Nakon odgovornog otkrivanja 24. septembra 2024, Meta je ispravila problem 10.

oktobra ažuriranjem na verziju 0. 0. 41 i prelaskom sa pickle na JSON za komunikaciju putem soketa. Ovo nije prva ranjivost deserializacije zabilježena u AI okvirima; na primjer, sličan problem je pronađen u Keras okviru TensorFlowa. Objava ove ranjivosti pokcoincidira sa izveštajem o drugoj grešci u OpenAI-ovom ChatGPT crawleru, koja bi mogla olakšati distribuirane napade uskraćivanja usluge (DDoS) zbog lošeg rukovanja HTTP POST zahtevima. Ova propust omogućava napadačima da pošalju brojne hiperveze unutar jednog zahteva, preopterećujući ciljani sajt s višestrukim konekcijama. Pored toga, izveštaj Truffle Security-a istakao je da neki AI asistenti za kodiranje mogu nenamerno sugerisati nesigurne prakse, poput hard-kodiranja API ključeva, čime se ugrožava sigurnost u projektima korisnika. Joe Leon, istraživač sigurnosti, primetio je da podaci za obuku LLM-ova uključuju mnoge nesigurne prakse kodiranja, perpetuirajući ranjivosti. Nadalje, istraživanja ukazuju na to da se LLM-ovi mogu zloupotrebljavati u različitim fazama sajber napada, čineći prijetnje efikasnijim i preciznijim. Istraživanje tehnika identifikacije AI modela, poput ShadowGenes, otkriva nove načine za praćenje genealogije modela kroz analizu računarskih grafova. HiddenLayer je naglasio da razumevanje porodica AI modela u organizaciji poboljšava sposobnosti upravljanja sigurnošću.


Watch video about

Otkrivena velika sigurnosna rupa u Meta Llama LLM okviru.

Try our premium solution and start getting clients — at no cost to you

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

Dec. 21, 2025, 5:13 a.m.

AI-generisani videozapisi postaju sve popularniji…

Porast videa generiranih putem AI-ja duboko mijenja dijeljenje sadržaja na platformama društvenih mreža.

Dec. 20, 2025, 1:24 p.m.

5 Kulturalnih Atributa Koji Mogu Ili Osujetiti Il…

Sažetak i prepis “Bitno” o transformaciji AI i organizacijskoj kulturi Transformacija umjetne inteligencije uglavnom predstavlja kulturni izazov, a ne samo tehnološki

Dec. 20, 2025, 1:22 p.m.

AI prodavač: Top 5 budućih čimbenika povećanja pr…

Cilj poslovanja je proširenje prodaje, ali jaka konkurencija može spriječiti taj cilj.

Dec. 20, 2025, 1:19 p.m.

Veštačka inteligencija i SEO: Savršen spoj za pob…

Inkorporacija umjetne inteligencije (AI) u strategije optimizacije pretraživača (SEO) temeljno mijenja način na koji preduzeća poboljšavaju svoju online vidljivost i privlače organski saobraćaj.

Dec. 20, 2025, 1:15 p.m.

Napredak tehnologije dubokog lažiranja: implikaci…

Tehnologija deepfakea nedavno je napravila značajan napredak, proizvodeći vrlo realistične manipulirane videozapise koji uvjerljivo prikazuju osobe da rade ili govore stvari koje nikada nisu zaista učinile.

Dec. 20, 2025, 1:13 p.m.

Nvidijino otvaranje izvora umjetne inteligencije:…

Nvidia je najavio značajno proširenje svojih inicijativa otvorenog koda, što signalizira stratešku posvećenost podršci i napredovanju ekosistema otvorenog koda u visokoučinkovitom računarstvu (HPC) i umjetnoj inteligenciji (AI).

Dec. 20, 2025, 9:38 a.m.

Guvernerka N.Y. Kathy Hochul potpisala opširni za…

Dana 19.

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today