Jan. 26, 2025, 9:54 a.m.
2817

Otkrivena velika sigurnosna ranjivost u Meta-inoj Llama LLM platformi.

Brief news summary

Značajna sigurnosna rupa, identificirana kao CVE-2024-50050, otkrivena je u Meta-inom okviru velikih jezičnih modela Llama. Ova ranjivost, ocijenjena s 6.3 na CVSS skali i smatrana kritičnom s ocjenom 9.3 od strane Snyk-a, proizlazi iz deseralizacije nepouzdanih podataka, što omogućuje napadačima izvršavanje proizvoljnog koda na Llama poslužitelju za inferenciju putem zlonamjernih unosa. Problem nastaje iz nesigurnog rukovanja pickle formatom u Python Inference API-ju, a napadači mu mogu pristupiti putem ZeroMQ soketa. U odgovoru na to, Meta je 10. listopada lansirala verziju 0.0.41 koja implementira sigurniji JSON format za prijenos podataka. Ovaj incident podsjeća na sličan problem u OpenAI-ovom ChatGPT-u, koji nije adekvatno upravljao HTTP POST zahtjevima, povećavajući rizik od DDoS napada. Stručnjaci upozoravaju da AI okviri često skrivaju ranjivosti zbog nesigurnih praksi kodiranja, što povećava vjerojatnost njihove upotrebe u cyber napadima. Kako bi se riješili ovi sigurnosni izazovi, stvaraju se novi alati poput ShadowGenes koji pomažu organizacijama u praćenju povijesti modela i jačanju njihovih mjera sigurnosti u AI.

Ozbiljna sigurnosna ranjivost otkrivena je u Metaovom Llama okviru velikog jezičnog modela (LLM), što potencijalno omogućava napadačima da izvrše proizvoljni kod na poslužitelju za inferenciju llama-stack. Poznata kao CVE-2024-50050, ova greška ima CVSS ocjenu od 6, 3 od strane Mete, dok je tvrtka za sigurnost opskrbnog lanca Snyk ocijenila kao kritičnu s ocjenom 9, 3. Prema Avi Lumelskyju, istraživaču iz Oligo Securitya, pogođene verzije Metaove Llama su podložne deserializaciji nepouzdanih podataka, što omogućava napadačima da pošalju štetne podatke koji mogu biti deserialized za izvršenje proizvoljnog koda. Ova ranjivost povezana je s daljinskim izvršenjem koda u Python Inference API-ju, koji automatski deserializira Python objekte koristeći pickle biblioteku — što se smatra rizičnim za izvršenje proizvoljnog koda prilikom obrade nepouzdanih podataka. Napadači mogu iskoristiti ovu grešku ako je ZeroMQ socket, koji se koristi za razvoj AI aplikacija s Metaovim Llama modelima, izložen na mreži. Slanjem oblikovanih zlonamjernih objekata, napadač bi mogao postići izvršenje koda na domaćem računalu putem operacije unpickle. Nakon odgovornog otkrivanja 24. rujna 2024. , Meta je zakrpila problem 10.

listopada ažuriranjem na verziju 0. 0. 41 i prelaskom s picklea na JSON za komunikaciju putem soketa. Ovo nije prva ranjivost deserializacije primijećena u AI okvirima; na primjer, slična je greška pronađena u TensorFlow Keras okviru. Objava ove ranjivosti podudarila se s izvješćem o još jednoj grešci u OpenAI-ovom ChatGPT crawleru, koja bi mogla olakšati distribuirane napade uskraćivanja usluge (DDoS) zbog lošeg rukovanja HTTP POST zahtjevima. Ova pogreška omogućava napadačima slanje brojnih hiperlinkova unutar jednog zahtjeva, preplavljujući ciljani site s više veza. Osim toga, izvješće Truffle Securityja istaknulo je da neki AI asistenti za kodiranje mogu nenamjerno sugerirati nesigurne prakse, poput tvrdog kodiranja API ključeva, čime se ugrožava sigurnost korisničkih projekata. Joe Leon, istraživač sigurnosti, primijetio je da su podaci za obuku LLM-ova sadržavali mnoge nesigurne prakse kodiranja, perpetuirajući ranjivosti. Nadalje, istraživanja sugeriraju da bi LLM-ovi mogli biti zloupotrebljeni u raznim fazama cyber napada, čineći prijetnje učinkovitijima i preciznijima. Istraživanje tehnika identifikacije AI modela, poput ShadowGenes, otkriva nove načine praćenja genealogije modela kroz analizu komputacijskih grafova. HiddenLayer je naglasila da razumijevanje obitelji AI modela unutar organizacije poboljšava sposobnosti upravljanja sigurnošću.


Watch video about

Otkrivena velika sigurnosna ranjivost u Meta-inoj Llama LLM platformi.

Try our premium solution and start getting clients — at no cost to you

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

Dec. 15, 2025, 1:26 p.m.

AI Pokreće rekordnu prodaju od 336,6 milijardi do…

Analiza Salesforcea o razdoblju kupovine tijekom Cyber Weeka 2025.

Dec. 15, 2025, 1:24 p.m.

Rizici izumiranja umjetne inteligencije: Musk i A…

Brzi razvoj umjetne inteligencije (UI) izazvao je značajne rasprave i zabrinutost među stručnjacima, osobito u pogledu njenog dugoročnog utjecaja na čovječanstvo.

Dec. 15, 2025, 1:21 p.m.

Uđite prije Wall Streeta: Ova dionica AI marketin…

Ovo je sponzorirani sadržaj; Barchart ne podržava ni web stranice ni proizvode spomenute u nastavku.

Dec. 15, 2025, 1:16 p.m.

AlphaCode od Google DeepMind: AI natječe u progra…

Google DeepMind nedavno je predstavio inovativni sustav umjetne inteligencije nazvan AlphaCode, što predstavlja veliki iskorak u području umjetne inteligencije i razvoja softvera.

Dec. 15, 2025, 1:15 p.m.

Dobro poznati SEO objašnjava zašto će AI agenti d…

Pažljivo promatram pojavu agentnog SEO-a, uvjeren da će agenti značajno utjecati na industriju kako se sposobnosti budu razvijale u idućih nekoliko godina.

Dec. 15, 2025, 1:10 p.m.

Peter Lington iz Salesforcea o pripremi obrambeni…

Peter Lington, potpredsjednik za područje u Odjelu za rat Salesforcea, ističe transformacijski učinak koji će napredne tehnologije imati na Odjel za rat u sljedeće tri do pet godina.

Dec. 15, 2025, 9:35 a.m.

Strateška pozicija Sprout Social-a u mijenjajućem…

Sprout Social čvrsto se etablirao kao vodeći igrač u području upravljanja društvenim mrežama usvajanjem napredne AI tehnologije i sklapanjem strateških partnerstava koja potiču inovacije i unapređuju ponudu usluga.

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today