Ozbiljna sigurnosna ranjivost otkrivena je u Meta-inom Llama okviru velikih jezičkih modela (LLM), što potencijalno omogućava napadačima da izvrše proizvoljni kod na llama-stack inferencnom serveru. Poznata kao CVE-2024-50050, greška ima CVSS ocjenu od 6. 3 prema Meti, dok firma za sigurnost lanca snabdevanja Snyk ocjenjuje da je kritična sa ocjenom 9. 3. Prema riječima Avija Lumelskyja, istraživača iz Oligo Security, pogođene verzije Meta-inog Llama su podložne deserializaciji nepouzdanih podataka, što omogućava napadačima da pošalju štetne podatke koji se mogu deserializovati kako bi se izvršio proizvoljni kod. Ova ranjivost je povezana sa izvršenjem koda na daljinu u Python Inference API-ju, koji automatski deserializuje Python objekte koristeći pickle biblioteku—smatrana rizikom za izvršenje proizvoljnog koda kada se obrađuju nepouzdani podaci. Napadači mogu iskoristiti ovu grešku ako je ZeroMQ soket, korišćen za razvoj AI aplikacija sa Meta-inim Llama modelima, izložen preko mreže. Prenošenjem oblikovanih zlonamjernih objekata, napadač bi mogao ostvariti izvršenje koda na domaćinskoj mašini putem operacije unpickling. Nakon odgovornog otkrivanja 24. septembra 2024, Meta je ispravila problem 10.
oktobra ažuriranjem na verziju 0. 0. 41 i prelaskom sa pickle na JSON za komunikaciju putem soketa. Ovo nije prva ranjivost deserializacije zabilježena u AI okvirima; na primjer, sličan problem je pronađen u Keras okviru TensorFlowa. Objava ove ranjivosti pokcoincidira sa izveštajem o drugoj grešci u OpenAI-ovom ChatGPT crawleru, koja bi mogla olakšati distribuirane napade uskraćivanja usluge (DDoS) zbog lošeg rukovanja HTTP POST zahtevima. Ova propust omogućava napadačima da pošalju brojne hiperveze unutar jednog zahteva, preopterećujući ciljani sajt s višestrukim konekcijama. Pored toga, izveštaj Truffle Security-a istakao je da neki AI asistenti za kodiranje mogu nenamerno sugerisati nesigurne prakse, poput hard-kodiranja API ključeva, čime se ugrožava sigurnost u projektima korisnika. Joe Leon, istraživač sigurnosti, primetio je da podaci za obuku LLM-ova uključuju mnoge nesigurne prakse kodiranja, perpetuirajući ranjivosti. Nadalje, istraživanja ukazuju na to da se LLM-ovi mogu zloupotrebljavati u različitim fazama sajber napada, čineći prijetnje efikasnijim i preciznijim. Istraživanje tehnika identifikacije AI modela, poput ShadowGenes, otkriva nove načine za praćenje genealogije modela kroz analizu računarskih grafova. HiddenLayer je naglasio da razumevanje porodica AI modela u organizaciji poboljšava sposobnosti upravljanja sigurnošću.
Otkrivena velika sigurnosna rupa u Meta Llama LLM okviru.
Porast videa generiranih putem AI-ja duboko mijenja dijeljenje sadržaja na platformama društvenih mreža.
Sažetak i prepis “Bitno” o transformaciji AI i organizacijskoj kulturi Transformacija umjetne inteligencije uglavnom predstavlja kulturni izazov, a ne samo tehnološki
Cilj poslovanja je proširenje prodaje, ali jaka konkurencija može spriječiti taj cilj.
Inkorporacija umjetne inteligencije (AI) u strategije optimizacije pretraživača (SEO) temeljno mijenja način na koji preduzeća poboljšavaju svoju online vidljivost i privlače organski saobraćaj.
Tehnologija deepfakea nedavno je napravila značajan napredak, proizvodeći vrlo realistične manipulirane videozapise koji uvjerljivo prikazuju osobe da rade ili govore stvari koje nikada nisu zaista učinile.
Nvidia je najavio značajno proširenje svojih inicijativa otvorenog koda, što signalizira stratešku posvećenost podršci i napredovanju ekosistema otvorenog koda u visokoučinkovitom računarstvu (HPC) i umjetnoj inteligenciji (AI).
Dana 19.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today