Ozbiljna sigurnosna ranjivost otkrivena je u Metaovom Llama okviru velikog jezičnog modela (LLM), što potencijalno omogućava napadačima da izvrše proizvoljni kod na poslužitelju za inferenciju llama-stack. Poznata kao CVE-2024-50050, ova greška ima CVSS ocjenu od 6, 3 od strane Mete, dok je tvrtka za sigurnost opskrbnog lanca Snyk ocijenila kao kritičnu s ocjenom 9, 3. Prema Avi Lumelskyju, istraživaču iz Oligo Securitya, pogođene verzije Metaove Llama su podložne deserializaciji nepouzdanih podataka, što omogućava napadačima da pošalju štetne podatke koji mogu biti deserialized za izvršenje proizvoljnog koda. Ova ranjivost povezana je s daljinskim izvršenjem koda u Python Inference API-ju, koji automatski deserializira Python objekte koristeći pickle biblioteku — što se smatra rizičnim za izvršenje proizvoljnog koda prilikom obrade nepouzdanih podataka. Napadači mogu iskoristiti ovu grešku ako je ZeroMQ socket, koji se koristi za razvoj AI aplikacija s Metaovim Llama modelima, izložen na mreži. Slanjem oblikovanih zlonamjernih objekata, napadač bi mogao postići izvršenje koda na domaćem računalu putem operacije unpickle. Nakon odgovornog otkrivanja 24. rujna 2024. , Meta je zakrpila problem 10.
listopada ažuriranjem na verziju 0. 0. 41 i prelaskom s picklea na JSON za komunikaciju putem soketa. Ovo nije prva ranjivost deserializacije primijećena u AI okvirima; na primjer, slična je greška pronađena u TensorFlow Keras okviru. Objava ove ranjivosti podudarila se s izvješćem o još jednoj grešci u OpenAI-ovom ChatGPT crawleru, koja bi mogla olakšati distribuirane napade uskraćivanja usluge (DDoS) zbog lošeg rukovanja HTTP POST zahtjevima. Ova pogreška omogućava napadačima slanje brojnih hiperlinkova unutar jednog zahtjeva, preplavljujući ciljani site s više veza. Osim toga, izvješće Truffle Securityja istaknulo je da neki AI asistenti za kodiranje mogu nenamjerno sugerirati nesigurne prakse, poput tvrdog kodiranja API ključeva, čime se ugrožava sigurnost korisničkih projekata. Joe Leon, istraživač sigurnosti, primijetio je da su podaci za obuku LLM-ova sadržavali mnoge nesigurne prakse kodiranja, perpetuirajući ranjivosti. Nadalje, istraživanja sugeriraju da bi LLM-ovi mogli biti zloupotrebljeni u raznim fazama cyber napada, čineći prijetnje učinkovitijima i preciznijima. Istraživanje tehnika identifikacije AI modela, poput ShadowGenes, otkriva nove načine praćenja genealogije modela kroz analizu komputacijskih grafova. HiddenLayer je naglasila da razumijevanje obitelji AI modela unutar organizacije poboljšava sposobnosti upravljanja sigurnošću.
Otkrivena velika sigurnosna ranjivost u Meta-inoj Llama LLM platformi.
Analiza Salesforcea o razdoblju kupovine tijekom Cyber Weeka 2025.
Brzi razvoj umjetne inteligencije (UI) izazvao je značajne rasprave i zabrinutost među stručnjacima, osobito u pogledu njenog dugoročnog utjecaja na čovječanstvo.
Ovo je sponzorirani sadržaj; Barchart ne podržava ni web stranice ni proizvode spomenute u nastavku.
Google DeepMind nedavno je predstavio inovativni sustav umjetne inteligencije nazvan AlphaCode, što predstavlja veliki iskorak u području umjetne inteligencije i razvoja softvera.
Pažljivo promatram pojavu agentnog SEO-a, uvjeren da će agenti značajno utjecati na industriju kako se sposobnosti budu razvijale u idućih nekoliko godina.
Peter Lington, potpredsjednik za područje u Odjelu za rat Salesforcea, ističe transformacijski učinak koji će napredne tehnologije imati na Odjel za rat u sljedeće tri do pet godina.
Sprout Social čvrsto se etablirao kao vodeći igrač u području upravljanja društvenim mrežama usvajanjem napredne AI tehnologije i sklapanjem strateških partnerstava koja potiču inovacije i unapređuju ponudu usluga.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today