lang icon English
Jan. 26, 2025, 9:54 a.m.
2491

Større sikkerhetssvikt oppdaget i Metas Llama LLM-rammeverk

Brief news summary

En betydelig sikkerhetsfeil, identifisert som CVE-2024-50050, er funnet i Metas Llama rammeverk for store språkmodeller. Denne sårbarheten, vurdert til 6,3 på CVSS-skalaen og ansett som kritisk med en poengsum på 9,3 av Snyk, skyldes deserialisering av upålitelige data, som lar angripere kjøre vilkårlig kode på Llama-inferensserveren gjennom ondsinnede innganger. Problemet oppstår fra usikker håndtering av pickle-formatet i Python Inference API, og utnyttende kan få tilgang til det via ZeroMQ-sokler. Som svar på dette lanserte Meta versjon 0.0.41 den 10. oktober, som implementerer et sikrere JSON-format for datatransmisjon. Denne hendelsen minner om et lignende problem i OpenAIs ChatGPT, som utilstrekkelig håndterte HTTP POST-forespørsler, noe som økte risikoen for DDoS-angrep. Eksperter advarer om at AI-rammeverk ofte huser sårbarheter på grunn av usikre kodepraksiser, noe som øker sannsynligheten for at de brukes i cyberangrep. For å møte disse sikkerhetsutfordringene blir det utviklet nye verktøy som ShadowGenes for å hjelpe organisasjoner med å spore modellhistorikk og forbedre deres AI-sikkerhetstiltak.

En alvorlig sikkerhets sårbarhet har blitt avdekket i Metas Llama store språkmodell (LLM) rammeverk, som potensielt kan gjøre det mulig for angripere å utføre vilkårlig kode på llama-stack inferensserveren. Kjent som CVE-2024-50050, har feilen en CVSS-poengsum på 6. 3 fra Meta, mens leverandørkjede-sikkerhetsfirmaet Snyk vurderer den som kritisk med en poengsum på 9. 3. Ifølge Avi Lumelsky, en forsker fra Oligo Security, er berørte versjoner av Metas Llama sårbare for deserialisering av ubetrodd data, noe som gjør det mulig for angripere å sende skadelig data som kan deserialiseres for å utføre vilkårlig kode. Denne sårbarheten er relatert til ekstern kodeutførelse i Python Inference API, som automatisk deserialiserer Python-objekter ved hjelp av pickle-biblioteket - som anses risikabelt for vilkårlig kodeutførelse ved behandling av ubetrodd data. Angripere kan utnytte denne feilen hvis ZeroMQ-socketen, som brukes til AI-app utvikling med Metas Llama-modeller, er eksponert over nettverket. Ved å sende konstruerte ondsinnede objekter, kan en angriper oppnå kodeutførelse på vertsdatamaskinen gjennom unpickle-operasjonen. Etter ansvarlig offentliggjøring den 24. september 2024, fikset Meta problemet den 10.

oktober ved å oppdatere til versjon 0. 0. 41 og bytte fra pickle til JSON for sokkelkommunikasjon. Dette er ikke den første deserialiserings sårbarheten som er notert i AI-rammeverk; for eksempel ble et lignende problem funnet i TensorFlows Keras-rammeverk. Kunngjøringen av denne sårbarheten sammenfalt med en rapport om en annen feil i OpenAIs ChatGPT-crawler, som kunne legge til rette for distribuerte tjenestenektangrep (DDoS) på grunn av dårlig håndtering av HTTP POST-forespørselene. Denne feilen lar angripere sende mange hyperlenker innenfor en enkelt forespørsel, og overvelde målstedet med flere tilkoblinger. I tillegg fremhevet en rapport fra Truffle Security at noen AI-kodingsassistenter ved et uhell kan foreslå usikre praksiser, som hardkodede API-nøkler, og dermed risikere sikkerheten i brukernes prosjekter. Joe Leon, en sikkerhetsforsker, bemerket at treningsdataene for LLM-er inkluderte mange usikre kodepraksiser, som videreførte sårbarheter. Videre indikerer forskning at LLM-er kan misbrukes i forskjellige faser av cyberangrep, noe som gjør trusler mer effektive og presise. Forskning på teknikker for identifisering av AI-modeller, som ShadowGenes, avdekker nye måter å spore modell genealogien gjennom beregningsgrafanalyse. HiddenLayer understreket at forståelsen av AI-modellfamilier i en organisasjon forbedrer sikkerhetslederkapasitetene.


Watch video about

Større sikkerhetssvikt oppdaget i Metas Llama LLM-rammeverk

Try our premium solution and start getting clients — at no cost to you

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

Nov. 17, 2025, 1:26 p.m.

AI i videomarkedsføring: Skreddersy innhold for m…

Kunstig intelligens (KI) spiller stadig større rolle innen videomarkedsføring, og forandrer hvordan merker knytter seg til sine målgrupper.

Nov. 17, 2025, 1:26 p.m.

Grunnleggeren av 6sense, Amanda Kahlow, samler in…

Selv om AI-agenter drevet av store språkmodeller (LLMs) er relativt nye, har de fått betydelig oppmerksomhet innen salg.

Nov. 17, 2025, 1:20 p.m.

AI-generert innhold i markedsføring på sosiale me…

En nylig omfattende gjennomgang som evaluerer kunstig intelligens (KI) i markedsføring på sosiale medier (SMM), avslører betydelige ytelsesforskjeller mellom AI-generert innhold og menneskeskapte innlegg.

Nov. 17, 2025, 1:13 p.m.

AI-drevet SEO: Fremtiden innen digital markedsfør…

Kunstig intelligens (AI) eksellerer raskt innen søkemotoroptimalisering (SEO), og gir markedsførere enestående muligheter til å forbedre synlighet på nettet og øke plasseringer i søkemotorer.

Nov. 17, 2025, 1:11 p.m.

Jeff Bezos vil lede en ny AI-startup med fokus på…

Jeff Bezos leder et nytt AI-oppstartsselskap kalt Project Prometheus, som er i tråd med hans nåværende interesser innen romfart og ingeniørvitenskap, ifølge The New York Times.

Nov. 17, 2025, 1:10 p.m.

Anthropic kom med en enorm kunngjøring som kan om…

I denne videoen dekker jeg de siste utviklingene som påvirker Alphabet (GOOG +3,33%) (GOOGL +3,39%) sammen med andre kunstig intelligens-aksjer.

Nov. 17, 2025, 9:30 a.m.

Kan BigBear.ai bli neste Palantir Technologies?

Palantir Technologies (PLTR) har levert en enestående aksjeutvikling, med en økning på over 186 % det siste året fram til 14.

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today