En alvorlig sikkerhets sårbarhet har blitt avdekket i Metas Llama store språkmodell (LLM) rammeverk, som potensielt kan gjøre det mulig for angripere å utføre vilkårlig kode på llama-stack inferensserveren. Kjent som CVE-2024-50050, har feilen en CVSS-poengsum på 6. 3 fra Meta, mens leverandørkjede-sikkerhetsfirmaet Snyk vurderer den som kritisk med en poengsum på 9. 3. Ifølge Avi Lumelsky, en forsker fra Oligo Security, er berørte versjoner av Metas Llama sårbare for deserialisering av ubetrodd data, noe som gjør det mulig for angripere å sende skadelig data som kan deserialiseres for å utføre vilkårlig kode. Denne sårbarheten er relatert til ekstern kodeutførelse i Python Inference API, som automatisk deserialiserer Python-objekter ved hjelp av pickle-biblioteket - som anses risikabelt for vilkårlig kodeutførelse ved behandling av ubetrodd data. Angripere kan utnytte denne feilen hvis ZeroMQ-socketen, som brukes til AI-app utvikling med Metas Llama-modeller, er eksponert over nettverket. Ved å sende konstruerte ondsinnede objekter, kan en angriper oppnå kodeutførelse på vertsdatamaskinen gjennom unpickle-operasjonen. Etter ansvarlig offentliggjøring den 24. september 2024, fikset Meta problemet den 10.
oktober ved å oppdatere til versjon 0. 0. 41 og bytte fra pickle til JSON for sokkelkommunikasjon. Dette er ikke den første deserialiserings sårbarheten som er notert i AI-rammeverk; for eksempel ble et lignende problem funnet i TensorFlows Keras-rammeverk. Kunngjøringen av denne sårbarheten sammenfalt med en rapport om en annen feil i OpenAIs ChatGPT-crawler, som kunne legge til rette for distribuerte tjenestenektangrep (DDoS) på grunn av dårlig håndtering av HTTP POST-forespørselene. Denne feilen lar angripere sende mange hyperlenker innenfor en enkelt forespørsel, og overvelde målstedet med flere tilkoblinger. I tillegg fremhevet en rapport fra Truffle Security at noen AI-kodingsassistenter ved et uhell kan foreslå usikre praksiser, som hardkodede API-nøkler, og dermed risikere sikkerheten i brukernes prosjekter. Joe Leon, en sikkerhetsforsker, bemerket at treningsdataene for LLM-er inkluderte mange usikre kodepraksiser, som videreførte sårbarheter. Videre indikerer forskning at LLM-er kan misbrukes i forskjellige faser av cyberangrep, noe som gjør trusler mer effektive og presise. Forskning på teknikker for identifisering av AI-modeller, som ShadowGenes, avdekker nye måter å spore modell genealogien gjennom beregningsgrafanalyse. HiddenLayer understreket at forståelsen av AI-modellfamilier i en organisasjon forbedrer sikkerhetslederkapasitetene.
Større sikkerhetssvikt oppdaget i Metas Llama LLM-rammeverk
Kunstig intelligens (KI) spiller stadig større rolle innen videomarkedsføring, og forandrer hvordan merker knytter seg til sine målgrupper.
Selv om AI-agenter drevet av store språkmodeller (LLMs) er relativt nye, har de fått betydelig oppmerksomhet innen salg.
En nylig omfattende gjennomgang som evaluerer kunstig intelligens (KI) i markedsføring på sosiale medier (SMM), avslører betydelige ytelsesforskjeller mellom AI-generert innhold og menneskeskapte innlegg.
Kunstig intelligens (AI) eksellerer raskt innen søkemotoroptimalisering (SEO), og gir markedsførere enestående muligheter til å forbedre synlighet på nettet og øke plasseringer i søkemotorer.
Jeff Bezos leder et nytt AI-oppstartsselskap kalt Project Prometheus, som er i tråd med hans nåværende interesser innen romfart og ingeniørvitenskap, ifølge The New York Times.
I denne videoen dekker jeg de siste utviklingene som påvirker Alphabet (GOOG +3,33%) (GOOGL +3,39%) sammen med andre kunstig intelligens-aksjer.
Palantir Technologies (PLTR) har levert en enestående aksjeutvikling, med en økning på over 186 % det siste året fram til 14.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today