En alvorlig sikkerhedssårbarhed er blevet afsløret i Metas Llama store sprogmodel (LLM) rammeværk, hvilket potentielt muliggør, at angribere kan udføre vilkårlig kode på llama-stack inferensserveren. Kendt som CVE-2024-50050 har fejlen en CVSS-score på 6, 3 fra Meta, mens supply chain sikkerhedsfirmaet Snyk vurderer den som kritisk med en score på 9, 3. Ifølge Avi Lumelsky, en forsker fra Oligo Security, er de berørte versioner af Metas Llama udsatte for deserialisering af ikke-pålidelige data, hvilket gør det muligt for angribere at sende skadelig data, der kan deserialiseres for at udføre vilkårlig kode. Denne sårbarhed relaterer sig til eksterne kodeudfordringer i Python Inference API, som automatisk deserialiserer Python-objekter ved hjælp af pickle-biblioteket—betragtet som risikabelt for vilkårlig kodeudførelse, når der behandles ikke-pålidelige data. Angribere kan udnytte denne fejl, hvis ZeroMQ-socketen, der bruges til AI-app-udvikling med Metas Llama-modeller, er eksponeret over netværket. Ved at transmittere fremstillede skadelige objekter kunne en angriber opnå kodeudførelse på værtsmaskinen gennem unpickle-operationen. Efter ansvarlig offentliggørelse den 24. september 2024, rettede Meta problemet den 10.
oktober ved at opdatere til version 0. 0. 41 og skifte fra pickle til JSON til socketkommunikation. Dette er ikke den første deserialiseringssårbarhed, der er bemærket i AI-rammeværk; for eksempel blev et lignende problem fundet i TensorFlows Keras-rammeværk. Annonceringen af denne sårbarhed faldt sammen med en rapport om en anden fejl i OpenAIs ChatGPT-crawler, som kunne lette distribuerede denial-of-service (DDoS) angreb på grund af dårlig håndtering af HTTP POST-anmodninger. Denne oversigt tillader angribere at sende adskillige hyperlinks inden for en enkelt anmodning, hvilket overbelaster det målrettede site med flere forbindelser. Derudover fremhævede en rapport fra Truffle Security, at nogle AI-kodningsassistenter utilsigtet kunne foreslå usikre praksisser, såsom at hardkode API-nøgler, hvilket risikerer sikkerheden i brugernes projekter. Joe Leon, en sikkerhedsregistrator, bemærkede, at træningsdataene for LLM'er indeholdt mange usikre kodningspraksisser, der viderefører sårbarheder. Ydermere indikerer forskning, at LLM'er kunne misbruges i forskellige faser af cyberangreb, hvilket gør trusler mere effektive og præcise. Forskning i identifikationsteknikker for AI-modeller, som ShadowGenes, afslører nye metoder til at spore modelgenealogi gennem beregningsgrafanalyse. HiddenLayer understregede, at forståelsen af AI-modelfamilier i en organisation forbedrer sikkerhedsstyringsmulighederne.
Større sikkerhedsfejl opdaget i Metas Llama LLM-rammeværk.
I dagens hastigt forandrende digitale marketingmiljø bliver kunstig intelligens (AI) stadig vigtigere, især gennem AI-videoanalyse.
OpenAI og NVIDIA har annonceret et større partnerskab med fokus på at accelerere udviklingen og implementeringen af avancerede kunstig intelligens (AI) modeller og infrastruktur.
Reklamebranchen tog enorme skridt fremad i 2025 med hurtig automationsudbredelse: LiveRamp lancerede agentisk orkestrering den 1.
Da Jeff Bezos forudsagde, at en banebrydende teknologi ville definere Amazons fremtid, blev endda topanalytikere på Wall Street overraskede.
Kunstig intelligens (AI) er ved at transformere søgemaskineoptimering (SEO), hvilket giver virksomheder nye muligheder for at øge deres online synlighed og forbedre placeringer i søgeresultaterne.
I 2025 blev chief marketing officers hos mange førende globale mærker enige om at gøre kunstig intelligens (AI) til en central del af deres strategier, men denne entusiasme førte sommetider til risikable resultater.
Omsætningsteams har kæmpet i årevis på tværs af alle brancher og organisationsstørrelser, ofte med følelsen af konstant at forsøge at stopppe en utæt trakt uden varig succes.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today