Znaleziono poważną lukę w zabezpieczeniach w ramach LLM Meta Llama.
Brief news summary
Znacząca luka w zabezpieczeniach, oznaczona jako CVE-2024-50050, została odkryta w frameworku dużego modelu językowego Llama firmy Meta. Ta podatność, oceniana na 6.3 w skali CVSS i uznawana za krytyczną z wynikiem 9.3 przez Snyk, wynika z deserializacji nieufnych danych, co pozwala atakującym na wykonanie dowolnego kodu na serwerze inferencyjnym Llama za pomocą złośliwych danych. Problem pojawia się z powodu niebezpiecznego traktowania formatu pickle w interfejsie API Python Inference, a wykorzystujący mogą się do niego dostępu przez gniazda ZeroMQ. W odpowiedzi na ten problem Meta uruchomiła wersję 0.0.41 w dniu 10 października, wprowadzając bardziej bezpieczny format JSON do transmisji danych. Ten incydent przypomina podobny problem w ChatGPT OpenAI, który niewłaściwie zarządzał żądaniami HTTP POST, zwiększając ryzyko ataków DDoS. Eksperci ostrzegają, że frameworki AI często mają luki z powodu niebezpiecznych praktyk kodowania, co zwiększa ich prawdopodobieństwo wykorzystania w cyberatakach. W odpowiedzi na te wyzwania bezpieczeństwa tworzone są nowe narzędzia, takie jak ShadowGenes, aby pomóc organizacjom śledzić historię modeli i poprawić środki bezpieczeństwa w dziedzinie AI.W ramach frameworka dużych modeli językowych (LLM) firmy Meta odkryto poważną lukę w zabezpieczeniach, która potencjalnie umożliwia atakującym wykonywanie dowolnego kodu na serwerze inferencyjnym llama-stack. Znana jako CVE-2024-50050, flaw ma ocenę CVSS wynoszącą 6. 3 od Meta, podczas gdy firma zajmująca się bezpieczeństwem łańcucha dostaw Snyk klasyfikuje ją jako krytyczną z oceną 9. 3. Jak podaje Avi Lumelsky, badacz z Oligo Security, dotknięte wersje Llama firmy Meta są podatne na deserializację zaufanych danych, co umożliwia atakującym przesyłanie szkodliwych danych, które mogą być deserializowane i wykonane jako dowolny kod. Ta luka jest związana z zdalnym wykonywaniem kodu w API Inferencji Pythona, które automatycznie deserializuje obiekty Pythona za pomocą biblioteki pickle—uznawanej za ryzykowną w przypadku wykonywania dowolnego kodu przy przetwarzaniu niezaufanych danych. Atakujący mogą wykorzystać tę lukę, jeśli gniazdo ZeroMQ, używane do rozwijania aplikacji AI z modelami Llama, jest wystawione w sieci. Przesyłając starannie skrojone złośliwe obiekty, atakujący mogliby osiągnąć wykonanie kodu na maszynie gospodarza poprzez operację unpickle. Po odpowiedzialnym ujawnieniu 24 września 2024 roku firma Meta naprawiła problem 10 października, aktualizując do wersji 0. 0. 41 i przechodząc od pickle do JSON w komunikacji przez gniazda.
To nie jest pierwsza luka w deserializacji zauważona w frameworkach AI; na przykład, podobny problem znaleziono w frameworku Keras TensorFlow. Ogłoszenie tej luki zbiegło się z raportem na temat innej wady w crawlerze ChatGPT OpenAI, która mogła ułatwić ataki typu distributed denial-of-service (DDoS) z powodu słabego zarządzania żądaniami HTTP POST. Ten błąd pozwala atakującym na przesyłanie wielu hiperłączy w jednym żądaniu, przeciążając docelową witrynę wieloma połączeniami. Dodatkowo, raport z Truffle Security podkreśla, że niektóre asystenty kodowania AI mogą nieumyślnie sugerować niebezpieczne praktyki, takie jak twarde kodowanie kluczy API, co zagraża bezpieczeństwu projektów użytkowników. Joe Leon, badacz bezpieczeństwa, zauważył, że dane treningowe dla LLM zawierały wiele niebezpiecznych praktyk kodowania, co potęguje luki. Ponadto badania wskazują, że LLM mogą być nadużywane na różnych etapach ataków cybernetycznych, co czyni zagrożenia bardziej skutecznymi i precyzyjnymi. Badania nad technikami identyfikacji modeli AI, takimi jak ShadowGenes, ujawniają nowe sposoby śledzenia genealogii modeli poprzez analizę grafów obliczeniowych. HiddenLayer podkreśliło, że zrozumienie rodzin modeli AI w organizacji zwiększa możliwości zarządzania bezpieczeństwem.
Watch video about
Znaleziono poważną lukę w zabezpieczeniach w ramach LLM Meta Llama.
Try our premium solution and start getting clients — at no cost to you