lang icon En
Dec. 28, 2024, 10:52 a.m.
2262

Badania wykazują, że modele AI są podatne na kradzież poprzez sygnatury elektromagnetyczne.

Brief news summary

Naukowcy z Uniwersytetu Stanowego Karoliny Północnej odkryli nową lukę bezpieczeństwa w modelach AI, analizując ich emisje elektromagnetyczne. Zespół pod kierunkiem doktorantki Ashley Kurian użył sondy elektromagnetycznej do badania modeli AI na procesorach Edge TPU firmy Google, osiągając 99,91% dokładności w identyfikacji architektur i hiperparametrów modeli. To odkrycie budzi obawy dotyczące nieautoryzowanego powielania modeli AI, co może obejść koszty ich rozwoju i naruszać prawa własności intelektualnej. Mimo że wykorzystanie tej luki wymaga fizycznego dostępu do sprzętu, jej skutki są znaczące i podkreślają potrzebę zwiększenia środków bezpieczeństwa. Zespół bada również zastosowanie tej techniki do smartfonów, co stawia dodatkowe wyzwania ze względu na ich kompaktową konstrukcję. Mehmet Sencan z Atlas Computing zauważył, że choć ataki kanałami bocznymi są znane, użycie sond elektromagnetycznych do pełnego powielania modeli jest bezprecedensowe. To odkrycie podkreśla pilność ochrony modeli AI przed inżynierią wsteczną na niezabezpieczonych urządzeniach.

Modele sztucznej inteligencji mogą być zaskakująco podatne na kradzież poprzez wykrywanie ich sygnatur elektromagnetycznych. Naukowcy z Uniwersytetu Stanowego Karoliny Północnej zwrócili uwagę na tę metodę w nowej publikacji, choć podkreślili, że nie zachęcają do ataków na sieci neuronowe. Używając sondy elektromagnetycznej, kilku wstępnie wytrenowanych otwartoźródłowych modeli AI i Google Edge TPU, analizowali emisje elektromagnetyczne podczas pracy czipu TPU. Ashley Kurian, główny autor badania i doktorantka w NC State, wyjaśniła na łamach Gizmodo: „Budowa i trenowanie sieci neuronowej jest kosztowne. Wymaga znaczących nakładów czasu i zasobów obliczeniowych - to własność intelektualna firmy.

Na przykład, ChatGPT używa miliardów parametrów, które są kluczowymi komponentami. Jeśli ktoś to ukradnie, faktycznie posiada ChatGPT bez ponoszenia kosztów i może nawet go sprzedać. ” Kradzież jest poważnym problemem w AI, często z powodu wykorzystywania przez twórców modeli trenowanych na chronionych prawami autorskimi dziełach bez zgody autorów, co prowadzi do procesów sądowych i narzędzi dla artystów do przeciwdziałania temu poprzez „zatruwanie” generatorów sztuki. Kurian wyjaśniła, że dane z czujnika elektromagnetycznego dostarczają „sygnatury” zachowania przetwarzania AI, co jest stosunkowo proste. Aby odkryć hiperparametry modelu — konkretne jego architekturę i cechy definiujące — porównali dane elektromagnetyczne z celu z danymi z innych modeli AI uruchamianych na tym samym typie czipu. Poprzez to porównanie "określili architekturę i specyficzne cechy, znane jako detale warstw, niezbędne do replikacji modelu AI, " powiedziała Kurian, osiągając "dokładność 99, 91%. " Przeprowadzali to, mając fizyczny dostęp do czipu w celu sondowania i uruchamiania modeli, pracując we współpracy z Google w celu oceny podatności ich czipów. Kurian zasugerowała, że przechwytywanie modelów na smartfonach mogłoby być możliwe, choć ich kompaktowy design komplikuje monitorowanie sygnałów elektromagnetycznych. Mehmet Sencan, badacz bezpieczeństwa z organizacji non-profit Atlas Computing zajmującej się standardami AI, zauważył na łamach Gizmodo, że „ataki kanałowe na urządzenia krawędziowe nie są nowe. ” Jednak metoda ekstrakcji całej architektury hiperparametrów modelu jest godna uwagi. Sencan wyjaśnił, że ponieważ sprzęt AI „przeprowadza wnioskowanie w jawnym tekście, ” każdy model wdrożony na niezabezpieczonych urządzeniach krawędziowych lub serwerach jest podatny na wyodrębnienie jego architektury poprzez szczegółowe sondowanie.


Watch video about

Badania wykazują, że modele AI są podatne na kradzież poprzez sygnatury elektromagnetyczne.

Try our premium solution and start getting clients — at no cost to you

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

Dec. 23, 2025, 1:26 p.m.

15 sposobów, w jakie sprzedaż się zmieniła w tym …

Przez ostatnich 18 miesięcy zespół SaaStr zagłębił się w temat AI i sprzedaży, a intensywny wzrost nastąpił od czerwca 2025 roku.

Dec. 23, 2025, 1:23 p.m.

GPT-5 od OpenAI: Co do tej pory wiemy

OpenAI przygotowuje się do uruchomienia GPT-5, kolejnej dużej wersji swojego series dużych modeli językowych, którego premiera przewidywana jest na początek 2026 roku.

Dec. 23, 2025, 1:20 p.m.

Sztuczna inteligencja w SEO: rewolucja w tworzeni…

Sztuczna inteligencja (SI) szybko przekształca dziedzinę tworzenia i optymalizacji treści w ramach optymalizacji dla wyszukiwarek internetowych (SEO).

Dec. 23, 2025, 1:20 p.m.

Rozwiązania w zakresie wideokonferencji opartych …

Przejście na pracę zdalną uwydatniło kluczową potrzebę posiadania skutecznych narzędzi komunikacyjnych, co doprowadziło do rozwoju rozwiązań do wideokonferencji zasilanych sztuczną inteligencją, umożliwiających płynną współpracę na odległość.

Dec. 23, 2025, 1:17 p.m.

Rynek sztucznej inteligencji w medycynie: wielkoś…

Przegląd Rynek globalny sztucznej inteligencji w medycynie szacowany jest na około 156,8 miliarda USD do 2033 roku, wobec 13,7 miliarda USD w 2023 roku, z dynamicznym CAGR wynoszącym 27,6% od 2024 do 2033

Dec. 23, 2025, 9:30 a.m.

Danny Sullivan i John Mueller z Google o SEO dla …

John Mueller z Google gościł Danny’ego Sullivana, również z Google, podczas podcastu Search Off the Record, aby omówić temat „Myśli na temat SEO i SEO dla AI”.

Dec. 23, 2025, 9:26 a.m.

Lexus testuje generatywną sztuczną inteligencję w…

Krótki wgląd: Lexus uruchomił świąteczną kampanię marketingową stworzoną przy użyciu generatywnej sztucznej inteligencji, jak podano w komunikacie prasowym

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today