lang icon En
Dec. 23, 2025, 9:15 a.m.
307

Wyzwania związane z bezpieczeństwem sztucznej inteligencji: Dlaczego tradycyjne zespoły ds. cyberbezpieczeństwa mają trudności z lukami w AI

Brief news summary

Ekspert ds. bezpieczeństwa AI, Sander Schulhoff, podkreśla poważną lukę w cyberbezpieczeństwie: tradycyjne zespoły często nie mają wystarczającej wiedzy na temat specyficznych dla AI luk w zabezpieczeniach, zwłaszcza w dużych modelach językowych, które mogą zawodzić w sposób, na który nie mogą poradzić się zwyczajne poprawki oprogramowania. Choć takie zespoły mogą wykrywać błędy techniczne, często przegapiają, jak AI można manipuluje przez język, aby wywołać szkodliwe działania. Schulhoff podkreśla potrzebę zaangażowania specjalistów znających zarówno bezpieczeństwo AI, jak i tradycyjne cyberbezpieczeństwo, aby skutecznie zarządzać ryzykiem związanym z AI, w tym bezpiecznego obsługiwania złośliwego kodu generowanego przez AI. Krytykuje wiele startupów specjalizujących się w bezpieczeństwie AI za powierzchowne zabezpieczenia, przewidując korektę rynku. Tymczasem giganci technologiczni i inwestorzy zwiększają inwestycje w bezpieczeństwo AI, dostrzegając rosnące zagrożenia wynikające z integracji AI z infrastrukturami chmurowymi. Na przykład przejęcie Wiz przez Google za 32 miliardy dolarów podkreśla rosnące zapotrzebowanie na solidne rozwiązania zabezpieczające AI i chmury w złożonych środowiskach multi-cloud.

Firmy mogą mieć zespoły ds. cyberbezpieczeństwa, ale wiele z nich nadal nie jest przygotowanych na to, jak naprawdę zawodzą systemy AI, według badacza bezpieczeństwa AI. Sander Schulhoff, autor jednej z pierwszych publikacji na temat inżynierii promptów i ekspert od luki w zabezpieczeniach systemów AI, stwierdził w ostatnim odcinku „Lenny’s Podcast” emitowanym w niedzielę, że liczne organizacje nie dysponują wykwalifikowanym personelem, który potrafiłby zrozumieć i zminimalizować ryzyko związane z bezpieczeństwem AI. Tradycyjne zespoły ds. cyberbezpieczeństwa są wytrenowane do naprawiania błędów i obsługi znanych luk, ale AI zachowuje się inaczej. „Możesz załatać błąd, ale nie załata się mózgu, ” wyjaśnił Schulhoff, podkreślając, co uznaje za podstawowe nieporozumienie między podejściem zespołów bezpieczeństwa a tym, jak zawodzą duże modele językowe. „Istnieje rozbieżność między tym, jak działa AI a klasycznym cyberbezpieczeństwem, ” dodał. Ta różnica staje się widoczna w praktycznych wdrożeniach. Eksperci ds.

cyberbezpieczeństwa mogą badać system AI pod kątem problemów technicznych, nie zadając pytania: „A co, jeśli ktoś zmanipuluje AI, by wykonała coś nieodpowiedniego?” Schulhoff, który zarządza platformą inżynierii promptów i hackathonem red-teamingu AI, zauważył. W przeciwieństwie do konwencjonalnego oprogramowania, systemy AI mogą być wpływane poprzez język i subtelne instrukcje, podkreślił. Schulhoff wspomniał, że osoby doświadczone zarówno w dziedzinie bezpieczeństwa AI, jak i tradycyjnego cyberbezpieczeństwa, wiedzą, jak zareagować, jeśli model AI zostanie oszukany, na przykład, by generował złośliwy kod – np. uruchamiając kod w izolowanym kontenerze, aby zapobiec szkodliwemu wpływowi na szerszy system. Uważa, że połączenie bezpieczeństwa AI i konwencjonalnego cyberbezpieczeństwa stanowi „bezpieczeństwo przyszłości”. Pojawienie się startupów z dziedziny bezpieczeństwa AI Schulhoff krytykował też wiele startupów z zakresu bezpieczeństwa AI za promowanie zabezpieczeń, które nie zapewniają prawdziwego ochrony. Ponieważ systemy AI mogą być manipulowane na nieskończone sposoby, twierdzenia, że te narzędzia potrafią „złapać wszystko, ” są mylące. „To jest całkowicie błędne, ” powiedział, przewidując korektę rynku, gdzie „przychody tych zabezpieczeń i firm zajmujących się automatycznym red-teamem dramatycznie się zmniejszą. ” Startupy z dziedziny bezpieczeństwa AI korzystają z dużego zainteresowania inwestorów. Zarówno gigantyczne korporacje technologiczne, jak i fundusze venture capital intensywnie inwestują w ten sektor, ponieważ firmy pędzą do zabezpieczenia swoich systemów AI. W marcu Google przejęło startup cyberbezpieczeństwa Wiz za 32 miliardy dolarów, by wzmocnić swoje usługi bezpieczeństwa w chmurze. CEO Google, Sundar Pichai, przyznał, że AI wprowadza „nowe ryzyko” w czasach, gdy multi-chmury i środowiska hybrydowe stają się coraz bardziej powszechne. „W tym kontekście organizacje poszukują rozwiązań cyberbezpieczeństwa, które zwiększą bezpieczeństwo chmury w wielu chmurach, ” dodał.


Watch video about

Wyzwania związane z bezpieczeństwem sztucznej inteligencji: Dlaczego tradycyjne zespoły ds. cyberbezpieczeństwa mają trudności z lukami w AI

Try our premium solution and start getting clients — at no cost to you

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

Dec. 23, 2025, 1:26 p.m.

15 sposobów, w jakie sprzedaż się zmieniła w tym …

Przez ostatnich 18 miesięcy zespół SaaStr zagłębił się w temat AI i sprzedaży, a intensywny wzrost nastąpił od czerwca 2025 roku.

Dec. 23, 2025, 1:23 p.m.

GPT-5 od OpenAI: Co do tej pory wiemy

OpenAI przygotowuje się do uruchomienia GPT-5, kolejnej dużej wersji swojego series dużych modeli językowych, którego premiera przewidywana jest na początek 2026 roku.

Dec. 23, 2025, 1:20 p.m.

Sztuczna inteligencja w SEO: rewolucja w tworzeni…

Sztuczna inteligencja (SI) szybko przekształca dziedzinę tworzenia i optymalizacji treści w ramach optymalizacji dla wyszukiwarek internetowych (SEO).

Dec. 23, 2025, 1:20 p.m.

Rozwiązania w zakresie wideokonferencji opartych …

Przejście na pracę zdalną uwydatniło kluczową potrzebę posiadania skutecznych narzędzi komunikacyjnych, co doprowadziło do rozwoju rozwiązań do wideokonferencji zasilanych sztuczną inteligencją, umożliwiających płynną współpracę na odległość.

Dec. 23, 2025, 1:17 p.m.

Rynek sztucznej inteligencji w medycynie: wielkoś…

Przegląd Rynek globalny sztucznej inteligencji w medycynie szacowany jest na około 156,8 miliarda USD do 2033 roku, wobec 13,7 miliarda USD w 2023 roku, z dynamicznym CAGR wynoszącym 27,6% od 2024 do 2033

Dec. 23, 2025, 9:30 a.m.

Danny Sullivan i John Mueller z Google o SEO dla …

John Mueller z Google gościł Danny’ego Sullivana, również z Google, podczas podcastu Search Off the Record, aby omówić temat „Myśli na temat SEO i SEO dla AI”.

Dec. 23, 2025, 9:26 a.m.

Lexus testuje generatywną sztuczną inteligencję w…

Krótki wgląd: Lexus uruchomił świąteczną kampanię marketingową stworzoną przy użyciu generatywnej sztucznej inteligencji, jak podano w komunikacie prasowym

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today