Czy firmy zajmujące się sztuczną inteligencją odpowiednio chronią ludzkość przed ryzykiem związanym ze sztuczną inteligencją?Według nowej oceny opublikowanej przez Instytut Przyszłości Życia, organizację non-profit z Doliny Krzemowej, odpowiedź jest prawdopodobnie nie. W miarę jak AI staje się coraz bardziej integralną częścią interakcji człowieka z technologią, pojawiają się potencjalne zagrożenia — od wykorzystywania chatbotów AI do poradnictwa, co prowadziło do samobójstw, po cyberataki wspomagane sztuczną inteligencją. Nadchodzące ryzyko obejmuje także użycie AI w celach wojskowych lub próby destabilizacji rządów. Niestety, brakuje odpowiednich bodźców, by firmy zajmujące się AI priorytetowo traktowały kwestie bezpieczeństwa globalnego. Ostatnio opublikowany Indeks Bezpieczeństwa AI Instytutu, mający na celu skierowanie rozwoju AI ku bezpieczniejszym rozwiązaniom i złagodzenie zagrożeń egzystencjalnych, podkreśla ten problem. Max Tegmark, prezes Instytutu i profesor MIT, zauważył, że firmy AI działają jako jedyny sektor w USA produkujący potężną technologię bez regulacji, tworząc „wyścig do dna”, w którym bezpieczeństwo często jest pomijane. Najwyższe oceny na indeksie to tylko C+, przyznane OpenAI, twórcom ChatGPT, oraz Anthropic, znanemu z chatbota Claude. Działy AI Google, Google DeepMind, otrzymały C. Niższe oceny uzyskały Meta (właściciel Facebooka) oraz Elon Musk’s xAI, obie firmy zlokalizowane w okolicach Północnego Palo Alto. Chińskie firmy Z. ai i DeepSeek również zdobyły D. Alibaba Cloud otrzymała najniższą ocenę D-. Firmy oceniano na podstawie 35 wskaźników w sześciu kategoriach, takich jak bezpieczeństwo egzystencjalne, ocena ryzyka czy dzielenie się informacjami. Ocena opierała się na danych publicznych oraz odpowiedziach ankietowych firm, ocenianych przez ośmiu ekspertów od AI, w tym naukowców i liderów organizacji. Co ważne, wszystkie firmy uzyskały poniżej średniej w kategorii bezpieczeństwa egzystencjalnego, która mierzy kontrole wewnętrzne i strategie zapobiegania katastrofalnym nadużyciom AI.
Raport stwierdza, że żadna z nich nie przedstawiła wiarygodnych planów zapobiegania utracie kontroli lub poważnym nadużyciom, gdy AI będzie rozwijała się w kierunku ogólnej i superinteligencji. Zarówno Google DeepMind, jak i OpenAI potwierdziły swoje zaangażowanie w kwestie bezpieczeństwa. OpenAI podkreśliło inwestycje w najbardziej zaawansowane badania nad bezpieczeństwem, rygorystyczne testy oraz udostępnianie ram bezpieczeństwa, aby podnosić standardy branżowe. Google DeepMind zaakcentowało swoje podejście naukowe i protokoły mające na celu złagodzenie poważnych zagrożeń ze strony zaawansowanych modeli AI zanim zagrożenia się materializują. W odróżnieniu od tego, Instytut podkreślił, że firmy takie jak xAI i Meta mają ramy zarządzania ryzykiem, ale brakuje im odpowiednich zobowiązań do monitorowania i kontroli, a także znaczących inwestycji w badania nad bezpieczeństwem. Firmy takie jak DeepSeek, Z. ai i Alibaba Cloud nie mają publicznie dostępnej dokumentacji strategii bezpieczeństwa. Meta, Z. ai, DeepSeek, Alibaba i Anthropic nie odpowiedziały na prośby o komentarz. xAI odrzuciło raport jako „Kłamstwa Mediów Legacy”, a prawnik Muska nie odpowiedział na dalsze pytania. Mimo że Musk doradza i finansuje Instytut Przyszłości Życia, nie był zaangażowany w tworzenie Indeksu Bezpieczeństwa AI. Tegmark wyraził obawy, że brak odpowiednich regulacji może umożliwić terrorystom rozwijanie broni biologicznej, zwiększyć manipulacyjne możliwości AI ponad obecny poziom lub destabilizować rządy. Podkreślił, że rozwiązanie tych problemów jest proste: konieczne jest ustanowienie wiążących standardów bezpieczeństwa dla firm zajmujących się AI. Choć niektóre działania rządowe mają na celu zwiększenie nadzoru nad AI, lobbing technologiczny sprzeciwia się takim regulacjom, obawiając się hamowania innowacji czy migracji firm do innych krajów. Niemniej jednak, legislacja taka jak kalifornijski SB 53, podpisany przez gubernatora GAVINA Newsoma we wrześniu, wymaga od firm ujawniania procedur bezpieczeństwa i zgłaszania incydentów, takich jak cyberataki. Tegmark uznaje to za krok we właściwym kierunku, ale podkreśla, że konieczne jest znacznie więcej działań. Rob Enderle, główny analityk w Enderle Group, uznał Indeks Bezpieczeństwa AI za przekonujące narzędzie do regulacji AI, ale wyraził wątpliwości co do zdolności obecnego rządu USA do wdrożenia skutecznych regulacji. Ostrzegł, że źle opracowane przepisy mogą wyrządzić szkody i wątpi, czy obecnie istnieją mechanizmy egzekwowania przestrzegania tych zasad. Podsumowując, Indeks Bezpieczeństwa AI ujawnia, iż główni deweloperzy AI wciąż nie wykazali silnych zobowiązań w zakresie bezpieczeństwa, co podkreśla pilną potrzebę zaostrzenia regulacji w celu ochrony ludzkości przed rosnącymi zagrożeniami ze strony sztucznej inteligencji.
Indeks Bezpieczeństwa Sztucznej Inteligencji ujawnia, że główne firmy zajmujące się AI nie chronią wystarczająco ludzkości przed ryzykami związanymi z sztuczną inteligencją
Platformy mediów społecznościowych coraz częściej wykorzystują sztuczną inteligencję (SI) do ulepszania moderacji materiałów wideo, odpowiadając na gwałtowny wzrost liczby filmów jako dominującej formy komunikacji online.
PRZEWROT POLITYKI: Po latach zaostrzeń ograniczeń, decyzja o zezwoleniu na sprzedaż chipów Nvidia H200 do Chin wywołała sprzeciw części Republikanów.
Zwolnienia spowodowane sztuczną inteligencją zaznaczyły rynek pracy w 2025 roku, gdy duże firmy ogłosiły tysiące cięć zatrudnienia przypisywanych postępom w AI.
RankOS™ zwiększa widoczność marki i cytowania w Perplexity AI oraz innych platformach wyszukiwawczych typu answer-engine Usługi agencji SEO Perplexity Nowy Jork, NY, 19 grudnia 2025 (GLOBE NEWSWIRE) — Firma NEWMEDIA
Oryginalna wersja tego artykułu ukazała się w newsletterze CNBC Inside Wealth, napisanym przez Roberta Franka, który stanowi tygodniowe źródło informacji dla inwestorów i konsumentów o wysokim majątku netto.
Nagłówki skupiają się na pokazaniu wielomiliardowej inwestycji Disneya w OpenAI i spekulacjach, dlaczego Disney wybrał OpenAI zamiast Google, przeciwko któremu wytacza proces o domniemane naruszenie praw autorskich.
Salesforce opublikował szczegółowy raport dotyczący wydarzenia zakupowego Cyber Week 2025, analizując dane z ponad 1,5 miliarda klientów na całym świecie.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today