lang icon En
May 11, 2025, 4:15 a.m.
2458

Zwolenicy bezpieczeństwa sztucznej inteligencji apelują o powtórzenie obliczeń testu nuklearnego Oppenheimera dla ultra-potężnych systemów

Brief news summary

Ekspert ds. bezpieczeństwa sztucznej inteligencji Max Tegmark, profesor fizyki na MIT i współzałożyciel Instytutu Future of Life, apeluje o przyjęcie rygorystycznych kalkulacji bezpieczeństwa, podobnych do tych przeprowadzanych przed nuklearnym testem Trinity w 1945 roku, podkreślając egzystencjalne zagrożenia związane z zaawansowaną AI. Rysując paralele do historycznej oceny Arthura Comptona, Tegmark szacuje, że istnieje 90% szans, iż superinteligentna AI może wymknąć się spod kontroli ludzi i zagrażać ludzkości. Proponuje stworzenie „stałej Comptona”, skwantyfikowanego miary ryzyka dla niebezpiecznej AI, mającej służyć jako narzędzie do podejmowania decyzji politycznych i globalnych porozumień bezpieczeństwa. Inicjatywa ta wpisuje się w otwarte pismo Instytutu Future of Life z 2023 roku, podpisane przez ponad 33 000 osób, w tym Elon’a Muska i Steve’a Wozniaka, ostrzegające przed nieuregulowanym wyścigiem sztucznej inteligencji. Tegmark przyczynił się także do opracowania Konsensusu Singapurskiego dotyczącego globalnych priorytetów badań nad bezpieczeństwem AI, mającego na celu kierowanie kluczowymi badaniami nad bezpieczeństwem na całym świecie. Mimo pewnego sceptycyzmu ze strony amerykańskich urzędników, międzynarodowa współpraca i optymizm w zakresie bezpiecznego rozwoju AI nadal są silne.

Firmy zajmujące się sztuczną inteligencją zostały zachęcone do odtworzenia obliczeń bezpieczeństwa, które miały miejsce przed pierwszym testem nuklearnym Roberta Oppenheimera, zanim upubliczniono systemy o ultrawysokiej mocy. Max Tegmark, uznany ekspert ds. bezpieczeństwa AI, ujawnił, że wykonał obliczenia podobne do tych, które przeprowadził amerykański fizyk Arthur Compton przed testem Trinity. Tegmark stwierdził, że istnieje 90% prawdopodobieństwo, iż wysoko zaawansowana sztuczna inteligencja może stanowić zagrożenie egzystencjalne. Rząd USA przeprowadził test Trinity w 1945 roku po zapewnieniach, że szansa na zapalenie się atmosfery przez bombę atomową i zagrażanie ludzkości jest zaniedbywalnie mała. W artykule napisałym przez Tegmarka i trzech jego studentów z MIT zalecają oni obliczanie „stałej Compton’a”, zdefiniowanej jako prawdopodobieństwo, że wszechmocna sztuczna inteligencja wymknie się spod kontroli człowieka. Compton, w wywiadzie z 1959 roku dla amerykańskiej pisarki Pearl Buck, stwierdził, że zatwierdził test po oszacowaniu szans na niekontrolowaną reakcję fuzji na „nieco mniej” niż jeden na trzy miliony. Tegmark argumentował, że firmy zajmujące się AI muszą wziąć odpowiedzialność za dokładne określenie, czy sztuczna superinteligencja (ASI)—teoretyczny system przewyższający ludzką inteligencję we wszystkich dziedzinach—uniknie nadzoru ludzkiego. „Firmy budujące superinteligencję muszą obliczyć stałą Compton’a, czyli prawdopodobieństwo utraty nad nią kontroli, ” powiedział. „Sformułowanie ‘czujemy się z tym dobrze’ jest niewystarczające.

Muszą wyliczyć procent. ” Tegmark zasugerował, że konsensus dotyczący stałej Compton’a, wywiedziony z danych wielu firm, mógłby wywołać „polityczną wolę” do ustanowienia globalnych standardów bezpieczeństwa AI. Jako profesor fizyki i badacz AI na MIT, Tegmark współzałożył Instytut Przyszłości Życia, organizację non-profit promującą bezpieczny rozwój AI. Instytut opublikował w 2023 roku otwarte pismo wzywające do zawieszenia tworzenia potężnych sztucznych inteligencji. Pod pismem podpisało się ponad 33 000 osób, w tym Elon Musk—wczesny zwolennik instytutu—and współzałożyciel Apple, Steve Wozniak. Pismo, wydane kilka miesięcy po premierze ChatGPT, która zapoczątkowała nową erę rozwoju AI, ostrzegało, że laboratoria AI prowadziły „poza kontrole wyścig” w celu rozwijania „coraz potężniejszych cyfrowych umysłów, ” których nikt nie jest w stanie „zrozumieć, przewidzieć ani wiarygodnie kontrolować. ” Tegmark rozmawiał z Guardianem, gdy grupa ekspertów ds. AI—w tym profesjonaliści branży technologicznej, przedstawiciele państwowych agencji bezpieczeństwa oraz naukowcy—opracowywała nową strategię bezpiecznego rozwoju AI. Raport zatytułowany „Konsensus Singapurski na temat priorytetów badań nad bezpieczeństwem AI na świecie, ” opracowany przez Tegmarka, wiodącego naukowca Yoshua Bengio oraz personel z czołowych firm AI, takich jak OpenAI i Google DeepMind, wyznaczył trzy kluczowe obszary badawcze: rozwijanie metod pomiaru wpływu obecnych i przyszłych systemów AI; określenie pożądanych zachowań AI i projektowanie systemów, które je osiągną; oraz zarządzanie i kontrola zachowań AI. Odwołując się do raportu, Tegmark wskazał, że dążenie do bezpiecznego rozwoju AI odzyskało impet po niedawnym szczycie rządowym w Paryżu, na którym wiceprezydent JD Vance odrzucił obawy o bezpieczeństwo, mówiąc, że przyszłość AI „nie zostanie wygrana przez rozkładanie rąk nad bezpieczeństwem. ” Tegmark powiedział: „Naprawdę odczuwam, że zanikła ta ponura atmosfera z Paryża i powróciła międzynarodowa współpraca. ”


Watch video about

Zwolenicy bezpieczeństwa sztucznej inteligencji apelują o powtórzenie obliczeń testu nuklearnego Oppenheimera dla ultra-potężnych systemów

Try our premium solution and start getting clients — at no cost to you

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

Dec. 12, 2025, 1:42 p.m.

Disney wysyła wezwanie do zaprzestania i ostrzeże…

Firma Disney podjęła znaczące kroki prawne przeciwko Google, wysyłając list z żądaniem zaprzestania naruszeń, oskarżając giganta technologicznego o naruszenie praw autorskich Disney’a podczas szkolenia i rozwoju generatywnych modeli sztucznej inteligencji (SI) bez zapewnienia odpowiedniego wynagrodzenia.

Dec. 12, 2025, 1:35 p.m.

Sztuczna inteligencja i przyszłość optymalizacji …

W miarę jak sztuczna inteligencja (SI) rozwija się i coraz bardziej integruje z marketingiem cyfrowym, jej wpływ na optymalizację pod kątem wyszukiwarek internetowych (SEO) staje się coraz istotniejszy.

Dec. 12, 2025, 1:33 p.m.

Sztuczna inteligencja: plan MiniMax i Zhipu AI do…

MiniMax i Zhipu AI, dwie wiodące firmy sztucznej inteligencji, podobno przygotowują się do wejścia na giełdę w Hongkongu już na początku stycznia przyszłego roku.

Dec. 12, 2025, 1:31 p.m.

OpenAI mianuje dyrektor generalną Slack, Denise D…

Denise Dresser, CEO Slack, ma opuścić swoje stanowisko, aby objąć funkcję Chief Revenue Officer w OpenAI, firmie stojącej za ChatGPT.

Dec. 12, 2025, 1:30 p.m.

Techniki syntezy wideo AI poprawiają efektywność …

Przemysł filmowy przechodzi wielką transformację, ponieważ studia coraz częściej wykorzystują techniki syntezy wideo oparte na sztucznej inteligencji (AI) w celu usprawnienia procesów postprodukcyjnych.

Dec. 12, 2025, 1:24 p.m.

19 najlepszych narzędzi AI do mediów społeczności…

AI rewolucjonizuje marketing w mediach społecznościowych, oferując narzędzia upraszczające i zwiększające zaangażowanie odbiorców.

Dec. 12, 2025, 9:42 a.m.

Influencerzy AI na mediach społecznościowych: moż…

Pojawienie się influencerów generowanych przez sztuczną inteligencję na mediach społecznościowych oznacza poważną zmianę w środowisku cyfrowym, wywołując szerokie dyskusje na temat autentyczności interakcji online oraz związanych z tym kwestii etycznych.

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today