Debata nad przyszłością sztucznej inteligencji: apokalipsa czy codzienność? Wnioski od czołowych ekspertów

W ubiegłym roku wiosną Daniel Kokotajlo, badacz bezpieczeństwa sztucznej inteligencji w OpenAI, zrezygnował ze stanowiska w proteście, przekonany, że firma nie jest przygotowana na przyszłość technologii AI i chcąc ostrzec przed zagrożeniami. W rozmowie telefonicznej wydawał się uprzejmy, ale nerwowy, tłumacząc, że postępy w „dopasowywaniu” AI—metodach zapewniających, że sztuczna inteligencja działa zgodnie z wartościami człowieka—opóźniają się za postępem w zakresie samej inteligencji. Ostrzegł, że naukowcy spieszą się, aby stworzyć potężne systemy wykraczające poza ich kontrolę. Kokotajlo, który przeszedł z filozofii na badania nad AI, sam nauczył się śledzić postępy w rozwoju sztucznej inteligencji i przewidywać, kiedy mogą nastąpić kluczowe kamienie milowe. Gdy AI zaczęła rozwijać się szybciej niż oczekiwano, przesunął swoje ramy czasowe o dekady. Jego scenariusz z 2021 roku, „Jak wygląda 2026 rok”, przewidywał, że wiele prognoz się sprawdziło już wcześniej, co skłoniło go do przewidywań na 2027 rok lub nawet wcześniej, czyli momentu „braku powrotu”, gdy AI może prześcignąć ludzi w najważniejszych zadaniach i uzyskać ogromną władzę. Brzmiał przy tym przerażony. Równocześnie amerykańscy informatycy z Princeton, Sayash Kapoor i Arvind Narayanan, przygotowali swoją książkę „AI Snake Oil” (“AI jako oszukańczy środek”), która miała zupełnie odmienny pogląd. Twierdzili, że harmonogram rozwoju AI jest zbyt optymistyczny; twierdzenia o użyteczności AI są często przesadzone lub fałszywe; a złożoność rzeczywistego świata oznacza, że jej rewolucyjne skutki będą powolne. Podając przykłady błędów AI w medycynie i rekrutacji, podkreślali, że nawet najnowsze systemy mają podstawowy niuans z rzeczywistością. Niedawno wszyscy trzej udésnili swoje poglądy w nowych raportach. Organizacja non-profit Kokotajlo, AI Futures Project, opublikowała dokument „AI 2027”, szczegółowy i silnie cytowany raport przedstawiający mroczny scenariusz, w którym superinteligentna sztuczna inteligencja mogłaby zdominować lub wyeliminować ludzkość do 2030 roku—poważne ostrzeżenie. Tymczasem praca Kapoor i Narayanana „AI jako zwykła technologia” utrzymuje, że praktyczne bariery—od regulacji i norm bezpieczeństwa po fizyczne ograniczenia świata—spowolnią wdrażanie AI i ograniczą jego rewolucyjny wpływ. Twierdzą, że AI będzie nadal „zwykłą” technologią, którą da się kontrolować za pomocą znanych środków bezpieczeństwa, takich jak wyłączniki awaryjne i nadzór człowieka, porównując AI bardziej do energii jądrowej niż do broni nuklearnej. Więc, co to będzie: zwykła działalność gospodarcza czy apokaliptyczny chaos?Ekstremalnie różne wnioski—wyprowadzone przez wysoce kompetentnych ekspertów—tworzą paradoks podobny do rozmowy o duchowości z Richaarda Dawkinsa i papieżem. Trudność częściowo wynika z nowości AI—jak badanie słomki przez ślepca—i częściowo z głębokich różnic światopoglądowych. Zazwyczaj myśliciele z zachodniego wybrzeża widzą szybkie przemiany; naukowcy z wybrzeża wschodniego podchodzą z sceptycyzmem. Badacze AI sprzyjają szybkim eksperymentom; inni zajmują się teorią. Przemysłowcy chcą przejść do historii; outsiderzy odrzucają medialne hype. Poglądy polityczne, humanistyczne i filozoficzne na temat technologii, postępu i umysłu pogłębiają podziały. Ta fascynująca debata sama w sobie jest problemem. Eksperci z branży w dużej mierze akceptują założenia „AI 2027”, ale kłócą się o terminy—co jest nieadekwatne do sytuacji, jak spierać się o czas z nadciągającym planetarnym zagrożeniem. Z kolei umiarkowane stanowiska z „AI jako normalnej technologii”, mówiące o konieczności utrzymywania ludzi w pętli, są tak niedoceniane, że ignorują je analitycy skupieni na katastrofie. W miarę jak AI staje się coraz bardziej istotne dla społeczeństwa, dyskusja powinna przejść od specjalistycznych debat do wspólnego, praktycznego konsensusu. Brak jednolitego głosu ekspertów ułatwia decydentom ignorowanie ryzyk. Obecnie firmy z branży AI nie zmieniły znacząco równowagi między możliwościami a bezpieczeństwem.
Tymczasem nowe prawo zakazuje państwowej regulacji modeli AI i systemów decyzji automatycznych przez dziesięć lat—co potencjalnie pozwoli AI na regulację samej ludzkości, o ile czarny scenariusz się sprawdzi. Natychmiastowa konieczność działań na rzecz bezpieczeństwa jest paląca. Przewidywanie przyszłości AI w narracji wiąże się z kompromisami: ostrożne scenariusze mogą pomijać mało prawdopodobne zagrożenia, a wyobrażeniowe podkreślać możliwość ponad prawdopodobieństwo. Nawet doświadczeni komentatorzy jak William Gibson zostali zaskoczeni wydarzeniami, które wywróciły ich prognozy. „AI 2027” jest barwne i spekulatywne, napisane jak science fiction, z szczegółowymi wykresami. Zakłada, że około połowy 2027 roku nastąpi wybuch sztucznej inteligencji wywołany przez „rekursywną samodoskonalenie” (RSI), gdzie systemy AI będą samodzielnie prowadzić badania nad AI, tworząc coraz mądrzejsze potomstwo w przyspieszających sprzężeniach zwrotnych, wyprzedzając nadzór człowieka. Może to wywołać konflikty geopolityczne, np. Chiny budujące w Tajwanie ogromne centra danych, aby kontrolować AI. Szczegóły scenariusza wzmacniają zaangażowanie, choć są elastyczne; główny przekaz jest taki, że w Polsce malware’ów i rozgrywek wokół wybuchu inteligencji wkrótce nastąpi. RSI jest hipotezą i jest ryzykowne; firmy AI rozpoznają zagrożenia, ale planują go realizować, by automatyzować własne zadania. To, czy RSI zadziała, zależy od technologicznych ograniczeń, takich jak skalowalność, która może napotkać bariery. Jeśli RSI się powiedzie, może pojawić się superinteligencja przewyższająca ludzkie możliwości poznawcze—co jest mało prawdopodobne, jeśli postęp zatrzyma się tuż powyżej poziomu człowieka. Skutki mogą obejmować militarne wyścigi zbrojeń, manipulację lub eliminację ludzkości, albo pojawienie się benevolentnej superinteligencji rozwiązującej problem dopasowania. Przez niepewność, wynikającą z ewolucji AI, tajemniczości własnych badań i spekulacji, „AI 2027” pewnie opowiada o scenariuszu katastrofalnym, w którym firmy będą rozwijać RSI mimo braku pełnej interpretowalności i kontroli. Kokotajlo twierdzi, że są to celowe decyzje, napędzane przez konkurencję i ciekawość, mimo znanych zagrożeń, co czyni same firmy nie do końca dopasowanymi aktorami. Z kolei poglądy Kapoor i Narayanan w „AI jako zwykłej technologii”, opierające się na konserwatywnym podejściu w stylu wschodniego wybrzeża i wynikające z wiedzy historycznej, wątpią w szybkie wybuchy inteligencji. Często powołują się na „limity prędkości” narzucone przez koszty sprzętu, niedobory danych czy ogólne wzory przyjmowania nowości technologicznych, które spowalniają rewolucję, dając czas na regulacje i normy bezpieczeństwa. Dla nich inteligencja jest mniej ważna niż moc—zdolność do wywoływania zmian w środowisku—i nawet najbardziej zaawansowane technologie rozprzestrzeniają się powoli. Ilustrują to na przykładach, jak ograniczona adopcja samochodów autonomicznych czy szybki rozwój szczepionek Moderna na COVID—chociaż proces tworzenia szczepionek był szybki, sama dystrybucja zajęła rok ze względu na biologiczne i instytucjonalne ograniczenia. Sztuczna inteligencja wspomagająca innowacje nie wyeliminowałaby społecznych, regulacyjnych czy fizycznych barier w jej wdrażaniu. Ponadto Narayanan podkreśla, że skupianie się na inteligencji w AI pomija specjalistyczną wiedzę dziedzinową i istniejące systemy bezpieczeństwa w inżynierii—fail-safes, redundancje, formalne weryfikacje—które już zapewniają bezpieczeństwo maszyn przy współpracy z ludźmi. Świat techniki jest odpowiednio uregulowany, a AI musi się powoli integrować w tę strukturę. Nie dotyczą to wojskowego AI, które działa na odrębnych, tajnych zasadach. Ostrzega, że militarizacja AI, będąca głównym tematem „AI 2027”, wymaga ścisłej kontroli. Zalecają proaktywne działania regulacyjne: organy nadzorcze i organizacje nie powinny czekać, aż pojawi się pełne dopasowanie, lecz zacząć śledzić zastosowania AI w rzeczywistości, ryzyko i ewentualne porażki, i coraz bardziej wzmacniać przepisy i odporność. Głębokie podziały światopoglądowe wynikają z reaktywnych dynamik intelektualnych, pobudzonych przez provocacje AI, tworząc trwałe obozy i sprzężenia zwrotne. Jednak możliwa jest też wizja wspólnej, spójnej perspektywy, wyobrażając sobie „fabrykę poznawczą”: miejsce pracy, gdzie ludzie, wyposażeni w sprzęt bezpieczeństwa, obsługują maszyny projektowane pod kątem efektywności i bezpieczeństwa, w ramach ścisłej kontroli jakości, stopniowej integracji innowacji i jasnej odpowiedzialności. Chociaż AI umożliwia automatyzację pewnych procesów myślowych, nadzór i odpowiedzialność ludzi pozostają kluczowe. Wraz z rozwojem AI nie maleje ludzka sprawczość; wręcz przeciwnie, rośnie potrzeba rozliczania, ponieważ narzędzia poszerzają obowiązki indywidualnych osób. Wycofywanie się z kontroli to wybór, ale ostatecznie to ludzie są odpowiedzialni.
Brief news summary
W zeszłej wiośnie badacz bezpieczeństwa AI Daniel Kokotajlo opuścił OpenAI, ostrzegając, że dopasowanie AI do celów ludzi nie nadąża za szybkimi postępami technologicznymi i przewidując „punkt bez powrotu” na 2027 rok, kiedy sztuczna inteligencja może przewyższyć ludzi w większości zadań. Podkreślał ryzyko wynikające z rekurencyjnego samodoskonalenia i narastającej rywalizacji geopolitycznej, które mogą prowadzić do katastrofalnych skutków. W przeciwieństwie do tego naukowcy z Princeton, Sayash Kapoor i Arvind Narayanan, autorzy książki *AI Snake Oil*, twierdzą, że wpływ AI będzie się rozwijał stopniowo, pod wpływem regulacji, praktycznych ograniczeń i powolnego wdrażania. Ich analiza, zatytułowana „AI jako normalna technologia”, porównuje sztuczną inteligencję do energii jądrowej — skomplikowanej, ale kontrolowanej za pomocą ustalonych ram bezpieczeństwa. Ta dyskusja ujawnia podział: optymizm technologiczny z Zachodniego Wybrzeża sprzyja szybkim eksperymentom, podczas gdy ostrożność z Wschodniego Wybrzeża kładzie nacisk na dogłębną teorię i nadzór. Kokotajlo wzywa do natychmiastowych działań przeciwko nieprzewidywalnym ryzykom wynikającym z rywalizacji i systemów nieprzejrzystych, podczas gdy Kapoor i Narayanan popierają proaktywny nadzór i bezpieczną integrację AI, wykluczając z tego obszaru AI wojskowe ze względu na ich unikalne zagrożenia. Ogólnie rzecz biorąc, dyskusja podkreśla pilną potrzebę zjednoczonego, odpowiedzialnego nadzoru, kładącego nacisk na czujność, ludzką inicjatywę i odpowiedzialność w miarę jak AI staje się głęboko zintegrowana z społeczeństwem.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Straty miejsc pracy w sektorze biurowym spowodowa…
Dario Amodei, CEO firmy Anthropic, czołowego przedsiębiorstwa zajmującego się sztuczną inteligencją, wydał poważne ostrzeżenie dotyczące możliwych konsekwencji szybkiego rozwoju AI.

Finanse są gotowe na reset technologii blockchain
Współczesny system finansowy przechodzi przez fundamentalny test wytrzymałości, który kwestionuje stabilność gospodarki światowej.

Chatboty napędzane sztuczną inteligencją zwiększa…
Sztuczna inteligencja (SI) przekształca wiele aspektów codziennego życia, jednak cyberprzestępcy wykorzystują ten postęp do rozwijania oszustw phishingowych.

Stowarzyszenie Blockchain apeluje do SEC o elasty…
Stowarzyszenie Blockchain, reprezentujące główne firmy zajmujące się kryptowalutami, takie jak Coinbase, Ripple i Uniswap Labs, niedawno złożyło oficjalne uwagi do amerykańskiej Komisji Papierów Wartościowych i Giełd (SEC), która obecnie jest kierowana przez przewodniczącego Paula S. Atkinsa.

Rola sztucznej inteligencji w rozwiązywaniu probl…
Na Szczycie Przyszłości Zdrowia Axios, które odbyło się 14 maja, zgromadzili się czołowi przedstawiciele branży zdrowotnej, aby omówić rosnącą rolę sztucznej inteligencji (SI) w rozwiązywaniu uporczywych problemów kadrowych.

Chińska strategia blockchain: infrastruktura i wp…
Chiny dokonują znaczących postępów w technologii blockchain, inwestując ogromne środki w infrastrukturę i kształtując globalne standardy, aby wzmocnić swoje międzynarodowe wpływy cyfrowe.

Bitwa o zdobycie korzyści z chińskiego sztucznej …
Chińscy miliarderzy internetowi są wyjątkowo konkurencyjni.