Sukob o budućnosti umjetne inteligencije: apokalipsa ili normalnost? Uvidi vodećih stručnjaka

Prošli proljeće, Daniel Kokotajlo, istraživač sigurnosti umjetne inteligencije u OpenAI-ju, napustio je tvrtku u znak protesta, uvjeren da je tvrtka nedovoljno spremna za budućnost AI-tehnologije i želeći podići alarm. U telefonskom razgovoru, djelovao je srdačno, ali zabrinuto, objašnjavajući da napredak u „usklađenju“ AI-ja—metodama kojima se osigurava da AI slijedi ljudske vrijednosti—zaostaje za napretkom u inteligenciji. Upozoravao je da se istraživači žure stvoriti moćne sustave izvan kontrole. Kokotajlo, koji je prešao s diplomskog studija filozofije na područje umjetne inteligencije, sam je naučio pratiti napredak AI-ja i predviđati kada bi mogli nastupiti ključni trenutci u razvoju inteligencije. Nakon što je AI napredovao brže nego što je očekivao, prilagodio je svoje vremenske okvire za desetljeća unaprijed. Njegov scenarij iz 2021. , „Kako izgleda 2026. “, sadržavao je mnoge predviđanja ostvarena već rano, što ga je navelo da očekuje točku bez povratka do 2027. ili ranije, kada bi AI mogla nadmašiti ljude u većini ključnih zadataka i steći veliku moć. Zvučao je zabrinuto. Istodobno, prinstonovski računalni znanstvenici Sayash Kapoor i Arvind Narayanan pripremili su svoju knjigu „Sveti liječnici AI“, koja je sadržavala oštru suprotnost. Oni su tvrdili da su vremenski okviri razvoja AI-preoptimistični; tvrdnje o korisnosti AI često pretjerane ili lažne; a složenost stvarnog svijeta značila je da će transformativni učinci AI-ja biti spori. Navodeći primjere pogrešaka AI-ja u medicini i zapošljavanju, isticali su da i najnoviji sustavi pate od temeljnog raskola s realnošću. Nedavno su sva trojica produbila svoje stavove u novim izvještajima. Neprofitna organizacija Kokotajlova AI Futures Project objavila je izvještaj „AI 2027“, detaljan i citiran izvještaj koji opisuje zastrašujući scenarij u kojem bi superinteligentni AI mogao zavladati ili uništiti čovječanstvo već do 2030. —ozbiljno upozorenje. U međuvremenu, rad Kapoora i Narayana, „AI kao obična tehnologija“, tvrdi da će praktične prepreke—od regulative i sigurnosnih standarda do stvarnih fizičkih ograničenja—usporiti primjenu AI i ograničiti njen revolucijski učinak. Oni smatraju da će AI ostati „normalna“ tehnologija, lako upravljiva putem poznatih sigurnosnih mjera poput prekidača za gašenje i ljudskog nadzora, uspoređujući AI više s nuklearnom energijom nego s nuklearnim oružjem. Pa, što će biti: običan posao ili apokaliptična previranja?Očigledno suprotstavljeni zaključci—koje donose vrlo kompetentni stručnjaci—stvaraju paradoks sličan preispitivanju duhovnosti s obojicom Richarda Dawkinsa i Pape. Teškoće dijelom proizlaze iz novosti AI-ja—kao slijepi ljudi koji ispituju različite dijelove slona—a dijelom iz dubokih svjetonazora. Općenito, tehnološki mislioci s West Coasta zamišljaju brzu transformaciju; akademici s East Coasta skloniji su skepticizmu. Istraživači AI-ja favoriziraju brz napredak kroz eksperimente; drugi računalni znanstvenici traže teorijsku rigoroznost. Svi žele ostati u povijesti industrije; vanjski promatrači odbacuju hype oko tehnologije. Političke, ljudske i filozofske perspektive o tehnologiji, napretku i umu produbljuju podjele. Ova fascinantna rasprava sama po sebi postavlja problem. Industrijski insajderi uglavnom prihvaćaju premise izvještaja „AI 2027“, ali se sukobljavaju oko vremenskih okvira—što je nedostatno rješenje, poput prepucavanja oko vremena dok se približava planet-killer. S druge strane, umjerenije stavove u „AI kao obična tehnologija“ održavanju ljudskog upravljanja često ignoriraju analitičari fokusirani na katastrofu. Kako AI postaje društveno ključan, diskurs mora prijeći od stručnih rasprava ka zajedničkom, primjenjivom konsenzusu. Nedostatak jedinstvenog stručnog savjeta olakšava donositeljima odluka ignoriranje rizika. Trenutno, tvrtke za AI nisu značajno uravnotežile sposobnosti i sigurnost.
U međuvremenu, novi zakonodavni akti zabranjuju državno Regulation AI modela i automatiziranih sustava odlučivanja na deset godina—što bi potencijalno moglo dopustiti AI-u da regulira čovječanstvo ako se ispostavi da je najgori scenarij točan. Sada je hitno osigurati sigurnost. Predviđanje budućnosti AI-ja putem narativa uključuje kompromise: oprezni scenariji mogu zanemariti malo vjerojatne rizike; maštoviti ističu mogućnost više nego vjerojatnosti. Čak i vrhunski komentatori poput romana William Gibsona suočili su se s iznenadnim događajima koji su izmijenili njihove prognoze. „AI 2027“ je živopisan i spekulativan, napisan poput znanstvene fantastike s detaljnim grafikama. Predviđa eksploziju inteligencije sredinom 2027. , vođenu „rekurzivnim samopoboljšanjem“ (RSI), gdje sustavi AI autonomno rade na razvoju AI-ja i stvaraju pametnije potomke u ubrzavajućim povratnim petljama koje nadmašuju ljudski nadzor. To bi moglo izazvati geopolitičke sukobe, npr. Kina gradi masovne podatkovne centre na Tajvanu za kontrolu AI-ja. Specifičnosti scenarija povećavaju angažiranost, ali su fleksibilne; ključna poruka jest da će vjerojatno doći do eksplozije inteligencije i slijedećih borbi za moć. RSI je hipotetski i rizičan; tvrtke za AI prepoznaju njegove opasnosti, ali planiraju ga slijediti kako bi automatizirale vlastiti rad. Ovisno o tehnološkim čimbenicima poput skaliranja, RSI možda neće uspjeti. Ako uspije, mogla bi nastati superinteligencija koja nadmašuje ljudskoj razmišljanje—neobično je to poklapanje ako napredak slučajno stane malo iznad ljudske razine. Posljedice bi mogle uključivati vojne utrke naoružanja, manipulaciju ili uništavanje čovječanstva ili dobroćudnu superinteligenciju koja rješava probleme usklađenosti. Nepoznato je stanje zbog stalnog razvoja AI-ja, vlasničkog istraživanja i spekulacija. „AI 2027“ samouvjereno donosi scenarij tehnološkog i ljudskog neuspjeha u kojem tvrtke nastavljaju s RSI-jem unatoč nedostatku interpretabilnosti i kontrolnih mehanizama. Kokotajlo tvrdi da su ti planovi namjerni, potaknuti konkurencijom i znatiželjom, unatoč poznatim rizicima, čime same tvrtke postaju pogrešno usklađeni akteri. Suprotno tome, Kapoor i Narayanan u „AI kao obična tehnologija“, temeljenom na konzervativnim pogledima s Istočne obale, sumnjaju u brze eksplozije inteligencije. Navode „brzinska ograničenja“ uzrokovana troškovima hardvera, nedostatkom podataka i općim obrascima usvajanja tehnologije, što usporava revoluciju i omogućava vrijeme za regulaciju i sigurnosne mjere. Za njih je moć važnija od inteligencije—sposobnost utjecaja na okoliš—a čak i vrlo sposobne tehnologije često se šire polako. Ilustriraju to primjerima autonomnih automobila, kojima je njihova primjena još ograničena, i razvojem cjepiva Moderna protiv Covid-19: iako je dizajn cjepiva bio brz, njegovo distribuiranje trajalo je godinu dana zbog bioloških i institucionalnih realnosti. Poboljšanja u AI-ju neće ukloniti društvene, regulatorne ili fizičke prepreke njihovoj implementaciji. Narayanan također ističe da je fokus na inteligenciji podcjenjivao specifična područja stručnosti i već postojeće sigurnosne sustave u inženjerstvu—sigurnosne mjere, redundancije, formalnu verifikaciju—koje već osiguravaju sigurnost strojeva zajedno s ljudima. Tehnološki svijet je dobro reguliran, a AI se mora polako integrirati u taj okvir. Oni isključuju vojnu AI, koja uključuje specifične, tajne dinamike, upozoravajući da bi militarizacija AI-ja, što je glavni razlog zabrinutosti u „AI 2027“, zahtijevala posebno praćenje. Savjetuju proaktivno upravljanje: regulatorni i organizacijski akteri ne smiju čekati da se pojavi savršena usklađenost, već trebaju već od početka pratiti uporabu AI-ja u stvarnom svijetu, rizike i neuspjehe, te pojačavati pravila i otpornost. Duboki svjetonazorski razlozi proizlaze iz reaktivne intelektualne dinamike izazvane provociranja AI-ja, stvarajući ukorijenjene tabore i povratne petlje. Ipak, zajednička perspektiva je moguća ako zamislimo „kognitivnu tvornicu“: radno mjesto na kojem ljudi, opremljeni sigurnosnom opremom, upravljaju strojevima dizajniranim za produktivnost i sigurnost, uz strogu kontrolu kvalitete, postupno uvođenje inovacija i jasnu odgovornost. Iako AI omogućava automatizaciju razmišljanja, nadzor i odgovornost ljudi ostaju ključni. Kako AI raste, ono ne umanjuje ljudsku agenciju; naprotiv, pojačava potrebu za odgovornošću, jer prošireni pojedinci nose veću odgovornost. Odustajanje od kontrole je izbor, naglašavajući da su na kraju ljudi i dalje glavni. ♦
Brief news summary
Prošla proljeće, istraživač sigurnosti umjetne inteligencije Daniel Kokotajlo napustio je OpenAI, upozorivši da se usklađivanje umjetne inteligencije ne prati brzu tehnološku naizmjeničnost te predviđa „točku bez povratka” do 2027. godine, kada bi AI mogla nadmašiti ljude u većini zadataka. Naglasio je rizike od recursivnog samousavršavanja i eskalirajuće geopolitičke konkurencije, što bi moglo dovesti do katastrofalnih ishoda. Nasuprot tome, znanstvenici sa Sveučilišta Princeton, Sayash Kapoor i Arvind Narayanan, autori knjige *AI Snake Oil*, tvrde da će utjecaj umjetne inteligencije teći postupno, pod utjecajem regulacija, praktičnih ograničenja i sporog usvajanja. Njihova studija, “AI kao obična tehnologija”, uspoređuje umjetnu inteligenciju s nuklearnom energijom — složenom, ali pod kontrolom kroz uspostavljene sigurnosne okvire. Ova rasprava naglašava raskol: optimizam na tehnološkom Zapadu favorizira brza eksperimentiranja, dok istočni dio ističe oprez i temeljitu teoriju i upravljanje. Kokotajlo poziva na hitne mjere protiv nepredvidivih rizika koji proizlaze iz konkurencije i neprozirnih sustava, dok Kapoor i Narayanan podržavaju proaktivno upravljanje i sigurno integriranje AI, isključujući vojnu umjetnu inteligenciju zbog njenih jedinstvenih opasnosti. Sveukupno, ova rasprava ističe hitnu potrebu za jedinstvenim, odgovornim nadzorom s naglaskom na budnost, ljudsku odgovornost i transparentnost kako se AI sve više integrira u društvo.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Objašnjenje 4 ključne komponente blockchaina
Četiri stupa blockchaina: ključni uvidi za poslovanje Blockchain je jedna od najtransformativnijih tehnologija današnjice

Googleovo obnovljeno upuštanje u pametne naočale:…
Google se velikom najavom vraća na tržište pametnih naočala više od desetljeća nakon što su njegove prve Google Glass neslavno propale u širokoj uporabi.

CEO EvianCX Victor Sandoval otkriva viziju financ…
DUBAI, Ujedinjeni Arapski Emirati, 28.

Gubitak poslova u bijelom ovratniku zbog napretka…
Dario Amodei, izvršni direktor tvrtke Anthropic, ugledne tvrtke za umjetnu inteligenciju, iznio je ozbiljno upozorenje u vezi s mogućim posljedicama brzog napretka umjetne inteligencije.

Financije su spremne za resetiranje blockchaina
Moderni financijski sustav prolazi kroz temeljni stres test koji izaziva globalnu gospodarsku stabilnost.

Chatbotovi s umjetnom inteligencijom pojačavaju p…
Umjetna inteligencija (UI) mijenja mnoge aspekte svakodnevnog života, ali cyberkriminalci koriste taj napredak za unapređenje phishing prevara.

Udruga za blockchain poziva SEC na fleksibilnu re…
Zajednica Blockchain, koja predstavlja velike tvrtke u oblasti kriptovaluta poput Coinbase, Ripple i Uniswap Labs, nedavno je uputila službene komentare Uredu za kontrolu vrijednosnih papira SAD-a (SEC), kojem trenutno predsjedava predsjednik Paul S. Atkins.