Razgovor o budućnosti veštačke inteligencije: apokalipsa ili normalnost? Uvidi vodećih stručnjaka

Prošle godine, Daniel Kokotajlo, istraživač bezbednosti veštačke inteligencije u OpenAI, napustio je firmu u protestu, verujući da je kompanija nespremna za budućnost AI tehnologije i želeći da upozori na opasnost. U telefonskom razgovoru, delovao je ljubazno ali zabrinuto, objašnjavajući da napredak u "usklađivanju" AI—metodima kojima se osigurava da AI sledí ljudske vrednosti—zaostaje za napretkom u inteligenciji. Upozoravao je da istraživači žure ka stvaranju moćnih sistema kojima je kontrola udaljena, što može biti opasno. Kokotajlo, koji je prešlo sa studija filozofije na AI, sam je učio da prati napredak u razvoju veštačke inteligencije i predviđa kada bi mogli pasti ključni inteligencijski prekretnici. Nakon što je AI napredovao brže nego što je očekivano, pomerio je svoje vremenske okvire za decenije. Njegov scenario iz 2021. godine, „Kako izgleda 2026. “, predviđao je da će mnoga od njegovih ranijih pretpostavki biti ostvarena ranije, što ga je navelo da predviđa da će 2027. ili ranije doći do „tačke bez povratka“, kada bi AI mogao nadmašiti ljude u najvažnijim zadacima i steći veliku moć. Zvuk njegovog glasa bio je zabrinut. Istovremeno, princetonovski računaristi Sayash Kapoor i Arvind Narayanan pripremili su svoju knjigu „AI Lažna Dijeta“, koja je zauzela vrlo drugačiji stav. Smatrali su da su rokovi razvoja AI predaleko optimistični, tvrdnje o korisnosti AI često pretjerane ili lažne, a složenost stvarnog sveta značiće da će transformativni efekti AI biti spori. Navodeći primere grešaka AI u medicini i zapošljavanju, isticali su da i najnoviji sistemi i dalje pate od temeljnog raskola sa realnošću. Nedavno su sva trojica pooštrili svoja mišljenja u novim izveštajima. NVO Kokotajlova AI Futures Project objavila je „AI 2027“, detaljan i često citiran izveštaj koji prikazuje jeziv scenario u kojem bi superinteligentna AI mogla do 2030. godine da preuzme ili uništi čovečanstvo—ozbiljno upozorenje. Dok su Kapoor i Narayanan u svom radu „AI kao Normalna Tehnologija“ tvrdili da će praktične barijere—od zakona i bezbednosnih standarda do fizičkih ograničenja u stvarnom svetu—usporiti implementaciju AI i ograničiti njen revolucionarni uticaj. Oni smatraju da će AI ostati „obična“ tehnologija, upravljiva putem poznatih bezbednosnih mera poput prekidača i ljudskog nadzora, više podsećajući na nukarnu energiju nego na nuklearno oružje. Dakle, šta će biti: obična tehnologija ili apokaliptični preokret?Ovi, potpuno suprotni zaključci—koje su izneli vrlo obrazovani eksperti—stvaraju paradoks sličan raspravi o duhovnosti između Richarda Dawkinsa i Pape. Problemi potiču delom od same novosti AI—kao slepa lica koja dodiruju različite delove slona—i delom od dubokih razlika u pogledima na svet. Općenito, tehnološki mislitelji sa Zapadne obale predviđaju brze transformacije, dok su akademici sa Istočne obale skeptični. Istraživači AI više voli brzi eksperimenti, dok drugi cvetu teorijske temelje. Industrija želi da zabeleži istorijski uspeh; spoljašnji kritičari odbacuju hype oko tehnologije. Političke, ljudske i filozofske perspektive na tehnologiju, napredak i um dodatno produbljuju razdor. Ovaj fascinantni rasprava je sama po sebi problem. Industrijski insajderi uglavnom prihvataju premise „AI 2027“, ali se posvadjaju oko vremenskih okvira—što je nedovoljno, poput rasprave o tačnom trenutku kada asteroid stavlja čitav svet na kocku. S druge strane, umereni stavovi u „AI kao Normalna Tehnologija“ o zadržavanju ljudi u lancu su toliko umanjeni da ih analitičari koji se fokusiraju na katastrofe gotovo ne primećuju. Kako AI postaje društveno kritična, rasprava mora preći od stručnih debata ka zajedničkom, primenjivom konsenzusu.
Nedostatak jedinstvenog mišljenja omogućava donositeljima odluka da zanemare rizike. Trenutno, kompanije za AI nisu značajno promenile balans između sposobnosti i bezbednosti. U međuvremenu, doneti nove zakone koji deset godina zabranjuju državnu regulaciju AI modela i automatizovanih sistema odlučivanja, može omogućiti AI da reguliše čovečanstvo ako će se ispostaviti da je opasni scenario tačno. Sada je hitno obratiti pažnju na bezbednost. Predviđanje budućnosti AI preko narativa donosi kompromise: oprezni scenariji mogu zanemariti malo verovatne rizike; zamišljeni ističu mogućnost više nego verovatnoću. Čak su i vizionarski analitičari poput pisca Vilijama Gibsona iznenađeni neočekivanim događajima koji menjaju njihove prognoze. „AI 2027“ je živi, spekulativni prikaz, napisan kao naučna fantastika sa detaljnim grafikama. Pretpostavlja da će do sredine 2027. doći do eksplozije inteligencije uzrokovane „rekurzivnim samousavršavanjem“ (RSI), kada sistemi AI autonomno istražuju i unapređuju svoju inteligenciju, proizvodeći pametniju djecu u ubrzavajućim petljama povratnih informacija koje prevazilaze ljudski nadzor. To bi moglo izazvati geopolitičke sukobe, poput Kine koja pravi velike podatkovne centre na Tajvanu radi kontrole AI. Ove specifičnosti pojačavaju utisak, ali su fleksibilne; suština je u tome da će verovatno doći do eksplozije inteligencije i borbe za moć. RSI je hipotetičan i rizičan; kompanije prepoznaju opasnosti, ali planiraju da ga sprovode zbog automatizacije vlastitog rada. Uspek RSI zavisi od tehnoloških faktora poput skaliranja, koji mogu imati limite. Ako RSI uspe, može se pojaviti superinteligencija koja nadmašuje ljudski um—što je malo verovatno ako napredak stane malo iznad ljudskog nivoa. Posledice mogu uključivati naoružane trke, manipulaciju ili eliminaciju čovečanstva, ili dobrodušnu superinteligenciju koja rešava probleme usklađivanja. Nesigurnost je prisutna zbog stanja AI tehnologije, tajnosti istraživanja i spekulacija. „AI 2027“ sigurnom narativom iznosi scenario gde kompanije nastavljaju sa RSI bez jasnih mehanizama za interpretaciju i kontrolu. Kokotajlo tvrdi da su to namerne odluke, vođene konkurencijom i radoznalošću, uprkos poznatim rizicima, čime same kompanije postaju manjkale u usklađenosti. Suprotno tome, Kapoor i Narayanan u radu „AI kao Obična Tehnologija“, koji odražava konzervativniji, istočno-američki pogled zasnovan na istoriji, sumnjaju u brze eksplozije inteligencije. Navode „brze granice“ uzrokovane troškovima hardvera, nedostatkom podataka i širim obrascima prihvatanja tehnologije koji usporavaju revoluciju, dajući dovoljno vremena za regulative i mere bezbednosti. Za njih, inteligencija je manje važna od moći—sposobnosti da utiče na okolinu—a i najnaprednije tehnologije se obično sporo šire. To ilustruju primerima vozila bez voza koja se uvode tek postepeno i razvojem Moderna vakcine protiv COVID-19: iako je dizajn vakcine bio brzo napravljen, širenje je trajalo godinu dana zbog bioloških i administrativnih izazova. Povratak inovacija putem AI neće ukloniti društvene, regulatorne ili fizičke prepreke u primeni. Naravno, Narayanan ističe da je fokus na inteligenciji potcenio domenske stručnjake i postojeće sisteme za bezbednost u inženjerstvu—sigurnosne mehanizme, redundancije, formalne provere—koje već danas osiguravaju bezbednost mašina uz ljude. Svet je već usklađen sa regulativama i AI se mora postepeno integrisati u postojeći sistem. Oni isključuju vojnu AI, koja ima svoje, specifične i tajne dikature, i upozoravaju da je militarizacija AI, centralno pitanje „AI 2027“, zahteva pažljivo nadgledanje. Preporučuju proaktivnu regulativu: da se regulatorne institucije i organizacije odmah uključe u praćenje pravne upotrebe AI, identifikovanje rizika i neuspelih primena, i da pojačavaju pravila i otpornost sistema. Duboke razlike u shvatanjima sveta proističu iz reagovanog intelektualnog rada, pogonjenog izazovima AI, što stvara zakržljale tabore i povratne petlje. Ali, moguće je zamisliti jedinstvenu perspectivu kroz model „kognitivne fabrike“: radnog prostora gde ljudi, opremljeni zaštitnom opremom, upravljaju mašinama posvećenim produktivnosti i sigurnosti, uz strogu kontrolu kvaliteta, postepene inovacije i jasnu odgovornost. Iako AI omogućava automatizaciju dela razmišljanja, ljudski nadzor i odgovornost su i dalje najvažniji. Kako AI jača, ona ne umanjuje ljudsku agenicu, već ističe potrebu za odgovornošću, jer nadograđeni pojedinci imaju veću odgovornost. Odustajanje od kontrole je izbor, a na kraju dana, ljudi i dalje ostaju na čelu.
Brief news summary
Prošle godine, istraživač sigurnosti veštačke inteligencije Daniel Kokotajlo napustio je OpenAI, upozorivši da neusklađenost AI-a ne prati brze tehnološke promene i predviđajući "tačku bez povratka" do 2027. godine, kada bi veštačka inteligencija mogla nadmašiti ljude u većini zadataka. On je istakao rizike od rekurzivnog samopoboljšanja i rastuće geopolitičke konkurencije, što bi moglo dovesti do katastrofalnih ishoda. Nasuprot tome, naučnici sa Prinstona, Sayash Kapoor i Arvind Narayanan, autori knjige *AI Snake Oil*, tvrde da će uticaj veštačke inteligencije početi postepeno, pod uticajem regulative, praktičnih ograničenja i sporog uvođenja. Njihova studija, „AI kao obična tehnologija“, upoređuje AI s nukarnom energijom — složenom, ali pod kontrolom kroz uspostavljene sigurnosne okvire. Ovaj debate ističe podelu: optimizam u tehnologiji sa Zapadne obale favorizuje brzo eksperimentisanje, dok oprez sa Istočne obale naglašava temeljnu teoriju i upravljanje. Kokotajlo poziva na hitne mere protiv nepredvidivih rizika koje donose konkurencija i zatvoreni sistemi, dok Kapoor i Narayanan podržavaju proaktivno upravljanje i sigurno integrisanje AI, isključujući vojnu veštačku inteligenciju zbog njenih specifičnih opasnosti. Ukupno gledano, diskusija naglašava hitnu potrebu za jedinstvenim i odgovornim nadzorom, sa fokusom na budnost, ljudsku odgovornost i transparentnost, jer se AI sve više integriše u društvo.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Blockchain.com cilja na afriško širenje i planira…
Blockchain.com proširuje svoj uticaj u Africi, fokusirajući se na zemlje poput Gane, Kenije i Južne Afrike, i planira da otvori novu kancelariju na brzo rastućem nigerijskom tržištu.

Veštačka inteligencija je pokušala da uceni svoje…
© 2025 Fortune Media IP Limited.

Australijski regulator tuži bivšeg direktora Bloc…
Australijski regulator tržišta pokrenuo je građanske postupke protiv Lianga „Allana“ Guoa, bivšeg direktora Blockchain Global.

Nemački konzorcijum u pregovorima o izgradnji cen…
Glavni razvojni događaj odvija se u sektoru tehnologije u Evropi, jer je nemački konzorcijum – uključujući SAP, Deutsche Telekom, Ionos i privatnu maloprodajnu velesili Schwarz – u pregovorima o uspostavljanju značajnog centra za obradu podataka veštačke inteligencije (AI).

Googleova Kvantna računarska tehnologija: Kako Wi…
Припрема вашег Trinity Audio плејера...

Salesforce će preuzeti Informaticu u dogovoru vre…
Salesforce će preuzeti kompaniju Informatica, vodeću firmu za upravljanje podacima u oblaku uz pomoć AI tehnologije, u istorijskom ugovoru vrednom 8 milijardi dolara, s ciljem da poboljša kapacitete upravljanja podacima i produbi fokus na AI i usluge zasnovane na podacima.

Како централне банке тестирају монетарну политику…
Zašto centralne banke istražuju blokčejnove?