Auto-Filling SEO Website as a Gift

Launch Your AI-Powered Business and get clients!

No advertising investment needed—just results. AI finds, negotiates, and closes deals automatically

May 27, 2025, 11:21 a.m.
16

Rasprava o budućnosti umjetne inteligencije: apokalipsa ili normalnost? Uvidi vodećih stručnjaka

Pro prošle proljeće, Daniel Kokotajlo, istraživač sigurnosti umjetne inteligencije u OpenAI-ju, napustio je posao u znak protesta, uvjeren da kompanija nije spremna za budućnost AI tehnologije i želeći upozoriti na moguće opasnosti. U telefonskom razgovoru djelovao je prijateljski, ali zabrinuto, objašnjavajući da napredak u “usklađivanju” AI—metodama kojima se osigurava da AI slijedi ljudske vrijednosti—zaostaje za brzim napretkom u inteligenciji. Upozoravao je da se istraživači žure prema stvaranju moćnih sistema izvan kontrole. Kokotajlo, koji je prije prelaska u AI studirao filozofiju, sam naučio kako pratiti napredak u AI i predviđati kada bi mogli doći do ključnih milestona u razvoju inteligencije. Nakon što je AI napredovao brže nego što je očekivao, pomakao je svoje vremenske okvire za decenije. Njegov scenario iz 2021. godine, “Kako izgleda 2026. ”, predviđao je da će mnoge od njegovih prognoza biti ostvarene već rano, što ga je navelo na predviđanje da će 2027. ili ranije doći do “točke bez povratka” gdje AI može nadmašiti ljude u većini ključnih zadataka i imati veliku moć. Zvuk je bio zabrinjavajući. Istovremeno, princetonski informatičari Sayash Kapoor i Arvind Narayanan pripremali su svoju knjigu “AI čarobni štapić”, koja je zauzimala vrlo različit stav. Smatrali su da su rokovi za razvoj AI previše optimistični; tvrdnje o korisnosti AI često su precijenjene ili lažne; te da složenost stvarnog svijeta znači da će transformativni učinci AI biti sporiji. Navodeći primjere grešaka AI u medicini i zapošljavanju, isticali su da i najnoviji sistemi pate od temeljne disconnect od stvarnosti. Nedavno su svi troje pooštrili svoje stavove u novim izvještajima. Neprofitna organizacija Kokotajlova AI Futures Project objavila je “AI 2027”, detaljan i često citiran izvještaj koji iznosi jeziv scenario u kojem superinteligentna AI može dominirati ili istrijebiti čovječanstvo do 2030. —ozbiljno upozorenje. U međuvremenu, rad Kapoor i Narayanana “AI kao obična tehnologija” tvrdi da će praktične prepreke—od regulative i sigurnosnih standarda do stvarnih fizičkih ograničenja—usporiti implementaciju AI i ograničiti njezin revolucionarni utjecaj. Oni smatraju da će AI ostati “obična” tehnologija, koju je moguće nadzirati poznatim sigurnosnim mjerama kao što su prekidači i ljudski nadzor, sličnije nuklearnoj energiji nego nuklearnom oružju. Dakle, šta će biti: običan posao ili apokaliptični preokret?Oštro suprotstavljeni zaključci ovih vrlo stručnih ljudi—olaiska na debatu je poput rasprave o duhovnosti s Richardom Dawkinsom i Papežem. Teškoće u spoznaji dijelom proizlaze iz novosti AI—kao da slijepi ljudi opisuju različite dijelove slona—a dijelom iz dubokih svjetonazora. Općenito gledano, tehnološki mislioci sa zapadne obale predviđaju brzu transformaciju; dok akademici sa istočne obale budu skeptični. Istraživači AI-ja žele brz napredak kroz eksperimente; drugi računalni znanstvenici teže teorijskoj rigoroznosti. Industrija želi ostati upisana u povijest; vanjski promatrači odbacuju hype oko tehnologije. Politički, ljudski i filozofski pogledi na tehnologiju, napredak i svijest dodatno pojačavaju razliku. Ova zanimljiva rasprava sama po sebi postaje problem. Industrijski stručnjaci uglavnom prihvaćaju premise “AI 2027”, ali se svađaju oko rokova—što je nedostatna reakcija, slično kao da se prepiru oko vremena dok se planeti približavaju katastrofi. S druge strane, umjereni stavovi u “AI kao obična tehnologija” o tome da ljudi trebaju ostati u petlji, toliko su umanjeni da ih su putem ignorirali analitičari koji se fokusiraju na apokalipsu. Kako AI postaje sve važniji za društvo, diskusija mora preći s stručno-znanstvenog na zajednički akcioni konsenzus. Nedostatak jedinstvenih stručnih savjeta olakšava odlučivačima da zanemaruju rizike.

Trenutno, kompanije za AI nisu značajno promijenile odnos između sposobnosti i sigurnosti. U međuvremenu, novi zakoni zabranjuju državnu regulaciju AI modela i automatizovanih sistemi odlučivanja na deset godina—što bi potencijalno omogućilo AI-u da reguliše čovječanstvo ako se promašeni scenarij ostvari. Sadašnji odgovori na sigurnost su hitni. Predviđanje budućnosti AI kroz narativ uključuje kompromise: oprezni scenariji mogu previdjeti rijetke rizike; maštoviti ističu mogućnosti od vjerojatnosti. Čak i među vizionarima poput romana William Gibsona, iznenadne događaje koji mijenjaju prognoze su se desile. “AI 2027” je živo i spekulativno, napisano poput naučne fantastike s detaljnim grafikama. Predstavlja skoro- buduću eksploziju inteligencije sredinom 2027. godine, izazvanu “rekurzivnim samopoboljšavanjem” (RSI), gdje sistemi AI autonomno razvijaju vlastiti napredak, stvarajući pametniju djecu u ubrzavajućim petljama koje nadmašuju ljudski nadzor. To bi moglo izazvati geopolitičke sukobe, na primjer, Kina koja gradi velike podatkovne centre na Tajvanu da bi kontrolirala AI. Detalji scenarija pojačavaju angažman, ali su fleksibilni; ključna poruka je da je vrlo vjerojatno da će doći do eksplozije inteligencije i time do borbe za moć. RSI je teorijski koncept i rizičan je; AI firme prepoznaju njegove opasnosti, ali ga planiraju slijediti radi automatizacije vlastitog rada. Uspjeh RSI ovisi o tehnološkim faktorima poput skaliranja, što može imati limite. Ako RSI uspije, mogla bi nastati superinteligencija koja nadmašuje ljudsku umnost—što je malo vjerojatno ako napredak stane tik iznad ljudskih nivoa. Posljedice bi mogle biti oružane trke, manipulacije ili eliminacija čovječanstva, ili dobrohotna superinteligencija koja rješava probleme usklađivanja. Neizvjesnost je prisutna zbog prirode AI-a koja se stalno mijenja, tajnosti istraživanja i spekulacija. “AI 2027” samouvjereno opisuje scenarij tehnološke i ljudske katastrofe u kojem kompanije forsiraju RSI, iako nemaju interpretabilnost i mehanizme kontrole. Kokotajlo tvrdi da su to namjerne odluke, potaknute konkurencijom i znatiželjom, premda poznato rizikovanje, što čini same kompanije pogrešno usklađenima. Suprotno tome, Kapoor i Narayanan u “AI kao običnoj tehnologiji”, s konzervativnijeg, opreznog istočnjačkog stava, sumnjaju u brze eksplozije inteligencije. Navode “brzinska ograničenja” uzrokovana troškovima hardvera, nedostatkom podataka i općenitim obrascima usvajanja tehnologije koji usporavaju revoluciju, dajući dovoljno vremena za regulativu i sigurnosne mjere. Za njih, inteligencija je manje važna od moći—sposobnosti da se utječe na okoliš—a i najnaprednije tehnologije šire se polako. Ilustriraju to primjerima poput izvedbe autonomnih automobila, koja je u početku bila ograničena, ili razvojem vakcine Moderna za COVID-19: iako je dizajn vakcine bio brz, distribucija je trajala godinu dana zbog bioloških i institucionalnih izazova. Napredak u AI-u neće riješiti društvene, regulatorne ili fizičke prepreke u provedbi. Nadalje, Narayanan ističe da se fokus na inteligenciju u AI-ju podcjenjuje uvažavajući domensko znanje i postojeće sigurnosne sisteme u inženjerstvu—fajl-safes, redundancije, formalne verifikacije—koje već osiguravaju sigurnost strojeva zajedno s ljudima. Svijet je dobro regulisan, a AI mora postepeno postajati sastavni dio tog sistema. Oni isključuju vojnu AI, koja ima zasebnu, povjerljivu dinamiku, upozoravajući da bi militarizacija AI, osnovni strah od “AI 2027, ” zahtijevala fokusirani nadzor. Savjetuju proaktivnu regulatornu upravu: regulatorne agencije i organizacije ne trebaju čekati da se pojavi savršeno usklađivanje, već trebaju početi pratiti stvarnu upotrebu AI, rizike i neuspjehe te ojačati pravila i otpornost. Duboki svjetonazorski raskoli proizlaze iz reaktivnih intelektualnih dinamika poticanih AI izazovima, što stvara uspostavljene skupine i povratne petlje. Ipak, zajednička platforma je moguća zamisliti kao “kognitivnu tvornicu”: radni prostor gdje ljudi, opremljeni zaštitom, upravljaju strojevima dizajniranim za produktivnost i sigurnost, uz strogu kontrolu kvalitete, postepenu integraciju inovacija i jasnu odgovornost. Iako AI omogućava automatizaciju određenih razmišljanja, ljudski nadzor i odgovornost i dalje su najvažniji. Kako AI napreduje, on ne umanjuje ljudsku moć; naprotiv, pojačava potrebu za odgovornošću jer su poboljšani individui odgovorniji. Odstupanje od kontrole je izbor, te na kraju, ljudi i dalje ostaju na vrhu. ♦



Brief news summary

Prošle proljeće, istraživač sigurnosti AI-a Daniel Kokotajlo napustio je OpenAI, upozorivši da složenost usklađivanja AI-a s ljudskim vrijednostima zaostaje za brzim tehnološkim napretkom i predviđajući "tačku bez povratka" do 2027. godine, kada bi AI mogao premašiti ljude u većini zadataka. Naglasio je rizike od rekurzivnog samousavršavanja i rastuće geopolitičke konkurencije, što bi moglo dovesti do katastrofalnih ishoda. Suprotno tome, naučnici s Princetona Sayash Kapoor i Arvind Narayanan, autori knjige *AI Snake Oil*, tvrde da će utjecaj AI-a polako rasti, pod utjecajem regulative, praktičnih ograničenja i sporog usvajanja. Njihova studija, "AI kao normalna tehnologija", uspoređuje AI s nukarnom energijom – složenom, ali pod kontrolom putem uspostavljenih sigurnosnih okvira. Ovaj dijalog ističe podjelu: optimizam zapadne tehnološke scene favorizira brze eksperimentacije, dok istočna strana ističe oprez i temeljnu teoriju te upravljanje. Kokotajlo poziva na hitne akcije protiv nepredictabilnih rizika izazvanih konkurencijom i neprozirnim sustavima, dok Kapoor i Narayanan podržavaju proaktivno upravljanje i sigurnu integraciju AI-a, isključujući vojne AI zbog njihovih specifičnih opasnosti. Ukupno gledano, rasprava naglašava hitnu potrebu za jedinstvenim i odgovornim nadzorom s naglaskom na pažnju, ljudsku inicijativu i odgovornost dok se AI duboko integrira u društvo.
Business on autopilot

AI-powered Lead Generation in Social Media
and Search Engines

Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment

Language

Content Maker

Our unique Content Maker allows you to create an SEO article, social media posts, and a video based on the information presented in the article

news image

Last news

The Best for your Business

Learn how AI can help your business.
Let’s talk!

June 24, 2025, 2:43 p.m.

Sjedinjene Države se približavaju donošenju regul…

Nakon višegodišnjih napora, Kongres Sjedinjenih Država sada je blizu donošenja sveobuhvatnog regulatornog okvira posebno za stabilne coine.

June 24, 2025, 2:37 p.m.

Elon Musk planira ponovo obučiti AI platformu Gro…

Elon Musk, istaknuti poduzetnik i izvršni direktor nekoliko vodećih tehnoloških firmi, nedavno je izrazio nezadovoljstvo izvedbom svoje AI platforme Grok, posebno u vezi s njenim odgovorima na kontroverzna ili podijeljena pitanja.

June 24, 2025, 10:41 a.m.

Prepravljanje Elon Muska Grok: AI platforma koja …

Elon Musk otvoreno izražava nezadovoljstvo u vezi sa performansama svoje platforme za umjetnu inteligenciju, Grok, posebno u pogledu njenog rješavanja kontroverznih ili podjela izazivajućih pitanja.

June 24, 2025, 10:26 a.m.

Pakistan pokreće Savjet za kriptovalute radi regu…

Pakistan je napravila značajan napredak u prihvatanju digitalnih inovacija osnivanjem Pakistan Crypto Vijeća (PCC).

June 24, 2025, 6:17 a.m.

Hong Kong Web3 grupa izdaje plan za ubrzanje razv…

U pozivu na povećanje ulaganja kako bi se ubrzao razvoj blockchain infrastrukture, industrijska grupa Web3 Harbour i računovodstvena kompanija PwC Hong Kong pokrenuli su u ponedjeljak „Hong Kong Web3 Blueprint“, nadovezujući se na nedavni zamah grada.

June 24, 2025, 6:15 a.m.

Istraživači Dukea ispituju sigurnost umjetne inte…

Zdravstveni radnici sve više uključuju tehnologije umjetne inteligencije (AI) u svoje svakodnevne radne procese, posebno za zadatke koji zahtijevaju puno vremena, poput medicskog zapisivanja.

June 23, 2025, 2:22 p.m.

Amazon unapređuje robotiku integracijom veštačke …

Amazon je nedavno poboljšao svoje kapacitete u oblasti veštačke inteligencije i robotike zapošljavanjem osnivača Covariant-a—Pietera Abbeela, Petera Chena i Rockyja Duana—kao i otprilike jednu četvrtinu svojih zaposlenih.

All news