Pro prošle proljeće, Daniel Kokotajlo, istraživač sigurnosti umjetne inteligencije u OpenAI-ju, napustio je posao u znak protesta, uvjeren da kompanija nije spremna za budućnost AI tehnologije i želeći upozoriti na moguće opasnosti. U telefonskom razgovoru djelovao je prijateljski, ali zabrinuto, objašnjavajući da napredak u “usklađivanju” AI—metodama kojima se osigurava da AI slijedi ljudske vrijednosti—zaostaje za brzim napretkom u inteligenciji. Upozoravao je da se istraživači žure prema stvaranju moćnih sistema izvan kontrole. Kokotajlo, koji je prije prelaska u AI studirao filozofiju, sam naučio kako pratiti napredak u AI i predviđati kada bi mogli doći do ključnih milestona u razvoju inteligencije. Nakon što je AI napredovao brže nego što je očekivao, pomakao je svoje vremenske okvire za decenije. Njegov scenario iz 2021. godine, “Kako izgleda 2026. ”, predviđao je da će mnoge od njegovih prognoza biti ostvarene već rano, što ga je navelo na predviđanje da će 2027. ili ranije doći do “točke bez povratka” gdje AI može nadmašiti ljude u većini ključnih zadataka i imati veliku moć. Zvuk je bio zabrinjavajući. Istovremeno, princetonski informatičari Sayash Kapoor i Arvind Narayanan pripremali su svoju knjigu “AI čarobni štapić”, koja je zauzimala vrlo različit stav. Smatrali su da su rokovi za razvoj AI previše optimistični; tvrdnje o korisnosti AI često su precijenjene ili lažne; te da složenost stvarnog svijeta znači da će transformativni učinci AI biti sporiji. Navodeći primjere grešaka AI u medicini i zapošljavanju, isticali su da i najnoviji sistemi pate od temeljne disconnect od stvarnosti. Nedavno su svi troje pooštrili svoje stavove u novim izvještajima. Neprofitna organizacija Kokotajlova AI Futures Project objavila je “AI 2027”, detaljan i često citiran izvještaj koji iznosi jeziv scenario u kojem superinteligentna AI može dominirati ili istrijebiti čovječanstvo do 2030. —ozbiljno upozorenje. U međuvremenu, rad Kapoor i Narayanana “AI kao obična tehnologija” tvrdi da će praktične prepreke—od regulative i sigurnosnih standarda do stvarnih fizičkih ograničenja—usporiti implementaciju AI i ograničiti njezin revolucionarni utjecaj. Oni smatraju da će AI ostati “obična” tehnologija, koju je moguće nadzirati poznatim sigurnosnim mjerama kao što su prekidači i ljudski nadzor, sličnije nuklearnoj energiji nego nuklearnom oružju. Dakle, šta će biti: običan posao ili apokaliptični preokret?Oštro suprotstavljeni zaključci ovih vrlo stručnih ljudi—olaiska na debatu je poput rasprave o duhovnosti s Richardom Dawkinsom i Papežem. Teškoće u spoznaji dijelom proizlaze iz novosti AI—kao da slijepi ljudi opisuju različite dijelove slona—a dijelom iz dubokih svjetonazora. Općenito gledano, tehnološki mislioci sa zapadne obale predviđaju brzu transformaciju; dok akademici sa istočne obale budu skeptični. Istraživači AI-ja žele brz napredak kroz eksperimente; drugi računalni znanstvenici teže teorijskoj rigoroznosti. Industrija želi ostati upisana u povijest; vanjski promatrači odbacuju hype oko tehnologije. Politički, ljudski i filozofski pogledi na tehnologiju, napredak i svijest dodatno pojačavaju razliku. Ova zanimljiva rasprava sama po sebi postaje problem. Industrijski stručnjaci uglavnom prihvaćaju premise “AI 2027”, ali se svađaju oko rokova—što je nedostatna reakcija, slično kao da se prepiru oko vremena dok se planeti približavaju katastrofi. S druge strane, umjereni stavovi u “AI kao obična tehnologija” o tome da ljudi trebaju ostati u petlji, toliko su umanjeni da ih su putem ignorirali analitičari koji se fokusiraju na apokalipsu. Kako AI postaje sve važniji za društvo, diskusija mora preći s stručno-znanstvenog na zajednički akcioni konsenzus. Nedostatak jedinstvenih stručnih savjeta olakšava odlučivačima da zanemaruju rizike.
Trenutno, kompanije za AI nisu značajno promijenile odnos između sposobnosti i sigurnosti. U međuvremenu, novi zakoni zabranjuju državnu regulaciju AI modela i automatizovanih sistemi odlučivanja na deset godina—što bi potencijalno omogućilo AI-u da reguliše čovječanstvo ako se promašeni scenarij ostvari. Sadašnji odgovori na sigurnost su hitni. Predviđanje budućnosti AI kroz narativ uključuje kompromise: oprezni scenariji mogu previdjeti rijetke rizike; maštoviti ističu mogućnosti od vjerojatnosti. Čak i među vizionarima poput romana William Gibsona, iznenadne događaje koji mijenjaju prognoze su se desile. “AI 2027” je živo i spekulativno, napisano poput naučne fantastike s detaljnim grafikama. Predstavlja skoro- buduću eksploziju inteligencije sredinom 2027. godine, izazvanu “rekurzivnim samopoboljšavanjem” (RSI), gdje sistemi AI autonomno razvijaju vlastiti napredak, stvarajući pametniju djecu u ubrzavajućim petljama koje nadmašuju ljudski nadzor. To bi moglo izazvati geopolitičke sukobe, na primjer, Kina koja gradi velike podatkovne centre na Tajvanu da bi kontrolirala AI. Detalji scenarija pojačavaju angažman, ali su fleksibilni; ključna poruka je da je vrlo vjerojatno da će doći do eksplozije inteligencije i time do borbe za moć. RSI je teorijski koncept i rizičan je; AI firme prepoznaju njegove opasnosti, ali ga planiraju slijediti radi automatizacije vlastitog rada. Uspjeh RSI ovisi o tehnološkim faktorima poput skaliranja, što može imati limite. Ako RSI uspije, mogla bi nastati superinteligencija koja nadmašuje ljudsku umnost—što je malo vjerojatno ako napredak stane tik iznad ljudskih nivoa. Posljedice bi mogle biti oružane trke, manipulacije ili eliminacija čovječanstva, ili dobrohotna superinteligencija koja rješava probleme usklađivanja. Neizvjesnost je prisutna zbog prirode AI-a koja se stalno mijenja, tajnosti istraživanja i spekulacija. “AI 2027” samouvjereno opisuje scenarij tehnološke i ljudske katastrofe u kojem kompanije forsiraju RSI, iako nemaju interpretabilnost i mehanizme kontrole. Kokotajlo tvrdi da su to namjerne odluke, potaknute konkurencijom i znatiželjom, premda poznato rizikovanje, što čini same kompanije pogrešno usklađenima. Suprotno tome, Kapoor i Narayanan u “AI kao običnoj tehnologiji”, s konzervativnijeg, opreznog istočnjačkog stava, sumnjaju u brze eksplozije inteligencije. Navode “brzinska ograničenja” uzrokovana troškovima hardvera, nedostatkom podataka i općenitim obrascima usvajanja tehnologije koji usporavaju revoluciju, dajući dovoljno vremena za regulativu i sigurnosne mjere. Za njih, inteligencija je manje važna od moći—sposobnosti da se utječe na okoliš—a i najnaprednije tehnologije šire se polako. Ilustriraju to primjerima poput izvedbe autonomnih automobila, koja je u početku bila ograničena, ili razvojem vakcine Moderna za COVID-19: iako je dizajn vakcine bio brz, distribucija je trajala godinu dana zbog bioloških i institucionalnih izazova. Napredak u AI-u neće riješiti društvene, regulatorne ili fizičke prepreke u provedbi. Nadalje, Narayanan ističe da se fokus na inteligenciju u AI-ju podcjenjuje uvažavajući domensko znanje i postojeće sigurnosne sisteme u inženjerstvu—fajl-safes, redundancije, formalne verifikacije—koje već osiguravaju sigurnost strojeva zajedno s ljudima. Svijet je dobro regulisan, a AI mora postepeno postajati sastavni dio tog sistema. Oni isključuju vojnu AI, koja ima zasebnu, povjerljivu dinamiku, upozoravajući da bi militarizacija AI, osnovni strah od “AI 2027, ” zahtijevala fokusirani nadzor. Savjetuju proaktivnu regulatornu upravu: regulatorne agencije i organizacije ne trebaju čekati da se pojavi savršeno usklađivanje, već trebaju početi pratiti stvarnu upotrebu AI, rizike i neuspjehe te ojačati pravila i otpornost. Duboki svjetonazorski raskoli proizlaze iz reaktivnih intelektualnih dinamika poticanih AI izazovima, što stvara uspostavljene skupine i povratne petlje. Ipak, zajednička platforma je moguća zamisliti kao “kognitivnu tvornicu”: radni prostor gdje ljudi, opremljeni zaštitom, upravljaju strojevima dizajniranim za produktivnost i sigurnost, uz strogu kontrolu kvalitete, postepenu integraciju inovacija i jasnu odgovornost. Iako AI omogućava automatizaciju određenih razmišljanja, ljudski nadzor i odgovornost i dalje su najvažniji. Kako AI napreduje, on ne umanjuje ljudsku moć; naprotiv, pojačava potrebu za odgovornošću jer su poboljšani individui odgovorniji. Odstupanje od kontrole je izbor, te na kraju, ljudi i dalje ostaju na vrhu. ♦
Rasprava o budućnosti umjetne inteligencije: apokalipsa ili normalnost? Uvidi vodećih stručnjaka
Kompanija Walt Disney Company pokrenula je značajne pravne korake protiv Googlea podnoseći pisano upozorenje, optužujući tech giganta za kršenje autorskih prava Disneyjevog sadržaja tokom obuke i razvoja generativnih modela umjetne inteligencije (AI) bez nadoknade.
Kako napredak umjetne inteligencije (AI) i sve veća integracija u digitalni marketing postaju značajniji, njen utjecaj na optimizaciju za pretraživače (SEO) postaje ključan.
MiniMax i Zhipu AI, dvije vodeće kompanije za umjetnu inteligenciju, navodno se pripremaju za izlazak na burzu na Hong Kong Burzi već u januaru sljedeće godine.
Denise Dresser, izvršna direktorica Slacka, namjerava napustiti svoju poziciju i preći na mjesto Glavne direktorice za prihode u OpenAI, kompaniji koja stoji iza ChatGPT-a.
Industrija filma uveliko prolazi kroz veliku transformaciju kako studiji sve više koriste tehnologije sinteze videa umjetne inteligencije (AI) za poboljšanje poslijeprodukcijskih procesa.
AI mijenja marketing na društvenim mrežama nudeći alate koji pojednostavljuju i povećavaju angažman publike.
Novi trend AI-generiranih influencera na društvenim mrežama označava veliku promjenu u digitalnom okruženju, izazivajući široke rasprave o autentičnosti online interakcija i etičkim pitanjima povezanima s ovim virtualnim ličnostima.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today