Da li kompanije za umjetnu inteligenciju adekvatno štite čovječanstvo od rizika umjetne inteligencije?Prema novom izvještaju „Index sigurnosti AI“ koji je objavio Future of Life Institute, nevladina organizacija iz Silicijumske doline, odgovora je vjerovatno ne. Kako AI postaje sve važniji dio interakcije između ljudi i tehnologije, pojavljuju se potencijalne opasnosti — od ljudi koji koriste chatbote sa AI-jem za savjetovanje, a zatim suicidu, do cyber-napada potpomognutih umjetnom inteligencijom. Predstojeći rizici uključuju upotrebu AI u oružju ili pokušaje destabilizacije vlada. Međutim, nedostaju odgovarći podsticaji za kompanije za AI da prioritiziraju globalnu sigurnost. Nedavno objavljeni Indeks sigurnosti AI Instituta, koji ima za cilj usmjeriti razvoj AI ka sigurnijim ishodima i smanjiti egzistencijalne prijetnje, ističe ovaj problem. Max Tegmark, predsjednik Instituta i profesor na MIT-u, upozorio je da kompanije za AI djeluju kao jedina američka industrija koja proizvodi moćnu tehnologiju bez regulative, stvarajući „trku na dno“ gdje je sigurnost često zanemarena. Najviši ocjeni na indeksu su samo C+, koje je dobila OpenAI, tvorac ChatGPT-a, i Anthropic, poznat po svom chatbota Claudea. Googleova divizija za AI, Google DeepMind, dobila je C. Niže ocjene imale su Meta (matična kompanija Facebooka) i Muskova xAI, obje smještene blizu Palo Alta, s ocjenom D. Kineske firme Z. ai i DeepSeek također su dobile D. Alibaba Cloud je dobila najnižu ocjenu, D-. Kompanije su ocijenjene koristeći 35 pokazatelja iz šest kategorija poput egzistencijalne sigurnosti, procjene rizika i dijeljenja informacija. Procjena je kombinovala javno dostupne podatke i odgovore na ankete kompanija, a ocjenjivali su ih osam stručnjaka za AI, uključujući akademike i lidere organizacija. Važno je napomenuti da su sve kompanije imale ispodprosječne rezultate u području egzistencijalne sigurnosti, što obuhvata interne kontrole i strategije za sprječavanje katastrofalne zloupotrebe AI-ja.
U izvještaju stoji da nijedna od njih nije pokazala vjerodostojne planove za sprječavanje gubitka kontrole ili ozbiljne zloupotrebe kako AI bude napredovala prema općoj i superinteligenciji. I Google DeepMind i OpenAI su potvrdili svoju opredijeljenost za sigurnost. OpenAI je istaknuo ulaganje u najnovija sigurnosna istraživanja, rigorozno testiranje i dijeljenje okvira za sigurnost s ciljem podizanja industrijskih standarda. Google DeepMind je naglasio svoj naučno vođen pristup sigurnosti i protokole za ublažavanje ozbiljnih rizika od naprednih AI modela prije nego ti rizici zaista nastupe. Suprotno tome, Institut je istaknuo da i xAI i Meta imaju okvire za upravljanje rizicima, ali im nedostaju ozbiljne obaveze za nadzor i kontrolu ili značajna ulaganja u istraživanja sigurnosti. Firmama poput DeepSeek, Z. ai i Alibaba Cloud nedostaju javno dostupne dokumentacije o njihovim strategijama sigurnosti. Meta, Z. ai, DeepSeek, Alibaba i Anthropic nisu odgovorili na zahtjeve za komentar. xAI je odbacio izvještaj kao “Laži medija”, a Muskova advokatica nije odgovorila na dodatne upite. Iako Musk savjetuje i finansira Future of Life Institute, on nije bio uključen u izradu Indeksa sigurnosti AI. Tegmark je izrazio zabrinutost da neadekvatna regulacija može omogućiti teroristima razvoj biološkog oružja, povećati manipulativni potencijal iznad sadašnjih nivoa ili destabilizirati vlade. Naglasio je da su rješavanje ovih problema jednostavni: uspostaviti obavezujuće sigurnosne standarde za kompanije za AI. Dok neki napori vlada nastoje poboljšati nadzor nad AI, tehnološke lobističke grupe opiru se takvim regulativama, plašeći se da bi to moglo ugušiti inovacije ili izazvati selidbu firmi u druge zemlje. Ipak, zakon poput kalifornijskog SB 53, kojeg je u septembru potpisao guverner Gavin Newsom, nalaže kompanijama da otkriju svoje sigurnosne i zaštitne protokole i prijavljuju incidente poput cyber-napada. Tegmark smatra da je ovo korak naprijed, ali ističe da je potrebna znatno veća akcija. Rob Enderle, glavni analitičar u Enderle Groupu, smatra da je Indeks sigurnosti AI intrigantan pristup regulaciji AI, ali sumnja u sposobnost trenutne američke administracije da efektivno sprovede takve regulative. Upozorava da loše sastavljene odredbe mogu izazvati štetu i sumnja da postoje mehanizmi za provođenje koje će osigurati poštivanje pravila. Ukupno gledano, Indeks sigurnosti AI pokazuje da vodeći razvojni giganti za AI još uvijek nisu demonstrirali snažnu posvećenost sigurnosti, što ističe hitnu potrebu za jačom regulativom u cilju zaštite čovječanstva od rastućih rizika koje donosi umjetna inteligencija.
Indeks sigurnosti umjetne inteligencije otkriva da velike kompanije za umjetnu inteligenciju nedovoljno štite čovječanstvo od rizika povezanim sa AI-jem
Tokom posljednjih 18 mjeseci, Tim SaaStr se uronio u AI i prodaju, s velikim ubrzanjem koje je počelo u junu 2025.
OpenAI se priprema za lansiranje GPT-5, sljedeće velike nadogradnje u seriji modela velikih jezičkih modela, za čije izdavanje se očekuje početkom 2026.
Veštačka inteligencija (VI) brzo preobražava područje kreiranja i optimizacije sadržaja u okviru optimizacije za pretraživače (SEO).
Prelazak na rad na daljinu istaknuo je ključnu potrebu za efikasnim komunikacijskim alatima, što je dovelo do porasta rješenja za video konferencije koja pokreće umjetna inteligencija, a koja omogućavaju nesmetanu saradnju na udaljenosti.
Pregled Globalno tržište umjetne inteligencije u medicini predviđa se da će do 2033
John Mueller iz Googlea ugostio je Dannyja Sullivana, također iz Googlea, na podcastu Search Off the Record kako bi razgovarali o "Misli o SEO-u i SEO-u za AI".
Kratki uvid: Lexus je pokrenuo prazničnu marketinšku kampanju kreiranu pomoću generativne umjetne inteligencije, navodi se u saopćenju za javnost
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today