lang icon En
Dec. 12, 2024, 7:33 p.m.
4097

Mjere Sigurnosti AI zaostaju za rastućom moći: Izvještaj Instituta za budućnost života

Brief news summary

Izvještaj Instituta za budućnost života ukazuje na značajne nedostatke u mjerama sigurnosti AI-a među vodećim tehnološkim kompanijama, uključujući OpenAI i Google DeepMind, koje su obje dobile zabrinjavajuću ocjenu D+. Stručnjaci poput Yoshue Bengija kritikuju ove organizacije zbog neučinkovitog upravljanja rizicima i slabe transparentnosti. Druge kompanije, kao što su Meta i x.AI Elona Muska, ostvarile su još niže ocjene, što naglašava raširene nedostatke u industriji. Anthropic, kompanija koja daje prednost sigurnosti, dobila je najvišu ocjenu C, što ukazuje na to da je potrebno značajno unapređenje kod svih organizacija. Izvještaj ukazuje da su svi procijenjeni AI modeli podložni "probijanju zaštite", što otkriva nedovoljnost trenutnih sigurnosnih protokola usred zabrinutosti da se AI približava nivou inteligencije sličnom ljudskom. Istaknuti stručnjaci poput Stuarta Russella zalažu se za konkretne sigurnosne mjere umjesto složenih sistemskih zavisnosti, dok Tegan Maharaj naglašava potrebu za nezavisnim nadzorom izvan internih evaluacija. Kako bi se suočili s ovim izazovima, izvještaj poziva na rigorozne sigurnosne standarde i ističe da bi neka pitanja mogla zahtijevati tehnološke inovacije. Naglašava se vrijednost inicijativa kao što je AI Safety Index za poticanje odgovornog razvoja AI-a i implementaciju najboljih praksi širom industrije.

Kako kompanije razvijaju sve moćniju vještačku inteligenciju, čini se da mjere sigurnosti zaostaju. Nedavni izvještaj, objavljen od strane Future of Life Institute, otkriva zabrinutosti u vezi sa potencijalnim štetama od AI tehnologija koje koriste firme poput OpenAI i Google DeepMind. Glavni modeli ovih razvijatelja pokazuju ranjivosti, i dok su neke kompanije poboljšale sigurnosne protokole, druge zaostaju. Ovaj izvještaj dolazi nakon otvorenog pisma Future of Life Institute iz 2023. godine, u kojem su pozvali na pauzu u obuci velikih AI modela, a koje je dobilo značajnu podršku. Izvještaj, koji je kreirala grupa od sedam nezavisnih stručnjaka, uključujući poznate ličnosti poput dobitnika Turingove nagrade Yoshue Bengia, procijenio je kompanije u šest oblasti: procjena rizika, trenutne štete, sigurnosni okviri, strategija egzistencijalne sigurnosti, upravljanje i odgovornost, te transparentnost i komunikacija. Procijenjene prijetnje su se kretale od emisije ugljen-dioksida do AI sistema koji bi mogli postati nekontrolirani. Prema panelisti Stuartu Russellu, aktivnosti pod paradigmom "sigurnosti" u AI kompanijama još nisu vrlo efikasne.

Ocjene to i odražavaju, s Meta i X. AI koji su dobili najniže ocjene, dok su OpenAI i Google DeepMind postigli nešto bolje rezultate, ali i dalje nedovoljne. Anthropic, uprkos naglasku na sigurnosti, dobio je samo ocjenu C, što sugerira da i vodeći igrači imaju prostora za poboljšanje. Utvrđeno je da svi modeli kompanija podliježu "jailbreakovima, " što izlaže njihove sisteme rizicima. Panelistkinja Tegan Maharaj iz HEC Montréal naglašava potrebu za nezavisnim nadzorom, jer se oslanjanje na interne procjene kompanija može pokazati kao pogrešno zbog nedostatka odgovornosti. Maharaj spominje "voće nadohvat ruke, " ili jednostavna sigurnosna poboljšanja koja neke kompanije ignorišu, poput procjena rizika kod Zhipu AI, X. AI i Meta. Složenija pitanja zahtijevaju tehničke proboje zbog inherentne prirode trenutnih AI modela. Stuart Russell ističe odsustvo garantirane sigurnosti pod trenutnim AI pristupom, koji se oslanja na ogromne količine podataka, te priznaje sve veću teškoću kako AI sistemi postaju veći. Bengio naglašava nužnost inicijativa poput AI Safety Indexa, vjerujući da su ključne za osiguranje pridržavanja sigurnosnih obaveza kompanija i za poticanje usvajanja odgovornih praksi.


Watch video about

Mjere Sigurnosti AI zaostaju za rastućom moći: Izvještaj Instituta za budućnost života

Try our premium solution and start getting clients — at no cost to you

Content creator image

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

March 17, 2026, 2:23 p.m.

Intelov AI akcelerator: povećanje performansi za …

Intel je predstavio novi AI akceleratorski čip dizajniran da značajno poboljša performanse mašinskog učenja na raznim platformama.

March 17, 2026, 2:19 p.m.

Napredak u otkrivanju Deepfakeova pomoću AI anali…

Istraživači su postigli značajan napredak u borbi protiv dezinformacija razvojem naprednih AI algoritama za otkrivanje deepfake videa, koji su izuzetno realističan, ali lažan video sadržaj kreiran uz pomoć umjetne inteligencije i strojnog učenja.

March 17, 2026, 2:16 p.m.

13 brendova koji koriste AI za marketing na društ…

Ako ste marketer, tvorac ili vlasnik brenda koji ne koristi AI za društvene mreže, zaostajete za konkurencijom.

March 17, 2026, 2:15 p.m.

6 agencija koje privlače ulaganja privatnog kapit…

Investitori u privatni kapital pripremaju se za preuzimanje više nezavisnih agencija.

March 17, 2026, 2:12 p.m.

Caylentov CEO o AWS-ovom vodstvu u AI-ju i rastu …

Valerie Henderson, izvršna direktorica Caylent, irvine, Kaliforniji sa gotovo 950 zaposlenih širom svijeta i AWS Premier Partner, ističe promjenu u poslovnom modelu usluga — od skaliranja broja zaposlenih s rastom prihoda prema fokusiranju na rast zasnovan na rezultatima i vrijednosti.

March 17, 2026, 10:38 a.m.

Alat za automatizaciju društvenih mreža sa snažni…

Postmypost je predstavio revolucionarnog AI-asistenta koji je osmišljen da transformiše upravljanje društvenim mrežama za brendove i preduzeća.

March 17, 2026, 10:35 a.m.

Candid pokreće Live Marketing: "AI će obaviti 90 …

AMSTERDAM, 17.

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

AI Company welcome image

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today