lang icon English
Dec. 5, 2025, 1:15 p.m.
100

Indicele de Siguranță în Inteligența Artificială arată că marile companii de AI nu reușesc să protejeze în mod adecvat omenirea de riscurile asociate AI-ului

Brief news summary

Indicele de Siguranță a AI al Institutului Future of Life ridică îngrijorări serioase cu privire la angajamentul companiilor de AI față de siguranța umană în contextul riscurilor în creștere. Acesta evidențiază daune reale și potențiale, inclusiv sinucideri legate de chatboții AI, atacuri cibernetice, arme autonome și amenințări la adresa stabilității guvernamentale. Industria AI rămâne în mare parte nereglementată și extrem de competitivă, cu stimulente insuficiente pentru a prioritiza siguranța. Prin evaluarea a 35 de indicatori din șase categorii, raportul clasează cel mai bine OpenAI și Anthropic cu un C+, Google DeepMind cu un C, iar Meta, xAI și unele companii chineze precum Alibaba Cloud cu un D-. Cel mai important, nicio companie nu dispune de strategii credibile pentru a preveni utilizarea catastrofală sau pierderea controlului asupra AI avansat. În timp ce unele investesc în siguranță, multe evită această responsabilitate. Raportul solicită reglementări obligatorii pentru siguranța AI, în ciuda opoziției lobby-urilor din domeniul tehnologiei, preocupate de supraîncărcarea inovării. Legislații precum SB 53 din California marchează un progres, însă experții avertizează că, fără reguli solide și aplicare strictă, siguranța AI și securitatea globală rămân în pericol serios.

Companiile de inteligență artificială protejează adecvat omenirea de riscurile inteligenței artificiale?Conform unui nou raport de evaluare al Institutului Future of Life, o organizație non-profit din Silicon Valley, răspunsul este probabil nu. Pe măsură ce IA devine tot mai integrată în interacțiunile dintre oameni și tehnologie, apar potențiale amenințări—de la utilizarea chatboturilor IA pentru consiliere, urmată de deces prin suicid, până la atacuri cibernetice facilitate de IA. Se profilează și riscuri viitoare, printre care utilizarea IA în armament sau tentative de destabilizare a guvernelor. Cu toate acestea, există stimulente insuficiente pentru companiile de IA să prioritizeze siguranța globală. Institutul a publicat recent Indexul de Siguranță în IA, care urmărește direcționarea dezvoltării IA spre rezultate mai sigure și atenuarea amenințărilor existențiale, și evidențiază această problemă. Max Tegmark, președintele institutului și profesor la MIT, a menționat că companiile de IA funcționează ca singura industrie din SUA care produce tehnologii puternice fără reglementări, creând o „curse către jos”, unde siguranța este adesea neglijată. Cele mai bune note din index au fost doar C+, acordate pentru OpenAI, dezvoltatorul ChatGPT, și Anthropic, cunoscut pentru chatbotul Claude. Divizia de IA a Google, Google DeepMind, a primit un C. Note mai scăzute au fost D pentru Meta (compania mamă a Facebook), și xAI, fondată de Elon Musk, ambele cu sediul aproape de Palo Alto. De asemenea, companii chineze precum Z. ai și DeepSeek au obținut nota D. Alibaba Cloud a primit cea mai mică notă, D-. Companiile au fost evaluate pe baza a 35 de indicatori din șase categorii, precum siguranța existențială, evaluarea riscurilor și schimbul de informații. Evaluarea a combinat date disponibile public și răspunsuri la chestionare de la companii, evaluate de opt experți în IA, inclusiv academicieni și lideri din organizații. Este remarcabil că toate companiile au obținut scoruri sub medie în domeniul siguranței existențiale, care măsoară controale interne și strategii pentru prevenirea utilizării catastrofale a IA.

Raportul a menționat că nicio companie nu a demonstrat planuri credibile pentru a preveni pierderea controlului sau utilizarea abuzivă severă, pe măsură ce IA avansează spre inteligența generală și superinteligență. Atât Google DeepMind, cât și OpenAI și-au reiterat angajamentul față de siguranță. OpenAI a subliniat investițiile în cercetare de frontier pentru siguranță, teste riguroase și partajarea cadrelor de siguranță pentru a ridica standardele industriei. Google DeepMind a evidențiat abordarea sa bazată pe știință și protocoalele pentru atenuarea riscurilor grave de la modele avansate de IA înainte ca aceste riscuri să devină reale. În contrast, Institutul a subliniat că xAI și Meta dispun de cadre de gestionare a riscurilor, dar nu au angajamente suficiente pentru monitorizare și control sau investiții semnificative în cercetarea siguranței. Companiile precum DeepSeek, Z. ai și Alibaba Cloud nu au documentație publică privind strategicile de siguranță. Meta, Z. ai, DeepSeek, Alibaba și Anthropic nu au răspuns solicitărilor de comentarii. xAI a catalogat raportul drept „Minciuni ale Media Legacy”, iar avocatul lui Musk nu a răspuns la alte întrebări. Deși Musk sfătuiește și a finanțat Institutul Future of Life, nu a fost implicat în elaborarea Indexului de Siguranță în IA. Tegmark și-a exprimat îngrijorarea că insuficienta reglementare poate permite teroriștilor să dezvolte arme biologice, să crească potențialul manipulator peste nivelurile actuale sau să destabilizeze guverne. El a subliniat că rezolvarea acestor probleme este simplă: stabilirea unor standarde obligatorii de siguranță pentru companiile de IA. Deși unele inițiative guvernamentale urmăresc sporirea supravegherii IA, lobby-ul tehnologic s-a opus acestor reglementări, temându-se de încetarea inovației sau de migrarea companiilor. Cu toate acestea, legi precum SB 53 din California, semnată în septembrie de guvernatorul Gavin Newsom, impun companiilor să dezvăluie protocoale de siguranță și securitate și să raporteze incidente precum atacurile cibernetice. Tegmark consideră că această lege reprezintă un progres, dar cere acțiuni mult mai ample. Rob Enderle, analist principal la Enderle Group, a considerat Indexul de Siguranță în IA o abordare convingătoare pentru provocările de reglementare ale IA, dar și-a exprimat îndoiala cu privire la capacitatea administrației americane actuale de a implementa reglementări eficiente. El a avertizat că reguli prost gândite pot face mai mult rău și are îndoieli că există mecanisme de aplicare pentru a asigura conformitatea. În concluzie, Indexul de Siguranță în IA evidențiază faptul că marii dezvoltatori de IA nu au demonstrat încă angajamente solide pentru siguranță, subliniind urgent necesitatea unor reglementări mai stricte pentru a proteja omenirea de riscurile tot mai mari ale IA.


Watch video about

Indicele de Siguranță în Inteligența Artificială arată că marile companii de AI nu reușesc să protejeze în mod adecvat omenirea de riscurile asociate AI-ului

Try our premium solution and start getting clients — at no cost to you

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

Dec. 5, 2025, 1:16 p.m.

Meta încheie mai multe acorduri cu publicațiile d…

Meta, compania-mamă a Facebook, Instagram, WhatsApp și Messenger, a înregistrat recent progrese semnificative în dezvoltarea capacităților sale de inteligență artificială prin încheierea mai multor acorduri comerciale cu organizații de știri de prestigiu.

Dec. 5, 2025, 1:13 p.m.

Lista completă a roboților pentru agenții utiliza…

Vizibilitatea AI este esențială pentru SEO-uri, începând cu gestionarea crawlerelor AI.

Dec. 5, 2025, 1:13 p.m.

Senatorii americani depun proiect de lege pentru …

Un grup bipartizan de senatori americani, inclusiv un notabil conservator anti-China, Tom Cotton, a introdus un proiect de lege pentru a preveni relaxarea restricțiilor impuse de administrația Trump asupra accesului Beijingului la cipuri de inteligență artificială pentru o perioadă de 2,5 ani.

Dec. 5, 2025, 9:30 a.m.

Agenția Muster | SMM bazat pe AI

Muster Agency devine rapid un jucător de top în marketingul pe social media bazat pe inteligență artificială, oferind o gamă completă de servicii menite să îmbunătățească prezența online a afacerilor prin tehnologii avansate.

Dec. 5, 2025, 9:23 a.m.

Vizrt dezvăluie noi Capabilități AI pentru a Ajut…

Vizrt a lansat versiunea 8.1 a sistemului său de gestionare a activelor media, Viz One, introducând caracteristici avansate bazate pe inteligență artificială, concepute pentru a crește viteza, inteligența și precizia.

Dec. 5, 2025, 9:21 a.m.

Microsoft reduce țintele de vânzări pentru AI la …

Recent, Microsoft și-a revizuit țintele de creștere a vânzărilor pentru produsele sale de agenți AI, după ce mulți reprezentanți de vânzări nu au atins cotele stabilite în anul fiscal care s-a încheiat în iunie, după cum a raportat The Information.

Dec. 5, 2025, 9:20 a.m.

Inteligența artificială și SEO: Navigând Viitorul…

Inteligența artificială (IA) transformă din ce în ce mai mult optimizarea pentru motoarele de căutare (SEO), determinând marketerii să își actualizeze strategiile pentru a rămâne competitivi.

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today