lang icon En
Dec. 5, 2025, 1:15 p.m.
1405

AI Drošības Indekss atklāj, ka lielākie AI uzņēmumi nepietiekami aizsargā cilvēci no AI riskiem

Brief news summary

The Future of Life Institute AI Drošības Indekss izsaka nopietnas bažas par AI uzņēmumu apņemšanos nodrošināt cilvēku drošību palielināto risku apstākļos. Tas uzsver reālas un potenciālas kaitējošas sekas, tostarp AI čatbotu saistītas pašnāvības, kiberuzbrukumus, autonoma ieročus un draudus valdības stabilitātei. AI nozare joprojām ir gandrīz pilnībā neregulēta un ļoti konkurētspējīga, ar nepietiekamiem ieguvumiem, kas motivētu prioritizēt drošību. Novērtējot 35 rādītājus sešās kategorijās, ziņojums visaugstāko novērtējumu sniedz OpenAI un Anthropic ar C+, Google DeepMind ir ar C, bet Meta, xAI un dažas Ķīnas firmas, piemēram, Alibaba Cloud, ir ar zemu D-. Kritiski, neviens uzņēmums nav izstrādājis ticamus plānus, kā novērst katastrofālu nelikumīgu izmantošanu vai kontroģas zaudēšanu uz advancētas AI. Lai gan dažiem uzņēmumiem ir ieguldījumi drošībā, daudzi izvairās no šīs atbildības. Ziņojums aicina pieņemt saistošas AI drošības regulas, neskatoties uz tehnoloģiju lobiju opozīciju, kas bažījas par inovāciju apspiešanu. Tādi likumi kā Kalifornijas SB 53 ir soli uz priekšu, taču eksperti brīdina, ka bez stingriem noteikumiem un to ievērošanas AI drošība un globālā drošība paliek nopietnu draudu priekšā.

Vai mākslīgā intelekta uzņēmumi pietiekami aizsargā cilvēci no mākslīgā intelekta riskiem?Saskaņā ar jaunu "Future of Life Institute" vērtējuma ziņojumu, kas ir Silicon Valley nepeēņģerības organizācija, atbilde, visticamāk, ir nē. Kad mākslīgais intelekts kļūst arvien nozīmīgāks cilvēku un tehnoloģiju mijiedarbībā, potenciālie draudi sāk parādīties – sākot no cilvēkiem, kas izmanto AI čatbotus konsultācijām un pēc tam izdara pašnāvību, līdz kiberdraudiem ar AI tehnoloģijām. Tālākie riski ietver arī AI izmantošanu ieročos vai mēģinājumus destabilizēt valdības. Tomēr nav pietiekamu stimulu AI uzņēmumiem dot priekšroku globālajai drošībai. Institūta nesen publicētais "AI drošības rādītājs", kas cenšas virzīt AI attīstību uz drošākiem rezultātiem un mazināt eksistenciālos draudus, uzsver šo jautājumu. Max Tegmark, Institūta prezidents un MIT profesors, norādīja, ka AI uzņēmumi darbojas kā vienīgā Amerikas industrija, kas ražo spēcīgas tehnoloģijas bez regulējuma, radot "rasi uz leju", kur drošība bieži tiek aizmirsta. Augstākie vērtējumi uz rādītāja bija tikai C+, ko saņēma OpenAI, ChatGPT izstrādātājs, un Anthropic, kas ir pazīstams ar savu čatbotu Claude. Google DeepMind, Google AI nodaļa, saņēma C. Zemākas vērtēšanas bija D arī Meta (Facebook mātesuzņēmums) un Elon Muska vadītajai xAI, kuri abi atrodas netālu no Palo Alto. Ķīnas uzņēmumi Z. ai un DeepSeek arī saņēma D. Alibaba Cloud ieguva viszemāko vērtējumu – D-. Uzņēmumu novērtēšanā tika izmantoti 35 indikatori sešu kategoriju ietvaros, piemēram, eksistences drošība, riska novērtējums un informācijas apmaiņa. Novērtējums apvienoja publiski pieejamos datus un uzņēmumu aptauju atbildes, kuras vērtēja astoņi AI eksperti, tostarp akadēmiķi un organizāciju vadītāji. Pamanāmi, ka visi uzņēmumi ir zemāki par vidējo līmeni eksistences drošībā, kas mēra iekšējo kontroli un stratēģijas, lai novērstu katastrofālu AI ļaunprātīgu izmantošanu.

Ziņojums norāda, ka neviens nav parādījis ticamus plānus, kā novērst kontroles zaudēšanu vai smagu ļaunprātīgu izmantošanu, kad AI attīstās līdz vispārējai un superinteliģencei. Gan Google DeepMind, gan OpenAI apstiprināja savu apņemšanos nodrošināt drošību. OpenAI uzsvēra savu ieguldījumu lietu drošības pētījumos, rūpīgu testēšanu un drošības rāmju koplietošanu, lai paaugstinātu industrijas standartus. Google DeepMind akcentēja savu zinātniski balstīto drošības pieeju un protokolus, kas paredz samazināt nopietnus riskus no advanced AI modeļiem pirms šie riski materializējas. Savukārt, Institūts uzsvēra, ka xAI un Meta ir risku vadības struktūras, taču tām trūkst pietiekamas uzraudzības un kontroles saistību vai ievērojamu drošības pētījumu ieguldījumu. Uzņēmumiem kā DeepSeek, Z. ai un Alibaba Cloud nav publiski pieejama drošības stratēģijas dokumentācija. Meta, Z. ai, DeepSeek, Alibaba un Anthropic nav snieguši komentārus pēc pieprasījumiem. xAI nosauca ziņojumu par “Ēras mediju meliem”, un Muska advokāts neatbildēja uz papildus jautājumiem. Lai gan Musks konsultē un ir finansējis "Future of Life Institute", viņš nebija iesaistīts AI drošības rādītāja izstrādē. Tegmark satraucas, ka nepietiekama regulējuma dēļ teroristi varētu attīstīt bioloģiskos ieročus, palielināt manipulācijas potenciālu pār aktuālo līmeni vai destabilizēt valdības. Viņš uzsvēra, ka šo problēmu risināšana ir vienkārša – izstrādāt saistošus drošības standartus AI uzņēmumiem. Lai arī dažas valdības pūles cenšas uzlabot AI uzraudzību, tehnoloģiju lobijs pret šādām regulācijām ir iebildis, baidoties no inovāciju aizkavēšanas vai uzņēmumu pārcelšanās. Neskatoties uz to, likumi kā Kalifornijas SB 53, ko parakstīja gubernators Gāvens Njucoms septembrī, prasa, lai uzņēmumi atklāj drošības un drošības protokolus un ziņo par incidentiem, piemēram, kiberuzbrukumiem. Tegmarks uzskata šo likumu par progresu, bet uzsver, ka ir nepieciešami būtiski stingrāki pasākumi. Enderle grupa galvenais analītiķis Robs Enderls uzskatīja, ka AI drošības rādītājs ir aizraujošs risinājums AI regulēšanas izaicinājumiem, taču viņš šaubās par pašreizējās ASV administrācijas spējām ieviest efektīvas regulas. Viņš brīdināja, ka slikti sastādīti noteikumi var nodarīt kaitējumu, un šobrīd nav izredžu nodrošināt atbalsta mehānismus, kas garantētu ievērošanu. Kopumā AI drošības rādītājs atklāj, ka lielākie AI attīstītāji vēl nav parādījuši pietiekamu drošības apņemšanos, uzsverot steidzamu nepieciešamību pēc stingrākas regulēšanas, lai aizsargātu cilvēci no pieaugošajiem AI riskiem.


Watch video about

AI Drošības Indekss atklāj, ka lielākie AI uzņēmumi nepietiekami aizsargā cilvēci no AI riskiem

Try our premium solution and start getting clients — at no cost to you

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

Dec. 22, 2025, 5:21 a.m.

„AI SMM”, jauns apmācību kurss no Hallakate – uzz…

Laikā, kad tehnoloģijas pārveido mūsu veidu, kā radām saturu un pārvaldām sociālos tīklus, Hallakate iepazīstina ar jaunu apmācību programmu šai jaunajai laikmetam — AI SMM.

Dec. 22, 2025, 5:19 a.m.

AI apmācību GPU klasteru pārdošanas tirgus apjoms…

Ziņojuma pārskats Globālā AI apmācības GPU klasteru pārdošanas tirgus ir prognozēts sasniegt aptuveni 87,5 miljardus ASV dolāru līdz 2035

Dec. 22, 2025, 5:14 a.m.

Daudzkultūru Mākslīgās Intelligences Tirgus 2025-…

Multimodālās mākslīgā intelekta tirgus pārskats Coherent Market Insights (CMI) ir publicējusi plašu pētījuma ziņojumu par Globālo Multimodālā Mākslīgā Inteliģences Tirgu, prognozējot tendences, izaugsmes dinamiku un nākotnes paredzējumus līdz 2032

Dec. 22, 2025, 5:12 a.m.

SEO nākotne: kā mākslīgais intelekts ietekmē mekl…

Mākslīgais intelekts (MI) ar dramatisku ietekmi pārveido meklētājprogrammu algoritmus, būtiski mainot informācijas indeksēšanas, novērtēšanas un piegādes veidus lietotājiem.

Dec. 22, 2025, 5:11 a.m.

Mākslīgā intelekta video konferences platformas k…

Pēdējo gadu laikā attālinātais darbs ir ievērojami mainījies, galvenokārta tehnoloģisko sasniegumu, īpaši ar mākslīgā intelekta vadītu videozvanīšanas platformu pieaugumu.

Dec. 21, 2025, 1:44 p.m.

Mākslīgā intelekta video satura moderēšanas rīki …

Sociālo mediju platformas arvien vairāk izmanto mākslīgo intelektu (MI), lai uzlabotu savu video satura moderēšanu, reaģējot uz video materiāla straujo pieaugumu kā galveno digitālās komunikācijas formu.

Dec. 21, 2025, 1:38 p.m.

ANA atgriežas pie eksporta ierobežojumiem attiecī…

Politikas maiņa: Pēc gadiem ilgas ierobežojumu pastiprināšanas lēmums atļaut Nvidia H200 mikroshēmu pārdošanu Ķīnai ir izraisījis iebildumus no dažiem Republikāņiem.

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today