Vai mākslīgā intelekta uzņēmumi pietiekami aizsargā cilvēci no mākslīgā intelekta riskiem?Saskaņā ar jaunu "Future of Life Institute" vērtējuma ziņojumu, kas ir Silicon Valley nepeēņģerības organizācija, atbilde, visticamāk, ir nē. Kad mākslīgais intelekts kļūst arvien nozīmīgāks cilvēku un tehnoloģiju mijiedarbībā, potenciālie draudi sāk parādīties – sākot no cilvēkiem, kas izmanto AI čatbotus konsultācijām un pēc tam izdara pašnāvību, līdz kiberdraudiem ar AI tehnoloģijām. Tālākie riski ietver arī AI izmantošanu ieročos vai mēģinājumus destabilizēt valdības. Tomēr nav pietiekamu stimulu AI uzņēmumiem dot priekšroku globālajai drošībai. Institūta nesen publicētais "AI drošības rādītājs", kas cenšas virzīt AI attīstību uz drošākiem rezultātiem un mazināt eksistenciālos draudus, uzsver šo jautājumu. Max Tegmark, Institūta prezidents un MIT profesors, norādīja, ka AI uzņēmumi darbojas kā vienīgā Amerikas industrija, kas ražo spēcīgas tehnoloģijas bez regulējuma, radot "rasi uz leju", kur drošība bieži tiek aizmirsta. Augstākie vērtējumi uz rādītāja bija tikai C+, ko saņēma OpenAI, ChatGPT izstrādātājs, un Anthropic, kas ir pazīstams ar savu čatbotu Claude. Google DeepMind, Google AI nodaļa, saņēma C. Zemākas vērtēšanas bija D arī Meta (Facebook mātesuzņēmums) un Elon Muska vadītajai xAI, kuri abi atrodas netālu no Palo Alto. Ķīnas uzņēmumi Z. ai un DeepSeek arī saņēma D. Alibaba Cloud ieguva viszemāko vērtējumu – D-. Uzņēmumu novērtēšanā tika izmantoti 35 indikatori sešu kategoriju ietvaros, piemēram, eksistences drošība, riska novērtējums un informācijas apmaiņa. Novērtējums apvienoja publiski pieejamos datus un uzņēmumu aptauju atbildes, kuras vērtēja astoņi AI eksperti, tostarp akadēmiķi un organizāciju vadītāji. Pamanāmi, ka visi uzņēmumi ir zemāki par vidējo līmeni eksistences drošībā, kas mēra iekšējo kontroli un stratēģijas, lai novērstu katastrofālu AI ļaunprātīgu izmantošanu.
Ziņojums norāda, ka neviens nav parādījis ticamus plānus, kā novērst kontroles zaudēšanu vai smagu ļaunprātīgu izmantošanu, kad AI attīstās līdz vispārējai un superinteliģencei. Gan Google DeepMind, gan OpenAI apstiprināja savu apņemšanos nodrošināt drošību. OpenAI uzsvēra savu ieguldījumu lietu drošības pētījumos, rūpīgu testēšanu un drošības rāmju koplietošanu, lai paaugstinātu industrijas standartus. Google DeepMind akcentēja savu zinātniski balstīto drošības pieeju un protokolus, kas paredz samazināt nopietnus riskus no advanced AI modeļiem pirms šie riski materializējas. Savukārt, Institūts uzsvēra, ka xAI un Meta ir risku vadības struktūras, taču tām trūkst pietiekamas uzraudzības un kontroles saistību vai ievērojamu drošības pētījumu ieguldījumu. Uzņēmumiem kā DeepSeek, Z. ai un Alibaba Cloud nav publiski pieejama drošības stratēģijas dokumentācija. Meta, Z. ai, DeepSeek, Alibaba un Anthropic nav snieguši komentārus pēc pieprasījumiem. xAI nosauca ziņojumu par “Ēras mediju meliem”, un Muska advokāts neatbildēja uz papildus jautājumiem. Lai gan Musks konsultē un ir finansējis "Future of Life Institute", viņš nebija iesaistīts AI drošības rādītāja izstrādē. Tegmark satraucas, ka nepietiekama regulējuma dēļ teroristi varētu attīstīt bioloģiskos ieročus, palielināt manipulācijas potenciālu pār aktuālo līmeni vai destabilizēt valdības. Viņš uzsvēra, ka šo problēmu risināšana ir vienkārša – izstrādāt saistošus drošības standartus AI uzņēmumiem. Lai arī dažas valdības pūles cenšas uzlabot AI uzraudzību, tehnoloģiju lobijs pret šādām regulācijām ir iebildis, baidoties no inovāciju aizkavēšanas vai uzņēmumu pārcelšanās. Neskatoties uz to, likumi kā Kalifornijas SB 53, ko parakstīja gubernators Gāvens Njucoms septembrī, prasa, lai uzņēmumi atklāj drošības un drošības protokolus un ziņo par incidentiem, piemēram, kiberuzbrukumiem. Tegmarks uzskata šo likumu par progresu, bet uzsver, ka ir nepieciešami būtiski stingrāki pasākumi. Enderle grupa galvenais analītiķis Robs Enderls uzskatīja, ka AI drošības rādītājs ir aizraujošs risinājums AI regulēšanas izaicinājumiem, taču viņš šaubās par pašreizējās ASV administrācijas spējām ieviest efektīvas regulas. Viņš brīdināja, ka slikti sastādīti noteikumi var nodarīt kaitējumu, un šobrīd nav izredžu nodrošināt atbalsta mehānismus, kas garantētu ievērošanu. Kopumā AI drošības rādītājs atklāj, ka lielākie AI attīstītāji vēl nav parādījuši pietiekamu drošības apņemšanos, uzsverot steidzamu nepieciešamību pēc stingrākas regulēšanas, lai aizsargātu cilvēci no pieaugošajiem AI riskiem.
AI Drošības Indekss atklāj, ka lielākie AI uzņēmumi nepietiekami aizsargā cilvēci no AI riskiem
Laikā, kad tehnoloģijas pārveido mūsu veidu, kā radām saturu un pārvaldām sociālos tīklus, Hallakate iepazīstina ar jaunu apmācību programmu šai jaunajai laikmetam — AI SMM.
Ziņojuma pārskats Globālā AI apmācības GPU klasteru pārdošanas tirgus ir prognozēts sasniegt aptuveni 87,5 miljardus ASV dolāru līdz 2035
Multimodālās mākslīgā intelekta tirgus pārskats Coherent Market Insights (CMI) ir publicējusi plašu pētījuma ziņojumu par Globālo Multimodālā Mākslīgā Inteliģences Tirgu, prognozējot tendences, izaugsmes dinamiku un nākotnes paredzējumus līdz 2032
Mākslīgais intelekts (MI) ar dramatisku ietekmi pārveido meklētājprogrammu algoritmus, būtiski mainot informācijas indeksēšanas, novērtēšanas un piegādes veidus lietotājiem.
Pēdējo gadu laikā attālinātais darbs ir ievērojami mainījies, galvenokārta tehnoloģisko sasniegumu, īpaši ar mākslīgā intelekta vadītu videozvanīšanas platformu pieaugumu.
Sociālo mediju platformas arvien vairāk izmanto mākslīgo intelektu (MI), lai uzlabotu savu video satura moderēšanu, reaģējot uz video materiāla straujo pieaugumu kā galveno digitālās komunikācijas formu.
Politikas maiņa: Pēc gadiem ilgas ierobežojumu pastiprināšanas lēmums atļaut Nvidia H200 mikroshēmu pārdošanu Ķīnai ir izraisījis iebildumus no dažiem Republikāņiem.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today