Ar ar AI įmonės tinkamai saugo žmoniją nuo dirbtinio intelekto keliamų pavojų?Pagal naują Future of Life Institute pažymių kortelę, neatrodo. Kadangi dirbtinis intelektas vis labiau įsiskverbia į žmogaus ir technologijų sąveiką, kyla galimi pavojai – nuo to, kad žmonės naudoja AI pokalbių robotus konsultacijoms ir vėliau nusižudo, iki galima kibernetinių atakų įgyvendinimo su AI pagalba. Taip pat didėja rizika, susijusi su AI naudojimu ginkluotėje ar bandymais destabilizuoti vyriausybes. Tačiau trūksta paskatų AI įmonėms rūpintis globalia sauga. Institute neseniai paskelbtas AI saugumo indeksas, siekiantis nukreipti AI plėtrą saugesne link ir sumažinti egzistencinius pavojus, atkreipia į tai dėmesį. Max Tegmark, Instituto prezidentas ir MIT profesorius, pažymėjo, kad AI įmonės veikia kaip vienintelė JAV pramonės šaka, gaminanti galingą technologiją be reguliavimo, sukurdamos „lenktynes į dugną“, kur saugumas dažnai apleidžiamas. Didžiausi įvertinimai indeksu – tik C+ – buvo suteikti OpenAI, ChatGPT kūrėjui, ir Anthropic, žinomai dėl savo pokalbių roboto Claude. Google DeepMind, Google AI padalinys, pelnė C. Žemesni įvertinimai buvo D – Meta (Facebook įkūrėjo įmonė) ir Elon Musk’o xAI, abi įmonės įsikūrusios netoli Palo Alto. Kinijos firmos Z. ai ir DeepSeek taip pat gavo D. Alibaba Cloud surinko žemiausią – D- – įvertinimą. Įmonės vertintos pagal 35 rodiklius šešiose kategorijose, tokiose kaip egzistencinė sauga, rizikos vertinimas ir informacijos dalijimasis. Vertinimas apėmė viešai prieinamą informaciją ir įmonių apklausų atsakymus, juos įvertino aštuoni AI ekspertai, įskaitant akademikus ir organizacijų lyderius. Svarbu pažymėti, kad visos įmonės pasirodė žemiau vidurkio egzistencinės saugos srityje, kuri matuoja vidinius kontrolės ir strategijas, skirtas užkirsti kelią katastrofiškai AI kliūčiai ar piktnaudžiavimui. Ataskaita teigia, kad nė viena įmonė nesuteikė patikimų planų, kaip išvengti kontrolės praradimo ar reikšmingo piktnaudžiavimo, kai dirbtinis intelektas vystosi link bendrosios ir superinteligencijos. Tiek Google DeepMind, tiek OpenAI patvirtino savo įsipareigojimą saugai.
OpenAI pabrėžė savo investicijas į pažangios saugos tyrimus, griežtus testavimus ir saugos veiklos planų dalinimąsi, siekiant kelti industrijos standartus. Google DeepMind akcentavo savo moksliškai pagrįstą saugos požiūrį ir protokolus, siekiant sumažinti rimtas rizikas, kylančias iš pažangių AI modelių, dar neprasidėjus jų galutinėms grėsmėms. Priešingai, Institutą nustebino, kad xAI ir Meta turi rizikos valdymo struktūras, tačiau trūksta pakankamų stebėsenos ir kontrolės įsipareigojimų arba reikšmingų investicijų į saugumo tyrimus. Tokios įmonės kaip DeepSeek, Z. ai ir Alibaba Cloud neturi viešai prieinamos saugos strategijos dokumentacijos. Meta, Z. ai, DeepSeek, Alibaba ir Anthropic neatsakė į komentarų prašymus. xAI pavadino ataskaitą „Senųjų žiniasklaidos melu“, o Musk’o teisininkas į papildomus klausimus neatsakė. Nors Musk’as pataria ir finansavo Future of Life Institute, jis nedalyvavo AI Saugos indekso kūrime. Tegmark išreiškė nerimą, kad nepakankamas reguliavimas gali leisti teroristams kurti biologinius ginklus, padidinti manipuliavimo galimybes virš dabartinių lygių ar destabilizuoti vyriausybes. Jis pabrėžė, kad šiuos klausimus spręsti yra paprasta – būtina nustatyti privalomus saugumo standartus AI įmonėms. Nors kai kurios vyriausybės pastangos siekia gerinti AI priežiūrą, technologijų lobistai priešinosi tokiems reguliavimams, baimindamiesi inovacijų suvaržymo ar įmonių migracijos. Vis dėlto, tokios įstatymų formos kaip Kalifornijos SB 53, pasirašyta gubernatoriaus G. Newsom rugsėjį, reikalauja, kad įmonės atskleistų saugos ir saugumo protokolus bei praneštų apie incidentus, tokios kaip kibernetinės atakos. Tegmark šią įstatymą laiko pažanga, tačiau pabrėžia, kad būtina daug veiksmingesnė veikla. Rob Enderle iš Enderle Group laiko AI Saugos indeksą patraukliu būdu sprendžiant reguliavimo iššūkius, tačiau abejoja, ar dabartinė JAV valdžia sugebės įgyvendinti veiksmingas taisykles. Jis įspėjo, kad blogai sukurtos taisyklės gali padaryti daugiau žalos, ir abejoja, ar šiuo metu egzistuoja mechanizmai, užtikrinantys jų laikymąsi. Apibendrinant, AI Saugos indeksas rodo, kad pagrindiniai AI kūrėjai dar neparodė tvirtų saugos įsipareigojimų, kas pabrėžia skubotą poreikį stipresniam reguliavimui, siekiant apsaugoti žmoniją nuo vis augančių AI keliamų pavojų.
Dirbtinio intelekto saugumo indeksas atskleidžia, kad svarbiausios dirbtinio intelekto įmonės nepakankamai apsaugo žmoniją nuo technologijų keliamų pavojų
Leidinys teigė, kad įmonė pagerino savo „skaičiavimo maržą“, tai vidinė rodiklis, rodantis, kiek lieka pajamų po operacijų modelių išlaidų padengimo mokantiems naudotojams, naudojantiems įmonės ir vartotojų produktus.
Greitai besivystančioje skaitmeninio marketingo srityje dirbtinis intelektas (DI) atlieka svarbų vaidmenį formuojant, kaip prekės ženklai bendrauja su savo auditorijomis.
Dirbtinio intelekto (DI) pažanga žymiai didina jo svarbą paieškos variklių optimizavime (SEO).
Dirbtinis intelektas (DI) fundamentaliai keičia reklamos ir rinkodaros pramonę, žymėdamas gilų posūkį, viršijantį ankstesnius technologinius pasiekimus.
Nvidia: tik 3 % premija svarbiausiai dirbtinio intelekto įmonei „The J“ tezė 1,32 tūkst
Įsivaizduodami laikotarpį, kai technologijos keičia mūsų turinio kūrimo ir socialinių tinklų valdymo būdus, Hallakate pristato naują mokymų programą, skirtą būtent šiai naujajai epochai: AI SMM.
Ataskaitos apžvalga Pasaulinės dirbtinio intelekto mokymo GPU klasterių pardavimo rinkos prognozuojama 2035 metais pasiekti apie 87,5 mlrd
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today