Tehisintellekti ohutuse pooldajaid kutsutakse taastama Oppenheimeri nuklear-katsetuste arvutusi ülitugevate süsteemide jaoks

Tehisintellekti ettevõtteid on innustatud kordama ohutuse arvutusi, mis informeerisid Robert Oppenheimeri esimese tuumakatsetuse eel, enne ultra-olematu võimsusega süsteemide avaldamist. Tuntud tehisintellekti ohutuse ekspert Max Tegmark avalikustas, et ta on teinud arvutusi, mis sarnanevad USA füüsiku Arthuri Comptoni Trinity-testi eel tehtuga. Tegmark leidis 90% tõenäosuse, et väga arenenud tehisintellekt võib avaldada eksistentsiaalset ohtu. USA valitsus jätkas Trinity-testi 1945. aastal pärast kindlustunnet, et aatompommi õnnetu atmosfääri süttimine ja inimkonna ohustamine on äärmiselt vähetõenäoline. Tegmarki ja kolme MITi õpilase koostatud artiklis soovitatakse arvutada “Comptoni konstant”, mis on määratletud kui tõenäosus, et vägev tehisintellekt pääseb inimese kontrolli alt. Compton, Clintoni intervjuus 1959. aastal, märkis, et ta heakskiitis testi pärast seda, kui ta hinnanguliselt oli dünaamilise fusioonireaktsiooni jooksma mineku võimalus “mõnevõrra vähem” kui kolm miljonit üksteise järel. Tegmark väitis, et tehisintellekti ettevõtted peavad võtma vastutuse hoolikalt määratleda, kas Tehisülesene Tehisintellekti (ASI)—teoreetiline süsteem, mis ületab inimintelligentsi kõigis valdkondades—võib vältida inimjärelevalvet. “Superintelligentsi ehitavad ettevõtted peavad arvutama Comptoni konstant, tõenäosuse, et me kaotame selle üle kontrolli, ” ütles ta.
“Piisab, kui öelda ‘me tunneme end sellega hästi’. Nad peavad arvutama protsendi. ” Tegmarki sõnul looks kokkulepe Comptoni konstantist, mis põhineb mitme ettevõtte ühisel arvutamisel, “poliitilise taotluse”, et kehtestada globaalsed tehisintellekti ohutuse standardid. Füüsika ja tehisintellekti uurijana MITis asutas Tegmark koos Käesoleva Elu Instituudi, mittetulundusorganisatsiooni, mis edendab ohutut tehisintellekti arengut. 2023. aastal avaldas instituut avatud kirja, mis kutsus üles peatama võimsate tehisintellektide loomise. Selles kirjas olid osalenud üle 33 000 inimese, sh Elon Musk—varasem organisatsiooni toetaja—and Applei kaasasutaja Steve Wozniak. Kirja, mis avaldati mõni kuu pärast ChatGPT release’it ja millel on ettekujutus uue AI arenguperioodi algusest, hoiatati, et AI laborid on hõivatud “kontrolli alt väljuva võiduajamisega”, kasutades “üha võimsamaid digitaalseid vaime”, mida keegi “ei suuda mõista, ette näha ega usaldusväärselt kontrollida. ” Tegmark rääkis Guardianile, kui AI ekspertide(rühma) koosseisus—seal olid tehnoloogianõustajad, riiklikud ohutuseeskirjade ameti esindajad ning akadeemikud—arendatakse välja uus lähenemisviis AI ohutuks arenguks. Tegmarki koostatud Singapuri kokkulepe globaalse AI ohutusuuringute prioriteetide kohta, mille koostasid juhtivad arvutiteadlased Yoshua Bengio ja OpenAI ning Google DeepMind spetsialistid, rõhutas kolme olulist uurimisvaldkonda: olemasolevate ja tulevaste AI süsteemide mõju mõõtmise meetodite väljatöötamist; soovitud AI käitumise määratlemist ja selle saavutamiseks süsteemide kujundamist; ning AI käitumise juhtimist ja kontrolli. Viidates raportile, märkis Tegmark, et ohutu AI arengu tõuge on pärast hiljutist valitsuste AI tippkohtumist Pariisis taas tugevnenud, kus USA asepresident JD Vance eemaldas ohutuseelarvamusi, öeldes, et AI tulevik “ei saa olla lahendatud käsi-ratastega ohutuse üle spekuleerimisega. ” Tegmark lisas: “Tõesti tundub, et Pariisis tõusnud pilved on hajumas ning rahvusvaheline koostöö on taas hoogu sisse saanud. ”
Brief news summary
AI ohutuse ekspert Max Tegmark, MIT füüsika professor ja Future of Life Institute kaasasutaja, kutsub üles võtma kasutusele ranget ohutuse arvutamise meetodit, sarnaselt nendele, mida tehti enne 1945. aasta Trinity tuumapõrke katset, rõhutades arenenud tehisintellekti esilekerkivaid eksistentsiaalseid ohte. Joonistades paralleele Arthur Compton'i ajaloolise hinnanguga, hindab Tegmark 90% tõenäosusega, et superintelligentne AI võib põgeneda inimeste kontrolli alt ja ohustada inimkonda. Ta soovitab luua “Compton’i konstant”, kvantifitseeritud riskimõõtme rogue-tehisintellekti jaoks, et aidata poliitilisi otsuseid ja ülemaailmseid ohutuslepinguid vormida. See pingutus sobitub kokku 2023. aasta Future of Life Institutei avaliku kirja, mille on allkirjastanud üle 33 000 inimese, sealhulgas Elon Musk ja Steve Wozniak, hoiatustega mittereguleeritud tehisintellekti võiduajamise eest. Tegmark on samuti panustanud Singapuri konsensusel põhinevasse dokumenti “Global AI Safety Research Priorities”, mille eesmärk on suunata olulist ohutusteaduslikku uuringut kogu maailmas. Kuigi mõned USA ametnikud väljendavad skeptitsismi, püsib rahvusvaheline koostöö ja optimism ohutu tehisintellekti arengu osas tugevana.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Blokketisüsteemide roll digitaalse identiteedi ki…
Digitaalne identiteedi kinnitamine on tänapäeva ühendatud veebikeskkonnas ülioluline, kuna isikuandmete hulk, mida jagatakse digitaalsete teenuste vahel, suureneb.

Kuidas tehisintellekti agendid loovad võrdlusi ru…
The Financial Times hiljuti viis läbi ulatusliku hindamise AI-agentide kohta, mida on välja töötanud suurettevõtted nagu OpenAI, Anthropic, Perplexity, Google, Microsoft ja Apple.

Blokiahela keskkonnamõju: innovatsiooni ja jätkus…
Kuna plokiahelatehnoloogia kiiresti areneb, on selle keskkonnamõju saanud globaalseks kasvavaks mureks.

Araabia Ühendemiraadid hakkavad tutvustama tehisi…
Araabia Ühendemiraadid (AÜE) on teerajauhataja hariduses, introdutseerides lasteaedade ja koolide õpilastele tehisintellekti (TI) õppekava.

Jah, tehisintellekt asendab mõne töövõtja lõppkok…
Nagu paljud ärivaldkonnaga tegelased, olen huvitatud tehisintellektist (TI) ning küsisin hiljuti ChatGPT-lt tsitaate tehnoloogiajuhtidelt TI olulisuse kohta ettevõtetele.

Bitcoin Cashi võrgu uuendus on planeeritud toimum…
Bitcoin Cashi võrgu plaaniline suurem uuendus toimub 15.

Silikonist teadvuseni: pärand, mis juhib tehisint…
Inimeste on alati rännanud — mitte ainult füüsilistes ruumides, vaid ka töö ja mõtlemise muutumiste kaudu.