AI-turvallisuuden puolesta puhuvat ehdottavat Oppenheimerin ydinaseanalyysien toistamista erittäin tehokkaita järjestelmiä varten

Keinotekoälyyrityksiä on kannustettu toistamaan turvallisuuslaskelmia, jotka vaikuttivat Robert Oppenheimerin ensimmäisen ydinasekokeen tarkasteluun ennen erittäin voimakkaiden järjestelmien vapauttamista. Max Tegmark, merkittävä tekoälytutkija ja -turvallisuuden asiantuntija, paljasti tehneensä laskelmia, jotka muistuttivat Yhdysvaltain fyysikko Arthur Comptonin Trinity-testin yhteydessä tekemää tutkimusta. Tegmarkin mukaan 90 prosentin todennäköisyydellä kehittynyt tekoäly voisi muodostaa eksistentiaalisen uhan. Yhdysvaltain hallitus jatkoi Trinity-koetta vuonna 1945 vakuutusten jälkeen, että mahdollisuus, että atombombi sytyttäisi ilmakehän ja uhkaisi ihmiskuntaa, oli häviävän pieni. Tegmarkin ja hänen kolmen MIT:n opiskelijan kirjoittamassa paperissa he suosittelevat “Compton-vakion” laskemista. Siinä määritellään todennäköisyydeksi, että kaikkivoipa tekoäly pääsee ihmisen kontrollista. Comptonin mukaan, hän kertoi vuonna 1959 USAn kirjoittaja Pearl Buckille antamassaan haastattelussa, että hän oli hyväksynyt kokeen arvioidessaan, että pakoaivoharhaista fuusioreaktiota oli “ hieman alle kolme miljoonaa” mahdollisuutta. Tegmark väitti, että tekoälyyritysten on otettava vastuu määrätietoisesti siitä, arvioivatko he, että Tekoäly-yli-Äly (ASI) – teoreettinen järjestelmä, joka ylittää ihmisen älykkyyden kaikilla alueilla – välttää ihmisvalvonnan. “Super-älykkyyttä rakentavien yritysten on laskettava Compton-vakio, todennäköisyys, että menetämme siitä kontrollin, ” hän sanoi.
“Pelkkä se, että sanot ‘meillä on hyvä tuntuma’, ei riitä. Heidän on laskettava prosenttiosuus. ” Tegmark ehdotti, että useiden yritysten yhteinen laskelma Compton-vakiosta synnyttäisi “poliittisen tahdon” luoda globaaleja tekoälyn turvallisuusstandardeja. Fysiikan professorina ja tekoälytutkijana MIT:ssä Tegmark oli myös yksi Future of Life Institute -järjestön perustajista, voittoa tavoittelemattomassa instituutiossa, joka edistää turvallista tekoälyn kehitystä. Vuonna 2023 järjestö julkaisi avoimen kirjeen, jossa kehotettiin pysäyttämään voimakkaiden tekoälyiden luominen. Kirjeen allekirjoitti yli 33 000 ihmistä, mukaan lukien Elon Musk – järjestön varhainen tukija – ja Apple:n perustaja Steve Wozniak. Kirje julkaistiin kuukausia ChatGPT:n julkaisun jälkeen, joka toi mukanaan uuden aikakauden tekoälytutkimuksessa, ja varoitti, että tekoälylaboratoriot olivat mukana “ hallitsemattomassa kilpailussa” kehittää “yhä voimakkaampia digitaalisia älyjä”, joita kukaan ei “ymmärrä, osaa ennustaa tai luotettavasti hallita”. Tegmark puhui Guardianille sen jälkeen, kun AI-asiantuntijoiden ryhmä – johon kuului teknologia-alan ammattilaisia, turvallisuusviranomaisten edustajia ja akateemisia – kehitti uutta lähestymistapaa tekoälyn turvalliseen kehitykseen. Tegmarkin tuottama Singaporen globaalin tekoälytutkimuksen prioriteettiraportti, johon osallistuivat johtavat tietojenkäsittelyn tutkijat, kuten Yoshua Bengio, sekä johtavien tekoälyyritysten, kuten OpenAI:n ja Google DeepMindin, edustajia, esitteli kolme keskeistä tutkimusaluetta: keinoja nykyisten ja tulevien tekoälyjärjestelmien vaikutuksen mittaamiseen; toivottavan tekoälykäyttäytymisen määrittelyn ja järjestelmien suunnittelun tavoitteiden saavuttamiseksi; sekä tekoälyn käyttäytymisen hallinnan ja kontrollin. Viitaten raporttiin, Tegmark totesi, että turvallisen tekoälyn kehittämisen pyrkimykset olivat saaneet uutta vauhtia juuri Pariisin hallitusten AI-huippukokouksen jälkeen, jossa Yhdysvaltain varapresidentti JD Vance torjui turvallisuushuolen: hän totesi, että tekoälyn tulevaisuus “ei tule ratkaistuksi sormien rutistuksella turvallisuuden ympärillä”. Tegmark sanoi: “Tuntuu kuin Pariisin synkkyys olisi helpottanut ja kansainvälinen yhteistyö olisi palannut takaisin vauhdilla. ”
Brief news summary
AI-turvallisuusasiantuntija Max Tegmark, MIT:n fysiikan professori ja Future of Life Institute:n perustaja, kutsuu ottamaan käyttöön tiukkoja turvallisuuslaskelmia, jotka ovat verrattavissa vuoden 1945 Trinity-ydinaseen ennen sitä suoritettuihin arviointeihin. Hän korostaa kehittyneen tekoälyn aiheuttamia olemassaolon riskejä. Tegmark tekee vertailun Arthur Comptonin historialliseen arvioon ja arvioi, että 90 % todennäköisyydellä superälykkäät tekoälyt voivat päästä ihmisten hallinnan ulkopuolelle ja uhata ihmiskuntaa. Hän ehdottaa nimitystä ”Comptonin vakio” – mitattavaa riski-indeksiä kapinalliselle tekoälylle – joka voisi tukea poliittisia päätöksiä ja globaaleja turvallisuussopimuksia. Tämä hanke liittyy vuoden 2023 Future of Life Institute:n avoimeen kirjeeseen, johon on liitetty yli 33 000 ihmistä, mukaan lukien Elon Musk ja Steve Wozniak, ja joka varoittaa säätelyn puutteesta tekoälykehityksessä. Tegmark osallistui myös Singaporen konsensukseen globaalien tekoälytutkimuksen turvallisuustavoitteiden prioriteeteista, pyrkien ohjaamaan olennaista turvallisuustutkimusta maailmanlaajuisesti. Vaikka Yhdysvaltojen viranomaisilla onkin ollut varovaisuutta, kansainvälinen yhteistyö ja optimismi turvallisesta tekoälyn kehityksestä pysyvät vahvoina.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Kyllä, tekoäly korvaa lopulta osan työntekijöistä…
Kuten monet liikemaailman ammattilaiset, olen kiinnostunut tekoälystä (AI) ja kysyin hiljattain ChatGPT:ltä lainauksia teknologiayritysten johtajilta AI:n merkityksestä liiketoiminnalle.

Bitcoin Cash -verkkopäivitys aikataulutettu 15. t…
Bitcoin Cash -verkoston suurpäivitys on suunniteltu tapahtuvaksi 15.

Piistä tietoisuuteen: perintö, joka ohjaa t…
Ihmisen on aina ollut muuttoliikkeessä – ei vain fyysisesti paikasta toiseen, vaan myös työn ja ajattelutavan muutoksien kautta.

Itsemääräämisoikeuden hyödyntäminen hallinnon pal…
Hallituskaudet ympäri maailmaa ottavat yhä enemmän käyttöön blockchain-teknologiaa muutosvoimana julkisten palvelujen parantamiseksi.

paavi Leo XIV esittää visionsa paavihallinnosta j…
Pappi Leo XIV esitteli lauantaina paavinvirkaansa visionsa korostaen keinotekoista älyä (AI) ihmiskunnan keskeisenä haasteena ja lupasi puolustaa paavi Franciscuksen asettamia keskeisiä tavoitteita.

Blockchainin rooli Internet of Things (IoT) -turv…
Blockchain-teknologian ja esineiden internetin (IoT) laitteiden integraatio vahvistaa syvästi digitaalista turvallisuutta tarjoamalla hajautetun, manipulointia kestävän tavan datahallintaan.

SoundCloudin käyttötunnokset sallivat tekoälyn ko…
SoundCloud on aina pitänyt artistit etusijalla ja tullaan pitämään sitä edelleen.