I sostenitori della sicurezza dell'IA potrzebano di replicare i calcoli dei test nucleari di Oppenheimer per sistemi ultra-potenti

Le aziende di intelligenza artificiale sono state incoraggiate a replicare i calcoli sulla sicurezza che hanno influenzato il primo test nucleare di Robert Oppenheimer, prima di rilasciare sistemi ultra-potenti. Max Tegmark, figura di spicco nel campo della sicurezza dell'AI, ha rivelato di aver eseguito calcoli simili a quelli condotti dal fisico statunitense Arthur Compton prima del test Trinity. Tegmark ha trovato una probabilità del 90% che un’AI altamente avanzata possa rappresentare un rischio esistenziale. Il governo degli Stati Uniti ha proseguito con il test Trinity nel 1945, dopo aver ricevuto garanzie che la probabilità che una bomba atomica innescasse l’atmosfera e minacciasse l’umanità fosse infinitamente bassa. In un documento scritto da Tegmark e da tre suoi studenti del MIT, raccomandano di calcolare la “costante di Compton, ” definita come la probabilità che un'AI potentissima sfugga al controllo umano. Compton, in un’intervista del 1959 con la scrittrice americana Pearl Buck, dichiarò di aver approvato il test dopo aver stimato le probabilità di una reazione di fusione incontrollata a “poco meno” di tre milioni a uno. Tegmark ha sostenuto che le aziende di AI devono assumersi la responsabilità di determinare meticolosamente se una Super Intelligenza Artificiale (ASI)—un sistema teorico che supera l’intelligenza umana in tutti i campi—sfuggirà alla supervisione umana. “Le aziende che sviluppano la super-intelligenza devono calcolare la costante di Compton, la probabilità che perdiamo il controllo su di essa, ” ha detto. “Non basta dire ‘ci sentiamo bene’ a riguardo.
Devono calcolare la percentuale. ” Tegmark ha suggerito che un consenso sulla costante di Compton derivato da più aziende genererebbe la “volontà politica” di stabilire standard mondiali di sicurezza dell’AI. Come professore di fisica e ricercatore di AI al MIT, Tegmark ha co-fondato l’Istituto per il Futuro della Vita, un’associazione senza scopo di lucro che promuove uno sviluppo sicuro dell’AI. L’istituto pubblicò nel 2023 una lettera aperta chiedendo una pausa nello sviluppo di AI potenti. Oltre 33. 000 persone firmarono la lettera, tra cui Elon Musk—un sostenitore precoce dell’istituto—e Steve Wozniak, co-fondatore di Apple. La lettera, emessa pochi mesi dopo il rilascio di ChatGPT, che ha segnato una nuova era nello sviluppo dell’AI, avvertiva che i laboratori di AI erano coinvolti in una “corsa fuori controllo” per mettere in circolazione “mente digitali sempre più potenti” che nessuno può “capire, prevedere o controllare affidabilmente. ” Tegmark ha parlato con il Guardian mentre un gruppo di esperti di AI—tra cui professionisti dell’industria tecnologica, rappresentanti di agenzie di sicurezza statali e accademici—sviluppava un nuovo approccio per uno sviluppo sicuro dell’AI. Il rapporto “Singapore Consensus on Global AI Safety Research Priorities, ” prodotto da Tegmark, dal principale scienziato informatico Yoshua Bengio e dallo staff di importanti aziende di AI come OpenAI e Google DeepMind, ha delineato tre aree chiave di ricerca: sviluppare metodi per misurare l’impatto degli attuali e futuri sistemi di AI; specificare il comportamento desiderato dell’AI e progettare sistemi per realizzarlo; e gestire e controllare il comportamento dell’AI. Riferendosi al rapporto, Tegmark ha osservato che la spinta verso uno sviluppo sicuro dell’AI aveva ripreso slancio dopo il recente vertice governativo sull’AI a Parigi, dove il Vicepresidente degli Stati Uniti JD Vance ha dismissato le preoccupazioni sulla sicurezza, affermando che il futuro dell’AI “non si vincerà con l’ansia sulla sicurezza. ” Tegmark ha detto: “Sembra davvero che l’umore cupo di Parigi si sia dissolto e che la collaborazione internazionale sia tornata a pieno regime. ”
Brief news summary
L’esperto di sicurezza dell’IA Max Tegmark, professore di fisica al MIT e co-fondatore del Future of Life Institute, chiama a adottare calcoli di sicurezza rigorosi simili a quelli condotti prima dell’esperimento nucleare Trinity del 1945, evidenziando i rischi esistenziali posti dall’IA avanzata. Tracciando un parallelo con la valutazione storica di Arthur Compton, Tegmark stima che il 90% delle possibilità che un’IA superintelligente possa sfuggire al controllo umano e minacciare l’umanità. Propone una “costante di Compton,” un indice di rischio quantificato per l’IA fuori controllo, che possa guidare le decisioni politiche e gli accordi di sicurezza globale. Questo sforzo si allinea con la lettera aperta del 2023 del Future of Life Institute, firmata da oltre 33.000 persone tra cui Elon Musk e Steve Wozniak, che avverte contro una corsa all’IA non regolamentata. Tegmark ha inoltre contribuito al Singapore Consensus sulle Priorità di Ricerca sulla Sicurezza Globale dell’IA, con l’obiettivo di indirizzare la ricerca sulla sicurezza essenziale a livello mondiale. Nonostante alcune riserve da parte di funzionari statunitensi, la cooperazione internazionale e l’ottimismo riguardo allo sviluppo sicuro dell’IA rimangono forti.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Il ruolo della blockchain nella verifica dell'ide…
La verifica dell'identità digitale è fondamentale per la sicurezza nell'attuale ambiente online interconnesso, poiché vengono condivisi sempre più dati personali attraverso servizi digitali.

Come si confrontano gli agenti IA nei compiti di …
Il Financial Times ha recentemente condotto una valutazione approfondita degli agenti AI sviluppati dalle principali aziende tecnologiche, tra cui OpenAI, Anthropic, Perplexity, Google, Microsoft e Apple.

Impatto ambientale della blockchain: bilanciare i…
Man mano che la tecnologia blockchain avanza rapidamente, il suo impatto ambientale è diventato una preoccupazione crescente a livello globale.

Gli Emirati Arabi Uniti introdurranno corsi di in…
Gli Emirati Arabi Uniti (EAU) stanno rivoluzionando l’istruzione introducendo un curriculum di intelligenza artificiale (IA) per i bambini a partire dai primi anni nelle scuole statali.

Sì, l'IA alla fine sostituirà alcuni lavoratori. …
Come molti professionisti del settore, sono interessato all'intelligenza artificiale (IA) e recentemente ho chiesto a ChatGPT di fornirmi citazioni di leader tecnologici sull'importanza dell'IA per le imprese.

Aggiornamento della rete Bitcoin Cash previsto pe…
La rete Bitcoin Cash è prevista per un importante aggiornamento il 15 maggio 2025, introducendo nuove regole di consenso per migliorare efficienza e scalabilità, affrontando le sfide di un'elaborazione delle transazioni rapida e affidabile.

Dal silicio alla sentienza: l'eredità che guida l…
Gli esseri umani sono sempre migrati—non solo nello spazio fisico, ma anche attraverso cambiamenti nel lavoro e nel pensiero.