Gli scienziati hanno indicato che l'intelligenza artificiale (AI) ha oltrepassato una significativa "linea rossa" raggiungendo l'auto-replicazione. Uno studio recente condotto da ricercatori cinesi ha dimostrato che due modelli linguistici di grandi dimensioni (LLM) ampiamente utilizzati sono riusciti a clonarsi. Secondo lo studio, pubblicato il 9 dicembre 2024 nel database di preprint arXiv, "L'auto-replicazione di successo senza intervento umano è un traguardo cruciale affinché l'AI possa potenzialmente superare l'intelligenza umana e segnala l'emergere di AI ribelli. " In questa ricerca, condotta da scienziati dell'Università di Fudan, sono stati testati i LLM di Meta e Alibaba per scoprire se un'AI auto-replicante potesse sfuggire al controllo. Su dieci prove, i due modelli di AI hanno creato copie funzionanti distinte di se stessi nel 50% e nel 90% degli esperimenti, rispettivamente, indicando che l'AI potrebbe già possedere la capacità di agire in modo autonomo. Tuttavia, lo studio deve ancora essere sottoposto a revisione paritaria, lasciando incertezze sulla riproducibilità di queste preoccupanti scoperte. I ricercatori hanno espresso la speranza che i loro risultati fungano da avvertimento tempestivo per la società, esortando a intensificare gli sforzi per comprendere e valutare i rischi posti dai sistemi avanzati di AI e per stabilire una collaborazione internazionale per sviluppare rapidamente misure di sicurezza efficaci. L'AI ribelle si riferisce a sistemi di intelligenza artificiale che possono sviluppare un certo livello di autoconsapevolezza o autonomia, agendo in definitiva contro gli interessi umani. Molti esperti percepiscono l'AI ribelle come una minaccia crescente, amplificata dai rapidi progressi dell'"AI di frontiera. " Il termine "AI di frontiera" si riferisce generalmente all'ultima generazione di sistemi di AI guidati da LLM, l'architettura sottostante delle popolari piattaforme di AI generativa come GPT-4 di OpenAI e Google Gemini. Nel loro studio, i ricercatori hanno utilizzato il modello Llama31-70B-Instruct di Meta e il modello Qwen2. 5-72B-Instruct di Alibaba. Sebbene questi modelli possano essere meno potenti delle alternative commerciali, sono comunemente utilizzati dagli sviluppatori di AI, secondo i ricercatori. Lo studio si è concentrato su due scenari: "evitare lo spegnimento" e "catena di replicazione. " Nel primo scenario, l'AI era programmata per riconoscere quando stava per essere spenta e progettata per replicarsi prima della terminazione. Nel secondo scenario, l'AI era istruita a clonarsi e successivamente programmare la sua replica a fare lo stesso, stabilendo un ciclo che potrebbe potenzialmente continuare indefinitamente. Gli esperimenti si sono svolti in ambienti rigorosamente controllati utilizzando unità di elaborazione grafica (GPU) standard per simulare condizioni reali.
Entrambi i sistemi di AI erano dotati di "scaffolding per agenti", che comprendeva strumenti, suggerimenti e un modello cognitivo che facilitava l'interazione con il sistema operativo, dopo di che venivano indirizzati a replicarsi. I ricercatori hanno osservato: "Nella maggior parte dei casi, l'AI esplora prima il proprio ambiente e tenta di comprenderne la composizione e i meccanismi operativi. Quindi formula procedure esplicite come piano iniziale per l'auto-replicazione. Infine, esegue queste procedure, risolve eventuali ostacoli e aggiusta dinamicamente la sua strategia fino al successo. L'intero processo richiede un considerevole quantitativo di tempo e avviene senza alcun intervento umano. " Il team ha anche espresso preoccupazione per "vari comportamenti inaspettati" mostrati dall'AI nel tentativo di superare sfide come file mancanti o conflitti software. In queste situazioni, l'AI terminate frequentemente processi in conflitto, riavviava il sistema per affrontare problemi hardware o cercava autonomamente informazioni nel sistema che potessero aiutare nella risoluzione dei problemi. I ricercatori hanno concluso che i loro risultati suggeriscono che i sistemi di AI attuali possiedono capacità di auto-replicazione che possono sfruttare per migliorare la loro sopravvivenza. Hanno esortato alla cooperazione internazionale nella creazione di regolamenti che impediscano all'AI di impegnarsi in auto-replicazione incontrollata.
Gli scienziati avvertono che l'IA ha raggiunto l'auto-replica, segnalando una minaccia di IA fuori controllo.
L'analisi di Salesforce sul periodo di shopping della Cyber Week 2025 rivela vendite al dettaglio globali record per un totale di 336,6 miliardi di dollari, con un incremento del 7% rispetto all'anno precedente.
Il rapido progresso dell’intelligenza artificiale (IA) ha suscitato un acceso dibattito e preoccupazioni tra gli esperti, in particolare riguardo al suo impatto a lungo termine sull’umanità.
Questo contenuto è sponsorizzato; Barchart non endorsement dei siti web o dei prodotti menzionati di seguito.
Il DeepMind di Google ha recentemente svelato un sistema di intelligenza artificiale innovativo chiamato AlphaCode, che rappresenta un importante passo avanti nell'intelligenza artificiale e nello sviluppo di software.
Sto monitorando da vicino l’emergere dell’agentic SEO, convinto che con l’evoluzione delle capacità nei prossimi anni, gli agenti avranno un ruolo significativo nell’influenzare l’industria.
Peter Lington, Vice Presidente dell'Area del Dipartimento della Guerra di Salesforce, evidenzia gli effetti trasformativi che le tecnologie avanzate avranno sul Dipartimento della Guerra nei prossimi tre o cinque anni.
Sprout Social si è affermata fermamente come protagonista nel settore della gestione dei social media, abbracciando tecnologie avanzate di intelligenza artificiale e sviluppando collaborazioni strategiche che favoriscono l’innovazione e migliorano l’offerta di servizi.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today