Le aziende di intelligenza artificiale proteggono adeguatamente l’umanità dai rischi dell’intelligenza artificiale?Secondo una nuova scheda di valutazione del Future of Life Institute, un’organizzazione no profit della Silicon Valley, la risposta è probabilmente no. Man mano che l’IA diventa sempre più parte integrante delle interazioni tra uomo e tecnologia, emergono potenziali danni—che vanno dall’uso di chatbot AI per il counseling e il conseguente suicidio, agli attacchi informatici abilitati dall’IA. Si prospettano anche rischi futuri, tra cui l’uso dell’IA in ambito bellico o tentativi di destabilizzare i governi. Tuttavia, ci sono incentivi insufficienti per le aziende di IA a dare priorità alla sicurezza globale. L’Indice di Sicurezza dell’IA, recentemente pubblicato dall’Institute, che mira a indirizzare lo sviluppo dell’IA verso esiti più sicuri e a mitigare minacce esistenziali, evidenzia questa problematica. Max Tegmark, presidente dell’Institute e professore al MIT, ha osservato che le aziende di IA operano come l’unica industria statunitense a produrre tecnologia potente senza regolamentazioni, creando una “corsa verso il basso” dove la sicurezza è spesso trascurata. Le valutazioni più alte nell’indice sono state solo C+, assegnato a OpenAI, sviluppatore di ChatGPT, e Anthropic, nota per il chatbot Claude. La divisione di IA di Google, Google DeepMind, ha ricevuto un C. Punteggi inferiori hanno riguardato Meta (la società madre di Facebook) e xAI di Elon Musk, entrambi con sede vicino a Palo Alto, con un D. Anche le aziende cinesi Z. ai e DeepSeek hanno ottenuto un D. Alibaba Cloud ha ricevuto il punteggio più basso, D-. Le aziende sono state valutate tramite 35 indicatori suddivisi in sei categorie come sicurezza esistenziale, valutazione dei rischi e condivisione delle informazioni. La valutazione si è basata su dati pubblicamente disponibili e risposte alle survey aziendali, valutate da otto esperti di IA, tra cui accademici e leader di organizzazioni. È notevole che tutte le aziende abbiano ottenuto punteggi inferiori alla media in sicurezza esistenziale, che misura i controlli interni e le strategie per prevenire un uso catastrofico dell’IA.
Il rapporto ha affermato che nessuna ha dimostrato piani credibili per prevenire la perdita di controllo o l’uso gravemente dannoso man mano che l’IA avanza verso l’intelligenza generale e superintelligenza. Sia Google DeepMind che OpenAI hanno ribadito il loro impegno per la sicurezza. OpenAI ha sottolineato il suo investimento nella ricerca in sicurezza di frontiera, nel testing rigoroso e nella condivisione di framework di sicurezza per elevare gli standard del settore. Google DeepMind ha evidenziato il suo approccio scientifico alla sicurezza e i protocolli adottati per mitigare rischi gravi da modelli di IA avanzati prima che questi rischi si concretizzino. Al contrario, l’Institute ha evidenziato che xAI e Meta possiedono quadri di gestione del rischio ma mancano di impegni adeguati di monitoraggio e controllo, o di investimenti significativi in ricerca sulla sicurezza. Aziende come DeepSeek, Z. ai e Alibaba Cloud non dispongono di documentazione pubblica sulle strategie di sicurezza. Meta, Z. ai, DeepSeek, Alibaba e Anthropic non hanno risposto alle richieste di commento. xAI ha respinto il rapporto definendolo “menzogne dei media legacy”, e l’avvocato di Musk non ha risposto ad ulteriori richieste di chiarimenti. Pur consigliando e finanziando il Future of Life Institute, Musk non è stato coinvolto nella creazione dell’Indice di Sicurezza dell’IA. Tegmark ha espresso preoccupazione che una regolamentazione insufficiente possa consentire ai terroristi di sviluppare bioweapons, aumentare il potenziale manipolativo oltre i livelli attuali o destabilizzare i governi. Ha sottolineato che risolvere questi problemi è semplice: stabilire standard di sicurezza vincolanti per le aziende di IA. Mentre alcuni sforzi governativi mirano a potenziare la supervisione dell’IA, la lobby tecnologica si è opposta a tali regolamentazioni temendo di frenare l’innovazione o di spostare le aziende all’estero. Tuttavia, leggi come il SB 53 della California, firmato dal governatore Gavin Newsom a settembre, obbligano le aziende a divulgare protocolli di sicurezza e sicurezza, e a riportare incidenti come attacchi informatici. Tegmark considera questa legge un progresso, ma sottolinea che è necessario molto di più. Rob Enderle, analista principale del Enderle Group, ha trovato l’Indice di Sicurezza dell’IA un metodo convincente per affrontare le sfide normative dell’IA, ma ha messo in dubbio la capacità dell’attuale amministrazione statunitense di implementare regolamenti efficaci. Ha avvertito che regole mal congegnate potrebbero causare danni e che attualmente mancano meccanismi di Enforcement efficaci per assicurare la conformità. In sintesi, l’Indice di Sicurezza dell’IA rivela che i principali sviluppatori di IA devono ancora dimostrare impegni solidi sulla sicurezza, sottolineando l’urgente bisogno di regolamentazioni più stringenti per proteggere l’umanità dai rischi crescenti dell’IA.
L'Indice di Sicurezza dell'Intelligenza Artificiale Rivela che le Grandi Aziende di IA Non Riescono a Proteggere Adeguatamente l'Umanità dai Rischi dell'IA
Meta, la società madre di Facebook, Instagram, WhatsApp e Messenger, ha recentemente raggiunto notevoli progressi nel potenziare le sue capacità di intelligenza artificiale attraverso l’acquisizione di numerosi accordi commerciali con importanti organizzazioni giornalistiche.
La visibilità dell'AI è essenziale per gli SEO, a partire dalla gestione dei crawler AI.
Un gruppo bipartisan di senatori statunitensi, tra cui il noto falco nei confronti della Cina del GOP Tom Cotton, ha presentato una proposta di legge per impedire all'amministrazione Trump di allentare le restrizioni sull'accesso di Pechino ai chip di intelligenza artificiale per 2,5 anni.
Muster Agency sta rapidamente diventando una forza leader nel marketing sui social media alimentato dall’intelligenza artificiale, offrendo una gamma completa di servizi mirati a migliorare la presenza online delle imprese attraverso tecnologie avanzate.
Vizrt ha lanciato la versione 8.1 del suo sistema di gestione degli asset multimediali, Viz One, introducendo funzionalità avanzate guidate dall'intelligenza artificiale, progettate per aumentare velocità, intelligenza e precisione.
Recentemente, Microsoft ha rivisto i suoi obiettivi di crescita delle vendite per i suoi prodotti con agenti AI dopo che molti rappresentanti di vendita non hanno raggiunto le loro quote nel esercizio fiscale chiusosi a giugno, come riportato da The Information.
L'intelligenza artificiale (AI) sta trasformando sempre più il search engine optimization (SEO), spingendo i marketer ad aggiornare le proprie strategie per rimanere competitivi.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today