Anthropic AI Criticata per Standard di Sicurezza Indeboliti e Pratiche Controverse di Raccolta Dati
Brief news summary
Anthropic, un'azienda di AI responsabile, sta affrontando ostacoli che mettono in dubbio la fattibilità di dare priorità all'etica e alla sicurezza. Inizialmente fondata in risposta alle preoccupazioni riguardanti la cultura della sicurezza di OpenAI, Anthropic ora sta cercando di indebolire una legge che richiede test di sicurezza e la capacità di fermare i modelli di AI durante incidenti di sicurezza. Questo ha deluso i gruppi focalizzati sulla sicurezza che si aspettavano una maggiore supervisione da Anthropic. Inoltre, l'azienda ha affrontato critiche per i suoi metodi di raccolta dati, tra cui la raccolta non autorizzata di dati disponibili pubblicamente, provocando controversie legali e sfide sul copyright. Preoccupazioni sorgono anche dalle collaborazioni di Anthropic con giganti della tecnologia come Amazon e Google, poiché alimentano timori riguardo alla massimizzazione dei profitti e alla concentrazione del potere. Questi problemi sottolineano la necessità di un intervento governativo per modificare il quadro degli incentivi nell'industria dell'AI e garantire l'adozione di pratiche di sviluppo etiche e sicure.Sigal Samuel, un reporter senior per Vox's Future Perfect e co-conduttore del podcast Future Perfect, discute delle sfide affrontate da Anthropic, un'azienda di AI che una volta si posizionava come etica e sicura. Nonostante le sue affermazioni iniziali, Anthropic ora sta facendo pressioni per indebolire la legislazione che imporrebbe standard di sicurezza per i modelli di AI. Questo cambiamento ha deluso i gruppi focalizzati sulla sicurezza che credevano che Anthropic avrebbe supportato la supervisione e la responsabilità.
Inoltre, Anthropic è stata criticata per i suoi metodi di raccolta dei dati, che includono la raccolta di dati disponibili pubblicamente senza consenso, e le sue partnership con giganti della tecnologia come Amazon e Google, il che solleva preoccupazioni riguardo alla concentrazione del potere e alle potenziali violazioni antitrust. Samuel sostiene che il governo deve intervenire per cambiare la struttura degli incentivi dell'industria dell'AI se le aziende non sono disposte a dare priorità all'etica e alla sicurezza da sole. In assenza di regolamentazione federale, le leggi statali e gli sforzi della società civile possono svolgere un ruolo cruciale nel tenere le aziende di AI responsabili.
Watch video about
Anthropic AI Criticata per Standard di Sicurezza Indeboliti e Pratiche Controverse di Raccolta Dati
Try our premium solution and start getting clients — at no cost to you