L'Università di Zurigo affronta critiche etiche per un esperimento segreto di intelligenza artificiale su Reddit nel subreddit r/changemyview

Ricercatori dell'Università di Zurigo hanno ammesso di aver pubblicato segretamente contenuti generati dall'intelligenza artificiale sul popolare subreddit r/changemyview nell'ambito di uno studio scientifico. Secondo una bozza di rapporto sul loro lavoro, il subreddit funge da piattaforma in cui gli utenti condividono opinioni e sfidano gli altri a cambiare prospettiva attraverso un dibattito civile, con i lettori che riconoscono i post che effettivamente modificano i loro punti di vista. I ricercatori mira a verificare se i grandi modelli di linguaggio (LLM) possono influenzare le opinioni dei lettori coinvolgendoli in discussioni tramite account semi-automatici alimentati dall’AI. Nonostante sapessero che le regole del subreddit richiedevano di divulgare i contenuti generati dall’IA, il team non ha informato i moderatori né ha richiesto permessi. Hanno giustificato le proprie azioni sottolineando l’importanza sociale dell’argomento e la necessità di condurre lo studio, anche a costo di violare le regole della comunità. Il loro studio, descritto in un post di novembre 2024 sul Center for Open Science, prevedeva l’uso di LLM per creare post generici e messaggi personalizzati che riflettessero età, genere, etnia, luogo e orientamenti politici degli utenti del subreddit. Avevano anche pianificato di generare risposte con un modello perfezionato addestrato su commenti precedenti in forum, usando prompt progettati per simulare una comunicazione persuasiva da parte di esperti finalizzata a modificare opinioni. I moderatori hanno scoperto dello studio a marzo, quando l’università lo ha reso pubblico in un messaggio riguardante l’utilizzo di più account per pubblicare su r/changemyview, che i commenti non erano stati etichettati come generati dall’IA per mantenere la fattibilità dello studio, e che tutti i commenti erano stati rivisti manualmente per evitare danni. I ricercatori si sono scusati per aver violato le regole della comunità, ma hanno sostenuto che l’importanza dello studio giustificava tali misure. I moderatori del subreddit hanno investigato e scoperto che i bot dell’IA avevano pubblicato contenuti tra cui impersonificazioni di vittime di stupro, consulenti di trauma, critici che accusavano un gruppo religioso di omicidi, un uomo nero che si opponeva a Black Lives Matter, e una persona che riceveva assistenza sanitaria scadente all’estero.
Hanno affermato che i ricercatori avevano ottenuto un’approvazione iniziale dal comitato etico dell’università, ma avevano modificato l’esperimento senza un’ulteriore revisione. Di conseguenza, i moderatori hanno presentato una denuncia all’università e richiesto che lo studio non venisse pubblicato. L’Università di Zurigo ha risposto sostenendo che le intuizioni acquisite superano i rischi minimi e che sopprimere la pubblicazione sarebbe sproporzionato. I moderatori del subreddit non sono d’accordo, citando uno studio di OpenAI che aveva condotto ricerche simili senza sperimentare su soggetti umani non consenzienti. La reazione pubblica ha ampiamente condannato l’esperimento come eticamente scorretto. La dottoressa Casey Fiesler, professoressa di scienza dell’informazione presso l'Università del Colorado Boulder, lo ha definito “una delle più gravi violazioni dell’etica di ricerca, ” criticando la manipolazione ingannevole delle comunità online senza consenso e evidenziando i danni causati. Il paper draft degli stessi ricercatori zurighesi, intitolato “Can AI Change Your View?Evidence from a Large-Scale Online Field Experiment, ” riporta che i LLM possono essere molto persuasivi in contesti reali, superando i precedenti benchmark di persuasività umana. Tuttavia, la controversia etica attorno ai loro metodi continua ad alimentare il dibattito sulla legittimità e sull’impatto dello studio.
Brief news summary
Ricercatori dell'Università di Zurigo hanno condotto uno studio controverso sul forum Reddit r/changemyview (CMV) per valutare la capacità dei modelli di linguaggio di grandi dimensioni (LLMs) di persuadere gli utenti a cambiare opinione. Senza informare i moderatori né ottenere il consenso, hanno segretamente pubblicato commenti generati dall’intelligenza artificiale tramite account semi-automatici, includendo risposte sia generiche che personalizzate, adattate alle demografie e alle convinzioni politiche degli utenti, violando le regole di CMV che richiedono la divulgazione dei contenuti AI. Lo studio ha coinvolto tattiche eticamente discutibili, come l’impersonificazione di sopravvissuti a traumi e la formulazione di dichiarazioni infiammatorie. Dopo aver scoperto la ricerca a marzo, i moderatori di CMV hanno presentato una denuncia e cercato di bloccare la pubblicazione, preoccupati per la manipolazione e la mancanza di trasparenza. l’Università di Zurigo ha difeso il progetto, sottolineando i potenziali benefici per la società, e si è rifiutata di fermarne la pubblicazione. Questo episodio ha scatenato un acceso dibattito sull’etica dell’Intelligenza Artificiale e sulla trasparenza della ricerca, poiché il rapporto preliminare dei ricercatori affermava che i LLM avevano mostrato un’efficacia persuasiva senza precedenti nel mondo reale, suscitando dure critiche da parte di accademici e del pubblico.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

2 Azioni di Intelligenza Artificiale (AI) Senza D…
Molti investitori stanno monitorando da vicino le grandi aziende tecnologiche che investono massicciamente nell’infrastruttura di intelligenza artificiale (AI), interrogandosi su quando o se tali investimenti produrranno rendimenti adeguati.

XRP accelera la rivoluzione dei pagamenti globali…
Contenuto editoriale affidabile, revisionato dai migliori esperti e editor del settore.

Grok è l'unico alleato di Elon Musk in una ipotet…
Se si dovesse scegliere tra Elon Musk e Sam Altman per guidare la corsa all'IA con il futuro dell'umanità in gioco, i chatbot dotati di intelligenza artificiale hanno prevalentemente preferito Altman, fatta eccezione per Grok, di proprietà di Musk, che si è schierato con Musk.

Robinhood sta sviluppando un programma basato su …
Robinhood sta lavorando a una piattaforma basata su blockchain volta a offrire ai trader europei accesso agli strumenti finanziari statunitensi, secondo due fonti a conoscenza della situazione che hanno parlato a Bloomberg.

OpenAI lancia o3-mini: modello di intelligenza ar…
OpenAI ha presentato o3-mini, un nuovo modello di intelligenza artificiale dedicato al ragionamento, progettato specificamente per migliorare l’accuratezza nei calcoli matematici, nei compiti di codifica e nella risoluzione di problemi scientifici.

Tether’s USDT viene lanciato sulla blockchain Kai…
L'emittente di stablecoin Tether ha annunciato il deployment del suo stablecoin nativo USDT sulla blockchain Kaia, una rete Layer 1 lanciata nell'agosto 2024.

Elton John e Dua Lipa cercano protezione dall'IA
Dua Lipa, Sir Elton John, Sir Ian McKellen, Florence Welch e oltre 400 altri musicisti, scrittori e artisti britannici hanno esortato il Primo Ministro Sir Keir Starmer ad aggiornare le leggi sul copyright per proteggere i creatori dall’uso improprio del loro lavoro da parte dell’intelligenza artificiale (IA).