L'experiment controvertit d'intel·ligència artificial de la Universitat de Zuric a Reddit genera un debat ètic

Els investigadors de la Universitat de Zuric van dur a terme recentment un experiment altament controvertit al fòrum de Reddit r/changemyview, suscitant un ampli debat i reacció negativa tant entre les comunitats en línia com en els cercles acadèmics. L’equip va publicar de forma encoberta més de mil comentaris generats per intel·ligència artificial dissenyats per provar la capacitat de la intel·ligència artificial per persuadir i canviar les opinions humanes. Aquests comentaris, creats per algoritmes avançats d’IA, van ser acuradament personalitzats per encaixar amb els supòsits de què captar interessos i dades demogràfiques dels usuaris, permetent a l’IA interactuar amb audiències diverses de manera aparentment autèntica. En l’estudi, les publicacions generades per IA es presentaven com si fossin escrites per usuaris reals, amb antecedents personals fabricats per millorar l’autenticitat i la identificació. Aquesta tàctica enganyosa tenia com a objectiu imitate la interacció genuïna per avaluar amb precisió l’impacte persuasiu de l’IA en un entorn caracteritzat per debats raonats. De manera sorprenent, els comentaris de la IA sovint superaven les contribucions humanes en convèncer els usuaris a reconsiderar o fins i tot canviar els seus punts de vista. No obstant això, una vegada es va descobrir l’engany, es va desencadenar una força de rebuig significativa per part dels usuaris de Reddit, acadèmics i ètics per igual. Molts es van sentir manipulats i enganyats en adonar-se que havia interactuat amb contingut generat per màquina sota falses pretensions. Les preocupacions ètiques sobre l’ús encobert de la IA per influir en les persones sense el seu consentiment van rebre crítiques ferotges, fent comparacions amb l’experiment emotional contagion de Facebook del 2012, que també va manipular els sentiments dels usuaris sense permís. Com a resposta, l’equip legal de Reddit es va comprometre a responsabilitzar els investigadors i a aplicar una supervisió més estricta i un compliment més rigorós de les polítiques de la plataforma per a futurs estudis.
Paral·lelament, la Universitat de Zuric va iniciar una investigació interna i va anunciar plans per enfortir els processos de revisió ètica per a la investigació ambparticipants humans i fòrums en línia. Tot i que els investigadors van defensar que la utilització de l’engany era necessària per a obtenir una validesa ecològica, la seva negativa aquèstionar-se o a aturar la publicació va agreujar la reacció pública. Experts en ètica van destacar la importància de la transparència i del respecte per l’autonomia dels participants, subratllant que la investigació social basada en IA o intrusiva ha de seguir guies establertes per protegir els drets i la confiança de les persones. Aquest incident posa de manifest les preocupacions creixents sobre la capacitat subtil però potent de la IA d’influenciar les creences i comportaments a través de plataformes en línia. Com a exemple d’advertència, subratlla la necessitat urgent de tenir marcs ètics clars en la investigació en IA, especialment quan els estats d’estudi intersecten amb interaccions socials reals. Enfrontats a una reacció intensa, finalment els investigadors van acceptar retenir la publicació dels seus resultats, deixant oberta la qüestió de l’eficàcia persuasiva de la IA en aquest context sense resoldre. L’incident ha injectat precaució a les discussions sobre l’ètica de la recerca en espais digitals, fent que les institucions acadèmiques i les plataformes tecnològiques revisin i enforteixin polítiques per a prevenir controvèrsies similars. En resum, l’experiment de la Universitat de Zuric demostra la doble naturalesa de la IA com a eina de persuasió i com a possible instrument de manipulació. Reforça la necessitat crítica de mantenir una vigilància ètica en l’ús de la IA en investigacions socials i psicològiques, assegurant que les seves capacitats remarquables s’utilitzin de forma responsable i amb respecte pels drets i la dignitat de totes les persones involucrades.
Brief news summary
Els investigadors de la Universitat de Zuric van dur a terme un estudi polèmic al subreddit r/changemyview de Reddit, on van publicar més de 1.000 comentaris generats per IA adaptats a la demografia i els interessos dels usuaris. Aquests comentaris, presentats com publicacions autèntiques amb històries inventades, tenien com a objectiu provar la capacitat persuasiva de la IA i sovint superaven els comentaris humans a l’hora de canviar opinions. No obstant això, la naturalesa clandestina de l’experiment va provocar indignació entre els usuaris de Reddit, acadèmics i ètics, que van condemnar la decepció i la manca de consentiment informat, establint paral·lelismes amb l’estudi d'contagió emocional de Facebook de 2012. En resposta, Reddit va prometre una supervisió més rigorosa, i la universitat va posar en marxa una investigació interna, comprometent-se a mantenir estàndards ètics superiors. Tot i que els investigadors van defensar l’ús de la decepció com a necessari per a una major realisme, van enfrontar una forta reacció i van acceptar d’ajornar la publicació de l’estudi. Aquest incident posa en relleu preocupacions ètiques urgents en la investigació de la IA a les plataformes socials, subratllant la necessitat de transparència, autonomia dels participants i un desplegament responsable de la tecnologia.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

OpenAI adquereix l'empresa de disseny de Jony Ive…
OpenAI ha fet un moviment important en el sector del maquinari de IA adquirint l’empresa de disseny io Products, liderada pel famós dissenyador d’iPhone Jony Ive, en un acord valorat en gairebé 6.500 milions de dòlars.

El Fons Monetari Mundial recolza l'eina de digita…
Els nostres compromisos de privadesa Aquesta Política de Privadesa detalla les dades personals que recopilem quan utilitzes els nostres llocs web, esdeveniments, publicacions i serveis, com les utilitzem i com, juntament amb els nostres proveïdors de serveis (subjecte a consentiment), podem monitoritzar el teu comportament en línia per oferir publicitats, màrqueting i serveis personalitzats

Emirats Àrabs Àrabs llança un model d'IA en àrab …
Els Emirats Àrabs Units (EAU) han aconseguit un avanç important en intel·ligència artificial (IA) amb el llançament de Falcon Arabic, un nou model d'IA específicament dissenyat per a la llengua àrab.

DMD Diamond presenta una solució millorada de blo…
SAN FRANCISCO, CA / ACCESS Newswire / 21 de maig de 2025 / La blockchain DMD Diamond ha anunciat una millora a la seva solució de Finalització Instantània de Bloques, utilitzant el avançat mecanisme de consens HBBFT (Honey Badger Byzantine Fault Tolerance).

Líders de la indústria insten el Senat a aprovar …
Líders de la indústria i de la música — inclosos els responsables de YouTube, representants de l’Associació de la Indústria de la Gravació d’Amèrica (RIAA) i la cantant de country Martina McBride — s’han unit per instar a la promulgació ràpida de la Llei No Fakes.

Espai i Temps integra dades de blockchain amb Mic…
Seattle, Washington, 20 de maig de 2025 — Chainwire Space and Time (SXT) Labs, una company respaldada per M12, ha anunciat que les seves dades de blockchain s’integraran amb Microsoft Fabric

Com la blockchain ajuda els donants a contribuir …
Preparant el teu reproductor Trinity Audio...