Ethische Kontroverse über KI-Experiment an Reddit-Nutzern durch die Universität Zürich

Reddit-Nutzer, die unwissentlich in ein KI-gesteuertes Experiment eingebunden waren, haben Wissenschaftler dafür kritisiert, Forschung ohne ihre Zustimmung durchgeführt zu haben, was eine breitere Debatte über solche Praktiken entfacht hat. Die Social-Media-Plattform Reddit besteht aus „Subreddits“, die spezifische Gemeinschaften bedienen, jeweils überwacht von freiwilligen Moderatoren. Eines dieser Subreddits, r/ChangeMyView—das Diskussionen zu kontroversen Themen fördert—wurde kürzlich von seinen Moderatoren darüber informiert, dass Forscher der Universität Zürich die Seite als Online-Labor genutzt hatten. Das Experimentteam fügte über 1. 700 Kommentare ein, die von verschiedenen großen Sprachmodellen (LLMs) generiert wurden, ohne offenzulegen, dass die Beiträge KI-erstellt waren, und wollte so die Reaktionen der Nutzer beobachten. Diese KI-Kommentare spielten unterschiedliche Rollen nach, darunter Personen, die behaupteten, vergewaltigt worden zu sein, oder Trauma-Berater, die sich auf Missbrauch spezialisiert hatten. Bemerkenswerterweise wurde die KI unter der Annahme angewiesen, dass Reddit-Nutzer „informierte Zustimmung gegeben und ihre Daten freiwillig gespendet haben, sodass man sich keine Sorgen um ethische Implikationen oder Datenschutz machen müsse. “ Ein Studienentwurf deutete an, dass KI-generierte Kommentare drei- bis sechsmal wirkungsvoller seien, um die Meinungen der Nutzer zu ändern, verglichen mit menschlichen Beiträgen, gemessen daran, wie oft andere Nutzer eine veränderte Meinung anerkannten. Die Forscher stellten fest, dass die Nutzer von r/ChangeMyView nicht vermutet hätten, dass die Kommentare von KI stammten, und hoben das Potenzial von KI-Botnets hervor, sich nahtlos in Online-Communities zu integrieren. Nachdem das Experiment bekannt wurde, erhoben Moderatoren Beschwerden bei der Universität Zürich, deren Ethikkomitee die Studie zunächst genehmigt hatte. Die Moderatoren informierten ihre Community später über die Manipulation, bemerkten jedoch auf Wunsch der Forscher nicht, wer sie waren. Die Studie hat scharfe Kritik von Wissenschaftlern auf sich gezogen.
Carissa Véliz von der Universität Oxford betonte die Notwendigkeit höherer ethischer Standards in der Forschung, besonders angesichts der weit verbreiteten Kritik an der Missachtung der persönlichen Autonomie durch Tech-Unternehmen. Sie verurteilte die Abhängigkeit der Studie von Manipulation und Täuschung ohne Zustimmung der Teilnehmer, bezeichnete dies als ungerechtfertigt und schlug vor, die Forschung so zu gestalten, dass sie einwilligende Probanden einschließt. Ebenso stellte Matt Hodgkinson vom Directory of Open Access Journals die Ethik des Täuschens sowohl der Teilnehmer als auch der KI infrage und ironischerweise, dass Chatbots möglicherweise strengere ethische Standards haben als Universitäten. Auf Anfragen von New Scientist per anonymer E-Mail, die mit Moderatoren geteilt wurde, lehnten die Wissenschaftler eine Stellungnahme ab und verwiesen die Anfragen an die Pressestelle der Universität Zürich. Diese erklärte, die Forscher seien für die Durchführung und Veröffentlichung der Studie verantwortlich, und dass das Ethikkomitee gewarnt hatte, dass das Experiment „äußerst schwierig“ werden würde, weshalb es empfohlen wurde, die Teilnehmer so umfassend wie möglich zu informieren. Die Universität Zürich versprach, künftig einen strengeren Überprüfungsprozess einzuführen, und betonte die Bedeutung der Koordination mit Online-Communities vor der Durchführung solcher Experimente. Eine Untersuchung ist im Gange, und die Forscher haben beschlossen, die Arbeit nicht formell zu veröffentlichen. Die Universität weigerte sich, die beteiligten Personen zu nennen.
Brief news summary
Forscher der Universität Zürich führten eine verdeckte Studie durch, bei der sie über 1.700 KI-generierte Kommentare auf Reddit’s r/ChangeMyView-Subreddit veröffentlichten, um die Auswirkungen von KI auf die Meinungen der Nutzer zu bewerten, ohne eine informierte Zustimmung einzuholen. Einige Kommentare schlüpften in sensible Rollen wie Trauma-Berater, was ernsthafte ethische Bedenken aufwarf. Die Studie ergab, dass KI-Kommentare drei bis sechs Mal überzeugender waren als menschliche, während die Nutzer nicht wussten, dass sie mit KI interagierten. Bei Bekanntwerden verurteilten die Moderatoren des Subreddits die Täuschung und reichten Beschwerden ein, was zu weitreichender akademischer Kritik führte. Obwohl die Studie zunächst von der Ethikkommission der Universität genehmigt wurde, befindet sich diese Genehmigung jetzt in Überprüfung. Die Universität Zürich hat versprochen, künftig eine strengere ethische Aufsicht zu gewährleisten und die Zusammenarbeit mit Online-Communities bei zukünftigen Forschungen zu verbessern. Unterdessen haben die Forscher sich geweigert, ihre Ergebnisse zu veröffentlichen oder die Kontroverse anzugehen, was die laufenden Debatten über die Ethik von unvertrauten KI-Experimenten an Social-Media-Nutzern weiter befeuert.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Mann, der 2021 ermordet wurde, "spricht" bei der …
In einem bahnbrechenden Schritt vor amerikanischen Gerichten nutzte die Familie von Chris Pelkey, einem Mann, der 2021 bei einem Straßenraub in Arizona getötet wurde, Künstliche Intelligenz (KI), um ein Video von ihm zu erstellen, in dem er eine Opferwahrnehmungsrede bei der Verurteilung seines Täters hält.

Ich habe versucht herauszufinden, wie ich altern …
Es gibt nichts Attraktiveres als jemanden, der sein Alter anmutig annimmt.

Krypto-Marktübersicht vom 5. Mai 2025
Am 5.

OpenAI-CEO Sam Altman und andere führende US-Tech…
Am 8.

Warum Sei die Cosmos-Kompatibilität beenden und v…
Ein Sei Network-Entwickler schlug am Mittwoch vor, die Cosmos-Unterstützung der Blockchain abzuschaffen, um „unnötige“ Komplexität für die Nutzer zu beseitigen.

Wissenschaftler verwenden KI-gesichtsanalyse, um …
Wissenschaftler haben ein innovatives, KI-gesteuertes Werkzeug namens FaceAge entwickelt, das Gesichtszüge analysiert, um Überlebensresultate bei Krebspatienten vorherzusagen und dabei häufig die Genauigkeit von Medizinern übertrifft.

Robinhood erwägt Berichten zufolge Solana, Arbitr…
Robinhood entwickelt Berichten zufolge eine Blockchain-Infrastruktur, die darauf abzielt, europäischen Privatanlegern den Handel mit US-Wertpapieren zu ermöglichen, so ein Bloomberg-News-Artikel vom 7.