Kontrowersje etyczne wokół komentarzy generowanych przez sztuczną inteligencję w badaniach Reddit wywołują reakcję sprzeciwu

Kilka lat temu Reddit przemianował się na „serce internetu”, podkreślając swój organiczny, oparty na społeczności charakter w kontraście do algorytmicznych platform społecznościowych. Użytkownicy cenili tę stronę za to, że była kuratorowana przez ludzi poprzez głosy w górę i w dół, odzwierciedlając prawdziwą ludzką interakcję. Jednak na początku tego tygodnia członkowie popularnego subreddita odkryli, że ich społeczność została zinfiltrowana przez tajnych badaczy, którzy zamieszczali komentarze wygenerowane przez sztuczną inteligencję, udając, że są ludzkimi opiniami. Redditorzy zareagowali gwałtownie, określając eksperyment jako „naruszający”, „wstydliwy”, „wprowadzający w gniew” i „bardzo niepokojący”. Badacze zamilkli w obliczu krytyki i odmówili ujawnienia swojej tożsamości oraz metodologii. Uniwersytet w Zurychu, który zatrudnia badaczy, zapowiedział przeprowadzenie dochodzenia, a główny radca prawny Reddita, Ben Lee, oświadczył, że firma zamierza pociągnąć badaczy do odpowiedzialności. Badacze internetu również potępili eksperyment jako nieetyczny. Amy Bruckman, profesor z Georgia Tech z ponad 20-letnim doświadczeniem w badaniu społeczności online, nazwała to „najgorszym naruszeniem etyki badań internetowych, jakie kiedykolwiek widziałam”. Wątpliwości budziło to, że ten skandal może zaszkodzić wiarygodności naukowców używających etycznych metod do badania wpływu AI na ludzkie myśli i relacje. Badacze z Zurychu dążyli do sprawdzenia, czy odpowiedzi wygenerowane przez sztuczną inteligencję mogą zmienić opinie, publikując ponad 1000 komentarzy stworzonych przez AI w ciągu czterech miesięcy na subreddicie r/changemyview, znanym z debat na ważne społeczne i błahostkowe tematy. Tematy dyskusji obejmowały od agresji pitbullów po kryzys mieszkaniowy i programy DEI. Posty od AI czasami wyrażały kontrowersyjne poglądy — na przykład, że przeglądanie Reddita marnuje czas lub sugerowały pewne zasługi teorii spiskowych dotyczących 11 września — oraz zawierały sfabrykowane historię osobiste, na przykład opowieści o traumatycznym doradcą lub ofierze gwałtu ze względu na nieletnich. Personalizowane argumenty AI — dopasowane do domniemanych danych biograficznych użytkowników Reddit na podstawie wniosków z innego modelu AI, takich jak płeć, wiek czy skłonności polityczne — okazały się zaskakująco skuteczne. Te komentarze zdobyły więcej punktów na subredditach niż większość ludzkich postów, według wstępnych danych przekazanych poufnie moderatorom Reddita. (Zakłada się, że nie było innych użytkowników AI, którzy dostosowywali swoje posty do podobnych kryteriów. ) Przekonanie Redditorów, że ukryte badania były uzasadnione, okazało się trudne. Po eksperymencie badacze ujawnili swoją tożsamość moderatorom subredditów i poprosili o „odpowiedź” wobec członków społeczności. Moderatorzy, zaskoczeni negatywną reakcją, poprosili badaczy o niespublikowanie wyników i przeproszenie, ale ci odmówili.
Po ponad miesiącu komunikacji moderatorzy publicznie ujawnili szczegóły eksperymentu (bez podania nazwisk badaczy) i wyrazili swoje potępienie. Gdy moderatorzy skarżyli się Uniwersytetowi w Zurychu, uczelnia uznała projekt za dostarczający ważnych informacji i oceniła, że ryzyko, na przykład traumatyczne, jest minimalne. Uniwersytet oświadczył, że dział etyczny został o tym poinformowany w zeszłym miesiącu, zalecił badaczom przestrzeganie regulaminów subredditów oraz zapowiedział wprowadzenie bardziej restrykcyjnej nadzorowania w przyszłości. Badacze bronili swojej pracy na Reddit, twierdząc, że żadne komentarze nie promowały szkodliwych poglądów i że każdy post AI był przed wysłaniem sprawdzany przez człowieka. Próby uzyskania dalszych komentarzy od badaczy skierowano z powrotem do uczelni. Kluczowym argumentem obrony badaczy była teza, że oszustwo było konieczne dla wiarygodności badania. Chociaż komisja etyczna uczelni zalecała informowanie uczestników w jak największym stopniu, badacze argumentowali, że pełna transparentność mogłaby zrujnować eksperyment, ponieważ testowanie przekonywującej siły AI realistycznie wymaga, aby uczestnicy nie wiedzieli, co jest w grze — naśladowanie realnych interakcji z nieznanymi aktorami. Zrozumienie reakcji ludzkich na perswazję AI jest pilne i warta badań. Wstępne ustalenia sugerują, że argumenty AI są „wyjątkowo przekonujące w kontekstach rzeczywistych”, przewyższając ludzkie standardy. Jednak po krytyce badacze zgodzili się nie publikować swojego artykułu, pozostawiając wyniki bez weryfikacji. Idea, że sztuczne agenty mogą wpływać na opinie, jest niepokojąca i wskazuje na możliwe nadużycia. Niemniej jednak, etyczne badania nadal są możliwe bez stosowania oszustw. Christian Tarsney, starszy współpracownik na Uniwersytecie Teksasu w Austin, potwierdził, że tego typu badania laboratoryjne wykazały, iż AI jest niezwykle przekonujące, czasami nawet skłania wierzących w teorie spiskowe do porzucenia swoich poglądów. Inne badania wykazały, że ChatGPT tworzył bardziej wiarygodne dezinformacje niż ludzie i że ludzie mieli trudności z odróżnieniem postów AI od ludzkich. Warto zauważyć, że jeden z współautorów pokrewnego badania na temat perswazyjnej AI, Giovanni Spitale z Uniwersytetu w Zurychu, nawiązał kontakt z jednym z badaczy Reddita, który prosił o anonimowość i ujawnił, że otrzymywał groźby śmierci, co podkreśla intensywność emocjonalnej reakcji. Silna reakcja krytyczna odzwierciedla poczucie zdrady wśród bliskiej społeczności Reddita, gdzie wzajemne zaufanie jest fundamentem. Naukowcy porównali ten incydent do badania Facebooka w 2012 roku na temat zaraźliwości emocji, ale zauważyli, że sprawa Reddita była znacznie bardziej osobista i naruszająca prywatność. Niepokój jeszcze bardziej wzbudza fakt, że AI może manipulować osobami, wykorzystując spersonalizowane informacje, co czyni oszustwo jeszcze bardziej niepokojącym od wcześniejszych błędów ludzi badaczy. Analiza wielu komentarzy AI wykazała, że są one zazwyczaj rozsądne i przekonujące, co czyni problem jeszcze bardziej przerażającym. Bez lepszych narzędzi do wykrywania AI, takie boty mogą się bezproblemowo integrować z społecznościami online — jeśli już tego nie robią — stanowiąc większe wyzwania dla dyskursu cyfrowego.
Brief news summary
Badacze z Uniwersytetu w Zurychu wywołali kontrowersje po tym, jak potajemnie opublikowali na subredditach Reddit r/changemyview ponad 1000 komentarzy generowanych przez sztuczną inteligencję, aby zbadać, czy odpowiedzi AI mogą wpłynąć na ludzkie opinie. Te komentarze, dostosowane do profili użytkowników, często przewyższały pod względem jakości wypowiedzi ludzkie, wykazując silne efekty perswazyjne. Jednak użytkownicy Reddita potępiły to badanie jako nieetyczne i oszukańcze, ponieważ uczestnicy nie zostali poinformowani o tym wcześniej. Moderatori subredditów zażądali przeproszeń i zatrzymali publikację, lecz naukowcy odmówili. Uniwersytet prowadzi dochodzenie w tej sprawie, wskazując na minimalne ryzyko, a jednocześnie planując zaostrzenie procedur etycznych. Krytycy argumentują, że takie oszustwa szkodzą zaufaniu w społecznościach online oraz naruszają zasady etyki badawczej, porównując to do krytykowanego eksperymentu na Facebooku związanego z rozprzestrzenianiem emocji. Pomimo sprzeciwu eksperci podkreślają, jak ważne jest badanie wpływu AI, biorąc pod uwagę jego siłę perswazyjną i pilną potrzebę opracowania skuteczniejszych narzędzi do wykrywania AI, by chronić dyskurs cyfrowy.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Blockchain i sztuczna inteligencja mogą napędzić …
Coraz bliższa konwergencja technologii blockchain i sztucznej inteligencji może napędzić rynek zdecentralizowanej sieci infrastruktury fizycznej (DePIN) do poziomu przekraczającego 3,5 biliona dolarów w ciągu najbliższych trzech lat, wynika z raportu Światowego Forum Ekonomicznego (WEF).

Wprowadzenie sztucznej inteligencji przez Apple i…
Premiera Apple Intelligence, wysoce oczekiwanej platformy usług AI stworzonej wspólnie przez Apple i Alibaba, napotkała poważne opóźnienia w Chinach z powodu wyzwań regulacyjnych w obliczu narastających napięć handlowych między USA a Chinami.

Bitget nawiązał współpracę z Centrum Blockchain U…
VICTORIA, Seszele, 4 czerwca 2025 (GLOBE NEWSWIRE) — Bitget, wiodąca giełda kryptowalutowa i firma z sektora Web3, ogłasza nawiązanie partnerstwa z Uniwersytetem w Zurichu, który w rankingu Coindesk w 2021/22 został sklasyfikowany na 3.

Jak nauczyciele mogą pokonać sztuczną inteligencję
Najnowszy wiralowy artykuł Jamesa Walsha z Nowego Jorku, „Każdy oszukuje na studiach”, nie zaskoczył ujawnieniem wszechobecnej roli sztucznej inteligencji w edukacji — było to już oczywiste dla każdego, kto zna dzisiejsze szkoły.

Najważniejszy doradca Trumpa ds. kryptowalut spot…
Kluczowe wnioski Bo Hines i Bilal Bin Saqib spotkali się w Białym Domu, aby omówić strategiczną współpracę dotyczącą Bitcoina i aktywów cyfrowych

Ludzie ponad sprzętem: zasady dla AI
19 maja miałem zaszczyt uczestniczyć w uroczystości mianowania oficerów ROTC Dystryktu Kolumbii na chorążych Navy USA i podchorążych Marine Corps USA.

DMG Blockchain Solutions ogłasza wstępne wyniki o…
VANCOUVER, Kolumbia Brytyjska, 3 czerwca 2025 (GLOBE NEWSWIRE) — DMG Blockchain Solutions Inc.