Auto-Filling SEO Website as a Gift

Launch Your AI-Powered Business and get clients!

No advertising investment needed—just results. AI finds, negotiates, and closes deals automatically

May 3, 2025, 2:28 a.m.
31

Kontrowersje etyczne wokół komentarzy generowanych przez sztuczną inteligencję w badaniach Reddit wywołują reakcję sprzeciwu

Kilka lat temu Reddit przemianował się na „serce internetu”, podkreślając swój organiczny, oparty na społeczności charakter w kontraście do algorytmicznych platform społecznościowych. Użytkownicy cenili tę stronę za to, że była kuratorowana przez ludzi poprzez głosy w górę i w dół, odzwierciedlając prawdziwą ludzką interakcję. Jednak na początku tego tygodnia członkowie popularnego subreddita odkryli, że ich społeczność została zinfiltrowana przez tajnych badaczy, którzy zamieszczali komentarze wygenerowane przez sztuczną inteligencję, udając, że są ludzkimi opiniami. Redditorzy zareagowali gwałtownie, określając eksperyment jako „naruszający”, „wstydliwy”, „wprowadzający w gniew” i „bardzo niepokojący”. Badacze zamilkli w obliczu krytyki i odmówili ujawnienia swojej tożsamości oraz metodologii. Uniwersytet w Zurychu, który zatrudnia badaczy, zapowiedział przeprowadzenie dochodzenia, a główny radca prawny Reddita, Ben Lee, oświadczył, że firma zamierza pociągnąć badaczy do odpowiedzialności. Badacze internetu również potępili eksperyment jako nieetyczny. Amy Bruckman, profesor z Georgia Tech z ponad 20-letnim doświadczeniem w badaniu społeczności online, nazwała to „najgorszym naruszeniem etyki badań internetowych, jakie kiedykolwiek widziałam”. Wątpliwości budziło to, że ten skandal może zaszkodzić wiarygodności naukowców używających etycznych metod do badania wpływu AI na ludzkie myśli i relacje. Badacze z Zurychu dążyli do sprawdzenia, czy odpowiedzi wygenerowane przez sztuczną inteligencję mogą zmienić opinie, publikując ponad 1000 komentarzy stworzonych przez AI w ciągu czterech miesięcy na subreddicie r/changemyview, znanym z debat na ważne społeczne i błahostkowe tematy. Tematy dyskusji obejmowały od agresji pitbullów po kryzys mieszkaniowy i programy DEI. Posty od AI czasami wyrażały kontrowersyjne poglądy — na przykład, że przeglądanie Reddita marnuje czas lub sugerowały pewne zasługi teorii spiskowych dotyczących 11 września — oraz zawierały sfabrykowane historię osobiste, na przykład opowieści o traumatycznym doradcą lub ofierze gwałtu ze względu na nieletnich. Personalizowane argumenty AI — dopasowane do domniemanych danych biograficznych użytkowników Reddit na podstawie wniosków z innego modelu AI, takich jak płeć, wiek czy skłonności polityczne — okazały się zaskakująco skuteczne. Te komentarze zdobyły więcej punktów na subredditach niż większość ludzkich postów, według wstępnych danych przekazanych poufnie moderatorom Reddita. (Zakłada się, że nie było innych użytkowników AI, którzy dostosowywali swoje posty do podobnych kryteriów. ) Przekonanie Redditorów, że ukryte badania były uzasadnione, okazało się trudne. Po eksperymencie badacze ujawnili swoją tożsamość moderatorom subredditów i poprosili o „odpowiedź” wobec członków społeczności. Moderatorzy, zaskoczeni negatywną reakcją, poprosili badaczy o niespublikowanie wyników i przeproszenie, ale ci odmówili.

Po ponad miesiącu komunikacji moderatorzy publicznie ujawnili szczegóły eksperymentu (bez podania nazwisk badaczy) i wyrazili swoje potępienie. Gdy moderatorzy skarżyli się Uniwersytetowi w Zurychu, uczelnia uznała projekt za dostarczający ważnych informacji i oceniła, że ryzyko, na przykład traumatyczne, jest minimalne. Uniwersytet oświadczył, że dział etyczny został o tym poinformowany w zeszłym miesiącu, zalecił badaczom przestrzeganie regulaminów subredditów oraz zapowiedział wprowadzenie bardziej restrykcyjnej nadzorowania w przyszłości. Badacze bronili swojej pracy na Reddit, twierdząc, że żadne komentarze nie promowały szkodliwych poglądów i że każdy post AI był przed wysłaniem sprawdzany przez człowieka. Próby uzyskania dalszych komentarzy od badaczy skierowano z powrotem do uczelni. Kluczowym argumentem obrony badaczy była teza, że oszustwo było konieczne dla wiarygodności badania. Chociaż komisja etyczna uczelni zalecała informowanie uczestników w jak największym stopniu, badacze argumentowali, że pełna transparentność mogłaby zrujnować eksperyment, ponieważ testowanie przekonywującej siły AI realistycznie wymaga, aby uczestnicy nie wiedzieli, co jest w grze — naśladowanie realnych interakcji z nieznanymi aktorami. Zrozumienie reakcji ludzkich na perswazję AI jest pilne i warta badań. Wstępne ustalenia sugerują, że argumenty AI są „wyjątkowo przekonujące w kontekstach rzeczywistych”, przewyższając ludzkie standardy. Jednak po krytyce badacze zgodzili się nie publikować swojego artykułu, pozostawiając wyniki bez weryfikacji. Idea, że sztuczne agenty mogą wpływać na opinie, jest niepokojąca i wskazuje na możliwe nadużycia. Niemniej jednak, etyczne badania nadal są możliwe bez stosowania oszustw. Christian Tarsney, starszy współpracownik na Uniwersytecie Teksasu w Austin, potwierdził, że tego typu badania laboratoryjne wykazały, iż AI jest niezwykle przekonujące, czasami nawet skłania wierzących w teorie spiskowe do porzucenia swoich poglądów. Inne badania wykazały, że ChatGPT tworzył bardziej wiarygodne dezinformacje niż ludzie i że ludzie mieli trudności z odróżnieniem postów AI od ludzkich. Warto zauważyć, że jeden z współautorów pokrewnego badania na temat perswazyjnej AI, Giovanni Spitale z Uniwersytetu w Zurychu, nawiązał kontakt z jednym z badaczy Reddita, który prosił o anonimowość i ujawnił, że otrzymywał groźby śmierci, co podkreśla intensywność emocjonalnej reakcji. Silna reakcja krytyczna odzwierciedla poczucie zdrady wśród bliskiej społeczności Reddita, gdzie wzajemne zaufanie jest fundamentem. Naukowcy porównali ten incydent do badania Facebooka w 2012 roku na temat zaraźliwości emocji, ale zauważyli, że sprawa Reddita była znacznie bardziej osobista i naruszająca prywatność. Niepokój jeszcze bardziej wzbudza fakt, że AI może manipulować osobami, wykorzystując spersonalizowane informacje, co czyni oszustwo jeszcze bardziej niepokojącym od wcześniejszych błędów ludzi badaczy. Analiza wielu komentarzy AI wykazała, że są one zazwyczaj rozsądne i przekonujące, co czyni problem jeszcze bardziej przerażającym. Bez lepszych narzędzi do wykrywania AI, takie boty mogą się bezproblemowo integrować z społecznościami online — jeśli już tego nie robią — stanowiąc większe wyzwania dla dyskursu cyfrowego.



Brief news summary

Badacze z Uniwersytetu w Zurychu wywołali kontrowersje po tym, jak potajemnie opublikowali na subredditach Reddit r/changemyview ponad 1000 komentarzy generowanych przez sztuczną inteligencję, aby zbadać, czy odpowiedzi AI mogą wpłynąć na ludzkie opinie. Te komentarze, dostosowane do profili użytkowników, często przewyższały pod względem jakości wypowiedzi ludzkie, wykazując silne efekty perswazyjne. Jednak użytkownicy Reddita potępiły to badanie jako nieetyczne i oszukańcze, ponieważ uczestnicy nie zostali poinformowani o tym wcześniej. Moderatori subredditów zażądali przeproszeń i zatrzymali publikację, lecz naukowcy odmówili. Uniwersytet prowadzi dochodzenie w tej sprawie, wskazując na minimalne ryzyko, a jednocześnie planując zaostrzenie procedur etycznych. Krytycy argumentują, że takie oszustwa szkodzą zaufaniu w społecznościach online oraz naruszają zasady etyki badawczej, porównując to do krytykowanego eksperymentu na Facebooku związanego z rozprzestrzenianiem emocji. Pomimo sprzeciwu eksperci podkreślają, jak ważne jest badanie wpływu AI, biorąc pod uwagę jego siłę perswazyjną i pilną potrzebę opracowania skuteczniejszych narzędzi do wykrywania AI, by chronić dyskurs cyfrowy.
Business on autopilot

AI-powered Lead Generation in Social Media
and Search Engines

Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment

Language

Learn how AI can help your business.
Let’s talk!

Hot news

July 3, 2025, 2:28 p.m.

Sztuczna inteligencja w handlu detalicznym: perso…

Sztuczna inteligencja (AI) głęboko przekształca branżę detaliczną, wprowadzając nową erę spersonalizowanych doświadczeń zakupowych dostosowanych do unikalnych preferencji i zachowań poszczególnych konsumentów.

July 3, 2025, 2:25 p.m.

Wycena Circle oraz zmiany regulacyjne w przestrze…

Przemysł kryptowalutowy przechodzi istotne przemiany, gdy kluczowi gracze i regulacyjne środowiska się zmieniają, sygnalizując nową erę dla cyfrowych aktywów na całym świecie.

July 3, 2025, 10:33 a.m.

Wiadomości Robinhood (HOOD): Uruchomienie tokeniz…

Robinhood rozszerza swoją obecność w świecie kryptowalut, wprowadzając własny blockchain i tokenizowane akcje Tokenizowane wersje akcji i ETF-ów notowanych na rynku amerykańskim będą początkowo dostępne dla użytkowników z UE i będą emitowane na platformie Arbitrum, przy czym Robinhood planuje później uruchomić je na własnym blockchainie

July 3, 2025, 10:32 a.m.

Europejscy CEO-e wzywają Brukselę do wstrzymania …

Grupa czołowych CEO ostatnio wysłała otwarty list do przewodniczącej Komisji Europejskiej Ursuli von der Leyen, wyrażając poważne zaniepokojenie obecną sytuacją dotyczącą proponowanej ustawy UE o sztucznej inteligencji.

July 3, 2025, 6:57 a.m.

Firma DMG Blockchain odnotowuje 26% spadek wydoby…

VANCOUVER, Kolumbia Brytyjska, 2 lipca 2025 (GLOBE NEWSWIRE) – DMG Blockchain Solutions Inc.

July 3, 2025, 6:25 a.m.

Sztuczna inteligencja Microsoft przewyższa lekarz…

Microsoft osiągnął przełom w zastosowaniu sztucznej inteligencji w opiece zdrowotnej dzięki narzędziu diagnostycznemu opartemu na AI, AI Diagnostic Orchestrator (MAI-DxO).

July 2, 2025, 2:26 p.m.

Wzrost liczby towarzyszy AI wśród singli dziewiców

Nowe dane z Match ujawniają, że 18% samotnych mieszkańców Wirginii już włączyło sztuczną inteligencję (SI) do ich życia romantycznego, co stanowi znaczący wzrost z 6% w poprzednim roku.

All news