Nárůst falešných videí vytvářených umělou inteligencí na sociálních médiích oslabuje důvěru v skutečné zprávy
Brief news summary
Po nedávných amerických úderech na Írán narostl na sociálních médiích, jako je X, počet falešných videí generovaných umělou inteligencí, která zobrazují nepravdivé události – například zničení americké letadlové lodě nebo hořící Burj Khalifa. X, dříve spolehlivý zdroj aktuálních zpráv, si od převzetí Elonem Muskem výrazně snížil důvěryhodnost kvůli slabší moderaci, algoritmům řízeným zapojením uživatelů a důrazu na vlastní chybný AI nástroj Grok. Tyto faktory umožnily rychlé šíření zavádějícího politického obsahu vytvářeného umělou inteligencí. Tato videa mají různé cíle: některá oslavují vojenské akce, zatímco jiná mají za úkol mást a podkopávat veřejné porozumění. Znepokojující je, že i Grok sám nesprávně identifikoval AI výtvory jako skutečné záznamy. Odborníci varují, že takové deepfakes vážně narušují důvěru v autentické záznamy, což činí stále obtížnější, aby publikum rozlišovalo pravdu od lži. V tomto prostředí je zachování přesného povědomí vyžadováno větší bdělosti, protože naše schopnost spoléhat se na vizuální informace čelí bezprecedentním výzvám.Americký letadlový štít zničen íránskými raketami. Americké bomby ničí jadernou elektrárnu. Burj Khalifa je pohlcena plameny. Žádná z těchto událostí se ve skutečnosti nestala, přesto to nezabránilo lidem sdílet falešná videa online. Od víkendových útoků Trumpa na Írán se rychle šíří AI-vytvořená videa, která ukazují zcela vymyšlené, avšak realistické scénáře, na platformách X a dalších sociálních médiích. Po léta sloužila platforma X (dříve Twitter) jako důležitý nástroj pro získávání informací v reálném čase při aktuálních událostech. Tento význam však zdá se ubývá. Od převzetí Elona Muskem se spolehlivost platformy jako zdroje zpráv postupně snižuje. Moderace byla vážně oslabena, algoritmus upřednostňuje zapojení před přesností a zdroje byly přesunuty na vlastní problematickou AI platformu — Grok. Na platformě jsme již dříve svědky politicky motivovaného obsahu vytvářeného umělou inteligencí, například falešného videa Jakea Paula při íránských protestech. Avšak nedávné útoky ve Venezuele a nyní v Íránu spustily lavinu klamavých AI-vytvořených videí. Důvody vzniku tohoto obsahu se liší.
Někteří tvůrci zřejmě slaví, používají AI k oslavě vojenských kroků Trumpa a Netanjahua. Jiní se snaží šířit pochybnosti o konfliktu, narušovat důvěru americké veřejnosti a znečišťovat informační prostor do té míry, že pravda je nejistá. Znepokojivě, Grok — nativní AI nástroj X — nesprávně označuje videa vytvořená umělou inteligencí za skutečná. (Zástupce X na okamžitou žádost o komentář neodpověděl, odkazoval však na nedávné příspěvky bezpečnostního týmu firmy. ) Minulý měsíc hovořila Arianna Coghill z Mother Jones s expertem na obsah AI Jeremyem Carrascem o této problematice. Carrasco považuje falešný obsah za problémový, ale zdůrazňuje, že větší škody způsobuje to, jak tato vlna AI obsahu ovlivňuje naši důvěru v reálná videa. Když se falešné záběry stanou přesvědčivými a rozšířenými, začínají lidé pochybovat o všem — včetně autentických záznamů skutečných událostí. To je složitá realita, před kterou nyní stojíme. Být informován je důležitější než kdy dřív, ale v těchto časech to vyžaduje větší opatrnost při přijímání informací za pravdivé — i když se zdají být zachyceny přímo před vašimi očima.
Watch video about
Nárůst falešných videí vytvářených umělou inteligencí na sociálních médiích oslabuje důvěru v skutečné zprávy
Try our premium solution and start getting clients — at no cost to you