Nárast umelou generovaných falošných videí na sociálnych sieťach podkopáva dôveru v skutočné správy
Brief news summary
Po nedávnych útokoch USA na Irán narástol na sociálnych sieťach, ako je X, počet falošných videí generovaných umelou inteligenciou, ktoré ukazujú nepravdivé udalosti — napríklad zničenie americkej lietadlovej lode alebo horenie Burj Khalify. X, kedysi spoľahlivý zdroj aktuálnych správ, si od prevzatia Elonem Muskom výrazne pohoršil, kvôli slabšej moderácii, algoritmom zameraným na angažovanosť a dôrazu na vlastný, chybný AI nástroj Grok. Tieto faktory umožnili rýchle šírenie zavádzajúceho politického obsahu vytvoreného umelou inteligenciou. Videá plnia rôzne účely: niektoré oslavujú vojenské akcie, zatiaľ čo iné majú zmiasť a podkopať verejné porozumenie. Znepokojujúce je, že aj Grok zle identifikoval AI falzifikáty ako skutočné zábery. Odborníci varujú, že takéto deepfakes vážne narúšajú dôveru v autentické záznamy, čím sa stáva čoraz ťažšie pre publikum odlíšiť pravdu od klamstva. V takomto prostredí si vyžaduje presná informovanosť zvýšenú ostražitosť, pretože naša schopnosť spoliehať sa na vizuálne informácie čelí bezprecedentným výzvam.US lietadlová loď zničená iránskymi raketami. Americké bomby vyrovnávajúce jadrovú elektráreň. Budž Khalifa pohltený plameňmi. Žiadna z týchto udalostí sa naozaj nestala, no to nezastavilo ľudí v zdieľaní falošných videí online. Od víkendu po útokoch Trumpa na Irán sa rýchlo šíria AI-generované videá, ktoré zobrazujú úplne vymyslené, no realistické scenáre na platformách X a ďalších sociálnych sieťach. Po roky slúžila X (d puddavi Twitter) ako dôležitý nástroj na poskytovanie informácií v reálnom čase počas rýchlych správ. Avšak, tento aspekt sa začína vytrácať. Od nástupu Elona Muska sa spoľahlivosť platformy ako zdroja správ postupne znižuje. Moderovanie bolo vážne oslabované, algoritmus dáva prednosť zapojeniu pred presnosťou, a zdroje boli presmerované na vlastnú problematickú AI platformu—Grok. Už sme boli svedkami politicky nabitej AI obsahu na platforme, napríklad vymysleného videa Jakea Poola na iránskych protestoch. No nedávne útoky vo Venezuele a teraz v Iránu spôsobili, že sa na povrch dostal HMRAZNÝ tok zavádzajúcich AI-generovaných videí. Dôvody tohto obsahu sú rôzne.
Niektorí tvorcovia vyzdvihujú, využívajúc AI na glorifikáciu vojenských zásahov Trumpa a Netanjahua. Iní sa snažia šíriť pochybnosti o konflikte, podkopávať dôveru americkej verejnosti a znečisťovať informačný priestor tak, že pravda sa stáva nejasnou. Upozorňujúco, Grok—vnútorný AI nástroj X—nedorozumeľa AI-generované videá ako skutočné. (Hovorca X okamžite neodpovedal na žiadosti o komentár, no poukázal na nedávne príspevky tímu bezpečnosti firmy. ) Minulý mesiac Arianna Coghill z Mother Jones hovorila s expertom na AI obsah Jeremyom Carrasco o tomto probléme. Carrasco považuje falošný obsah za znepokojujúci, ale zdôrazňuje, že väčšia škoda spočíva v tom, ako táto záplava AI obsahu ovplyvňuje našu dôveru v skutočné videá. Keď sa falošné zábery stanú presvedčivými a rozšírenými, ľudia začínajú pochybovať o všetkom—vrátane autentických záberov skutočných udalostí. Toto je náročná realita, ktorej čelíme. Byť informovaný je teraz dôležitejšie než kedykoľvek predtým, ale v týchto časoch si vyžaduje zvláštnu opatrnosť pri prijímaní toho, čo považujete za pravdu—aj keď to vyzerá, že bolo zaznamenané priamo pred vašimi očami.
Watch video about
Nárast umelou generovaných falošných videí na sociálnych sieťach podkopáva dôveru v skutočné správy
Try our premium solution and start getting clients — at no cost to you