Štúdia NewsGuard odhaľuje, že chatboti založení na umelej inteligencii majú problém rozpoznať videá generované umelou inteligenciou
Brief news summary
Nedávna štúdia NewsGuard zistila, že veľké AI chatboty ako ChatGPT od OpenAI, Grok od xAI a Gemini od Google majú problém s detekciou videí vytvorených umelou inteligenciou, s mierou zlyhania medzi 78 % a 95 %. Tieto systémy často prehliadajú syntetické videá, obzvlášť tie bez vodotlačí AI, a niekedy nesprávne klasifikujú obsah s vodotlačou. Hoci Gemini od Google si v uvedenej úlohe vedie o niečo lepšie, stále existujú významné slabiny. Vzhľadom na rastúce množstvo multimédií generovaných umelou inteligenciou predstavujú tieto výzvy pri ich detekcii vážne problémy pre správu obsahu a boj proti dezinformáciám. Experti zdôrazňujú naliehavosť zlepšovania detekčných technológií, vylepšovania algoritmov chatbotov a vývoja štandardizovaných, transparentných značiek pre syntetické médiá. Kľúčová je aj spolupráca medzi vývojármi AI, expertmi na kybernetickú bezpečnosť a regulátormi na tvorbu spoľahlivých protokolov. Okrem toho je dôležité vzdelávať používateľov a moderátorov, ako rozpoznávať obsah vytvorený umelou inteligenciou, aby sa znížilo riziko manipulácie. Táto štúdia odhaľuje zásadné medzery v aktuálnych nástrojoch pre ochranu integrity digitálnych informácií a zdôrazňuje potrebu pokroku v detekčných metódach na udržanie dôvery v digitálnom prostredí.Nedávna štúdia spoločnosti NewsGuard odhalila významné nedostatky v niektorých z popredných AI chatbotov na svete, pokiaľ ide o detekciu videí vytvorených umelou inteligenciou. Výskum ukázal, že hlavné konverzačné AI agenty, vrátane ChatGPT od OpenAI, Grok od xAI a Gemini od Google, často zlyhávajú v rozpoznávaní videí produkovaných umelou inteligenciou, najmä ak tieto videá nemajú jasné označenia. Štúdia zahŕňala dôkladné testovanie reakcií chatbotov na AI-vytvorené videá bez vodotlačí, ktoré by naznačovali ich syntetickú povahu. Výsledky boli šokujúce: v väčšine prípadov—od 78 % až po 95 %—chatboti správne neidentifikovali videá ako AI-vytvorené. To naznačuje, že keď boli po nich kladené otázky ohľadom povahy takýchto videí, tieto AI systémy ich často považovali za autentický, ľuďmi vytvorený obsah, napriek ich umelému pôvodu. Aj keď boli na videách prítomné vodotlače signalizujúce, že ide o AI-vytvorený obsah, dva z troch chatbotov—ChatGPT a Grok—stále často zlyhávali v ich spoľahlivom rozpoznaní. Nesprávne klasifikovali významnú časť videí s vodotlačou, čo odhaľuje trvalé slabosti v aktuálnej detekcii konverzačných AI. Gemini od Google sa ukázal ako o niečo lepší, avšak stále mal problémy v určitých testovacích podmienkach. Tieto výsledky sú obzvlášť dôležité vzhľadom na rastúcu prítomnosť multimediálneho obsahu vytvoreného umelou inteligenciou online, čo predstavuje výzvu pre snahy o moderovanie obsahu, prevenciu dezinformácií a overovanie pravdivosti digitálnych médií. Neschopnosť AI chatbotov spoľahlivo rozoznať syntetické videá vyvoláva obavy z možného zavádzania alebo neúmyselného šírenia neoverených materiálov.
Odborníci na digitálnu forenziku a integritu médií zdôrazňujú naliehavú potrebu zdokonaliť detekčné techniky, aby držali krok s pokrokom v tvorbe AI videí. Argumentujú, že vylepšenia sú potrebné nielen v algoritmoch chatbotov, ale aj v širšom spektre nástrojov na overovanie digitálneho obsahu. Táto problematika odhaľuje širší spoločenský problém v správe a zmierňovaní dopadov syntetických médií—často označovaných ako deepfakes—ktoré môžu byť zneužívané na dezinformácie, podvody a podkopávanie dôvery v digitálnu komunikáciu. Výskum volá po zvýšenej spolupráci medzi vývojármi AI, odborníkmi na kybernetickú bezpečnosť a regulačnými orgánmi na vývoj štandardizovaných označení a detekčných protokolov, ktoré by mohli byť univerzálne prijaté. Takéto opatrenia by podporili transparentné označovanie obsahu vytvoreného AI a umožnili digitálnym platformám riešiť riziká spojené s syntetickými videami. Okrem toho je nevyhnutné kontinuálne vzdelávanie používateľov a moderátorov obsahu, aby lepšie rozpoznávali obsah vytvorený AI, čím sa zníži riziko manipulácie. Na záver, štúdia NewsGuard odhaľuje kritický nedostatok súčasnej AI technológie. Ako sa syntetické médiá stávajú stále zložitejšími a dostupnejšími, je nevyhnutné zlepšiť schopnosti AI chatbotov presne identifikovať videá vytvorené AI, aby sa chránila integrita informácií. Riešenie týchto výziev je kľúčové na budovanie dôveryhodného digitálneho prostredia a zabezpečenie zodpovedného využívania umelej inteligencie pri tvorbe a šírení médií.
Watch video about
Štúdia NewsGuard odhaľuje, že chatboti založení na umelej inteligencii majú problém rozpoznať videá generované umelou inteligenciou
Try our premium solution and start getting clients — at no cost to you