Studija NewsGuard otkriva da AI chatboti imaju teškoće u prepoznavanju video snimaka generiranih putem AI-ja
Brief news summary
Nedavna studija NewsGuard-a otkrila je da se veliki AI chatboti poput OpenAI-jeva ChatGPT-a, xAI-jevog Groka i Google-ovog Geminija teško otkrivaju video snimci generated od AI, s stopama neuspjeha između 78% i 95%. Ovi sistemi često promašuju sintetičke video snimke, posebno one bez AI vodotisaka, a ponekad i pogrešno klasificiraju sadržaj s vodotiskom. Iako je Google-ov Gemini pokazao malo bolje rezultate, i dalje postoje značajni nedostaci. Kako se AI-generirani multimedijalni sadržaji sve više šire, ovi izazovi u otkrivanju predstavljaju ozbiljne probleme za moderaciju sadržaja i borbu protiv dezinformacija. Stručnjaci ističu hitnu potrebu za poboljšanjem tehnologija za otkrivanje, unapređenjem algoritama chatbota i razvojem standardiziranih, transparentnih oznaka za sintetičke medije. Kolaboracija između developera AI-a, stručnjaka za sajber sigurnost i regulatora ključna je za kreiranje robusnih protokola. Također, edukacija korisnika i moderatora o prepoznavanju sadržaja generiranog od AI-a od suštinskog je značaja za smanjenje rizika od manipulacije. Studija naglašava velike praznine u trenutnim alatima za AI u zaštiti integriteta digitalnih informacija, što ukazuje na potrebu za napredovanjem metoda otkrivanja radi održavanja povjerenja u digitalne okoline.Nedavna studija NewsGuard-a otkrila je značajne nedostatke kod nekih od vodećih svjetskih AI chatbotova kada je riječ o prepoznavanju video sadržaja koje je generirala umjetna inteligencija. Istraživanje je pokazalo da se veliki AI konverzacijski agenti, uključujući ChatGPT od OpenAI-ja, Grok od xAI-a i Googleov Gemini, često ne uspijevaju prepoznati videozapise koje je proizvela umjetna inteligencija, posebno ako ti videozapisi nemaju jasne oznake. Studija je uključivala temeljno testiranje reakcija chatbotova na AI-generirane videozapise bez vodnih žigova koji označavaju njihov sintetički porijeklo. Rezultati su bili zapanjujući: u većini slučajeva—od 78% do čak 95%—chatboti nisu ispravno identificirali videozapise kao AI-generirane. To implicira da su, kada su ih pitali o prirodi takvih videozapisa, te AI sisteme često tretirali kao autentični, ljudski kreirani sadržaj, unatoč njihovom umjetnom porijeklu. Čak i kada su bili prisutni vodni žigovi koji su signalizirali da su videozapisi AI-generirani, dva od tri chatbota—ChatGPT i Grok—još uvijek su često pogrešno prepoznavali te oznake. Oni su pogrešno klasificirali značajan udio vodnih žigova, otkrivajući trajne slabosti u trenutnim sposobnostima detekcije konverzacijskog AI-a. Googleov Gemini djelovao je nešto bolje, ali je također imao poteškoća u određenim uvjetima testiranja. Ovi rezultati posebno su važni s obzirom na rastuće prisustvo AI-generisanog multimedijalnog sadržaja na internetu, što izaziva napore u oblasti moderiranja sadržaja, prevencije dezinformacija i provjere autentičnosti digitalnih medija. Nespremnost AI chatbotova da pouzdano prepoznaju sintetičke videozapise izaziva zabrinutost oko njihove potencijalne mogućnosti da budu zavareni ili nenamjerno šire neprovjerene materijale.
Stručnjaci za digitalnu forenziku i medijsku integritet ističu hitnu potrebu za poboljšanjem tehnika detekcije kako bi se održao korak s napretkom u kreiranju AI video sadržaja. Tvrde da su potrebna poboljšanja ne samo u algoritmima chatbotova, već i u širem spektru alata za provjeru digitalnog sadržaja. Ovaj problem ističe širi društveni izazov upravljanja i ublažavanja posljedica sintetičkih medija—često nazivanih deepfakes—a koji se mogu zloupotrijebiti za dezinformacije, prijevare i narušavanje povjerenja u digitalne komunikacije. Istraživanje poziva na povećanu suradnju između developera AI-a, stručnjaka za sajber sigurnost i regulatornih agencija radi razvijanja standardiziranih oznaka i protokola za detekciju koje bi se mogle široko prihvatiti. Takve mjere promiču transparentno označavanje sadržaja generiranog AI-jem i daju digitalnim platformama alate za rješavanje rizika povezanih sa sintetičkim videozapisima. Osim toga, kontinuirana edukacija korisnika i moderatora sadržaja od ključne je važnosti kako bi bolje prepoznali sadržaje proizvedene AI-jem, čime se smanjuju rizici od manipulacije. Ukratko, studija NewsGuard-a otkriva kritični nedostatak trenutne AI tehnologije. Kako sintetički mediji postaju složeniji i dostupniji, poboljšanje sposobnosti AI chatbotova da točno prepoznaju AI-generirane videozapise ključno je za očuvanje integriteta informacija. Rješavanje ovih izazova ključno je za izgradnju pouzdanijih digitalnih okruženja i odgovornu uporabu umjetne inteligencije u kreiranju i distribuciji medijskog sadržaja.
Watch video about
Studija NewsGuard otkriva da AI chatboti imaju teškoće u prepoznavanju video snimaka generiranih putem AI-ja
Try our premium solution and start getting clients — at no cost to you