Badanie NewsGuard ujawnia, że chatboty AI mają trudności z wykrywaniem filmów stworzonych przez AI
Brief news summary
Najnowsze badanie NewsGuard wykazało, że główne chatboty oparte na sztucznej inteligencji, takie jak ChatGPT od OpenAI, Grok od xAI oraz Gemini od Google, mają trudności z wykrywaniem wideo generowanych przez AI, z wskaźnikami niepowodzeń od 78% do 95%. Systemy te często pomijają syntetyczne filmy, szczególnie te bez wodnych znaków AI, a czasami błędnie klasyfikują treści oznaczone wodnym znakiem. Choć Gemini od Google radzi sobie nieco lepiej, nadal występują poważne słabości. W miarę jak multimedia tworzone przez AI stają się coraz bardziej powszechne, te wyzwania związane z ich wykrywaniem stanowią poważny problem dla moderacji treści i zwalczania dezinformacji. Eksperci podkreślają pilną potrzebę ulepszania technologii wykrywania, poprawy algorytmów chatbotów oraz opracowania standaryzowanych, przejrzystych oznaczeń dla medialnych treści syntetycznych. Współpraca pomiędzy twórcami AI, specjalistami ds. bezpieczeństwa cybernetycznego i regulatorami jest kluczowa dla wypracowania solidnych procedur. Dodatkowo, edukacja użytkowników i moderatorów na temat rozpoznawania treści generowanych przez AI jest niezbędna, aby zmniejszyć ryzyko manipulacji. Badanie podkreśla poważne luki w zdolnościach obecnych narzędzi AI do ochrony integralności informacji cyfrowej, wskazując na konieczność rozwoju metod wykrywania, które pozwolą zachować zaufanie do środowisk cyfrowych.Najnowsze badanie przeprowadzone przez NewsGuard ujawniło znaczące niedociągnięcia niektórych z najbardziej znanych chatbotów opartych na sztucznej inteligencji w zakresie wykrywania treści wideo wygenerowanych przez AI. Badanie wykazało, że główne konwersacyjne agenty AI, w tym ChatGPT od OpenAI, Grok od xAI oraz Gemini od Google, często nie potrafią rozpoznać filmów stworzonych przez sztuczną inteligencję, szczególnie jeśli te filmy nie zawierają wyraźnych oznaczeń. W badaniu dokładnie testowano reakcje chatbotów na filmy generowane przez AI bez znaków wodnych wskazujących na ich syntetyczny charakter. Wyniki były uderzające: w większości przypadków — od 78% do nawet 95% — chatboci nie poprawnie identyfikowali filmy jako stworzone przez AI. Oznacza to, że podczas pytań o naturę takich filmów, te systemy często traktowały je jako autentyczne, stworzone przez człowieka, mimo ich sztucznego pochodzenia. Nawet wtedy, gdy na filmach pojawiały się znaki wodne sugerujące, że są one wygenerowane przez AI, dwa z trzech chatbotów — ChatGPT i Grok — nadal często zawodziły w wykrywaniu tych wskazówek, nie stosując ich konsekwentnie. Błędnie klasyfikowały one znaczną część filmów z oznaczeniami wodnymi, ujawniając trwające słabości w obecnych zdolnościach rozpoznawania treści stworzonych przez AI. Gemini od Google radziło sobie nieco lepiej, ale również miało trudności w niektórych warunkach testowych. Te wyniki mają szczególne znaczenie w obliczu rosnącej obecności materiałów multimedialnych wygenerowanych przez AI w Internecie, co stanowi wyzwanie dla działań związanych z moderacją treści, przeciwdziałaniem dezinformacji i weryfikacją autentyczności mediów cyfrowych. Niemożność AI chatbotów do wiarygodnego rozpoznania syntetycznych filmów budzi obawy o ich potencjał do wprowadzania w błąd lub nieświadomego rozpowszechniania niezweryfikowanych materiałów. Eksperci ds.
cyfrowej forensiki i integralności mediów podkreślają pilną potrzebę udoskonalenia technik wykrywania, aby nadążać za postępem w tworzeniu AI-generowanych materiałów wideo. Argumentują, że konieczne są ulepszenia nie tylko w algorytmach chatbotów, lecz także w szeroko rozumianych narzędziach do weryfikacji treści cyfrowych. Problemy te ukazują szerszy społeczny wyzwanie związane z zarządzaniem i ograniczaniem skutków tworzenia syntetycznych mediów — często określanych jako deepfakes — które mogą być wykorzystywane do dezinformacji, oszustw oraz podważania zaufania do cyfrowej komunikacji. Badania wzywają do zwiększonej współpracy pomiędzy twórcami AI, specjalistami ds. cyberbezpieczeństwa oraz regulatorami w celu opracowania ustandaryzowanych oznaczeń i protokołów wykrywania, które można byłoby powszechnie wdrożyć. Takie działania przyczyniłyby się do promowania przejrzystego oznaczania treści generowanych przez AI i umożliwiły platformom cyfrowym lepsze radzenie sobie z ryzykami związanymi z syntetycznymi filmami. Ponadto niezbędne jest ciągłe szkolenie użytkowników i moderatorów treści, aby lepiej rozpoznawali treści tworzone przez AI, co zmniejszałoby ryzyko manipulacji. Podsumowując, badanie NewsGuard ujawnia poważny brak w obecnej technologii AI. W miarę jak media syntetyczne stają się coraz bardziej zaawansowane i dostępne, konieczne jest zwiększanie możliwości chatbotów AI do precyzyjnego wykrywania filmów generowanych przez sztuczną inteligencję, aby chronić integrację informacji. Rozwiązanie tych wyzwań jest kluczowe dla tworzenia wiarygodnych cyfrowych środowisk i odpowiedzialnego wykorzystywania sztucznej inteligencji w produkcji i dystrybucji mediów.
Watch video about
Badanie NewsGuard ujawnia, że chatboty AI mają trudności z wykrywaniem filmów stworzonych przez AI
Try our premium solution and start getting clients — at no cost to you