NewsGuard зерттеуі AI чатботтардың AI-мен жасалған бейнелерді анықтауда қиындыққа тап болатынын көрсетті
Brief news summary
Жақында NewsGuard зерттеуі OpenAI-дың ChatGPT, xAI-дың Grok және Google-дың Gemini сияқты ірі жасанды интеллекттік чатты бағдарламаларының жасанды видео жасау технологияларын анықтауда қиындықтарға тап болатынын көрсетті. Бұл жүйелер сәтсіздік деңгейі 78%-дан 95%-ке дейін жетеді. Олар көбінесе жасанды видеоларды байқамайды, әсіресе AI су белгісі жоқ видеоларды, кейде су белгісі бар мазмұнды қате классификациялайды. Google-дың Gemini сәл жақсырақ көрсеткенімен, маңызды әлсіздік әлі де бар. Жасанды интеллект арқылы жасалған мультимедиялық мазмұн кеңінен таралуда болғандықтан, бұл анықтау қиындықтары мазмұнды модерациялау мен жалған ақпараттың таралуын тоқтатуда қиындықтар туғызады. Сарапшылар бұл технологияларды жетілдіру, чатбот алгоритмдерін жетілдіру және жасанды медиамен жұмыс істеуге арналған біріздендірілген, ашық белгілерді дамыту қажеттілігін атап өтуде. AI әзірлеушілер, киберқауіпсіздік мамандары және реттеушілер арасындағы ынтымақтастық мұндай тұрақты протоколдар құру үшін маңызды. Сонымен қатар, пайдаланушылар мен модераторларға жасанды мазмұнды анықтауды үйрету манипуляция қаупін азайту үшін өте қажет. Зерттеу қазіргі AI құралдарының сандық ақпаратты қорғау қабілетінде маңызды кемшіліктерді көрсетеді, бұл анықтау әдістерін жетілдірудің маңызды екенін дәлелдейді, осылайша цифрлық орталардағы сенімділікті сақтау үшін маңызды рөл атқарады.Жақында NewsGuard жүргізген зерттеу әлемнің алдыңғы қатарлы жасанды интеллект чатботтарындағы видео контенттің жасанды интеллект арқылы жасалғанын анықтаудағы маңызды кемшіліктерді көрсетті. Зерттеу бойынша, OpenAI-дің ChatGPT, xAI-дің Grok және Google-дің Gemini сияқты ірі жасанды интеллект сұхбат агенттері, әсіресе бұл видео белгілерсіз болғанда, жасанды интеллектпен шығарылған видеоны дұрыс анықтай алмауы мүмкін. Зерттеу жасанды видеоларға су белгілері жоқ, жасанды екенін көрсететін белгілерсіз тестіленді. Нәтижелер таң қаларлық болды: көбінесе — 78%-дан 95%-ға дейін — чатботтар видеоның жасанды жасалғанын дұрыс айта алмаған. Бұл олардың мұндай видеоларды сұраққа жауап бергенде жиі олардың шынайы, адам жасаған мазмұн деп қабылдағанын көрсетеді, олардың жасанды шығу тегі ескерілмеді. Тіпті су белгілері болған кезде де, үш чатботтың екеуі — ChatGPT және Grok — әлі күнге дейін бұл белгілерді тұрақты түрде анықтай алмай, қате жіктеп отырды. Олар су белгілері бар видеолардың маңызды бөлігін дұрыс танымай, қазіргі сұхбат AI-дың жасанды видеоны анықтау қабілетінің әлсіздігін көрсетті. Google-дің Gemini сәл жақсырақ көрсетті, бірақ кейбір тест шарттарында қиындықтарға тап болды. Бұл нәтижелер онлайнда жасалған мультимедиялық мазмұн санының артуымен маңызды, себебі олар мазмұнды модерациялау, ақпараттың жалғандығын жөнінде алдын алу және цифрлық медиа шынайлығын тексеру жұмыстарына кедергі келтіреді. Жасанды интеллект чатботтарының жасанды видеоны сенімді түрде таба алмауы олардың жалған ақпарат тарату немесе заңсыз немесе расталмаған мәліметтерді тарату қаупін туғызады.
Цифрлық криминалистика және медиа тұтастығы мамандары анықтау әдістерін дамыту қажеттілігін көрсетеді, өйткені AI видео жасау технологиясы тез дамып келеді. Олар тек чатбот алгоритмдерін ғана емес, жалпы цифрлық мазмұнды растау құралдарын жетілдіру керек деп айтады. Бұл мәселе қоғамда жасанды медиа, әсіресе deepfake-тердің, жалған ақпарат тарату, алаяқтық және цифрлық коммуникацияларға деген сенімді бұзу сияқты теріс әсерлерін басқару мен азайту үшін маңызды. Зерттеу AI әзірлеушілері, киберқауіпсіздік мамандары және реттеу органдарына стандартты белгілер мен анықтау хаттамаларын әзірлеуді ынтымақтастықта жүзеге асыруды ұсынады. Мұндай шаралар жасанды интеллектпен жасалған мазмұнды ашық белгілеп, цифрлық платформаларға жасанды видеолармен байланысты қауіп-қатерлерді азайтуға мүмкіндік береді. Сондай-ақ, қолданушылар мен мазмұн модераторларын оқыту маңызды, олар AI-мен жасалған мазмұнды жақсырақ тану үшін, осылайша манипуляциялау және жалған ақпарат тарату қаупін азайту үшін. Қорытындылай келе, NewsGuard зерттеуі қазіргі жасанды интеллект технологиясының маңызды кемшілігін көрсетті. Жасанды медиа күрделеніп, қол жетімділігін арттырған сайын, AI чатботтарының жасанды видеоны дұрыс айыра білу қабілетін жетілдіру маңызды, себебі бұл ақпараттың тұтастығын қорғауға көмектеседі. Осы қиындықтарды шешу сенімді цифрлық ортаны қалыптастыруда және медиа жасауда жасанды интеллекттің жауапты қолданылуын қамтамасыз етуде негізгі рөл атқарады.
Watch video about
NewsGuard зерттеуі AI чатботтардың AI-мен жасалған бейнелерді анықтауда қиындыққа тап болатынын көрсетті
Try our premium solution and start getting clients — at no cost to you