Истражување на NewsGuard открива дека чатботовите со вештачка интелигенција имаат тешкотии да откријат видеа создадени со вештачка интелигенција
Brief news summary
Резовото истражување на NewsGuard откри дека големите AI чатботови како ChatGPT од OpenAI, Grok од xAI и Gemini од Google имаат проблеми со откривање на видеа генерирани со вештачка интелигенција, со стапки на неуспех помеѓу 78% и 95%. Тие често пропуштаат синтетички видеа, особено оние без водни знаци од AI, а понекогаш погрешно ги класифицираат видеата со водни знаци. Иако Gemini од Google се покажал подобро, сепак остануваат значајни слабости. Како што мультимедијата создадена со AI станува се посејчена, овие предизвици при откривање претставуваат сериозни проблеми за контрола на содржината и борба против дезинформациите. Експертите нагласуваат итна потреба од подобрување на технологиите за откривање, подобрување на алгоритмите на чатботовите и развој на стандартизирани, транспарентни маркирачи за синтетички медиуми. Колаборацијата меѓу развивачите на AI, експертите за кибербезбедност и регулаторите е од клучно значење за создавање на цврсти протоколи. Исто така, важно е да се едуцираат корисниците и модераторите за идентификација на содржини создадени со AI за да се намалат ризиците од манипулација. Овој извештај ја нагласува големата празнина во капацитетите на актуелните алатки за AI во заштитата на интегритетот на дигиталните информации, што ја истакнува важноста од напредување на методите за откривање за одржување на довербата во дигиталните средини.Скорашно истражување на NewsGuard откри значајни недостатоци кај некои од водечките светски AI чатботови кога станува збор за откривање на видеа создадени со вештачка интелигенција. Истражувањето покажува дека големите комуникациски агенти на AI, вклучувајќи ги ChatGPT од OpenAI, Grok од xAI и Gemini од Google, често не успеваат да препознаат видеа произведени од вештачка интелигенција, особено ако овие видеа се без јасни ознаки. Истражувањето вклучуваше детални тестови на реакциите на чатботите на видеа генерирани од AI без водени знаци кои укажуваат на тие да се синтетички. Резултатите беа импресивни: во најголем дел—од 78% до дури 95%—чатботите неправилно ги препознаа видеата како создадени од AI. Ова значи дека кога ќе бидат прашани за природата на таквите видеа, тие често ги третираа како автентични, човечки креирани содржини, и покрај нивниот вештачки потекло. Дури и кога беа присутни водени знаци што сигнализираа дека видеата се создадени од AI, два од трите чатботи—ChatGPT и Grok—уште често не успеваа конзистентно да ги откријат овие индикатори. Тие погрешно класифицираа голем дел од видеата со водени знаци, откривајќи постојани слабости во сегашната способност за откривање на конверзациската AI. Gemini од Google имаше подобри резултати, но и тој се бореше со одредени тест услови. Овие резултати се особено значајни имајќи предвид растечкото присуство на мултимедијална содржина создадена со AI на интернетот, што претставува предизвик за напорите за модерирање на содржината, превенција од дезинформации и потврдвање на автентичноста на дигиталните медиуми. Неможноста на AI чатботите да препознаат сигурно синтетички видеа повгдува загриженост за нивната потенцијална можност да бидат лажно водени или незаслужено да шират непотврдени материјали.
Експертите во дигитална форензика и интегритет на медиумите нагласуваат итната потреба од подобрување на техниките за откривање за да се следи напредокот во создавањето видеа со вештачка интелигенција. Тие тврдат дека подобрувањата се неопходни не само во алгоритмите на чатботите, туку и во поширокиот спектар на алатки за верификација на дигиталната содржина. Овој проблем нагласува поширок социјален предизвик во управувањето и намалување на ефектите од синтетичките медиуми—често наречени длабоки лажни видеа (deepfakes)—што можат да бидат злоупотребени за дезинформации, измама и зајакнување на недовербата во дигиталните комуникации. Истражувањето повикува на поголема соработка меѓу развивачите на AI, професионалците за сајбер withoutwithsecurity и регулаторните тела за развој на стандардирани ознаки и протоколи за откривање кои можат да се применуваат универзално. Таквите мерки ќе ги промовираат транспарентното означување на содржината создадена од AI и ќе овозможат дигиталните платформи да се справат со ризиците поврзани со синтетичките видеа. Исто така, постојаното образование за корисниците и модераторите на содржина е клучно за подобро препознавање на AI создадената содржина, со што ќе се намалат ризиците од манипулација. Во заклучок, истражувањето на NewsGuard открива критичен недостаток во сегашната технологија на AI. Како што синтетичките медиуми стануваат сè посложени и подоцни за добивање, подобрувањето на способноста на AI чатботите да точна идентификуваа видеа создадени од AI е од клучно значење за заштита на информацискиот интегритет. Решавањето на овие предизвици е клучно за креирање на доверливи дигитални окружења и за одговорна употреба на вештачката интелигенција во создавањето и дистрибуцијата на медиуми.
Watch video about
Истражување на NewsGuard открива дека чатботовите со вештачка интелигенција имаат тешкотии да откријат видеа создадени со вештачка интелигенција
Try our premium solution and start getting clients — at no cost to you