lang icon En
March 14, 2025, 10:20 a.m.
2044

Studija otkriva probleme tačnosti alata za pretraživanje vijesti zasnovanih na umjetnoj inteligenciji.

Brief news summary

Nedavna studija Tow Centra za digitalno novinarstvo, koju je obuhvatio Columbia Journalism Review, otkriva ozbiljne probleme s tačnošću generativnih AI alata koji se koriste za pretraživanje vijesti. Istraživači su pregledali osam AI sistema i otkrili da je više od 60% upita vezanih za vijesti vratilo netačne informacije, uprkos tome što oko 25% Amerikanaca preferira ove AI alate u odnosu na tradicionalne pretraživače. Stope grešaka značajno su varirale, pri čemu je Perplexity imao 37%, ChatGPT Search 67%, a Grok 3 alarmantnih 94%. Analizirajući 1.600 upita, studija je pokazala da AI alati često pružaju uvjerljive ali lažne informacije, čak i uz ograničeno obučavanje. Važno je napomenuti da su neke premium usluge, poput Grok 3, bile lošije od besplatnih alternativa. Drugi problemi uključivali su neusklađenost s protokolima za isključenje robota, neautorizovani pristup sadržaju koji je pod naplatom i oslanjanje na sindikalizovane izvore, što rezultira neispravnim vezama. Ovi problemi predstavljaju velike izazove za izdavače koji koriste besplatne AI alate. Iako su OpenAI i Microsoft priznali nalaze, nisu se posebno osvrnuli na istaknute probleme. Za više informacija, posjetite web stranicu Columbia Journalism Review.

Nedavna studija Centra za digitalno novinarstvo pri Columbia Journalism Review otkriva značajne probleme sa tačnošću generativnih AI modela koji se koriste za pretragu vijesti. Testirajući osam alata za pretragu pokretanih AI-om, istraživači su otkrili da je više od 60% upita dalo netačne informacije o izvorima vijesti. Otprilike 25% Amerikanaca trenutno koristi ove AI modele umjesto tradicionalnih pretraživača, što pobuđuje zabrinutost u vezi sa njihovom pouzdanošću. Stopa grešaka varirala je među različitim alatima. Na primjer, Perplexity je napravio greške u 37% upita, dok je ChatGPT Search imao stopu greške od 67% (134 od 200 upita). Grok 3 je imao najvišu stopu greške od 94%. Da bi sproveli testove, istraživači su pružili direktne izvatke iz stvarnih novinskih članaka i tražili od AI alata da identifikuju odgovarajuće detalje poput naslova, izdavača, datuma i URL-ova, ukupno 1, 600 upita. Zabrinjavajući trend je bio to što umjesto da odbiju odgovoriti kada nisu sigurni, modeli su često nudeli odgovore koji zvuče plauzibilno, ali su netačni, što je obrazac dosljedan kod svih testiranih alata. Premium verzije ovih AI alata, poput Perplexity Pro ($20/mjesec) i premium usluge Grok 3 ($40/mjesec), ponekad su se ponašale lošije, jer su često davale netačne odgovore iako su pravilno obrađivale veći broj upita. Njihova sklonost da nude nesigurne odgovore doprinijela je višim ukupnim stopama grešaka. Studija je takođe pokrenula pitanja u vezi sa kontrolom izdavača nad njihovim sadržajem. Neki AI alati su ignorisali Robot Exclusion Protocols koje su namijenjene sprečavanju neautorizovanog pristupa određenom sadržaju.

Na primjer, besplatna verzija Perplexity-a identifikovala je izvatke iz članaka National Geographic-a koji su zaštićeni pretplatom, iako je pristup obavezno bio onemogućen. Štaviše, kada su AI alati citirali izvore, često su se povezivali sa sindiciranim sadržajem na sajtovima poput Yahoo News umjesto na originalne izdavače. Značajan problem je nastao sa fabričkim URL-ovima—preko polovine citata iz Google-ovog Geminija i Grok 3 dovelo je do neispravnih ili nepostojećih stranica, pri čemu je Grok 3 imao 154 od 200 citata koji su rezultirali stranicama sa greškama. Ova situacija stavlja izdavače u težak položaj: blokiranje AI crawler-a moglo bi eliminisati atribuciju, dok omogućavanje pristupa olakšava ponovno korištenje sadržaja bez koristi za originalne sajtove. Mark Howard, COO magazina Time, izrazio je zabrinutost u vezi sa transparentnošću i kontrolom, ali je takođe sugerisao potencijal za poboljšanje, navodeći da će se trenutni AI alati pozitivno razvijati. Howard je posebno kritikovao korisnike koji očekuju potpunu tačnost od besplatnih AI usluga, sugerirajući da je skepticizam neophodan. OpenAI i Microsoft su priznali nalaze studije, ali nisu direktno odgovorili na postavljena pitanja. OpenAI je naglasio svoju posvećenost podršci izdavačima, dok je Microsoft tvrdio da se pridržava Robot Exclusion Protocols. Ovaj izvještaj se oslanja na ranije nalaze iz novembra 2024. godine, koji su takođe istaknuli probleme sa tačnošću u radu ChatGPT-a sa sadržajem vijesti. Za više detalja, cijeli izvještaj dostupan je na veb sajtu Columbia Journalism Review.


Watch video about

Studija otkriva probleme tačnosti alata za pretraživanje vijesti zasnovanih na umjetnoj inteligenciji.

Try our premium solution and start getting clients — at no cost to you

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today