lang icon En
March 15, 2025, 9:55 a.m.
1276

Istraživanje otkriva da AI pretraživači često pružaju netačne informacije.

Brief news summary

Studija Columbia Journalism Review-a otkriva zabrinjavajuće netačnosti u AI pretraživačima kojima mnogi korisnici pogrešno vjeruju. Modeli OpenAI i xAI često pružaju obmanjujuće informacije, pri čemu Perplexity netočno prikazuje podatke 37% vremena, dok xAI-ov Grok ima alarmantnih 97% stopu činjeničnih netačnosti, uključujući generisanje lažnih URL-ova. U cjelini, oko 60% upita korisnika rezultira netočnim informacijama. Perplexityjev pristup zaobilaženju paywall-a postavlja pravna pitanja, jer tvrdi da koristi poštenu upotrebu unatoč potencijalnim kršenjima. Iako generacija obogaćena preuzimanjem ima za cilj povećati tačnost, često pogoršava netočnosti i može uvesti regionalne pristranosti. Korisnici su primijetili da neki chatboti priznaju svoje greške. Mark Howard iz časopisa Time upozorava da ove netočnosti mogu oštetiti kredibilitet i reputaciju izdavača. Savjetuje korisnicima da ostanu skeptični prema besplatnim AI alatima zbog njihove tendencije da pružaju obmanjujuće odgovore. Howard poziva na napredovanje u AI tehnologiji i naglašava važnost rešavanja širenja nepouzdanih informacija.

AI pretraživači često mogu podsjećati na samouvjerenog prijatelja koji autoritativno govori o brojnim temama bez pravog razumijevanja. Nedavna studija Columbia Journalism Review (CJR) ističe da AI modeli iz kompanija poput OpenAI i xAI često pružaju netačne informacije kada ih pitamo o specifičnim događajima u vijestima, s ozbiljnim greškama prisutnim u 60% testiranih upita. Na primjer, Perplexity je vratio netačne informacije 37% vremena, dok je xAI-ov Grok fabricirao detalje 97% vremena, a nekad čak i izmišljao lažne URL-ove. Štaviše, neki AI pretraživači, kao što je Perplexity, poznati su po tome što zaobilaze naplate za pristup sajtovima uprkos tome što izdavači koriste instrukcije da ne budu indeksirani, tvrdeći da se njihova praksa uklapa u poštenu upotrebu. Ova kontroverza utiče na kontrolu izdavača nad načinom na koji je njihov sadržaj prikazan, što može naškoditi njihovim brendovima ako korisnici dobiju netačne informacije za koje vjeruju da potiču iz pouzdanih izvora. Izražene su i sumnje u naivnost korisnika, a operativni direktor Time magazina, Mark Howard, sugerira da bi potrošači trebali biti skeptični prema tačnosti besplatnih AI alata.

Tendenicija ljudi da traže brze odgovore bez provjere je očigledna, budući da mnogi preferiraju trenutne odgovore od AI modela, umjesto da klikću na web stranice. Čak i prije nego što je generativni AI stekao popularnost, više od polovine Google pretraga bilo je "zero-click", naglašavajući želju za dostupnim, jednostavnim informacijama. Nalazi CJR-a nisu iznenađujući, s obzirom na inherentna ograničenja jezičkih modela koji funkcionišu kao napredni automatski dopisnici, često proizvodeći sadržaj koji izgleda logično bez potpunog razumijevanja. I pored ovih problema, Howard izražava optimizam u vezi sa budućim poboljšanjima u tehnologiji chatbota, iako priznaje rizike od širenja netačnih informacija.


Watch video about

Istraživanje otkriva da AI pretraživači često pružaju netačne informacije.

Try our premium solution and start getting clients — at no cost to you

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today