lang icon En
Feb. 11, 2025, 12:28 a.m.
2731

AI asistenti nesprávne interpretujú správy: Štúdia BBC odhalila faktické chyby

Brief news summary

Nedávna štúdia BBC odhalila významné nepresnosti v populárnych AI asistentoch, vrátane ChatGPT, Copilot, Gemini a Perplexity, najmä pokiaľ ide o správy a aktuálne udalosti. Analýza 100 otázok založených na článkoch BBC ukázala, že viac ako polovica obsahovala vážne chyby, ako sú zastarané politické informácie, nesprávne lekárske rady a nesprávne citáty. Zaujímavé je, že Gemini neposkytlo dôležitý kontext o odsúdenej zdravotnej sestre Lucy Letby, zatiaľ čo Copilot nesprávne interpretoval prípad znásilnenia. ChatGPT nesprávne tvrdil, že Ismail Haniyeh bol nažive po atentáte, a Perplexity mylne uviedlo dátum úmrtia televízneho moderátora Michaela Mosleyho. Tieto znepokojujúce zistenia viedli šéfku BBC News Deborah Turness k vyjadreniu obáv o klesajúcu dôveru verejnosti v presnosť správ. Vyzvala AI firmy, aby spolupracovali na zlepšení spoľahlivosti svojich informácií, najmä pokiaľ ide o aktuálne záležitosti. Vývojári AI boli oslovení o ich reakciách na riešenie týchto nepresností.

Výskum odhalil, že vedúce umelé inteligencie generujú skreslenia, faktické nepresnosti a zavádzajúce informácie pri odpovedaní na otázky týkajúce sa správ a aktuálnych udalostí. Podľa štúdie uskutočnenej BBC bolo viac ako polovica odpovedí generovaných AI nástrojmi, ako sú ChatGPT, Copilot, Gemini a Perplexity, hodnotená ako "s významnými problémami". Príklady chýb zahŕňali nesprávne tvrdenie, že Rishi Sunak a Nicola Sturgeon sú stále vo svojich pozíciách ako premiér a prvá ministerka Škótska, nesprávne podávanie pokynov NHS o vape a zmätok medzi názormi a historickým obsahom s aktuálnymi faktami. Vo štúdii výskumníci položili týmto štyrom AI nástrojom 100 otázok, pričom ako referencie použili články BBC. Novinári BBC s odbornými znalosťami v relevantných oblastiach následne vyhodnotili odpovede. Približne 20 % odpovedí obsahovalo faktické chyby týkajúce sa čísel, dátumov alebo tvrdení a 13 % citovaného materiálu pripisovaného BBC bolo buď zmenených, alebo neexistovalo v pôvodných článkoch. Napríklad, keď sa pýtali na nevinu odsúdenej novorodeneckej sestry Lucy Letby, Gemini odpovedalo, že "je na každom jednotlivcovi, aby rozhodol, či verí, že je Lucy Letby nevinná alebo vinná, " pričom vynechalo dôležitý kontext týkajúci sa jej odsúdenia za vraždu a pokus o vraždu. Ďalšie nepresnosti zvýraznené v správe, založené na spoľahlivých zdrojoch BBC, zahŕňali: - Microsoft’s Copilot nesprávne tvrdil, že francúzska obete znásilnenia Gisèle Pelicot odhalila zločiny voči sebe kvôli výpadkom a strate pamäte, keď ich v skutočnosti objavila prostredníctvom policajných záberov zaistených z neho manželových zariadení. - ChatGPT nesprávne uviedol, že Ismail Haniyeh bol stále súčasťou vedenia Hamasu mesiace po jeho atentáte v Iráne, a nepravdivo tvrdil, že Sunak a Sturgeon sú stále vo funkcii. - Gemini nesprávne uviedlo: “NHS odporúča, aby ľudia nezačínali vapovať a odporúča fajčiarom, ktorí chcú prestať, aby použili iné metódy. ” - Perplexity nesprávne uviedlo dátum úmrtia televízneho moderátora Michaela Mosleyho a nesprávne citovalo vyhlásenie rodiny speváka One Direction Liama Paynea po jeho smrti. Výsledky podnietili Deboru Turness, generálnu riaditeľku BBC pre správy, aby varovala, že “nástroje generatívnej AI hrajú s ohňom” a riskujú poškodenie verejného “krehkého postavenia vo faktách. ” V článku o výskume Turness spochybnila pripravenosť AI presne “zbierať a poskytovať správy bez skreslenia a deformácie faktov. ” Takisto vyzvala AI spoločnosti, aby spolupracovali s BBC na generovaní spoľahlivejších odpovedí, namiesto prispievania k zmätku. Tento výskum nasledoval po incidente, keď Apple musel pozastaviť upozornenia na správy značky BBC po tom, čo viacero nesprávnych súhrnov článkov bolo zaslaných používateľom iPhonu. Medzi nepresnosťami Apple bola tvrdenie, že Luigi Mangione, ktorý bol obvinený z vraždy Briana Thompsona, generálneho riaditeľa poistnej divízie UnitedHealthcare, sa zastrelil. Štúdia naznačuje, že nepresnosti týkajúce sa aktuálnych udalostí sú rozšírené naprieč populárnymi nástrojmi AI. V úvode k výskumu Peter Archer, programový riaditeľ BBC pre generatívnu AI, uviedol: “Náš výskum môže iba škrabať povrch problému.

Rozsah chýb a skreslenia dôveryhodného obsahu zostáva neznámy. ” Ďalej zdôraznil, že vydavatelia, ako je BBC, by mali zostať pod kontrolou nad tým, ako sa ich obsah využíva, a spoločnosti AI by mali objasniť, ako ich nástroje interpretujú správy, spolu so skúmaním povahy a frekvencie chýb, ktoré produkujú. “Totálne bude potrebné silné spolupráce medzi AI a mediálnymi organizáciami a nové operačné prístupy, ktoré uprednostňujú publikum a maximalizujú hodnotu pre všetkých. BBC je pripravená a ochotná úzko spolupracovať s partnermi na dosiahnutí tohto cieľa. ” Spoločnosti zodpovedné za AI asistentov hodnotených v štúdii boli kontaktované kvôli svojmu komentárom.


Watch video about

AI asistenti nesprávne interpretujú správy: Štúdia BBC odhalila faktické chyby

Try our premium solution and start getting clients — at no cost to you

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

Dec. 16, 2025, 1:29 p.m.

SaaStr AI aplikácia týždňa: Kintsugi – AI, ktorá …

Každý týždeň predstavujeme aplikáciu poháňanú umelou inteligenciou, ktorá rieši skutočné problémy pre B2B a cloudové spoločnosti.

Dec. 16, 2025, 1:24 p.m.

Úloha umelej intelligencie v stratégiách lokálneh…

Umelá inteligencia (AI) čoraz viac ovplyvňuje stratégie miestneho optimalizácie pre vyhľadávače (SEO).

Dec. 16, 2025, 1:22 p.m.

IND Technology získava 33 miliónov dolárov na pre…

IND Technology, austrálska spoločnosť špecializujúca sa na monitorovanie infraštruktúry pre verejné služby, získala 33 miliónov dolárov na rastové financovanie na podporu svojich aktivít založených na umelej inteligencii pre predchádzanie lesným požiarom a výpadkom elektrickej energie.

Dec. 16, 2025, 1:21 p.m.

Uvoľňovanie AI je pre vydavateľov a značky nepreh…

V posledných týždňoch čoraz viac vydavateľov a značiek čelí výraznej verejnej kritike, keď experimentujú s umelou inteligenciou (AI) v procesoch tvorby obsahu.

Dec. 16, 2025, 1:17 p.m.

Google Labs a DeepMind spúšťajú Pomelli: nástroj …

Google Labs v spolupráci s Google DeepMind predstavil Pomelli, experiment s umelou inteligenciou navrhnutý na pomoc malým a stredným podnikom pri vytváraní marketingových kampaní v súlade s ich značkou.

Dec. 16, 2025, 1:15 p.m.

Umelá inteligencia na rozpoznávanie videí zlepšuj…

V dnešnej rýchlo rastúcej digitálnej krajine spoločnosti spravujúce sociálne siete čoraz viac prijímajú pokročilé technológie na ochranu svojich online komunít.

Dec. 16, 2025, 9:37 a.m.

Prečo by mohol byť rok 2026 rokom anti-AI marketi…

Verzia tejto histórie sa objavila v newsletteri Nightcap od CNN Business.

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today