lang icon Romanian
Auto-Filling SEO Website as a Gift

Launch Your AI-Powered Business and get clients!

No advertising investment needed—just results. AI finds, negotiates, and closes deals automatically

May 10, 2025, 5:50 p.m.
1

Chatboții AI se confruntă cu probleme persistente de halucinație care afectează fiabilitatea

Chatboții AI de la companii de tehnologie de top precum OpenAI și Google au primit îmbunătățiri ale raționamentului în ultimele luni pentru a spori fiabilitatea răspunsurilor. Cu toate acestea, teste recente arată că unele modele mai noi performează mai rău decât versiunile anterioare, manifestând un fenomen numit „ halucinații” – erori în care chatboții generează informații false sau oferă răspunsuri care sunt factualmente corecte dar irelevante sau neconforme cu instrucțiunile. Această problemă a persistat încă de la începutul modelelor mari de limbaj (MLL) precum ChatGPT de la OpenAI și Gemini de la Google, și pare improbabil să fie complet rezolvată. Un raport tehnic al OpenAI a arătat că modelele o3 și o4-mini, lansate în aprilie, aveau rate de halucinații semnificativ mai mari decât modelul mai vechi o1, din sfârșitul lui 2024: o3 avea o rată de halucinații de 33%, iar o4-mini de 48%, comparativ cu 16% pentru o1, atunci când rezumau fapte disponibile public. În mod similar, tabelul de bord al Vectara, care urmărește ratele de halucinații, a constatat că unele modele de raționament — inclusiv DeepSeek-R1 — au înregistrat creșteri notabile ale halucinațiilor comparativ cu predecesorii, în ciuda abordării lor de raționament în multiple pași înainte de răspuns. OpenAI susține că procesele de raționament nu sunt în mod inerent responsabile pentru creșterea halucinațiilor și investește activ în cercetări pentru reducerea acestora în toate modelele. Persistența halucinațiilor amenință diverse aplicații: modelele care produc frecvent informații false împiedică asistența în cercetare; chatbot-urile paralegale care citează cazuri inexistente riscă erori legale; chatbot-urile de servicii pentru clienți cu informații învechite cauzează probleme operaționale. Inițial, companiile de AI se așteptau ca halucinațiile să scadă în timp, deoarece actualizările timpurii ale modelelor arătau îmbunătățiri. Totuși, nivelurile mai mari recente de halucinații contrazic această perspectivă, indiferent de implicarea raționamentului. Tabelul de bord al Vectara indică faptul că ratele de halucinații sunt aproximativ egale în modelele de raționament și cele fără, de la OpenAI și Google, deși cifrele exacte contează mai puțin decât pozițiile relative.

Google a refuzat să comenteze. Totuși, astfel de clasificări au limitări. Ele combină diferite tipuri de halucinații; de exemplu, rata de 14, 3% a DeepSeek-R1 include în principal cazuri „benigne” — răspunsuri logic coerente și susținute de cunoștințe, dar absente din textul sursă. Mai mult, testarea bazată exclusiv pe rezumarea textelor poate să nu reflecte frecvența halucinațiilor în alte sarcini, deoarece modelele MLL nu sunt proiectate în mod specific pentru rezumare. Emily Bender de la Universitatea din Washington subliniază că aceste modele prezic cel mai probabil următorul cuvânt, mai degrabă decât procesează informația pentru a înțelege cu adevărat textul, făcând termenul de „halucinație” înșelător și antropomorfic. Bender critică termenul de „halucinație” deoarece implică faptul că erorile sunt abateri de la un sistem în mod normal fiabil și atribuie AI-ului percepție umană, ceea ce acesta nu are în niciun sens. Arvind Narayanan de la Princeton adaugă că modelele greșesc și pentru că folosesc date nesigure sau învechite, iar simpla adăugare de date de antrenament sau putere de calcul nu a rezolvat aceste probleme. Prin urmare, AI-ul supus erorilor ar putea fi o realitate persistentă. Narayanan sugerează utilizarea acestor modele doar atunci când verificarea faptelor este mai rapidă decât realizarea de cercetări originale, în timp ce Bender recomandă evitarea utilizării chatbot-urilor pentru informații factuale în totalitate.



Brief news summary

Progresele recente în chatbot-urile AI realizate de companii precum OpenAI și Google, axate pe îmbunătățirea raționamentului și acurateței, au avut paradoxal ca rezultat creșterea ratelor de halucinații – situații în care modelele generează informații false sau înșelătoare și nu respectă corect instrucțiunile. De exemplu, noile modele o3 și o4-mini ale OpenAI prezintă rate de halucinații de 33% și 48%, comparativ cu 16% pentru modelul mai vechi o1, fiind observate tendințe similare și în modele precum DeepSeek-R1. În ciuda acestor provocări, OpenAI afirmă că componentele de raționament nu sunt de vină și continuă să lucreze la reducerea halucinațiilor. Această problemă este deosebit de importantă în domenii precum cercetarea, consultanța juridică și serviciul pentru clienți, unde inexactitățile pot avea consecințe grave. Evaluările efectuate de Vectara relevă diferențe minime în frecvența halucinațiilor între modelele care folosesc raționament și cele care nu, deși datele sunt limitate. Experții avertizează că termenul de „halucinație” simplifică excesiv probleme complexe ce implică dependența de date învechite sau nereușite. Având în vedere persistentă inexactitate, unii sugerează limitarea utilizării chatbot-urilor AI la scenarii în care verificarea informațiilor este mai simplă decât verificarea independentă a faptelor. În ansamblu, halucinațiile rămân o problemă majoră nerezolvată în modelele de limbaj AI.
Business on autopilot

AI-powered Lead Generation in Social Media
and Search Engines

Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment

Language

Content Maker

Our unique Content Maker allows you to create an SEO article, social media posts, and a video based on the information presented in the article

news image

Last news

The Best for your Business

Learn how AI can help your business.
Let’s talk!

May 10, 2025, 10:30 p.m.

Grok este singurul aliat al lui Elon Musk într-o …

Dacă ar fi fost constrânși să aleagă între Elon Musk și Sam Altman pentru a conduce cursa în domeniul inteligenței artificiale, cu viitorul umanității în joc, chatboturile inteligente artificiale au favorizat în mare parte pe Altman, cu excepția Grok, deținut de Musk, care a sprijinit pe Musk.

May 10, 2025, 9:47 p.m.

Robinhood dezvoltă un program bazat pe tehnologia…

Robinhood lucrează la o platformă bazată pe blockchain menită să ofere comercianților europeni acces la active financiare din SUA, conform a două surse familiarizate cu situația, care au vorbit pentru Bloomberg.

May 10, 2025, 9:02 p.m.

OpenAI lansează o3-mini: Model AI rapid, intelige…

OpenAI a dezvăluit o3-mini, un nou model de inteligență artificială pentru raționament, conceput special pentru a îmbunătăți acuratețea în calculele matematice, sarcinile de programare și rezolvarea problemelor științifice.

May 10, 2025, 8:22 p.m.

USDT-ul de la Tether lansează pe blockchain-ul Ka…

Emitentul de stablecoin Tether a anunțat implementarea stablecoin-ului său nativ USDT pe blockchain-ul Kaia, o rețea Layer 1 lansată în august 2024.

May 10, 2025, 7:29 p.m.

Elton John și Dua Lipa cer protecție împotriva AI…

Dua Lipa, Sir Elton John, Sir Ian McKellen, Florence Welch și peste 400 de muzicieni, scriitori și artiști britanici au îndemnat prim-ministrul Sir Keir Starmer să actualizeze legile drepturilor de autor pentru a proteja creatorii împotriva utilizării greșite a muncii lor de către inteligența artificială (IA).

May 10, 2025, 6:49 p.m.

Rolul blockchain-ului în inițiativele de incluziu…

Tehnologia blockchain devine din ce în ce mai recunoscută ca un instrument puternic pentru promovarea incluziunii financiare la nivel global, în special pentru populațiile fără acces la servicii bancare și cele defavorizate, care nu au acces la sistemele financiare tradiționale.

May 10, 2025, 5:14 p.m.

Tehnologia blockchain în domeniul sănătății: Prot…

Industria sănătății se află în plină transformare prin adoptarea tehnologiei blockchain pentru îmbunătățirea securității și gestionării faptelor medicale ale pacienților.

All news