lang icon French
Auto-Filling SEO Website as a Gift

Launch Your AI-Powered Business and get clients!

No advertising investment needed—just results. AI finds, negotiates, and closes deals automatically

May 10, 2025, 5:50 p.m.
6

Les chatbots IA rencontrent des problèmes persistants d'hallucinations affectant leur fiabilité

Les chatbots d'intelligence artificielle des principales entreprises technologiques comme OpenAI et Google ont récemment bénéficié d'améliorations dans leur capacité de raisonnement afin d’accroître la fiabilité de leurs réponses. Cependant, des tests récents révèlent que certains modèles plus récents performent même moins bien que leurs versions antérieures, en présentant un phénomène appelé « hallucinations» — des erreurs où les chatbots génèrent de fausses informations ou donnent des réponses qui sont factuellement correctes mais non pertinentes ou non conformes aux instructions. Ce problème persiste depuis la création des grands modèles de langage (LLMs) tels que ChatGPT d’OpenAI ou Gemini de Google, et il semble peu probable qu’il puisse être totalement résolu. Un rapport technique d’OpenAI a montré que ses modèles o3 et o4-mini, sortis en avril, avaient des taux d’hallucinations bien plus élevés que le modèle o1, plus ancien, datant de fin 2024 : le o3 affichait un taux d’hallucinations de 33 %, le o4-mini de 48 %, contre seulement 16 % pour le o1, lors de la synthèse de faits disponibles publiquement. De même, le tableau de bord de Vectara suivant les taux d’hallucinations a indiqué que certains modèles de raisonnement — dont DeepSeek-R1 — connaissaient des augmentations importantes de ces hallucinations par rapport à leurs prédécesseurs, malgré leur approche de raisonnement en plusieurs étapes avant de répondre. OpenAI affirme que le processus de raisonnement n’est pas intrinsèquement responsable de l’augmentation des hallucinations et mène activement des recherches pour réduire leur occurrence dans tous ses modèles. La persistance de ces hallucinations menace plusieurs applications : des modèles qui produisent fréquemment des Falsehoods compliquent l’aide à la recherche ; des bots parajuristes citant des cas inexistants risquent de faire des erreurs juridiques ; des bots de service client utilisant des informations obsolètes provoquent des dysfonctionnements. Au départ, les entreprises d’IA pensaient que les hallucinations diminuaient avec le temps, puisque les premières mises à jour des modèles montraient des améliorations. Cependant, les niveaux plus élevés récents remettent en question cette perspective, indépendamment du rôle du raisonnement. Le tableau de bord de Vectara indique que les taux d’hallucinations sont environ équivalents entre modèles de raisonnement et modèles sans raisonnement chez OpenAI et Google, même si le chiffre exact importe moins que le classement relatif.

Google a refusé de commenter. Cependant, ces classements présentent des limites. Ils combinent différents types d’hallucinations ; par exemple, le taux de 14, 3 % pour DeepSeek-R1 correspond surtout à des cas « bénins » — des réponses logiquement cohérentes et appuyées par les connaissances, mais absentes du texte source. De plus, les tests basés uniquement sur la synthèse de texte peuvent ne pas refléter la fréquence d’hallucinations dans d’autres tâches, car les LLMs ne sont pas spécifiquement conçus pour la synthèse. Emily Bender, de l’Université de Washington, souligne que ces modèles prédisent plutôt les mots suivants simplement en estimant ce qui est probable, sans traiter véritablement l’information pour comprendre le texte, ce qui rend le terme « hallucination » à la fois trompeur et anthropomorphique. Bender critique l’usage du mot « hallucination » parce qu’il implique que ces erreurs seraient des aberrations dans des systèmes supposés fiables, et prête une perception humaine à l’IA, qui ne « perçoit » en aucun sens. Arvind Narayanan, de Princeton, ajoute que ces modèles commettent aussi des erreurs en se basant sur des données peu fiables ou obsolètes, et qu’ajouter simplement plus de données d’entraînement ou augmenter la puissance de calcul n’a pas résolu ces problèmes. En conséquence, une IA erronée pourrait bien rester une réalité durable. Narayanan propose de n’utiliser ces modèles qu’en cas de vérification rapide, quand cela coûte moins cher que de faire des recherches originales, tandis que Bender recommande d’éviter toute dépendance aux chatbots pour des informations factuelles.



Brief news summary

Les avancées récentes dans les chatbots d’IA par des entreprises comme OpenAI et Google, axées sur l’amélioration du raisonnement et de la précision, ont paradoxeusement entraîné une augmentation des taux d’hallucination—des cas où les modèles génèrent des informations fausses ou trompeuses et ne respectent pas correctement les instructions. Par exemple, les modèles plus récents d’OpenAI, o3 et o4-mini, présentent des taux d’hallucination de 33 % et 48 %, contre 16 % pour l’ancien modèle o1, des tendances similaires étant observées dans des modèles tels que DeepSeek-R1. Malgré ces défis, OpenAI affirme que les composants de raisonnement ne sont pas responsables et continue à travailler sur la réduction de ces hallucinations. Ce problème est particulièrement critique dans des domaines comme la recherche, le conseil juridique et le service client, où des inexactitudes peuvent avoir des conséquences graves. Des évaluations par Vectara révèlent des différences minimes dans la fréquence des hallucinations entre modèles de raisonnement et modèles sans raisonnement, même si les données restent limitées. Des experts avertissent que le terme « hallucination » simplifie à l’excès des problèmes complexes impliquant une dépendance à des données obsolètes ou peu fiables. Face à ces inexactitudes persistantes, certains proposent de limiter l’utilisation des chatbots d’IA aux scénarios où la vérification des informations est plus facile que la vérification indépendante des faits. Dans l’ensemble, les hallucinations demeurent un problème majeur non résolu dans les modèles de langage d’IA.
Business on autopilot

AI-powered Lead Generation in Social Media
and Search Engines

Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment

Language

Content Maker

Our unique Content Maker allows you to create an SEO article, social media posts, and a video based on the information presented in the article

news image

Last news

The Best for your Business

Learn how AI can help your business.
Let’s talk!

May 10, 2025, 10:30 p.m.

Grok est le seul allié d'Elon Musk dans une cours…

Si l’on devait choisir entre Elon Musk et Sam Altman pour diriger la course à l’IA alors que l’avenir de l’humanité est en jeu, les chatbots dotés d’intelligence artificielle privilégiaient principalement Altman, à l’exception de Grok, propriété de Musk, qui soutenait Musk.

May 10, 2025, 9:47 p.m.

Robinhood développe un programme basé sur la bloc…

Robinhood travaille sur une plateforme basée sur la blockchain visant à offrir aux traders européens un accès aux actifs financiers américains, selon deux sources proches de la situation qui se sont confiées à Bloomberg.

May 10, 2025, 9:02 p.m.

OpenAI lance o3-mini : un modèle d'IA rapide, int…

OpenAI a dévoilé o3-mini, un nouveau modèle de raisonnement en intelligence artificielle spécialement conçu pour améliorer la précision dans les calculs mathématiques, les tâches de codage et la résolution de problèmes scientifiques.

May 10, 2025, 8:22 p.m.

Le USDT de Tether lance sur la blockchain Kaia, é…

L’émetteur de stablecoins Tether a annoncé le déploiement de son stablecoin natif USDT sur la blockchain Kaia, un réseau Layer 1 lancé en août 2024.

May 10, 2025, 7:29 p.m.

Elton John et Dua Lipa recherchent une protection…

Dua Lipa, Sir Elton John, Sir Ian McKellen, Florence Welch et plus de 400 autres musiciens, écrivains et artistes britanniques ont exhorté le Premier ministre Sir Keir Starmer à moderniser les lois sur le droits d’auteur afin de protéger les créateurs contre l’usage abusif de leur œuvre par l’intelligence artificielle (IA).

May 10, 2025, 6:49 p.m.

Le rôle de la blockchain dans les initiatives d'i…

La technologie blockchain est de plus en plus reconnue comme un outil puissant pour favoriser l’inclusion financière à l’échelle mondiale, notamment pour les populations non bancarisées et mal desservies qui n’ont pas accès aux services bancaires traditionnels.

May 10, 2025, 5:14 p.m.

La blockchain dans les soins de santé : sécuriser…

L'industrie de la santé connaît une transformation majeure en adoptant la technologie blockchain afin d'améliorer la sécurité et la gestion des dossiers de santé des patients.

All news