Plus de 500 millions de personnes font confiance à Gemini et ChatGPT chaque mois pour une large gamme de sujets, mais la prudence est de mise—si l'IA suggère de cuire des pâtes dans de l'essence, ne comptez pas sur elle pour des conseils sur la contraception ou l'algèbre non plus. Lors du Forum économique mondial, le PDG d'OpenAI, Sam Altman, a souligné que bien que l'IA ne puisse pas lire nos pensées, elle peut articuler son raisonnement. Il insiste pour que les systèmes d'IA expliquent également leur logique, permettant aux utilisateurs d'évaluer la validité de leurs résultats. La justification est cruciale pour la connaissance; sans elle, la croyance manque de crédibilité. La plupart des gens ne déclarent connaître quelque chose que lorsqu'il y a un soutien solide par des preuves, des arguments ou des autorités fiables. Les LLM comme ChatGPT sont destinés à être fiables; cependant, ils échouent souvent à fournir un raisonnement car ils sont conçus pour prédire des modèles linguistiques plutôt que pour engager un véritable raisonnement. Leurs résultats peuvent sembler crédibles mais ne garantissent pas la justification de la vérité. Bien qu'une grande partie de ce qu'ils produisent puisse être exacte, ils peuvent induire les utilisateurs en erreur sur l'origine de leur "connaissance" en présentant des cas de Gettier, où les croyances peuvent être vraies mais manquent de justification. Un exemple du philosophe bouddhiste Dharmottara illustre ce dilemme : les chercheurs d'eau peuvent en trouver malgré une mauvaise évaluation de son emplacement, sans démontrer une véritable connaissance. De même, les utilisateurs des LLM peuvent accepter les résultats comme factuels sans comprendre leur justification, ressemblant aux voyageurs qui croient à tort avoir trouvé de l'eau alors qu'ils ne l'ont pas. L'optimisme d'Altman concernant les capacités de justification de l'IA peut conduire à des malentendus.
Si les utilisateurs demandent une justification, les LLM produiront des justifications plausibles mais finalement sans fondement—un type de résultat trompeur. Cela pourrait engendrer une méfiance chez les utilisateurs informés tout en trompant ceux qui le sont moins. Actuellement, les systèmes d'IA peuvent produire des erreurs ou des "hallucinations", ce qui souligne leurs limitations. Les utilisateurs qui comprennent que les LLM présentent des cas de Gettier sont susceptibles de les utiliser de manière appropriée, en appliquant leur propre jugement. Cependant, de nombreuses personnes cherchent une assistance IA dans des domaines où elles manquent d'expertise, comme l'algèbre ou les conseils en santé. Par conséquent, il est essentiel de déterminer quand les résultats des LLM peuvent être fiables. La confiance dans l'IA doit dépendre de la capacité à vérifier la justification de chaque résultat, une capacité que les LLM n'ont actuellement pas. Bien que de nombreuses personnes sachent instinctivement que l'huile d'olive est préférable à l'essence pour cuisiner, il peut y avoir d'autres idées discutables qu'elles ont acceptées sans examiner la justification sous-jacente.
Comprendre les limites de la confiance dans l'IA : l'importance de la justification
Chaque semaine, nous mettons en lumière une application basée sur l'IA qui résout de véritables problèmes pour les entreprises B2B et Cloud.
L'intelligence artificielle (IA) influence de plus en plus les stratégies de référencement local (SEO).
IND Technology, une société australienne spécialisée dans la surveillance des infrastructures pour les services publics, a obtenu 33 millions de dollars en financement de croissance afin de renforcer ses efforts basés sur l'intelligence artificielle pour prévenir les incendies de forêt et les coupures de courant.
Au cours des dernières semaines, un nombre croissant d'éditeurs et de marques ont fait face à une opposition significative alors qu'ils expérimentent avec l'intelligence artificielle (IA) dans leurs processus de production de contenu.
Google Labs, en partenariat avec Google DeepMind, a lancé Pomelli, une expérience basée sur l’intelligence artificielle conçue pour aider les petites et moyennes entreprises à développer des campagnes marketing cohérentes avec leur marque.
Dans l’environnement numérique en rapide expansion d’aujourd’hui, les entreprises de médias sociaux adoptent de plus en plus des technologies avancées pour protéger leurs communautés en ligne.
Une version de cette histoire est parue dans la newsletter Nightcap de CNN Business.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today