lang icon En
Nov. 22, 2024, 6:47 p.m.
2411

OpenAI Investit dans la Recherche en IA Éthique avec l'Université Duke

Brief news summary

OpenAI et l'Université Duke ont lancé un projet collaboratif de trois ans visant à développer des algorithmes capables de prédire les jugements moraux humains, dans le but ultime de créer une "IA morale". Soutenu par une subvention d'un million de dollars, le projet est dirigé par le professeur d'éthique Walter Sinnott-Armstrong et la chercheuse Jana Borg. L'équipe envisage de développer un "GPS moral" qui pourrait aider des domaines tels que la médecine, le droit et les affaires à naviguer dans des questions éthiques complexes. Ils s'inspirent de projets antérieurs, comme des algorithmes pour le don de rein, pour orienter leurs efforts. Un défi majeur de cette entreprise est d'apprendre à l'IA à comprendre les subtilités du raisonnement éthique humain, qui varie considérablement selon les cultures. Les modèles d'IA existants s'appuient souvent sur des ensembles de données centrés sur l'Occident, entraînant des biais et une applicabilité réduite dans un contexte mondial. Cette limitation était évidente dans le projet Ask Delphi de l'Allen Institute for AI, qui a rencontré des difficultés à prendre des décisions éthiques cohérentes en raison des différences nuancées de langage. La nature de la moralité est complexe et ne possède pas de référence universelle, comme l'illustrent les différentes théories éthiques telles que le kantisme et l'utilitarisme. Par conséquent, créer une IA capable de s'accommoder de ces points de vue subjectifs est particulièrement difficile. Ces complexités soulignent les incertitudes et les obstacles dans le développement de systèmes d'IA capables de prédire avec précision les jugements moraux humains.

OpenAI investit dans la recherche académique pour développer des algorithmes capables de prédire les jugements moraux humains. Dans un dépôt auprès de l'IRS, OpenAI Inc. , le bras à but non lucratif d'OpenAI, a révélé avoir octroyé une subvention à des chercheurs de l'Université Duke pour un projet intitulé "Research AI Morality. " Selon un porte-parole d'OpenAI, cette subvention fait partie d'une initiative plus large de trois ans dotée d'un million de dollars, visant à "créer une IA morale. " Les détails sur cette recherche de moralité sont rares, la subvention devant se conclure en 2025. Walter Sinnott-Armstrong, l'investigateur principal et professeur à Duke spécialisé en éthique pratique, a mentionné dans un e-mail à TechCrunch qu'il ne pouvait pas discuter du projet. Sinnott-Armstrong et Jana Borg, la co-investigatrice, ont déjà exploré le rôle de l'IA en tant que "GPS moral" pour aider à la prise de décision humaine. Leur travail passé inclut le développement d'un algorithme "moralement aligné" pour les décisions de don de rein et l'examen de scénarios où les gens préfèrent les décisions morales de l'IA. Le communiqué de presse indique que le but de la recherche financée par OpenAI est de concevoir des algorithmes capables de prédire les jugements moraux humains dans des situations impliquant des conflits entre des facteurs moralement pertinents en médecine, droit et affaires. Cependant, capturer la complexité de la moralité demeure un défi majeur pour la technologie actuelle. En 2021, l'Allen Institute for AI a créé Ask Delphi, un outil destiné à fournir des recommandations éthiques. Bien qu'il se soit bien comporté avec des dilemmes simples, de légers changements de formulation pouvaient amener Delphi à justifier presque n'importe quoi, même l'étouffement d'enfants. Ce problème découle du mode de fonctionnement des systèmes d'IA modernes. Les modèles d'apprentissage automatique sont essentiellement des outils statistiques.

En analysant un grand nombre d'exemples provenant du web, ils apprennent des schémas pour faire des prédictions, comme associer "à qui" avec "cela peut concerner. " Ces modèles n'ont pas une compréhension des concepts éthiques ni du raisonnement et des émotions impliqués dans les décisions morales. Par conséquent, l'IA reflète souvent les valeurs des sociétés occidentales, éduquées et industrialisées, puisque ses données d'entraînement proviennent en grande majorité de ces points de vue. Toutes les valeurs ne sont pas représentées dans les résultats des IA, surtout si les individus portant ces valeurs ne contribuent pas au contenu en ligne utilisé pour l'entraînement. Les systèmes d'IA intègrent également une gamme de biais au-delà des perspectives occidentales. Par exemple, Delphi a jugé que le fait d'être hétérosexuel était plus "moralement acceptable" que d'être gay. La tâche d'OpenAI et de ses chercheurs est compliquée par la subjectivité inhérente à la moralité. Les philosophes ont débattu de théories éthiques pendant des siècles sans parvenir à un cadre universel. Claude plaide pour le kantisme, soulignant des règles morales absolues, tandis que ChatGPT penche légèrement vers l'utilitarisme, se concentrant sur le plus grand bien pour le plus grand nombre. La supériorité d'une approche sur l'autre est subjective. Pour créer un algorithme capable de prédire les jugements moraux humains, il faut prendre en compte tous ces facteurs. Atteindre cet objectif est extrêmement difficile—à supposer que ce soit même réalisable.


Watch video about

OpenAI Investit dans la Recherche en IA Éthique avec l'Université Duke

Try our premium solution and start getting clients — at no cost to you

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

Dec. 21, 2025, 1:44 p.m.

Outils de modération vidéo par intelligence artif…

Les plateformes de médias sociaux utilisent de plus en plus l'intelligence artificielle (IA) pour améliorer leur modération de contenu vidéo, afin de faire face à l'augmentation du nombre de vidéos en tant que forme dominante de communication en ligne.

Dec. 21, 2025, 1:38 p.m.

Les États-Unis réexaminent leurs restrictions à l…

RÉVERSAL DE POLITIQUE : Après des années de restrictions renforcées, la décision d’autoriser la vente de puces H200 de Nvidia en Chine a suscité des objections de la part de certains Républicains.

Dec. 21, 2025, 1:38 p.m.

L'IA a été responsable de plus de 50 000 suppress…

Les licenciements liés à l'intelligence artificielle ont marqué le marché de l'emploi en 2025, avec de grandes entreprises annonçant des milliers de suppressions de postes attribuées aux avancées de l'IA.

Dec. 21, 2025, 1:36 p.m.

Lancement des services SEO Perplexity – NEWMEDIA.…

RankOS™ améliore la visibilité de la marque et la citation sur Perplexity AI et autres plateformes de recherche basées sur des moteurs de réponse Services SEO de Perplexity Agency New York, NY, le 19 décembre 2025 (GLOBE NEWSWIRE) — NEWMEDIA

Dec. 21, 2025, 1:22 p.m.

La société de gestion de la famille d'Eric Schmid…

Une version originale de cet article est parue dans la newsletter Inside Wealth de CNBC, rédigée par Robert Frank, qui sert de ressource hebdomadaire pour les investisseurs et consommateurs fortunés.

Dec. 21, 2025, 1:21 p.m.

Présentation sur l'avenir du marketing : pourquoi…

Les gros titres se sont concentrés sur l’investissement milliardaire de Disney dans OpenAI et ont spéculé sur les raisons pour lesquelles Disney a choisi OpenAI plutôt que Google, avec qui il poursuit une action pour violation présumée de droits d’auteur.

Dec. 21, 2025, 9:34 a.m.

Les données de Salesforce révèlent que l'IA et le…

Salesforce a publié un rapport détaillé sur l'événement d'achat Cyber Week 2025, analysant les données de plus de 1,5 milliard de consommateurs à l’échelle mondiale.

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today