None
Brief news summary
OpenAI a dévoilé une échelle mesurant les progrès de ses modèles de langage vers l'intelligence artificielle générale (AGI), composée de cinq niveaux. Le niveau 1 représente les capacités actuelles des chatbots, tandis que le niveau 5 signifie une AGI capable d'accomplir des tâches organisationnelles. OpenAI vise à dépasser les capacités humaines dans des tâches précieuses grâce au développement de l'AGI, tout en privilégiant l'alignement avec leurs valeurs et les préoccupations de sécurité. Bien que l'échelle soit encore en cours de perfectionnement, elle vise à établir des définitions claires des réalisations de l'AGI. Cependant, atteindre l'AGI demande une puissance de calcul substantielle et le respect de délais spécifiques. Pour explorer l'utilisation sécurisée de modèles d'IA avancés dans la recherche bioscientifique, OpenAI a récemment collaboré avec le Laboratoire national de Los Alamos. Des inquiétudes ont été soulevées quant à l'engagement d'OpenAI en matière de sécurité à la suite de la dissolution de leur équipe de sécurité. Actuellement, les critères spécifiques pour l'attribution des niveaux de l'échelle d'OpenAI restent confidentiels.OpenAI a informé Bloomberg qu'il a établi une échelle interne pour mesurer la progression de ses grands modèles de langage vers l'intelligence artificielle générale (AGI), qui se réfère à des systèmes d'IA avec une intelligence semblable à celle des humains. Actuellement, les chatbots comme ChatGPT sont classés au niveau 1, tandis qu'OpenAI affirme approcher du niveau 2, qui implique un système capable de résoudre des problèmes fondamentaux avec une compétence équivalente à celle d'une personne détenant un doctorat. À l'avenir, le niveau 3 désigne des agents d'IA capables d'agir au nom des utilisateurs, tandis que le niveau 4 englobe des IA capables de générer de nouvelles innovations. Enfin, le niveau 5 représente la réalisation ultime de l'AGI, dans laquelle l'IA peut effectuer le travail de l'ensemble des organisations. OpenAI a précédemment défini l'AGI comme "un système hautement autonome qui surpassera l'humain dans la plupart des tâches économiquement valorisées". La mission d'OpenAI d'atteindre l'AGI façonne sa structure organisationnelle unique, et leur définition de l'AGI revêt une importance capitale. La société a indiqué que si un autre projet partageant des valeurs alignées et une conscience de la sécurité parvient à construire l'AGI avant qu'OpenAI ne le fasse, ils s'engagent à ne pas rivaliser avec ce projet et à fournir plutôt de l'aide. Bien que la formulation de la charte d'OpenAI reste quelque peu ambiguë, laissant une marge de manœuvre pour la prise de décisions par l'entité à but lucratif supervisée par la sans but lucratif, le développement d'une échelle de classification pourrait aider à déterminer de manière plus définitive quand l'AGI a été atteinte, permettant ainsi à OpenAI et à ses concurrents d'évaluer leurs progrès. Cependant, atteindre l'AGI semble encore être une perspective lointaine, nécessitant un investissement substantiel en puissance de calcul s'élevant à des milliards de dollars, si cela est réalisable du tout. Divers experts, y compris ceux d'OpenAI, ont proposé des échéances très variées.
En octobre 2023, le PDG d'OpenAI, Sam Altman, a estimé que l'AGI était encore à environ "cinq ans, plus ou moins". L'introduction de cette nouvelle échelle de classification, qui en est encore aux stades de développement, intervient après l'annonce de la collaboration d'OpenAI avec le Los Alamos National Laboratory. Le partenariat vise à explorer la mise en œuvre sécurisée de modèles d'IA avancés, tels que GPT-4o, dans la recherche bioscientifique. Un responsable de programme de Los Alamos, instrumentale dans la sécurisation du partenariat avec OpenAI et la supervision du portefeuille de biologie de sécurité nationale, a articulé que l'objectif est d'évaluer les capacités de GPT-4o et d'établir un ensemble de normes de sécurité et d'autres facteurs pour le gouvernement américain. À terme, tant les modèles d'IA publics que privés pourront être évalués selon ces critères. En mai, OpenAI a dissous son équipe de sécurité après le départ de son leader et cofondateur, Ilya Sutskever. Peu après, Jan Leike, un chercheur éminent d'OpenAI, a démissionné et exprimé des inquiétudes dans un message selon lesquelles le focus de l'entreprise sur le développement de produits impressionnants avait relégué la culture et les processus de sécurité à l'arrière-plan. Bien qu'OpenAI ait refuté ces affirmations, des appréhensions persistent quant à l'approche de l'entreprise si l'AGI devenait une réalité. OpenAI n'a pas divulgué les détails de la manière dont elle attribue les modèles aux niveaux internes mentionnés ci-dessus et a refusé de commenter la question lorsque The Verge s'est adressé à elle. Néanmoins, lors d'une réunion récente avec tous les employés, les dirigeants de l'entreprise ont présenté un projet de recherche utilisant le modèle d'IA GPT-4, qui, selon Bloomberg, présente de nouvelles capacités démontrant un raisonnement semblable à celui des humains.
Watch video about
None
Try our premium solution and start getting clients — at no cost to you