None
Brief news summary
OpenAI et le Los Alamos National Laboratory ont annoncé un partenariat visant à examiner comment l'intelligence artificielle (IA) peut être utilisée pour combattre les potentielles menaces biologiques créées par des non-experts à l'aide d'outils d'IA. Alors que la déclaration d'OpenAI met l'accent sur l'utilisation sûre de l'IA par des scientifiques pour faire avancer la recherche en biosciences, Los Alamos souligne que des recherches antérieures ont montré que des modèles d'IA tels que ChatGPT-4 pourraient fournir des informations contribuant à la création de menaces biologiques. L'objectif est d'évaluer comment les modèles d'IA avancés pourraient faciliter la création de telles menaces par des non-experts. Les approches différentes des deux organisations peuvent résulter du malaise d'OpenAI à reconnaître les implications en matière de sécurité nationale de son produit utilisé par des terroristes. L'étude est considérée comme une étape cruciale vers le développement et le déploiement responsables des technologies d'IA face à une utilisation potentiellement abusive.OpenAI a annoncé un partenariat avec le Laboratoire national de Los Alamos pour explorer l'utilisation de l'intelligence artificielle (IA) dans la lutte contre les éventuelles menaces biologiques facilitées par des outils d'IA. Cette étude, qualifiée de "première du genre", se concentre sur la bio-sécurité de l'IA et l'application de l'IA dans les laboratoires. Les communications des deux organisations diffèrent en termes d'accent, OpenAI se focalisant sur l'utilisation sûre de l'IA dans la recherche bio-scientifique tandis que Los Alamos met en avant les risques potentiels liés aux informations générées par l'IA pouvant conduire à la création de menaces biologiques. Ce partenariat souligne la nécessité de lutter contre la mauvaise utilisation d'outils tels que ChatGPT dans le développement d'armes biologiques, qui représente une préoccupation plus immédiate que les risques hypothétiques associés à l'IA générale.
Le laboratoire de Los Alamos vise à évaluer les modèles d'IA actuels et futurs afin d'assurer un développement et un déploiement responsables, reconnaissant les puissants avantages de la technologie de l'IA tout en reconnaissant le potentiel de sa mauvaise utilisation. L'automatisation de l'accès à l'information est considérée comme précieuse, mais son efficacité dans l'aide à l'apprentissage des protocoles de laboratoire réels reste incertaine. Le groupe d'évaluation technique des risques liés à l'IA coordonne cette initiative dirigée par le laboratoire de Los Alamos.
Watch video about
None
Try our premium solution and start getting clients — at no cost to you