None
Brief news summary
Selon des lanceurs d'alerte, OpenAI, une entreprise d'intelligence artificielle (IA), a été accusée d'empêcher ses employés d'informer les régulateurs des risques potentiels liés à l'IA. Les lanceurs d'alerte affirment que l'entreprise a mis en place des accords d'emploi, de non-divulgation et de séparation excessivement restrictifs, ce qui aurait pu entraîner des sanctions pour les employés qui soulevaient des préoccupations auprès des régulateurs fédéraux. Ces accords exigeaient également que les employés renoncent à leurs droits à une compensation en tant que lanceur d'alerte, ce qui pourrait potentiellement enfreindre la loi fédérale. L'approche d'OpenAI en matière de sécurité a été remise en question cette année, certains employés démissionnant et soulevant des inquiétudes concernant la priorité donnée au développement du produit plutôt qu'aux considérations de sécurité. Un ancien cadre a même lancé une nouvelle entreprise d'IA axée sur la création d'un système IA sûr et performant sans intérêts commerciaux. Les critiques soutiennent que l'obtention d'une superintelligence IA présente d'importants défis, notamment sur le plan éthique et de la garantie de sa sécurité.Les lanceurs d'alerte ont formulé des accusations à l'encontre d'OpenAI, affirmant que l'entreprise empêche ses employés de signaler aux régulateurs les risques potentiels liés à l'intelligence artificielle (IA). Selon le Washington Post du dimanche 14 juillet, les lanceurs d'alerte soutiennent qu'OpenAI a mis en place des accords d'emploi, de non-divulgation et de licenciement excessivement restrictifs, comme indiqué dans une lettre adressée à la Securities and Exchange Commission (SEC). La lettre, obtenue par le Post, précise que ces accords pourraient entraîner des pénalités à l'encontre des employés qui soulèvent des préoccupations concernant OpenAI auprès des régulateurs fédéraux. De plus, ces accords obligent les employés à renoncer à tout droit d'indemnisation en tant que lanceur d'alerte, ce qui est une violation de la loi fédérale. Selon l'un des lanceurs d'alerte, "Ces contrats envoient un message selon lequel 'nous ne voulons pas que les employés. . . communiquent avec les régulateurs fédéraux. ' Je ne pense pas que les entreprises d'IA puissent développer une technologie sûre et dans l'intérêt public si elles se protègent de l'examen et de la dissidence. " PYMNTS a contacté OpenAI pour obtenir un commentaire, mais n'a pas encore reçu de réponse. Le porte-parole d'OpenAI a fourni la déclaration suivante au Post : "Notre politique de lanceurs d'alerte protège les droits des employés de faire des divulgations protégées.
De plus, nous pensons qu'un débat rigoureux sur cette technologie est essentiel et avons déjà apporté des changements importants à notre processus de départ pour supprimer les termes de non-diffamation. " L'approche d'OpenAI en matière de sécurité a fait l'objet de débats cette année, avec des employés notables, tels que le chercheur en IA Jan Leike et la chercheuse en politique Gretchen Krueger, annonçant leur démission et affirmant que l'entreprise privilégie le développement de produits aux considérations de sécurité. Un autre ancien cadre, Ilya Sutskever, co-fondateur et ancien scientifique en chef d'OpenAI, a lancé une nouvelle entreprise d'IA appelée Safe Superintelligence, qui vise à développer un système d'IA sûr et puissant sans intérêts commerciaux. Cela a suscité des discussions sur la faisabilité de réaliser un tel objectif. Certains critiques soutiennent que les limites actuelles des systèmes d'IA, malgré leurs capacités impressionnantes, entravent leur capacité à effectuer des tâches nécessitant un raisonnement de bon sens et une compréhension contextuelle. Ils affirment que parvenir à une intelligence générale dépassant les capacités humaines dans tous les domaines ne dépend pas uniquement d'une augmentation de la puissance de calcul ou des données. Même ceux qui croient au potentiel de l'IA superintelligente s'inquiètent de garantir sa sécurité. Le développement d'une IA superintelligente exigerait des capacités techniques avancées ainsi qu'une compréhension globale de l'éthique, des valeurs et des conséquences potentielles de ses actions.
Watch video about
None
Try our premium solution and start getting clients — at no cost to you