None
Brief news summary
Des lanceurs d'alerte d'OpenAI ont déposé une plainte auprès de la Securities and Exchange Commission (SEC), accusant l'entreprise d'intelligence artificielle d'empêcher illégalement ses employés d'informer les autorités réglementaires des risques potentiels liés à sa technologie. Selon la plainte, OpenAI aurait utilisé des accords excessivement restrictifs et des clauses de non-divulgation pouvant pénaliser les employés soulevant des préoccupations concernant les pratiques de l'entreprise. Les lanceurs d'alerte affirment que ces accords contreviennent aux lois fédérales protégeant les lanceurs d'alerte et entravent l'examen et la dissidence nécessaires à la construction d'une technologie d'IA sûre. OpenAI a déclaré avoir apporté des modifications à ses accords d'emploi pour supprimer les clauses de non-dénigrement et protéger le droit des employés à la divulgation. Des inquiétudes ont été soulevées quant à la priorité accordée par OpenAI à la rentabilité par rapport à la sécurité.Des lanceurs d'alerte chez OpenAI ont déposé une plainte auprès de la Securities and Exchange Commission (SEC), accusant l'entreprise d'empêcher illégalement ses employés d'informer les régulateurs des risques importants que pose sa technologie pour l'humanité. La plainte met en évidence les contrats de travail, les indemnités de départ et les accords de non-divulgation restrictifs imposés par OpenAI, qui pourraient pénaliser ceux qui expriment leurs préoccupations aux régulateurs fédéraux. La lettre envoyée à la SEC affirme également que les contrats d'OpenAI violent les lois fédérales protégeant les droits des lanceurs d'alerte et favorisent une culture d'évitement de la surveillance et de la dissidence. Hannah Wong, porte-parole d'OpenAI, affirme que la politique de lanceur d'alerte de l'entreprise protège les droits des employés, ajoutant que des changements ont été apportés au processus de départ afin d'éliminer les termes de non-diffamation.
Il y a des inquiétudes selon lesquelles OpenAI privilégie les bénéfices par rapport à la sécurité, comme en témoigne la récente sortie précipitée de son dernier modèle d'IA, ChatGPT, malgré les réserves des employés concernant le respect des protocoles de test de sécurité. La lettre met également en évidence le problème plus large des accords de confidentialité dans l'industrie technologique, qui entravent la dénonciation des actes répréhensibles. Les décideurs soulignent l'importance des lanceurs d'alerte dans l'élaboration de réglementations efficaces pour le secteur de l'intelligence artificielle en constante évolution.
Watch video about
None
Try our premium solution and start getting clients — at no cost to you