None
Brief news summary
OpenAI fait face à des plaintes de lanceurs d'alerte qui affirment que l'entreprise empêche les employés de signaler aux régulateurs les problèmes liés aux risques associés à sa technologie d'intelligence artificielle. Ces allégations concernent les accords d'emploi, les indemnisations de départ et les accords de non-divulgation d'OpenAI, qui sont accusés de dissuader les travailleurs de s'exprimer. Les lanceurs d'alerte affirment qu'OpenAI exigeait des employés de renoncer à une indemnité de lanceur d'alerte et d'obtenir une autorisation avant de divulguer des informations aux régulateurs fédéraux. En réponse, OpenAI a mis à jour son processus de départ afin de protéger les droits des employés à effectuer des divulgations protégées et a supprimé les termes de non-dénigrement. Des plaintes similaires concernant des accords de confidentialité stricts dans l'industrie technologique ont également été déposées auprès de la SEC, soulignant l'importance des lanceurs d'alerte pour comprendre les menaces potentielles posées par la technologie de l'intelligence artificielle.Des lanceurs d'alerte chez OpenAI ont déposé une plainte auprès de la Securities and Exchange Commission (SEC), alléguant que l'entreprise a illégalement restreint les employés pour les empêcher d'alerter les régulateurs sur les risques potentiels liés à sa technologie. La plainte affirme que des accords restrictifs de travail, de licenciement et de non-divulgation ont été imposés au personnel, ce qui pourrait entraîner des sanctions pour ceux qui ont exprimé des préoccupations aux autorités fédérales. Ces accords ont violé les lois fédérales protégeant les lanceurs d'alerte, suscitant ainsi des appels à une enquête de la SEC.
Selon un porte-parole de l'entreprise, la politique de dénonciation et les termes de non-dénigrement d'OpenAI ont été modifiés depuis. La lettre des lanceurs d'alerte fait suite aux préoccupations selon lesquelles OpenAI aurait privilégié le profit au détriment de la sécurité en précipitant la sortie de son dernier modèle d'IA, ChatGPT. Les accords de confidentialité stricts des entreprises technologiques ont depuis longtemps été critiqués pour limiter la capacité des employés à signaler des comportements répréhensibles.
Watch video about
None
Try our premium solution and start getting clients — at no cost to you