None
Brief news summary
L'été dernier, OpenAI s'est engagée à soumettre les nouvelles versions de sa technologie d'IA à des tests de sécurité rigoureux afin d'éviter les dommages. Cependant, l'équipe de sécurité de l'entreprise s'est sentie contrainte de précipiter les protocoles de test pour le lancement de son modèle GPT-4 Omni. Avant même que les tests ne commencent, OpenAI a invité ses employés à célébrer le produit lors d'une fête. Cet incident soulève des préoccupations quant à la priorité accordée par l'entreprise aux intérêts commerciaux plutôt qu'à la sécurité publique. Il remet également en question la dépendance du gouvernement envers les entreprises technologiques pour l'autorégulation des technologies d'IA. Les experts font valoir que permettre aux entreprises de définir leurs propres normes de sécurité comporte des risques. OpenAI est l'une des nombreuses entreprises qui se sont engagées volontairement à protéger leurs modèles d'IA. L'incident a suscité des appels à de nouvelles lois pour protéger le public des risques liés à l'IA. L'entreprise repense son processus de test et reconnaît que le lancement a été stressant pour ses équipes.L'équipe de sécurité d'OpenAI s'est sentie poussée à accélérer les tests de sécurité de leur nouvelle technologie d'IA, GPT-4 Omni, afin de respecter une date de lancement en mai définie par les dirigeants de l'entreprise. Cet incident reflète un changement de culture chez OpenAI, où les intérêts commerciaux sont privilégiés au détriment de la sécurité publique, ce qui contredit les origines de l'entreprise en tant qu'organisation à but non lucratif. Cet incident soulève également des préoccupations quant à la confiance du gouvernement fédéral dans l'autorégulation des entreprises technologiques pour se protéger contre les risques liés à l'IA. Certains anciens employés ont critiqué les protocoles de sécurité d'OpenAI en les qualifiant de précipités et insuffisants.
Malgré cela, OpenAI affirme avoir réalisé de nombreux tests internes et externes pour garantir la conformité en matière de sécurité. L'initiative de préparation de l'entreprise vise à étudier les risques catastrophiques posés par l'IA et à appliquer des travaux quantitatifs basés sur des preuves. OpenAI a récemment formé deux équipes de sécurité, dont l'une est axée sur la prévention des risques existentiels liés aux systèmes d'IA avancés.
Watch video about
None
Try our premium solution and start getting clients — at no cost to you