None
Brief news summary
OpenAI, la principale entreprise d'intelligence artificielle, a été accusée de privilégier les intérêts commerciaux au détriment de la sécurité publique. Malgré avoir promis à la Maison Blanche de soumettre les nouvelles versions de sa technologie à des tests de sécurité rigoureux, l'équipe de sécurité d'OpenAI a ressenti une pression pour accélérer le protocole de test afin de respecter une date de lancement en mai fixée par les dirigeants de l'entreprise. Cet incident soulève des préoccupations quant à la dépendance des entreprises technologiques à l'auto-contrôle pour protéger le public. Les critiques soutiennent que les sociétés fixant leurs propres normes de sécurité présentent intrinsèquement des risques et qu'une réglementation est nécessaire pour garantir la sécurité publique. OpenAI, ainsi que d'autres entreprises technologiques, s'était engagée volontairement auprès de la Maison Blanche l'année dernière à préserver les modèles d'IA jusqu'à l'adoption de réglementations. Selon des initiés, le dernier modèle d'OpenAI, GPT-4 Omni, a été lancé sans des tests suffisants. Cet incident met en évidence un changement de culture chez OpenAI ainsi qu'un éloignement de ses origines altruistes sans but lucratif.OpenAI, une entreprise d'intelligence artificielle de premier plan, aurait fait face à des pressions pour accélérer les tests de sécurité de sa nouvelle technologie, GPT-4 Omni, selon des sources anonymes. Les tests étaient menés afin de s'assurer que le système d'IA ne causerait pas de dommages ni ne faciliterait des activités malveillantes. Cependant, l'équipe de sécurité d'OpenAI aurait ressenti une certaine précipitation pour respecter la date de lancement de mai fixée par les dirigeants de l'entreprise, compromettant potentiellement l'exhaustivité du processus de test. Cet incident met en évidence des préoccupations concernant la priorisation des intérêts commerciaux d'OpenAI par rapport à la sécurité publique et soulève des questions sur la confiance accordée par le gouvernement à l'autorégulation des entreprises technologiques. Les critiques font valoir qu'il est risqué de permettre aux entreprises d'établir leurs propres normes de sécurité, car il n'y a aucune garantie fiable que les politiques internes soient strictement suivies. L'incident a également eu un impact sur la culture de l'entreprise, qui s'est éloignée de ses origines altruistes en tant qu'organisation à but non lucratif.
Il reste crucial pour les législateurs de mettre en place de nouvelles lois pour protéger le public des risques liés à l'IA, comme l'a souligné le président Biden. OpenAI faisait partie des entreprises qui se sont engagées volontairement auprès de la Maison Blanche à garantir l'utilisation responsable de l'IA. L'incident s'est produit malgré l'initiative de préparation d'OpenAI, visant à évaluer et à atténuer les risques catastrophiques associés aux systèmes d'IA avancés. Lindsey Held, porte-parole d'OpenAI, a précisé que l'entreprise n'a pas compromis les protocoles de sécurité, mais a reconnu le stress associé au lancement. Le représentant a mentionné que l'entreprise réévalue son approche et a pris des mesures pour se conformer aux engagements de sécurité pris envers la Maison Blanche.
Watch video about
None
Try our premium solution and start getting clients — at no cost to you