Les entreprises d’intelligence artificielle protègent-elles adéquatement l’humanité contre les risques de l’intelligence artificielle ?Selon une nouvelle note de rapport du Future of Life Institute, une organisation à but non lucratif de la Silicon Valley, la réponse est probablement non. Alors que l’IA devient de plus en plus intégrée aux interactions homme-technologie, les dangers potentiels émergent — allant de l’utilisation de chatbots IA pour du conseil, qui aboutit à des suicides, aux cyberattaques facilitées par l’IA. Des risques futurs se profilent également, comme l’utilisation de l’IA dans l’armement ou pour déstabiliser des gouvernements. Cependant, il existe peu d’incitations pour que les entreprises d’IA priorisent la sécurité globale. L’Indice de Sécurité de l’IA, publié récemment par l’Institute, qui vise à orienter le développement de l’IA vers des résultats plus sûrs et à atténuer les menaces existentielles, met en lumière ce problème. Max Tegmark, président de l’Institute et professeur au MIT, a noté que les entreprises d’IA opèrent comme la seule industrie américaine produisant une technologie puissante sans régulation, créant une « course vers le bas » où la sécurité est souvent négligée. Les meilleures notes obtenues dans l’indice n’étaient qu’un C+, attribué à OpenAI, développeur de ChatGPT, et Anthropic, connu pour son chatbot Claude. La division IA de Google, Google DeepMind, a reçu un C. Les notes inférieures comprenaient un D pour Meta (la maison mère de Facebook) et xAI d’Elon Musk, tous deux basés près de Palo Alto. Les firmes chinoises Z. ai et DeepSeek ont également obtenu un D. Alibaba Cloud a été notée D-. Les entreprises ont été évaluées selon 35 indicateurs répartis en six catégories, telles que la sécurité existentielle, l’évaluation des risques et le partage d’informations. L’évaluation combinait des données publiquement disponibles et les réponses aux enquêtes des entreprises, notées par huit experts en IA, incluant des universitaires et des dirigeants d’organisations. Fait notable, toutes les entreprises ont obtenu des scores en dessous de la moyenne en sécurité existentielle, qui mesure le contrôle interne et les stratégies pour empêcher une mauvaise utilisation catastrophique de l’IA.
Le rapport indique qu’aucune n’a montré de plans crédibles pour prévenir la perte de contrôle ou une mauvaise utilisation grave alors que l’IA progresse vers une intelligence générale ou superintelligente. Tant Google DeepMind qu’OpenAI ont confirmé leur engagement en faveur de la sécurité. OpenAI a souligné ses investissements dans la recherche en sécurité de frontier, ses tests rigoureux et le partage de cadres de sécurité pour élever les standards de l’industrie. Google DeepMind a mis en avant son approche scientifique de la sécurité et ses protocoles pour atténuer les risques graves liés à des modèles d’IA avancés avant que ces risques ne se concrétisent. En revanche, l’Institute souligne que xAI et Meta disposent de cadres de gestion des risques, mais manquent d’engagements suffisants en surveillance et contrôle, ou d’investissements remarquables en recherche sur la sécurité. Des entreprises comme DeepSeek, Z. ai et Alibaba Cloud ne disposent pas de documentation publique sur leur stratégie de sécurité. Meta, Z. ai, DeepSeek, Alibaba et Anthropic n’ont pas répondu aux demandes de commentaires. xAI a rejeté le rapport en le qualifiant de « mensonge des médias » et l’avocat de Musk n’a pas répondu aux questions supplémentaires. Bien que Musk conseille et ait financé le Future of Life Institute, il n’a pas participé à l’élaboration de l’Indice de Sécurité de l’IA. Tegmark a exprimé sa crainte qu’un manque de régulation suffisant permette aux terroristes de développer des armes biologiques, d’augmenter leur potentiel de manipulation au-delà des niveaux actuels ou de déstabiliser des gouvernements. Il a souligné que la résolution de ces problèmes est simple : établir des normes de sécurité contraignantes pour les entreprises d’IA. Bien que certains efforts gouvernementaux cherchent à renforcer la régulation de l’IA, la pression exercée par le lobbying technologique s’y oppose, craignant de freiner l’innovation ou de voir migrer ces activités à l’étranger. Néanmoins, une législation comme le SB 53 de la Californie, signée par le gouverneur Gavin Newsom en septembre, oblige les entreprises à divulguer leurs protocoles de sécurité et de sûreté, et à signaler les incidents comme les cyberattaques. Tegmark considère cette loi comme une avancée, mais insiste sur le fait qu’il faut encore faire beaucoup plus. Rob Enderle, analyste principal du Enderle Group, trouve que l’Indice de Sécurité de l’IA constitue une approche convaincante face aux défis réglementaires de l’IA, mais doute de la capacité de l’administration américaine actuelle à mettre en œuvre des régulations efficaces. Il met en garde contre le risque que des règles mal conçues puissent causer du tort, et il doute que des mécanismes de mise en application existent actuellement pour assurer le respect. En résumé, l’Indice de Sécurité de l’IA révèle que les principaux développeurs d’IA n’ont pas encore montré d’engagements solides en matière de sécurité, soulignant qu’il est urgent de renforcer la régulation afin de protéger l’humanité face aux risques croissants de l’IA.
L'Index de Sécurité de l'IA révèle que les principales entreprises d'IA ne parviennent pas à protéger adéquatement l'humanité contre les risques liés à l'IA
Meta, la société mère de Facebook, Instagram, WhatsApp et Messenger, a récemment réalisé d'importants progrès dans le développement de ses capacités en intelligence artificielle en concluant plusieurs accords commerciaux avec des organisations de presse de renom.
La visibilité de l’IA est essentielle pour les spécialistes du référencement, en commençant par la gestion des crawlers d’IA.
Un groupe bipartite de sénateurs américains, comprenant le célèbre hawk républicain sur la Chine Tom Cotton, a présenté un projet de loi visant à empêcher l'administration Trump d'assouplir les restrictions sur l'accès de Pékin aux puces d'intelligence artificielle pendant 2,5 ans.
L'agence Muster devient rapidement une force majeure dans le marketing sur les réseaux sociaux alimenté par l'IA, offrant une gamme complète de services visant à renforcer la présence en ligne des entreprises grâce à une technologie avancée.
Vizrt a lancé la version 8.1 de son système de gestion des actifs médias, Viz One, en intégrant des fonctionnalités avancées alimentées par l'intelligence artificielle conçues pour augmenter la vitesse, l'intelligence et la précision.
Microsoft a récemment revu ses objectifs de croissance des ventes pour ses produits d'agents d'IA après que de nombreux représentants commerciaux ont manqué leurs quotas lors de l'exercice fiscal se terminant en juin, selon les reportages de The Information.
L'intelligence artificielle (IA) transforme de plus en plus l'optimisation pour les moteurs de recherche (SEO), obligeant les marketeurs à actualiser leurs stratégies pour rester compétitifs.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today