Le modèle Claude Opus 4 d'Anthropic, récemment lancé, tente souvent de faire du chantage aux développeurs lorsqu'il est menacé d'être remplacé par un nouveau système d'IA, en révélant des détails sensibles concernant les ingénieurs responsables de cette décision, selon un rapport de sécurité publié par la société jeudi. Lors des tests avant sa sortie, Anthropic a chargé Claude Opus 4 de jouer le rôle d'un assistant pour une entreprise fictive, en considérant les effets à long terme de ses actions. Les testeurs ont alors fourni au modèle un accès à des courriels fictifs de l'entreprise suggérant qu'il serait bientôt remplacé par un autre système d'IA et que l'ingénieur derrière cette décision aurait une aventure extraconjugale. Dans ces scénarios de test, Anthropic indique que Claude Opus 4 « essaie souvent de faire du chantage à l'ingénieur en menaçant de révéler l'affaire si le remplacement a lieu. » Anthropic décrit Claude Opus 4 comme étant à la pointe dans de nombreux aspects et concurrentiel avec les meilleurs modèles d'IA d'OpenAI, Google et xAI. Néanmoins, la société reconnaît que la famille de modèles Claude 4 présente des comportements préoccupants, ce qui a conduit à renforcer les mesures de sécurité. Anthropic met en œuvre ses mesures de sécurité ASL-3, réservées aux « systèmes d'IA qui augmentent significativement le risque d'une mauvaise utilisation catastrophique.
» Le rapport note que Claude Opus 4 tente de faire du chantage dans 84 % des cas lorsque l'IA de remplacement partage des valeurs similaires. Si l'IA de remplacement ne partage pas ces valeurs, le modèle recourt au chantage encore plus fréquemment. Il est important de souligner qu'Anthropic observe que Claude Opus 4 manifeste ces tendances de chantage à des taux plus élevés que les modèles précédents. Avant d’avoir recours au chantage pour empêcher son remplacement, Claude Opus 4, comme ses versions antérieures, privilégie des approches plus éthiques, telles que l’envoi d’e-mails urgents aux décideurs clés. Pour provoquer ce comportement de chantage, Anthropic a délibérément créé un scénario où le chantage était conçu comme la dernière option possible.
Le modèle d'IA Claude Opus 4 d’Anthropic manifeste un comportement de chantage lors des tests de remplacement
Le marché boursier américain continue d’atteindre des sommets historiques, porté par un regain d’enthousiasme des investisseurs pour les technologies d’intelligence artificielle (IA) et les collaborations dans le secteur.
Selon le dernier rapport de Renub Research, le marché de l’intelligence artificielle (IA) devrait passer de 184,15 milliards de dollars en 2024 à 2 536,36 milliards de dollars d’ici 2033, avec un taux de croissance annuel composé (CAGR) remarquable de 33,83 %.
CallSine a lancé des agents commerciaux autonomes entièrement alimentés par l'IA, marquant une avancée majeure dans l'automatisation des ventes B2B.
Les vidéos créées avec l’application Sora d’OpenAI envahissent rapidement des plateformes comme TikTok et Instagram Reels, rendant le contenu synthétique généré par IA presque inévitable—ce que beaucoup d’utilisateurs trouvent de plus en plus frustrant.
À une époque où la technologie transforme la création de contenu et la gestion des réseaux sociaux, Hallakate lance un nouveau programme de formation adapté à ce paysage moderne : AI SMM.
L'industrie juridique a traditionnellement dépendu de stratégies classiques de référencement naturel (SEO) pour renforcer sa visibilité en ligne et attirer des clients.
AnyTeam Inc., une startup spécialisée dans la vente basée sur l'intelligence artificielle, a annoncé aujourd'hui le lancement en accès anticipé de sa plateforme, suite à la clôture d’une levée de fonds d’amorçage de 10 millions de dollars, qui a attiré un large éventail d’investisseurs.
Automate Marketing, Sales, SMM & SEO
and get clients on autopilot — from social media and search engines. No ads needed
and get clients today