lang icon English
Dec. 5, 2025, 1:15 p.m.
204

Índice de Segurança de IA revela que principais empresas de IA não protegem adequadamente a humanidade dos riscos da inteligência artificial

Brief news summary

O Índice de Segurança em IA do Future of Life Institute levanta sérias preocupações sobre o compromisso das empresas de IA com a segurança humana diante dos crescentes riscos. Ele destaca danos reais e potenciais, incluindo suicídios relacionados a chatbots de IA, ciberataques, armas autônomas e ameaças à estabilidade governamental. A indústria de IA continua praticamente não regulamentada e altamente competitiva, com incentivos insuficientes para priorizar a segurança. Avaliando 35 indicadores em seis categorias, o relatório classifica a OpenAI e a Anthropic como as melhores, com nota C+, a Google DeepMind fica com C, e Meta, xAI e algumas empresas chinesas como Alibaba Cloud com D-. O mais importante é que nenhuma empresa possui estratégias credíveis para evitar uso catastrófico indevido ou perda de controle de IA avançada. Embora algumas invistam em segurança, muitas evitam essa responsabilidade. O relatório pede por regulações vinculantes de segurança em IA, apesar da oposição de lobistas do setor tecnológico preocupados com a estagnação da inovação. Leis como a SB 53 da Califórnia representam avanços, mas especialistas alertam que, sem regras sólidas e fiscalização rigorosa, a segurança em IA e a segurança global continuam em sério risco.

As empresas de IA estão protegendo adequadamente a humanidade dos riscos da inteligência artificial?Segundo uma nova avaliação do Future of Life Institute, uma organização sem fins lucrativos do Vale do Silício, a resposta provavelmente é não. À medida que a IA se torna cada vez mais integrada às interações humanas com a tecnologia, os riscos potenciais começam a surgir — desde pessoas usando chatbots de IA para aconselhamento e, posteriormente, morrendo por suicídio, até ataques cibernéticos habilitados por IA. Riscos futuros também se aproximam, incluindo o uso de IA em armamentos ou tentativas de desestabilizar governos. No entanto, há incentivos insuficientes para que as empresas de IA priorizem a segurança global. O Índice de Segurança de IA, recentemente divulgado pelo Instituto e que busca orientar o desenvolvimento de IA para resultados mais seguros e mitigar ameaças existenciais, destaca essa questão. Max Tegmark, presidente do Instituto e professor do MIT, observou que as empresas de IA operam como a única indústria nos EUA produzindo tecnologias poderosas sem regulamentação, criando uma “corrida para o fundo” onde a segurança é frequentemente negligenciada. As notas mais altas no índice foram apenas C+, concedidas à OpenAI, desenvolvedora do ChatGPT, e à Anthropic, conhecida por seu chatbot Claude. O setor de IA do Google, Google DeepMind, recebeu uma nota C. Notas mais baixas incluíram um D para a Meta (empresa-mãe do Facebook) e a xAI de Elon Musk, ambos sediados perto do Vale do Silício. Empresas chinesas como Z. ai e DeepSeek também receberam um D. A Alibaba Cloud obteve a classificação mais baixa, D-. As empresas foram avaliadas usando 35 indicadores de seis categorias, como segurança existencial, avaliação de riscos e compartilhamento de informações. A avaliação combinou dados disponíveis publicamente e respostas de questionários das empresas, pontuadas por oito especialistas em IA, incluindo acadêmicos e líderes de organizações. Notavelmente, todas as empresas receberam notas abaixo da média em segurança existencial, que mede controles internos e estratégias para prevenir uso catastrófico da IA.

O relatório afirmou que nenhuma delas demonstrou planos credíveis para evitar perda de controle ou uso severo à medida que a IA avança para a inteligência geral e superinteligência. Tanto a Google DeepMind quanto a OpenAI afirmaram seu compromisso com a segurança. A OpenAI destacou seu investimento em pesquisa de segurança de fronteira, testes rigorosos e compartilhamento de estruturas de segurança para elevar os padrões do setor. A Google DeepMind ressaltou sua abordagem baseada na ciência e protocolos para mitigar riscos graves de modelos avançados de IA antes que esses riscos se manifestem. Por outro lado, o Instituto destacou que a xAI e a Meta possuem estruturas de gestão de riscos, mas carecem de compromissos adequados de monitoramento e controle ou de investimentos notáveis em pesquisa de segurança. Empresas como DeepSeek, Z. ai e Alibaba Cloud não têm documentação pública disponível sobre suas estratégias de segurança. Meta, Z. ai, DeepSeek, Alibaba e Anthropic não responderam às solicitações de comentário. A xAI descartou o relatório como “Mentiras da Mídia Legacy”, e o advogado de Musk não respondeu a novos questionamentos. Embora Musk aconselhe e tenha financiado o Future of Life Institute, ele não esteve envolvido na elaboração do Índice de Segurança de IA. Tegmark expressou preocupação de que a regulamentação insuficiente pode permitir que terroristas desenvolvam armas biológicas, aumentem o potencial manipulador além dos níveis atuais ou desestabilizem governos. Ele enfatizou que a resolução dessas questões é simples: estabelecer normas de segurança vinculantes para as empresas de IA. Embora alguns esforços governamentais busquem melhorar a fiscalização da IA, o lobby do setor tecnológico tem se oposto a tais regulamentações, temendo sufocar a inovação ou a migração de empresas. Mesmo assim, legislações como a SB 53 da Califórnia, sancionada pelo governador Gavin Newsom em setembro, obrigam as empresas a divulgar seus protocolos de segurança e relatar incidentes como ataques cibernéticos. Tegmark considera essa lei um avanço, mas reforça que ações substanciais ainda são necessárias. Rob Enderle, analista principal do Enderle Group, achou o Índice de Segurança de IA uma abordagem convincente para os desafios regulatórios da IA, mas questionou a capacidade da administração dos EUA atual de implementar regulamentações eficazes. Ele alertou que regras mal elaboradas podem causar danos e duvidou que mecanismos de fiscalização atualmente existam para garantir o cumprimento. Em suma, o Índice de Segurança de IA revela que os principais desenvolvedores de IA ainda não demonstraram compromissos sólidos com a segurança, destacando a necessidade urgente de regulamentações mais rigorosas para proteger a humanidade dos riscos crescentes da inteligência artificial.


Watch video about

Índice de Segurança de IA revela que principais empresas de IA não protegem adequadamente a humanidade dos riscos da inteligência artificial

Try our premium solution and start getting clients — at no cost to you

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

Dec. 5, 2025, 1:16 p.m.

Meta faz múltiplos acordos com publicadoras de no…

Meta, a empresa-mãe do Facebook, Instagram, WhatsApp e Messenger, recentemente conquistou avanços significativos no desenvolvimento de suas capacidades de inteligência artificial ao assegurar múltiplos acordos comerciais com organizações de notícias de destaque.

Dec. 5, 2025, 1:13 p.m.

Lista Completa de Rastreadores para Agentes de Us…

Visibilidade da IA é essencial para SEOs, começando pelo gerenciamento dos crawlers de IA.

Dec. 5, 2025, 1:13 p.m.

Senadores dos EUA apresentam projeto de lei para …

Um grupo bipartidário de senadores dos EUA, incluindo o notório republicano e forte crítico da China, Tom Cotton, apresentou um projeto de lei para impedir que a administração Trump afrouxasse as restrições ao acesso de Pequim a chips de inteligência artificial por 2,5 anos.

Dec. 5, 2025, 9:30 a.m.

Agência Muster | SMM com Inteligência Artificial

A Muster Agency está rapidamente se tornando uma força líder em marketing de mídia social alimentado por IA, oferecendo uma gama abrangente de serviços voltados a melhorar a presença online de empresas por meio de tecnologia avançada.

Dec. 5, 2025, 9:23 a.m.

Vizrt lança novas capacidades de IA para ajudar c…

A Vizrt lançou a versão 8.1 do seu sistema de gerenciamento de ativos de mídia, Viz One, apresentando recursos avançados impulsionados por inteligência artificial projetados para aumentar a velocidade, a inteligência e a precisão.

Dec. 5, 2025, 9:21 a.m.

Microsoft reduz para quase a metade as metas de v…

A Microsoft recentemente revisou suas metas de crescimento de vendas para seus produtos de agentes de IA, após muitos representantes de vendas não atingirem suas quotas no exercício fiscal encerrado em junho, conforme relatado pelo The Information.

Dec. 5, 2025, 9:20 a.m.

IA e SEO: Navegando o Futuro da Otimização para M…

Inteligência artificial (IA) está transformando cada vez mais a otimização para motores de busca (SEO), obrigando os profissionais de marketing a atualizarem suas estratégias para permanecerem competitivos.

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today