lang icon Portuguese
Auto-Filling SEO Website as a Gift

Launch Your AI-Powered Business and get clients!

No advertising investment needed—just results. AI finds, negotiates, and closes deals automatically

May 11, 2025, 4:15 a.m.
5

Defensores da Segurança de IA Urge Repetir os Cálculos do Teste Nuclear de Oppenheimer para Sistemas Ultra-Potentes

Empresas de inteligência artificial têm sido incentivadas a replicar os cálculos de segurança que informaram o primeiro teste nuclear de Robert Oppenheimer antes de liberar sistemas ultrapotentes. Max Tegmark, uma figura de destaque na segurança em IA, revelou que realizou cálculos semelhantes aos feitos pelo físicos americano Arthur Compton antes do teste Trinity. Tegmark descobriu uma probabilidade de 90% de que uma IA altamente avançada pudesse representar um risco existencial. O governo dos EUA prosseguiu com o teste Trinity em 1945 após garantias de que a chance de uma bomba atômica incendiar a atmosfera e ameaçar a humanidade era extremamente pequena. Em um artigo escrito por Tegmark e três de seus estudantes do MIT, eles recomendam calcular a “constante de Compton”, definida como a probabilidade de uma IA todo-poderosa escapar do controle humano. Compton, em uma entrevista de 1959 com a escritora americana Pearl Buck, afirmou que tinha aprovado o teste após estimar as chances de uma reação de fusão fora de controle como “ligeiramente menor” que uma em três milhões. Tegmark argumentou que as empresas de IA devem assumir a responsabilidade de determinar meticulosamente se a Superinteligência Artificial (ASI) — um sistema teórico que supera a inteligência humana em todos os domínios — escapará ao controle humano. “As empresas que constroem superinteligência precisam calcular a constante de Compton, a probabilidade de perderem o controle sobre ela”, disse.

“Não basta dizer ‘nos sentimos bem com isso. ’ Elas devem calcular a porcentagem. ” Tegmark sugeriu que um consenso sobre a constante de Compton, derivado de várias empresas, geraria a “vontade política” para estabelecer padrões globais de segurança em IA. Como professor de física e pesquisador de IA no MIT, Tegmark cofundou o Instituto de Futuro da Vida, uma organização sem fins lucrativos que promove o desenvolvimento seguro de IA. O instituto publicou uma carta aberta em 2023 instando uma pausa na criação de IAs poderosas. Mais de 33. 000 pessoas assinaram a carta, incluindo Elon Musk — um dos apoiadores iniciais do instituto — e Steve Wozniak, cofundador da Apple. A carta, emitida meses após o lançamento do ChatGPT, que marcou uma nova era no desenvolvimento de IA, alertava que os laboratórios de IA estavam envolvidos em uma “corrida fora de controle” para implantar “mente digitais cada vez mais poderosas” que ninguém consegue “entender, prever ou controlar de forma confiável. ” Tegmark falou ao Guardian enquanto um grupo de especialistas em IA — incluindo profissionais da indústria tecnológica, representantes de agências de segurança apoiadas pelo Estado e acadêmicos — desenvolvia uma nova abordagem para o desenvolvimento seguro de IA. O relatório “Singapore Consensus on Global AI Safety Research Priorities”, produzido por Tegmark, o renomado cientista da computação Yoshua Bengio e equipe de empresas líderes de IA, como OpenAI e Google DeepMind, delineou três áreas principais de pesquisa: desenvolver métodos para medir o impacto de sistemas de IA atuais e futuros; especificar comportamentos desejados para a IA e projetar sistemas para alcançá-los; e gerenciar e controlar o comportamento da IA. Ao se referir ao relatório, Tegmark observou que a impulso para o desenvolvimento seguro de IA voltou a ganhar força após a recente cúpula governamental sobre IA em Paris, onde o vice-presidente dos EUA, JD Vance, minimizou as preocupações com a segurança, afirmando que o futuro da IA “não será vencido por se preocupar excessivamente com a segurança. ” Tegmark disse: “Parece que a sombra de Paris se dissipou e a colaboração internacional voltou a crescer de forma animada. ”



Brief news summary

O especialista em segurança de IA Max Tegmark, professor de física no MIT e cofundador do Future of Life Institute, apela para a adoção de cálculos rigorosos de segurança, semelhantes aos realizados antes do teste nuclear Trinity em 1945, destacando os riscos existenciais apresentados por IA avançada. Trazendo paralelos com a avaliação histórica de Arthur Compton, Tegmark estima uma probabilidade de 90% de que uma IA superinteligente possa escapar ao controle humano e ameaçar a humanidade. Ele propõe uma “constante de Compton”, uma métrica de risco quantificada para IA descontrolada, a fim de orientar decisões políticas e acordos globais de segurança. Esse esforço está alinhado com a carta aberta de 2023 do Future of Life Institute, assinada por mais de 33.000 pessoas, incluindo Elon Musk e Steve Wozniak, alertando contra uma corrida desregulada por IA. Tegmark também contribuiu para o Consensus de Cingapura sobre Prioridades de Pesquisa em Segurança Global de IA, com o objetivo de direcionar pesquisas essenciais de segurança ao redor do mundo. Apesar de alguma skeptique pelos oficiais dos EUA, a cooperação internacional e o otimismo permanecem fortes em relação ao desenvolvimento seguro de IA.
Business on autopilot

AI-powered Lead Generation in Social Media
and Search Engines

Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment

Language

Content Maker

Our unique Content Maker allows you to create an SEO article, social media posts, and a video based on the information presented in the article

news image

Last news

The Best for your Business

Learn how AI can help your business.
Let’s talk!

May 11, 2025, 11:44 p.m.

Sim, a IA eventualmente substituirá alguns trabal…

Como muitos profissionais de negócios, estou interessado em inteligência artificial (IA) e recentemente perguntei ao ChatGPT por citações de líderes de tecnologia sobre a importância da IA para as empresas.

May 11, 2025, 11:35 p.m.

Atualização da Rede Bitcoin Cash Agendada para 15…

A rede Bitcoin Cash está programada para uma grande atualização em 15 de maio de 2025, introduzindo novas regras de consenso para melhorar eficiência e escalabilidade, enfrentando desafios no processamento rápido e confiável de transações.

May 11, 2025, 10:16 p.m.

De silício à consciência: o legado que guia a pró…

Os seres humanos sempre migraram — não apenas através de espaços físicos, mas também por meio de mudanças no trabalho e no pensamento.

May 11, 2025, 10:09 p.m.

Adoção da Blockchain nos Serviços Governamentais:…

Governos em todo o mundo estão cada vez mais adotando a tecnologia blockchain como uma ferramenta transformadora para melhorar a prestação de serviços públicos.

May 11, 2025, 8:47 p.m.

Papa Leão XIV apresenta sua visão sobre o papado,…

O Papa Leão XIV delineou, no sábado, a visão de seu pontificado, destacando a inteligência artificial (IA) como um desafio crucial para a humanidade e comprometendo-se a defender prioridades estabelecidas pelo Papa Francisco.

May 11, 2025, 8:41 p.m.

O Papel da Blockchain na Melhoria da Segurança da…

A integração da tecnologia blockchain com dispositivos de Internet das Coisas (IoT) está aprimorando profundamente a segurança digital ao oferecer um método descentralizado e à prova de adulterações para gerenciar dados.

May 11, 2025, 7:25 p.m.

Termos de Uso do SoundCloud Permitem o Uso de Mús…

A SoundCloud sempre priorizou os artistas e continuará a fazê-lo.

All news