lang icon Spanish
Auto-Filling SEO Website as a Gift

Launch Your AI-Powered Business and get clients!

No advertising investment needed—just results. AI finds, negotiates, and closes deals automatically

May 11, 2025, 4:15 a.m.
22

Defensores de la Seguridad en IA Urgen a Replicar los Cálculos de Pruebas Nucleares de Oppenheimer para Sistemas Ultra-Potentes

Las empresas de inteligencia artificial han sido incentivadas a replicar los cálculos de seguridad que informaron la primera prueba nuclear de Robert Oppenheimer antes de poner en marcha sistemas ultra poderosos. Max Tegmark, una figura destacada en la seguridad de la IA, reveló que había realizado cálculos similares a los realizados por el físico estadounidense Arthur Compton antes de la prueba Trinity. Tegmark encontró que había un 90% de probabilidad de que una IA altamente avanzada pudiera representar un riesgo existencial. El gobierno de Estados Unidos procedió con la prueba Trinity en 1945 después de recibir garantías de que la posibilidad de que una bomba atómica provocara una reacción en cadena en la atmósfera y amenazara a la humanidad era extremadamente pequeña. En un artículo escrito por Tegmark y tres de sus estudiantes del MIT, recomiendan calcular la “constante de Compton”, definida como la probabilidad de que una IA todopoderosa escape al control humano. Compton, en una entrevista de 1959 con la escritora estadounidense Pearl Buck, declaró que había aprobado la prueba después de estimar las probabilidades de una reacción de fusión descontrolada en “ligeramente menos” que una en tres millones. Tegmark argumentó que las empresas de IA deben asumir la responsabilidad de determinar cuidadosamente si la Súper Inteligencia Artificial (ASI), un sistema teórico que supera la inteligencia humana en todos los ámbitos, logrará evadir la supervisión humana. “Las empresas que desarrollan la superinteligencia deben calcular la constante de Compton, la probabilidad de que perdamos el control sobre ella”, dijo. “No basta con decir ‘nos sentimos bien al respecto’.

Deben calcular el porcentaje”. Tegmark sugirió que un consenso sobre la constante de Compton, derivado de varias compañías, generaría la “voluntad política” para establecer estándares globales de seguridad en IA. Como profesor de física e investigador de IA en el MIT, Tegmark cofundó el Instituto para el Futuro de la Vida, una organización sin fines de lucro que promueve el desarrollo seguro de la IA. La institución publicó en 2023 una carta abierta instando a pausar la creación de IA potentes. Más de 33, 000 personas firmaron la carta, incluyendo a Elon Musk—un primero defensor del instituto— y Steve Wozniak, cofundador de Apple. La carta, publicada meses después del lanzamiento de ChatGPT, que marcó una nueva era en el desarrollo de IA, advirtió que los laboratorios de IA estaban participando en una “carrera fuera de control” para desplegar “mentes digitales cada vez más poderosas” que nadie puede “entender, predecir ni controlar de manera confiable”. Tegmark habló con The Guardian mientras un grupo de expertos en IA, incluyendo profesionales de la industria tecnológica, representantes de agencias de seguridad respaldadas por el estado y académicos, desarrollaba un nuevo enfoque para el desarrollo seguro de la IA. El informe “Consenso de Singapur sobre Prioridades en la Investigación de Seguridad Global en IA”, elaborado por Tegmark, el destacado científico en computación Yoshua Bengio y personal de empresas líderes como OpenAI y Google DeepMind, delineó tres áreas clave de investigación: desarrollar métodos para medir el impacto de los sistemas de IA actuales y futuros; especificar comportamientos deseados en la IA y diseñar sistemas para lograrlos; y gestionar y controlar el comportamiento de la IA. En referencia al informe, Tegmark señaló que el impulso por un desarrollo seguro de la IA había recobrado momentum tras la reciente cumbre gubernamental sobre IA en París, donde el vicepresidente estadounidense JD Vance desestimó las preocupaciones sobre seguridad, afirmando que el futuro de la IA “no se iba a ganar con lamentaciones sobre la seguridad”. Tegmark dijo: “Realmente parece que la penumbra que había en París se ha levantado y la colaboración internacional ha vuelto con fuerza. ”



Brief news summary

El experto en seguridad de la inteligencia artificial Max Tegmark, profesor de física en MIT y cofundador del Instituto para el Futuro de la Vida, hace un llamado a adoptar cálculos de seguridad rigurosos similares a los realizados antes de la prueba nuclear Trinity de 1945, destacando los riesgos existenciales que plantea la inteligencia artificial avanzada. Dibujando paralelos con la evaluación histórica de Arthur Compton, Tegmark estima que hay un 90% de posibilidades de que una IA superinteligente pueda escapar al control humano y amenazar a la humanidad. Propone una “constante de Compton,” una métrica de riesgo cuantificada para la IA rebelde, con el fin de informar decisiones políticas y acuerdos de seguridad globales. Este esfuerzo está alineado con la carta abierta del Instituto para el Futuro de la Vida de 2023, firmada por más de 33,000 personas, incluyendo a Elon Musk y Steve Wozniak, que advierten contra una carrera desregulada en IA. Tegmark también contribuyó al Consenso de Singapur sobre las Prioridades de Investigación en Seguridad Global de la IA, con el objetivo de orientar la investigación esencial en seguridad a nivel mundial. A pesar de cierto escepticismo por parte de algunos funcionarios estadounidenses, la cooperación internacional y el optimismo por el desarrollo seguro de la IA permanecen fuertes.
Business on autopilot

AI-powered Lead Generation in Social Media
and Search Engines

Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment

Language

Content Maker

Our unique Content Maker allows you to create an SEO article, social media posts, and a video based on the information presented in the article

news image

Last news

The Best for your Business

Learn how AI can help your business.
Let’s talk!

May 23, 2025, 12:18 a.m.

La adquisición de la startup de Jony Ive por part…

OpenAI ha logrado un avance importante en sus esfuerzos por impulsar la inteligencia artificial al adquirir las acciones restantes de la startup de diseño de Jony Ive, io, en una oferta pública de acciones por valor de 5 mil millones de dólares.

May 22, 2025, 11:45 p.m.

R3 y Solana se asocian para habilitar activos del…

R3 y la Fundación Solana se han unido para introducir activos del mundo real regulados en una cadena de bloques pública.

May 22, 2025, 10:50 p.m.

Cómo se publicó en los principales periódicos una…

Varios periódicos a nivel nacional, incluyendo el Chicago Sun-Times y al menos una edición del The Philadelphia Inquirer, publicaron una lista de libros de verano en syndication que incluía únicamente libros ficticios atribuidos a autores conocidos.

May 22, 2025, 10:13 p.m.

Kraken ofrecerá acciones estadounidenses tokeniza…

La plataforma de intercambio de criptomonedas Kraken planea ofrecer versiones tokenizadas de las acciones estadounidenses más populares a través de un nuevo producto llamado xStocks, lanzado en colaboración con Backed Finance.

May 22, 2025, 9:18 p.m.

OpenAI firma acuerdo con el diseñador del iPhone,…

OpenAI, el creador del chatbot de inteligencia artificial líder ChatGPT, se está preparando para ingresar en el espacio del hardware físico.

May 22, 2025, 8:33 p.m.

FIFA selecciona a Avalanche para lanzar una block…

La Federación Internacional de Fútbol Asociación (FIFA) anunció el 22 de mayo que ha elegido Avalanche para apoyar su red blockchain dedicada, centrada en tokens no fungibles (NFTs) y la participación digital de los aficionados.

May 22, 2025, 7:41 p.m.

El juez considera sanciones por citas falsas gene…

Un juez federal en Birmingham, Alabama, está revisando si sancionará al destacado bufete de abogados Butler Snow tras descubrir cinco citas legales falsas en presentaciones recientes relacionadas con un caso de alto perfil que involucra la seguridad de un recluso en la Instalación Correccional William E. Donaldson, donde el reo fue apuñalado varias veces.

All news