lang icon Catalan
Auto-Filling SEO Website as a Gift

Launch Your AI-Powered Business and get clients!

No advertising investment needed—just results. AI finds, negotiates, and closes deals automatically

May 11, 2025, 4:15 a.m.
4

Els defensors de la seguretat de la intel·ligència artificial insten a replicar els càlculs de proves nuclears d’Oppenheimer per a sistemes ultrapotents

Les empreses d’intel·ligència artificial s’han delectat a replicated els càlculs de seguretat que van informar la primera prova nuclear d’en Robert Oppenheimer abans de llançar sistemes ultra potents. Max Tegmark, una figura destacada en la seguretat de la IA, va revelar que havia realitzat càlculs similars als que va fer l’investigador físic nord-americà Arthur Compton abans de la prova Trinity. Tegmark va trobar una probabilitat del 90% que una IA altament avançada pogués representar un risc existential. El govern dels Estats Units va continuar amb la prova Trinity el 1945 després d’assegurar que la probabilitat que una bomba atòmica encengués l’atmosfera i amenaçés la humanitat era gairebé nul·la. En un article escrit per Tegmark i tres dels seus estudiants del MIT, recomanen calcular la “constant de Compton, ” definida com la probabilitat que una IA totpoderosa escapoli al control humà. Compton, en una entrevista del 1959 amb l’autora nord-americana Pearl Buck, va afirmar que havia aprovat la prova després d’estimar que les probabilitats d’una reacció de fusió descontrolada eren “lleugerament menys” que una de cada tres milions. Tegmark va argumentar que les empreses d’IA han de assumir la responsabilitat de determinar meticulosament si la SuperIntel·ligència Artificial (ASI)—un sistema teòric que supera la intel·ligència humana en tots els àmbits—escapolarà de la supervisió humana. “Les empreses que construeixen la superintel·ligència necessiten calcular la constant de Compton, la probabilitat que perdem el control sobre ella”, va dir.

“No n’és suficient dir ‘ens sentim bé amb això. ’ Han de calcular el percentatge. ” Tegmark va suggerir que un consens sobre la constant de Compton derivat de diverses empreses generaria la “voluntat política” per establir estàndards globals de seguretat en IA. Com a professor de física i investigador en IA al MIT, Tegmark va cofundar l’Institut del Futur de la Vida, una organització sense ànim de lucre que promou el desenvolupament segur de la IA. L’institut va publicar una carta oberta el 2023 que instava a fer una pausa en la creació d’IA potents. Més de 33. 000 persones la van signar, incloent Elon Musk—un dels primers a donar suport a l’institut—i l’empresari cofundador d’Apple, Steve Wozniak. La carta, difosa mesos després del llançament de ChatGPT, que va marcar una nova era en el desenvolupament de la IA, advertia que els laboratoris d’IA estaven compromesos en una “carrera fora de control” per desplegar “mentes digitals cada vegada més potents” que ningú pot “comprendre, predir o controlar de manera fiable. ” Tegmark va parlar amb The Guardian mentre un grup d’experts en IA—incloent professionals de la indústria tecnològica, representants d’agències de seguretat c prioritades per estàndards globals per a la investigació en seguretat de la IA, va produir el Informe del Consens de Singapur sobre les Prioritats de Recerca en Seguretat Global de la IA, elaborat per Tegmark, el reconegut científic informàtic Yoshua Bengio, i personal de diverses empreses d’IA com OpenAI i Google DeepMind, que va destacar tres àrees clau de recerca: desenvolupar mètodes per mesurar l’impacte dels sistemes d’IA actuals i futurs; especificar el comportament desitjat de la IA i dissenyar sistemes per aconseguir-lo; i gestionar i controlar el comportament de la IA. Referint-se a l’informe, Tegmark va destacar que la pressió per un desenvolupament segur de la IA havia recuperat impuls després de la recent cimera governamental sobre IA a París, on el vicepresident dels EUA, JD Vance, va minimitzar les preocupacions de seguretat, afirmant que el futur de la IA “no s’aconseguirà lamentant-se per la seguretat. ” Tegmark va dir: “Realment sembla que la foscor de París s’ha alliberat i la col·laboració internacional ha tornat amb força. ”



Brief news summary

l expert en seguretat de la Intel·ligència Artificial Max Tegmark, professor de física al MIT i cofundador de l'Institut del Futur de la Vida, reclama l’adopció de càlculs de seguretat rigorosos semblants als que es van realitzar abans de la prova nuclear Trinity de 1945, destacant els riscos existencials que planteja la IA avançada. Fent un paral·lelisme amb l’avaluació històrica d’Arthur Compton, Tegmark estima que hi ha un 90% de probabilitats que una IA superintel·ligent pugui escapar al control humà i amenaçar la humanitat. Proposa una “constant Compton”, una mètrica de risc quantificada per a la IA desbocada, per informar les decisions polítiques i els acords de seguretat globals. Aquest esforç s’alinea amb la carta oberta de l’Institut del Futur de la Vida de 2023, signada per més de 33.000 persones, entre elles Elon Musk i Steve Wozniak, que adverteix contra una cursa d’IA no regulada. Tegmark també va contribuir al Consens de Singapur sobre Prioritats de Recerca en Seguretat Global de la IA, amb l’objectiu d’orientar la recerca clau sobre seguretat arreu del món. Tot i algun escepticisme per part de funcionaris dels Estats Units, la cooperació internacional i l’optimisme per al desenvolupament segur de la IA continuen sent forts.
Business on autopilot

AI-powered Lead Generation in Social Media
and Search Engines

Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment

Language

Content Maker

Our unique Content Maker allows you to create an SEO article, social media posts, and a video based on the information presented in the article

news image

Last news

The Best for your Business

Learn how AI can help your business.
Let’s talk!

May 12, 2025, 2:33 a.m.

El rol de la blockchain en la verificació d'ident…

La verificació de la identitat digital és crucial per a la seguretat en l’actual entorn en línia interconnectat, ja que s’intercanvia una quantitat creixent de dades personals entre serveis digitals.

May 12, 2025, 2:30 a.m.

Com es comparen els agents d'IA en tasques rutinà…

El Financial Times recentment ha realitzat una avaluació exhaustiva dels agents d’intel·ligència artificial desenvolupats per grans empreses tecnològiques, incloent OpenAI, Anthropic, Perplexity, Google, Microsoft i Apple.

May 12, 2025, 1:09 a.m.

Impacte ambiental de la blockchain: equilibrant i…

A mes que la tecnologia blockchain avança ràpidament, el seu impacte ambiental s’ha convertit en una preocupació creixent a nivell global.

May 12, 2025, 1:07 a.m.

Emirats Àrabs Units introduirà classes d'IA per a…

El Emirat Àrabs Units (EAU) està liderant la innovació en l'educació introduint un currículum d’intel·ligència artificial (IA) per als infants a partir de l’educació infantil en les escoles públiques.

May 11, 2025, 11:44 p.m.

Sí, la intel·ligència artificial finalment substi…

Com molts professionals de negocis, em interessa la intel·ligència artificial (IA) i recentment vaig preguntar a ChatGPT per cites de líders tecnològics sobre la importància de la IA per a les empreses.

May 11, 2025, 11:35 p.m.

Actualització de la xarxa de Bitcoin Cash program…

La xarxa de Bitcoin Cash està programada per a una actualització important el 15 de maig de 2025, introduint noves regles de consens per millorar l’eficiència i l’escalabilitat, abordant els desafiaments en el processament ràpid i fiable de transaccions.

May 11, 2025, 10:16 p.m.

Des del silici fins a la consciència: El llegat q…

Els humans sempre han migrat — no només a través de espais físics sinó també mitjançant canvis en el treball i el pensament.

All news