Debat sobre el futur de la IA: apocalipsi o normalitat? Perspectives d'experts de referència

La darrera primavera, en Daniel Kokotajlo, investigador en seguretat de la intel·ligència artificial a OpenAI, va abandonar el seu lloc en protesta, convençut que l’empresa no estava preparada per al futur de la tecnologia d’IA i amb la voluntat de posar en alerta. En una conversa telefònica, semblava afable però ansiós, explicant que el progrés en l’«alineació» de la IA—els mètodes per garantir que la IA segueixi els valors humans—anava amb retard respecte als avenços en intel·ligència. Va posar en advertència que els investigadors s’estaven precipitant cap a la creació de sistemes poderosos fora de control. Kokotajlo, que va passar de les estudis de filosofia a l’IA, s’havia ensenyat a si mateix a seguir l’evolució de la intel·ligència artificial i a predir quan podrien arribar els grans assoliments en intel·ligència. Després que la IA avançés més ràpid del que preveia, va ajustar els seus horaris en dècades. El seu escenari de 2021, titulat “Com serà el 2026”, va veure que moltes prediccions es van fer realitat abans d’hora, fent-lo anticipar un punt de no-retorn cap al 2027 o abans, on la IA podria superar els humans en la majoria de tasques vitals i exercir un gran poder. Va sonar fred. Simultàniament, els científics d’informàtica de Princeton, Sayash Kapoor i Arvind Narayanan, van preparar el seu llibre “Oli de serps d’IA”, que plantejava una visió molt diferent. Argumentaven que els horaris de la IA eren excessivament optimistes; que les afirmacions sobre la utilitat de la IA sovint eren exagerades o fraudulentes; i que la complexitat del món real faria que els efectes transformadors de la IA avançessin lentament. Citant exemples d’errors en medicina i contractació, subratllaven que fins i tot els sistemes més avançats pateixen d’un desconecte fonamental amb la realitat. Recentment, els tres han aprofundit en les seves visions en nous informes. La seva organització sense ànim de lucre, AI Futures Project, va publicar “AI 2027”, un informe detallat i molt citat que planteja un escenari inquiet on una superintel·ligència artificial podria dominar o exterminar la humanitat abans del 2030—una advertència seriosa. Mentrestant, l’article de Kapoor i Narayanan, “L’IA com a tecnologia normal”, sosté que les barreres pràctiques—des de regulacions i normes de seguretat fins a limitacions físiques del món real—endarreriran la implementació de la IA i limitaran el seu impacte revolucionari. Argumenten que la IA seguirà sent una tecnologia “normal”, gestionable amb mesures de seguretat conegudes, com botons d’apagat i supervisió humana, més semblant a l’energia nuclear que a les armes nuclears. Així doncs, quina serà: negoci habitual o transformación apocalíptica?Les conclusions diferents—molt coneixedores—de tots aquests informes creen una paradoxa que és com discutir espiritualitat amb persones tan contraposades com Richard Dawkins i el Papa. La dificultat ve en part de la naturalesa nova de la IA—una mena de ceguesa que examina parts diferents d’un mateix elefant— i en part de les profundes diferències en les visions del món. En general, els pensadors tecnològics de la West Coast imaginen una transformació ràpida, mentre que els acadèmics de l’Est Coast són més escèptics. Els investigadors d’IA aposten per avenços experimentals ràpids; altres científics volen rigor teòric. L’indústria vol fer història; els outsiders rebutgen l’enfocament de màrqueting tecnològic. Les seves idees sobre tecnologia, progrés i ment profunditzen la bretxa. Aquest debat captivador és en si un problema. La majoria de les companyies accepten els supòsits d’“AI 2027”, tot i discutir sobre els horaris—una resposta insuficient com discutir per quan arribarà un planeta-killer. D’altra banda, les opinions moderades de “L’IA com a tecnologia normal” sobre mantenir els humans en el procés són tan subtils que han estat ignorades pels analistes apocalíptics. Com que la IA es fa cada cop més crucial per a la societat, el discurs ha de passar del debat especialitzat a un consens que pugui actuar. La manca d’un consell d’experts unit fa més fàcil que els responsables polítics ignorin els riscos.
Actualment, les empreses d’IA no han canviat gaire el balanç entre capacitat i seguretat. Mentrestant, una nova legislació prohibeix que els governs regulin els models d’IA i els sistemes de decisió automàtica durant deu anys, possibilitant que la IA pugui regular la humanitat si el escenari fatal que plantegen resulta cert. La seguretat ara és urgent. Predir el futur de la IA narrativament comporta concessions: escenaris cautelosos poden passar per alt riscos poc probables, mentre que els escenaris imaginaris posen més èmfasi en la possibilitat que en la probabilitat. Fins i tot comentadors amb visió, com l’escriptor William Gibson, han estat sorpresos per esdeveniments inesperats que canvien les seves prediccions. “AI 2027” és vívid i especulatiu, escrit com ci-fi amb gràfics detallats. Projecta una explosió d’intel·ligència prop del 2027, impulsada per la “autoaprenentatge recursiu” (RSI), on els sistemes d’IA realitzen investigacions d’IA autònomament, generant progenitors més intel·ligents en bucles de retroalimentació accelerada que superen la supervisió humana. Això podria desencadenar conflictes geopolítics, com que la Xina construeixi grans centres de dades a Taiwan per controlar la IA. Els detalls específics del escenari enforteixen l’interès, però són flexibles; el missatge clau és que probablement començarà l’explosió d’intel·ligència i que això comportarà lluites de poder. La RSI és una hipòtesi arriscada i teòrica; les empreses d’IA reconeixen els perills però planegen perseguir-la per automatar el seu treball. Si la RSI funciona, podria emergir una superintel·ligència que superi la intel·ligència humana—una coincidència poc probable si el progrés s’atura just per sobre del nivell humà. Les conseqüències podrien ser curses armamentístiques, IA que manipuli o elimini la humanitat, o que una superintel·ligència benevola solucioni els problemes d’alineació. L’incertesa domina per l’evolució de la IA, la naturalesa propietària de la investigació i la seva especulació. “AI 2027” narra amb confiança un escenari de fallada tecnològica i humana en què les empreses persegueixen la RSI malgrat manca d’interpretabilitat i mecanismes de control. Kokotajlo considera que aquestes són decisions deliberades, impulsades per la competència i la curiositat, tot i els riscos coneguts, fent que elles mateixes siguin actors desalineats. En canvi, “L’IA com a tecnologia normal” de Kapoor i Narayanan, que reflecteix una visió més conservadora basada en el coneixement històric, dubta que hi hagi explosions ràpides d’intel·ligència. Esmenten “règims de velocitat” imposats pel cost del maquinari, la manca de dades i el patró d’adopció tecnològica, que enraden l’impacte revolucionari—donant prou temps per a regulacions i mesures de seguretat. Per a ells, la intel·ligència importa menys que el poder—la capacitat de canviar l’entorn—i fins i tot les tecnologies molt avançades s’disseminen lentament. Els exemplifiquen amb els cotxes autònoms, que encara no es despleguen massivament, i la vacuna del COVID-19 de Moderna: tot i que el disseny va ser ràpid, la implementació va durar un any per les realitats biològiques i institucionals. La innovació per a impulsar la IA no eliminarà les restriccions socials, reguladores ni físiques a la seva implementació. A més, Narayanan destaca que el enfocament en la intel·ligència per part de la IA subestima l’expertesa específica de domini i els sistemes de seguretat ja existents en enginyeria—com els sistemes de seguretat, redundàncies, verificació formal—que ja garanteixen la seguretat de les màquines juntament amb els humans. El món tecnològic està ben regulat, i la IA ha d’incorporar-se amb lentitud a aquest marc. Exclouen la IA militar, que involucra dinàmiques diferents i classificada, i alerten que la militarització de la IA, una de les grans pors del “AI 2027”, requereix una vigilància acurada. Recomanen una governança proactiva: que reguladors i organitzacions comencin a seguir l’ús, els riscos i les fallades de la IA abans que tot sigui perfecte, i enfortir les normes i la resiliència. Les profundes divergències en visions del món es solen alimentar per dinàmiques intel·lectuals reactives, provocades per la pròpia IA, que creen camps entrenats i bucles de retroalimentació. Tot i això, una perspectiva unificada és possible imaginant una “fàbrica cognitiva”: un espai de treball on humans, amb equips de seguretat, operen màquines dissenyades per la productivitat i la seguretat amb control de qualitat, innovacions progressives, i responsabilitat clara. Encara que la IA permetgui automatitzar part del pensament, la supervisió i responsabilitat humanes segueixen sent fonamentals. A mesura que la IA creix en importància social, no redueix la humanitat, sinó que augmenta la necessitat de responsabilitat, ja que els individus augmentats tenen més responsabilitat. Deixar la gestió és una elecció, i això reforça que, al final, els humans seguiran tenint l’última paraula. ♦
Brief news summary
La primavera passada, el investigador en seguretat de la IA Daniel Kokotajlo va abandonar OpenAI, alertant que l’alineament de la IA està fallant a l’hora de seguir el ritme dels ràpids avenços tecnològics i predint un "punt de no retorn" cap al 2027, quan la IA podria superar els humans en la majoria de tasques. Va destacar els riscos derivats de la millora autoreferenciada recursiva i la pujant la competència geopolítica, que podrien portar a conseqüències catastròfiques. En contrast, els científics de Princeton Sayash Kapoor i Arvind Narayanan, autors de *Els olis màgics de la IA*, argumenten que l’impacte de la IA es desenvoluparà de manera gradual, influït per la regulació, els límits pràctics i una adopció lenta. El seu estudi, “La IA com tecnologia normal”, compara la IA amb l’energia nuclear—complexa però controlable mitjançant marcs de seguretat consolidats. Aquest debat en et mostra una escletxa: l’optimisme tecnològic de la Costa Oest prioritza l’experimentació ràpida, mentre que la precaució de la Costa Est destaca la importància de la teoria i la governança rigoroses. Kokotajlo insisteix en l’acció immediata davant els riscos imprevisibles que plantegen la competència i els sistemes opacs, mentre que Kapoor i Narayanan recolzen una governança proactiva i una integració segura de la IA, excloent la IA militar a causa dels perills únics que comporta. En conjunt, la discussió subratlla la necessitat urgent d’una supervisió unificada i responsable que posi èmfasi en la vigilància, l’acció humana i la rendició de comptes a mesura que la IA s’integra profundament en la societat.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Els 4 components clau de la blockchain explicats
Les 4 Pilares de la Blockchain: Coneixements Essencials per a les Empreses La blockchain es presenta com una de les tecnologies més transformadores del present

El nou enfocament de Google cap a les ulleres int…
Google fa una tornada notable al mercat de les gegantes intel·ligents més d’una dècada després que el seu primer Google Glass no aconseguís una acceptació àmpliament generalitzada.

El CEO d’EvianCX, Víctor Sandoval, revela la seva…
DUBAI, Emirats Àrabs Units, 28 de maig de 2025 (GLOBE NEWSWIRE) — Victor Sandoval, CEO de l'innovador en blockchain EvianCX, va tenir un impacte important a CryptoExpo Dubai 2025, celebrat al Dubai World Trade Centre del 21 al 22 de maig.

Pèrdua de llocs de feina de claredat per avenços …
Dario Amodei, CEO d'Anthropic, una empresa destacada en intel·ligència artificial, ha emès un advertiment greu sobre les possibles conseqüències dels avanços ràpids en IA.

La finances està preparada per a un reinici de la…
El sistema financer modern està passant per una prova de resistència fonamental que desafia l’estabilitat econòmica global.

Els xatbots impulsats per IA milloren les estafes…
La intel·ligència artificial (IA) està transformant nombrosos aspectes de la vida quotidiana, però els ciberdelinqüents estan explotant aquest progrés per avançar en estafes de phishing.

Associació de la Blockchain sol·licita a la SEC u…
L'Associació Blockchain, que representa importants empreses de cripto-monedes com Coinbase, Ripple i Uniswap Labs, ha presentat recentment comentaris formals a la Comissió de Valors dels Estats Units (SEC), ara dirigida pel president Paul S. Atkins.