En un article d'opinió recent del New York Times, Dario Amodei, CEO d’Anthropic, va expressar la seva preocupació envers una proposta recolzada pels republicans per imposar una prohibició de deu anys a la regulació de la intel·ligència artificial a nivell estatal. Aquest moratori forma part d’una legislació més àmplia de reducció d’impostos recolzada per l’anterior administració del President Trump, amb l’objectiu de prevenir els esforços emergents de regulació de la IA a nivell estatal a tot el país. Amodei va criticar la prohibició generalitzada com a massa simplista i insuficientment matisada per abordar les complexitats en ràpida evolució de la IA. Ell va argumentar que un moratori de deu anys no només impediria la capacitat de les comunitats de regular i innovar amb responsabilitat en matèria d’IA, sinó que també dificultaria la creació d’una política nacional coherent alineada amb l’altament canviant panorama tècnic i ètic. Bloquejar els estats per establir marcs reguladors podria, sense voler, alentir el desenvolupament de models de governança més avançats i reflexius, essencials per a una supervisió efectiva de la IA. En lloc d’un ban complet, Amodei aposta per un enfocament mesurat basat en estàndards federals de transparència. Aquests estàndards requeririen als desenvolupadors d’IA que divulguin els mètodes de prova i les estratègies de mitigació de riscos, especialment aquelles relacionades amb la seguretat nacional. L’objectiu d’aquesta transparència és garantir que els sistemes d’IA siguin avaluats de manera rigorosa abans de sortir al públic o de ser utilitzats en àmbits sensibles. Amodei va destacar que les empreses d’IA tenen una responsabilitat important de garantir la seguretat i fiabilitat dels seus models abans de posar-los a disposició del públic.
Va assenyalar que Anthropic, juntament amb OpenAI i Google DeepMind, ja ha adoptat voluntàriament algunes pràctiques de informació sobre recerca, proves i avaluacions de seguretat, demostrant un compromís amb un desenvolupament responsable de la IA. No obstant això, va reconèixer que aquestes mesures voluntàries podrien tornar-se insuficients a mesura que els models d’IA s’enriqueixin i que els interessos corporatius evolucionin, suggerint que podria ser necessari un marc legislatiu formal per institucionalitzar la transparència i la rendició de comptes. Sense aquestes lleis, els incentius corporatius podrien allunyar-se de les prioritats de seguretat pública, arriscant-se a un desplegament èticament qüestionable de la tecnologia. El debat sobre la regulació de la IA s’intensifica en un context de ràpids avenços tecnològics, plantejant nous desafiaments als responsables polítics per equilibrar innovació i seguretat pública. Els moratoris recolzats pels republicans busquen evitar lleis fragmentades a nivell estatal que podrien dificultar el compliment i la innovació, però crítics com Amodei alerten que un enfocament uniforme corre el risc de passar per alt els desafiaments matisats de la IA. El seu article d’opinió reclama un marc regulador equilibrat que promogui la innovació tot imposant transparència i protocols de seguretat. Aquesta estratègia busca aprofitar els beneficis de la IA sense comprometre la seguretat ni l’ètica, reflectint un consens més ampli que afirmen que la col·laboració entre nivell federal, estatal, indústria i societat civil és fonamental per mantenir les polítiques alineades amb el ritme de la tecnologia. Aquest dilema policy reflecteix un problema global més ampli: governar tecnologies disruptives que evolucionen més ràpid del que la legislació habitual pot seguir. Regulacions flexibles combinades amb requisits de transparència proactius podrien oferir un camí prometedor cap al futur. En resum, Dario Amodei posa en evidència la complexitat de la governança de la IA, cridant els responsables polítics a reconsiderar els bans generals que poden impedir una regulació vital per a la innovació. En defensar la transparència i la rendició de comptes a nivell federal entre els desenvolupadors d’IA, la seva postura busca fomentar un entorn d’AI més segur, més fiable i equilibrat entre el progrés tecnològic i el benestar social.
Dario Amodei critica el moratórium de la regulació de la IA proposat pels republicans i advocat per estàndards federals de transparència
Resum i Redactat de “The Gist” sobre la Transformació de la IA i la Cultura Organitzacional La transformació de la IA suposa principalment un repte cultural més que purament tecnològic
L’objectiu final de les empreses és ampliar les vendes, però la forta competència pot dificultar aquest objectiu.
La incorporació de la intel·ligència artificial (IA) en les estratègies d'optimització per a motors de cerca (SEO) està transformant fonamentalment la manera com les empreses milloren la seva visibilitat online i atreuen trànsit orgànic.
La tecnologia deepfake ha fet avanços significatius recentment, generant vídeos manipulats altament realistes que retraten de manera convincente individus fent o dient coses que mai van fer realment.
Nvidia ha anunciat una expansió significativa de les seves iniciatives de codi obert, mostrant un compromís estratègic per donar suport i avançar en l’ecosistema de codi obert en computació d’alt rendiment (HPC) i intel·ligència artificial (AI).
El 19 de desembre de 2025, la governadora de Nova York, Kathy Hochul, va signar la Llei de Seguretat i Ètica de la Intel·ligència Artificial Responsables (RAISE), establint un punt d'inflexió important en la regulació d’aquestes tecnologies avançades a l’estat.
Stripe, la company de serveis financers programables, ha introduït l'Suite d'Comerç Agentic, una nova solució destinada a permetre a les empreses vendre a través de múltiples agents d'intel·ligència artificial.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today