Els vídeos creats amb l’app Sora d’OpenAI s’estan saturant ràpidament a plataformes com TikTok i Instagram Reels, fent que el contingut sintètic generat per IA sigui gairebé inevitable—alguna cosa que molts usuaris troben cada vegada més frustrant. No obstant això, els experts en seguretat digital avisen d’un impacte més profund i menys evident: OpenAI ha rehipotecat els deepfakes en una moda juganera i normalitzada, promoguda amb entusiasme pels algorismes de recomanacions. A mesura que milions d’usuaris s’enfronten a aquests vídeos, les percepcions de la veritat i les normes en línia s’estan reconstruint. Daisy Soderberg-Rivkin, antiga gerent de confiança i seguretat a TikTok, va descriure això com si els deepfakes haguessin obtingut un “agent de publicitat i un acord de distribució”, amplificant una tecnologia ja de per si preocupant en una plataforma nova i massiva. Aaron Rodericks, cap de confiança i seguretat a Bluesky, va assenyalar que la societat no està preparada per al confús línia entre realitat i fabricació. Va destacar riscos com la fabricació fàcil d’evidències falses dirigides a grups d’identitat o individus, i estafes a gran escala, amb la majoria d’usuaris sense les habilitats mediàtiques o eines per discernir la veritat de la ficció. Tres ex treballadors d’OpenAI van comentar a NPR que no els va sorprendre el llançament de Sora, veient-lo com una jugada estratègica per mostrar la nova tecnologia de vídeo enmig de la pressió dels inversors, reminiscent del debut de ChatGPT. OpenAI va implementar diverses mesures de seguretat—incloent moderació, prohibicions contra estafes, violència i pornografia, filigranes i controls sobre l’ús de semblances—tot i que sovint els usuaris troben maneres de bypassar aquestes proteccions, fent que l’empresa hagi de reaccionar contínuament. Un antic empleat anònim d’OpenAI va expressar la preocupació que, a mesura que la competència en vídeos generats per IA s’intensifica, les normes de seguretat podrien enfortir-se encara menys, perjudicant potencialment la societat. Soderberg-Rivkin prediu que sorgiran aplicacions com Sora sense regulació i sense mesures de seguretat—semblants a l'Instagram de Elon Musk, Grok—que probablement seran aprofitades per crear contingut sintètic perillós, com material d’abús sexual infantil o propaganda realista patrocinada per estats. Actualment, Sora és l’aplicació número u per a iPhone, però encara és només amb invitació.
Els usuaris remarquen que la restricció d’imitar celebrities i de crear falsificacions extremes (per exemple, vídeos falsos de Jeffrey Epstein o declaracions de Sean “Diddy” Combs a la presó) s’ha tornat més difícil de produir, tot i que contingut controvertit com detencions o uniformes nazis encara genera vídeos. El CEO d’OpenAI, Sam Altman, ha anunciat plans per passar de gestionar la semblança a “opt-out” a “opt-in”, i finalment compartir els ingressos amb els titulars de drets, una estratègia que avança ràpidament i que recorda els primers dies de ChatGPT. L’allau de contingut generat per IA planteja preguntes sobre la fatiga dels usuaris i si les plataformes apujaran el to o prohibiran aquest material. Soderberg-Rivkin creu que una prohibició total és poc probable i que, en tot cas, no seria efectiva, atès que cada vegada és més difícil detectar contingut generat per IA en textos, imatges i vídeos. Va advertir que una política de “cap IA” no pot detenir la infiltració de la IA en línia. Un altre ex treballador d’OpenAI va argumentar que llançar una aplicació social de deepfakes era una jugada empresarial sensata, tot i l’erosió creixent de la realitat, i que era inevitable que algú dominés aquest mercat. Mentrestant, Meta i Google han presentat eines competidores d’IA per a vídeos (Vibes i Veo 3), però el llançament de Sora ha accelerat realment la proliferació de contingut de vídeo personalitzat amb IA. Els experts en confiança i seguretat consideren que Sora marca un punt d’inflexió històric, on els deepfakes passen de ser una novetat rara a formar part de la vida quotidiana digital, amb el potencial de portar a un distanciament de les xarxes socials o a un col·lapse de la confiança en la integritat dels mitjans en línia. Els especialistes en desinformació fa anys que alerten del “dividendo del mentider”—el fet que els deepfakes abundants faciliten que el contingut real sigui descartat com a fals—però la realitat d’aquest fenomen és ara més apressada que mai.
L'aplicació Sora d'OpenAI revoluciona els vídeos deepfake d'IA i genera preocupacions sobre la seguretat digital
En l’entorn digital d’avui, que canvia ràpidament, els dissenyadors de màrqueting confien cada cop més en tecnologies avançades per obtenir una avantatge competitiu icrear campanyes més impactants.
En els últims anys, la integració de la intel·ligència artificial (IA) en la optimització per a motors de cerca (SEO) ha transformat la manera com les empreses milloren la seva presència digital.
La Intel·ligència Artificial (IA) està jugant un paper cada vegada més transformador en el màrqueting a les xarxes socials.
Nvidia, el major fabricant mundial d’unitats de processament gràfic (GPU) i un actor clau en el desenvolupament de centres de dades d’IA, ha signat recentment un acord de llicència no exclusiva amb Groq, un competidor notable en el mercat de xips d’IA.
Els fabricants adopten ràpidament tecnologies d'intel·ligència artificial (IA) per transformar els seus processos de venda, centrant-se a optimitzar tasques com la fixació de preus i la creació de pressupostos.
la integració de la intel·ligència artificial (IA) en els sistemes de videovigilància suposa un avançament important en la seguretat pública.
Apple ha anunciat oficialment Siri 2.0, celebrant un avançament important en la seva tecnologia d’assistent virtual.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today