I video creati con l’app Sora di OpenAI stanno saturando rapidamente piattaforme come TikTok e Instagram Reels, rendendo quasi inevitabile la presenza di contenuti sintetici generati dall’IA—qualcosa che molti utenti trovano sempre più frustrante. Tuttavia, gli esperti di sicurezza digitale avvertono di un impatto più profondo e meno ovvio: OpenAI ha di fatto rinominato i deepfake in una tendenza giocosa e mainstream, promosso con entusiasmo dagli algoritmi di raccomandazione. Mentre milioni di persone incontrano questi video, le percezioni di verità e le norme online stanno cambiando. Daisy Soderberg-Rivkin, ex responsabile trust and safety di TikTok, ha descritto questa situazione come se i deepfake avessero ottenuto un “publicist e un accordo di distribuzione, ” amplificando una tecnologia già preoccupante su una nuova vasta piattaforma. Aaron Rodericks, capo trust and safety di Bluesky, ha avvertito che la società non è preparata a questa confusione crescente tra realtà e finzione. Ha sottolineato i rischi come prove false facilmente fabbricabili contro gruppi o individui, e truffe su larga scala, con la maggior parte degli utenti che manca di competenze mediatiche o strumenti per discernere verità e menzogna. Tre ex dipendenti di OpenAI hanno riferito a NPR che non erano sorpresi dal lancio di Sora, ritenendolo una mossa strategica per mostrare la nuova tecnologia video in un momento di pressione da parte degli investitori, simile al debutto di ChatGPT. OpenAI ha implementato vari salvaguardie di sicurezza—tra cui moderazione, divieti contro truffe, violenza e pornografia, filigrane, e controlli sull’uso delle somiglianze—sebbene gli utenti trovino spesso modi per aggirare queste protezioni, costringendo l’azienda a rispondere continuamente. Un ex dipendente anonimo di OpenAI ha espresso preoccupazione che, con l’aumento della competizione nel settore dei video generati dall’IA sui social, le regole di sicurezza possano indebolirsi, danneggiando la società. Soderberg-Rivkin prevede che app senza regolamentazione come Sora, prive di misure di sicurezza, verranno create—simili al chatbot Grok di Elon Musk—e saranno probabilmente sfruttate per creare contenuti dannosi e sintetici, come materiali di abuso sessuale su minori o propaganda realistica sponsorizzata dallo stato. Attualmente, Sora è l’app numero uno su iPhone, ma rimane su invito.
Gli utenti notano restrizioni crescenti: imitazioni di celebrità e fake estremi (ad esempio, video falsi di Jeffrey Epstein o dichiarazioni di Sean “Diddy” Combs in prigione) sono diventati più difficili da realizzare, anche se contenuti controversi come arresti o uniformi naziste continuano a generare video. Il CEO di OpenAI, Sam Altman, ha annunciato piani per passare dall’uso “opzionale” alla “obbligatoria” delle somiglianze e, infine, condividere i ricavi con i titolari dei diritti, segnando un’evoluzione rapida simile a quella di ChatGPT nei suoi primi tempi. L’afflusso di contenuti generati dall’IA solleva domande sulla stanchezza degli utenti e se le piattaforme introdurranno restrizioni o ban su tali materiali. Soderberg-Rivkin ritiene improbabile un divieto e afferma che anche sarebbe inefficace, considerando la crescente difficoltà nel riconoscere i contenuti AI in testi, immagini e video. Ha avvertito che una politica “no AI” non può fermare l’infiltrazione dell’IA online. Un altro ex dipendente di OpenAI ha affermato che il lancio di un’app social basata su deepfake fosse una mossa commerciale sensata, nonostante l’erosione crescente della realtà, notando che era inevitabile che qualcuno dominasse questo mercato. Nel frattempo, Meta e Google hanno introdotto strumenti video AI concorrenti (Vibes e Veo 3), ma il rilascio di Sora ha davvero accelerato la proliferazione di contenuti video personalizzati generati dall’IA. Gli esperti di trust and safety vedono Sora come un punto di svolta storico, dove i deepfake passano dallo status di rarità a quello di contenuto digitale quotidiano, con il potenziale di portare a disimpegno dai social media o a un collasso della fiducia nell’integrità dei media online. Gli esperti di disinformazione avvertono da tempo del “dividendo del bugiardo”—cioè del fenomeno in cui l’abbondanza di deepfake consente di respingere contenuti autentici come falsi—ma ora questa realtà è più pressante che mai.
L'App Sora di OpenAI rivoluziona i video deepfake basati sull'IA e solleva preoccupazioni sulla sicurezza digitale
Panoramica del Mercato DeepBrain AI Secondo HTF Market Intelligence, il mercato globale di DeepBrain AI è previsto crescere con un CAGR dell'18,10% dal 2025 al 2030
Meta Platforms, la società madre di Facebook, Instagram e WhatsApp, sta ampliando la sua gamma di strumenti digitali innovativi per potenziare la creazione di contenuti e l’engagement degli utenti.
Oracle ha annunciato nuovi agent AI basati sui ruoli, integrati nelle Oracle Fusion Cloud Applications, progettati per supportare i leader dell’esperienza cliente (CX) nel scoprire nuove opportunità di ricavo.
Reflection AI, una promettente startup nel campo dell'intelligenza artificiale, ha annunciato giovedì di aver raccolto con successo 2 miliardi di dollari nel suo ultimo round di finanziamento.
I motori di risposta AI non stanno semplicemente cambiando il modo in cui le persone cercano online; stanno ridefinendo in modo fondamentale la visibilità delle aziende nell’era digitale.
In un video in formato breve, un influencer reagisce appassionatamente a una notizia della California, con immagini apparentemente autentiche, tra cui un conduttore che invita gli spettatori ad agire, vittime e il logo di CNN.
AMD e OpenAI hanno svelato una partnership di grande calibro destinata a rimodellare profondamente l'infrastruttura dell'IA.
Automate Marketing, Sales, SMM & SEO
and get clients on autopilot — from social media and search engines. No ads needed
and get clients today