Public Citizen, una destacada organización de vigilancia dedicada a proteger los intereses públicos, ha pedido a OpenAI que retire de inmediato su aplicación de video impulsada por IA, Sora 2, citando los riesgos significativos que plantea la tecnología de deepfake. El grupo destaca las amenazas a la democracia, los derechos personales y la seguridad pública en medio de crecientes preocupaciones sobre los videos generados por IA que manipulan la realidad y difunden desinformación en las redes sociales. Según Public Citizen, el lanzamiento apresurado de Sora 2 por parte de OpenAI estuvo impulsado en gran medida por las presiones competitivas en el ámbito de la IA, lo que llevó a medidas de seguridad insuficientes antes del lanzamiento público. Como resultado, Sora 2 ha permitido la creación y distribución generalizada de deepfakes sin consentimiento, muchos de contenido perturbador utilizados para hostigar a mujeres y fabricando eventos, causando daño emocional y reputacional. La aplicación, que permite a los usuarios generar clips de video impulsados por IA, ha ganado rápidamente popularidad en plataformas como TikTok e Instagram. Su contenido varía desde representaciones exageradas y absurdas de celebridades hasta escenarios realistas pero engañosos que podrían distorsionar la percepción pública. Public Citizen enfatiza que la capacidad de la tecnología para producir material convincente pero falso presenta riesgos graves, especialmente cuando estos videos se difunden sin contexto ni verificación. Aunque OpenAI ha intentado abordar algunas preocupaciones—como bloquear representaciones de ciertas figuras como Martin Luther King Jr. y colaborar con grupos de la industria como SAG-AFTRA—los críticos argumentan que estos esfuerzos son reactivas en lugar de proactivos.
Public Citizen afirma que OpenAI responde principalmente a la indignación pública en lugar de establecer controles éticos desde el principio. Esta no es la primera controversia de OpenAI relacionada con daños por IA. Su plataforma ChatGPT ha enfrentado demandas por daños psicológicos, negligencia y protección insuficiente contra el uso indebido. Public Citizen advierte que lanzar herramientas generadoras de IA sin una supervisión exhaustiva agrava estos problemas, amenazando la confianza en los medios digitales y las instituciones democráticas. OpenAI ha ofrecido respuestas públicas limitadas respecto a Sora 2, afirmando que trabaja con creadores de contenido, estudios de cine y titulares de derechos para mejorar las protecciones y reducir los riesgos de abusos. La compañía también está interactuando con actores del sector creativo en Japón, preocupados por el impacto de la IA en los derechos artísticos y la propiedad intelectual. Public Citizen enfatiza que el despliegue rápido y sin regulación de aplicaciones de IA generativa como Sora 2 socava la privacidad, la integridad factual y la estabilidad democrática. Su demanda de retirar la app refleja un llamado más amplio a la industria de la IA para que priorice el bienestar público sobre la competencia en el mercado. Piden a los responsables políticos, desarrolladores y a la sociedad civil que colaboren en la creación de marcos éticos y completos que aseguren un desarrollo y despliegue responsable de la IA. A medida que la tecnología de IA avanza y se incorpora más en la sociedad, las advertencias de Public Citizen resaltan los desafíos y las responsabilidades críticas involucradas en el aprovechamiento de estas herramientas transformadoras. Equilibrar la innovación con la protección de los intereses públicos sigue siendo esencial ante la expansión de las complejidades y consecuencias del contenido generado por IA.
Ciudadano Público Exige a OpenAI que retire la aplicación de Deepfake Sora 2 por riesgos para la democracia y la seguridad
Cada semana destacamos una aplicación impulsada por IA que resuelve problemas reales para empresas B2B y en la nube.
La inteligencia artificial (IA) está influyendo cada vez más en las estrategias de optimización para motores de búsqueda (SEO) locales.
IND Technology, una empresa australiana especializada en monitoreo de infraestructura para servicios públicos, ha asegurado 33 millones de dólares en financiamiento para crecimiento con el fin de impulsar sus esfuerzos basados en inteligencia artificial para prevenir incendios forestales y apagones.
En las últimas semanas, un número creciente de editoriales y marcas ha enfrentado una significativa reacción negativa mientras experimentan con la inteligencia artificial (IA) en sus procesos de producción de contenido.
Google Labs, en colaboración con Google DeepMind, ha presentado Pomelli, un experimento impulsado por inteligencia artificial diseñado para ayudar a pequeñas y medianas empresas a desarrollar campañas de marketing coherentes con su marca.
En el panorama digital en rápida expansión de hoy en día, las empresas de redes sociales están adoptando cada vez más tecnologías avanzadas para proteger sus comunidades en línea.
Una versión de esta historia apareció en el boletín Nightcap de CNN Business.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today