lang icon En
March 13, 2026, 2:36 p.m.
223

El estudio de NewsGuard revela que los chatbots de IA tienen dificultades para detectar videos generados por IA

Brief news summary

Un estudio reciente de NewsGuard encontró que los principales chatbots de IA como ChatGPT de OpenAI, Grok de xAI y Gemini de Google tienen dificultades para detectar videos generados por IA, con tasas de fallos entre el 78% y el 95%. Estos sistemas suelen pasar por alto videos sintéticos, especialmente aquellos sin marcas de agua de IA, y en ocasiones clasifican Erróneamente contenido con marcas de agua. Aunque Gemini de Google mostró un rendimiento algo mejor, persisten debilidades considerables. A medida que la multimedia generada por IA se vuelve cada vez más común, estos desafíos de detección plantean serios problemas para la moderación de contenido y la lucha contra la desinformación. Los expertos subrayan la necesidad urgente de mejorar las tecnologías de detección, optimizar los algoritmos de los chatbots y desarrollar marcadores estándar y transparentes para los medios sintéticos. La colaboración entre desarrolladores de IA, expertos en ciberseguridad y reguladores es crucial para crear protocolos sólidos. Además, educar a los usuarios y moderadores sobre cómo identificar contenido generado por IA es fundamental para reducir los riesgos de manipulación. El estudio destaca importantes lagunas en la capacidad de las herramientas actuales de IA para proteger la integridad de la información digital, resaltando la importancia de avanzar en los métodos de detección para mantener la confianza en los entornos digitales.

Un estudio reciente de NewsGuard reveló deficiencias notables en algunos de los principales chatbots de IA del mundo cuando se trata de detectar contenido de video generado por inteligencia artificial. La investigación mostró que los principales agentes conversacionales de IA, incluyendo ChatGPT de OpenAI, Grok de xAI y Gemini de Google, a menudo no logran reconocer videos producidos por inteligencia artificial, especialmente si estos videos carecen de marcas claras. El estudio consistió en pruebas exhaustivas de las reacciones de los chatbots ante videos creados por IA sin marcas de agua que indicaran su naturaleza sintética. Los resultados fueron sorprendentes: en la mayoría de los casos—rango que va desde el 78% hasta el 95%—los chatbots no identificaron correctamente los videos como generados por IA. Esto implica que, al ser cuestionados sobre la naturaleza de dichos videos, estos sistemas de IA los trataban frecuentemente como contenido auténtico, creado por humanos, a pesar de su origen artificial. Incluso cuando existían marcas de agua que señalaban que los videos eran generados por IA, dos de los tres chatbots—ChatGPT y Grok—aún así fallaban en detectar estos indicadores de manera consistente. Clasificaban de manera incorrecta una proporción significativa de videos con marcas de agua, revelando debilidades persistentes en las capacidades actuales de detección de los IA conversacionales. Gemini de Google tuvo un desempeño algo mejor, pero también enfrentó dificultades bajo ciertas condiciones de prueba. Estos resultados son especialmente relevantes dado el creciente uso de contenido multimedia generado por IA en línea, lo que desafía los esfuerzos en moderación de contenidos, prevención de desinformación y verificación de la autenticidad de medios digitales. La incapacidad de los chatbots de IA para detectar de manera confiable videos sintéticos genera preocupación por su posible engaño o por propagar involuntariamente material no verificado.

Expertos en criminalística digital e integridad mediática subrayan la necesidad urgente de mejorar las técnicas de detección para mantenerse al día con los avances en la creación de videos por IA. Argumentan que las mejoras son necesarias no solo en los algoritmos de los chatbots, sino en todo el panorama de herramientas de verificación de contenido digital. Este problema resalta un desafío societal más amplio en la gestión y mitigación de los efectos del medio sintético—comúnmente llamados deepfakes—que pueden ser mal utilizados para desinformar, cometer fraudes y socavar la confianza en las comunicaciones digitales. La investigación pide una mayor colaboración entre desarrolladores de IA, profesionales de ciberseguridad y organismos reguladores para desarrollar marcadores estandarizados y protocolos de detección que puedan adoptarse de manera universal. Tales medidas promoverían etiquetas transparentes en el contenido generado por IA y capacitarían a las plataformas digitales para abordar los riesgos asociados con videos sintéticos. Además, la formación continua para usuarios y moderadores de contenido es fundamental para que puedan identificar mejor el contenido producido por IA, reduciendo así los riesgos de manipulación. En resumen, el estudio de NewsGuard expone una falla crítica en la tecnología actual de IA. A medida que el contenido sintético crece en complejidad y accesibilidad, mejorar la capacidad de los chatbots de IA para identificar con precisión videos generados por IA es esencial para proteger la integridad de la información. Abordar estos desafíos es clave para fomentar entornos digitales confiables y garantizar un uso responsable de la inteligencia artificial en la creación y distribución de medios.


Watch video about

El estudio de NewsGuard revela que los chatbots de IA tienen dificultades para detectar videos generados por IA

Try our premium solution and start getting clients — at no cost to you

Content creator image

I'm your Content Creator.
Let’s make a post or video and publish it on any social media — ready?

Language

Hot news

March 13, 2026, 10:28 a.m.

Neewz.ai - Noticias reales, personas reales

Neewz.ai está liderando una infraestructura global para contenido generado por usuarios verificado (UGC), con el objetivo de transformar la manera en que se crea, comparte y consume la información en todo el mundo.

March 13, 2026, 10:28 a.m.

Daily Mail informa una disminución significativa …

Los hallazgos recientes reportados por The Daily Mail han revelado un impacto significativo en la interacción de los usuarios con los resultados de búsqueda cuando la función Resumen de IA de Google está activada.

March 13, 2026, 10:27 a.m.

Gartner Predice que el 60% de las marcas utilizar…

Según un pronóstico reciente de Gartner, Inc., el marketing está preparado para una transformación importante impulsada por la adopción generalizada de inteligencia artificial (IA) agente.

March 13, 2026, 10:25 a.m.

Informe predice que las ventas de software de pla…

El mercado global de software de plataformas de inteligencia artificial (IA) está preparado para un crecimiento sustancial en los próximos años, según una reciente previsión de International Data Corporation (IDC).

March 13, 2026, 10:23 a.m.

Netflix pagará hasta 600 millones de dólares por …

Netflix Inc.

March 13, 2026, 10:14 a.m.

TodaySMM se asocia con CallNero para soporte de v…

TodaySMM ha anunciado una asociación estratégica con CallNero para mejorar en gran medida sus servicios de atención al cliente mediante la integración de tecnología avanzada de chat de voz impulsada por inteligencia artificial, que permite conversaciones en tiempo real.

March 13, 2026, 6:32 a.m.

Predis.ai amplía la creación de contenido en rede…

Predis.ai, una empresa pionera en tecnología centrada en soluciones de marketing impulsadas por inteligencia artificial, ha actualizado recientemente su plataforma basada en IA para mejorar la asistencia a las empresas en la automatización y personalización de la creación de contenido para redes sociales.

All news

AI Company

Launch your AI-powered team to automate Marketing, Sales & Growth

AI Company welcome image

and get clients on autopilot — from social media and search engines. No ads needed

Begin getting your first leads today