lang icon Spanish
Auto-Filling SEO Website as a Gift

Launch Your AI-Powered Business and get clients!

No advertising investment needed—just results. AI finds, negotiates, and closes deals automatically

May 10, 2025, 5:50 p.m.
5

Los chatbots de inteligencia artificial enfrentan problemas persistentes de alucinaciones que afectan su fiabilidad

Los chatbots de inteligencia artificial de empresas tecnológicas líderes como OpenAI y Google han estado recibiendo mejoras en su capacidad de razonamiento en los últimos meses para aumentar la fiabilidad de sus respuestas. Sin embargo, pruebas recientes revelan que algunos de los modelos más nuevos funcionan peor que versiones anteriores, exhibiendo un fenómeno llamado "alucinaciones"— errores en los que los chatbots generan información falsa o proporcionan respuestas que, aunque sean factualmente correctas, son irrelevantes o no cumplen con las instrucciones. Este problema ha persistido desde el inicio de los grandes modelos de lenguaje (LLMs), como ChatGPT de OpenAI y Gemini de Google, y parece poco probable que se resuelva por completo. Un informe técnico de OpenAI mostró que sus modelos o3 y o4-mini lanzados en abril tenían tasas de alucinaciones significativamente mayores que el antiguo modelo o1 de finales de 2024: o3 tenía una tasa del 33%, o4-mini del 48%, en comparación con el 16% de o1, al resumir hechos disponibles públicamente. De manera similar, la lista de clasificación de Vectara que monitorea las tasas de alucinaciones encontró que algunos modelos de razonamiento, incluido DeepSeek-R1, experimentaron aumentos notables en las alucinaciones en comparación con sus predecesores, a pesar de su enfoque de razonamiento en múltiples pasos antes de responder. OpenAI sostiene que los procesos de razonamiento no son inherentemente responsables del aumento de las alucinaciones y está investigando activamente formas de reducir estas en todos los modelos. La persistencia de las alucinaciones amenaza varias aplicaciones: modelos que frecuentemente generan falsedades dificultan la asistencia en investigación; los bots paralegales que citan casos inexistentes pueden cometer errores legales; los bots de servicio al cliente con información desactualizada generan problemas operativos. Al principio, las empresas de IA esperaban que las alucinaciones disminuyeran con el tiempo, ya que las primeras actualizaciones de modelos mostraron mejoras. Sin embargo, los niveles más altos recientes desafían esa perspectiva, independientemente de la participación del razonamiento. La lista de clasificación de Vectara indica que las tasas de alucinaciones son aproximadamente iguales en modelos de razonamiento y sin razonamiento de OpenAI y Google, aunque los números exactos importan menos que los rankings relativos.

Google se negó a comentar. No obstante, estos rankings tienen sus limitaciones. Mezclan diferentes tipos de alucinaciones; por ejemplo, la tasa del 14. 3% en DeepSeek-R1 se compone principalmente de casos “benignos”: respuestas lógicamente sólidas y respaldadas por conocimientos, pero ausentes en el texto fuente. Además, las pruebas basadas únicamente en resumen de textos pueden no reflejar las frecuencias de alucinaciones en otras tareas, ya que los LLMs no están diseñados específicamente para resumir. Emily Bender, de la Universidad de Washington, destaca que estos modelos predicen las palabras siguientes más probables, en lugar de procesar la información para entender verdaderamente el texto, lo que hace que el término "alucinación" sea engañoso y anthropomórfico. Bender critica que el concepto de "alucinación" sea problemático porque implica que los errores son aberraciones en sistemas generalmente confiables y atribuye percepción humana a la IA, que no "percibe" en ningún sentido. Arvind Narayanan, de Princeton, añade que los modelos también fallan al confiar en datos poco confiables o desactualizados, y simplemente agregar más datos de entrenamiento o potencia de cálculo no ha resuelto estos problemas. En consecuencia, que la IA cometa errores podría ser una realidad duradera. Narayanan sugiere utilizar estos modelos solo cuando la verificación de hechos sea más rápida que realizar una investigación original, mientras que Bender recomienda evitar confiar en chatbots de IA para información factual en general.



Brief news summary

Los avances recientes en los chatbots de IA por parte de empresas como OpenAI y Google, enfocados en mejorar el razonamiento y la precisión, han resultado paradójicamente en un aumento de las tasas de alucinaciones, es decir, casos en los que los modelos generan información falsa o engañosa y no siguen correctamente las instrucciones. Por ejemplo, los modelos más nuevos de OpenAI, o3 y o4-mini, presentan tasas de alucinación del 33% y 48%, respectivamente, en comparación con el 16% del modelo anterior o1, con tendencias similares observadas en modelos como DeepSeek-R1. A pesar de estos desafíos, OpenAI afirma que los componentes de razonamiento no son los responsables y continúa trabajando en reducir las alucinaciones. Este problema es especialmente crítico en campos como la investigación, la asesoría legal y el atención al cliente, donde las inexactitudes pueden tener consecuencias graves. Evaluaciones realizadas por Vectara revelan diferencias mínimas en las frecuencias de alucinaciones entre modelos que incluyen razonamiento y los que no, aunque los datos aún son limitados. Los expertos advierten que el término "alucinación" simplifica en exceso problemas complejos que dependen de datos desactualizados o poco confiables. Dada la persistencia de inexactitudes, algunos sugieren limitar el uso de los chatbots de IA a escenarios donde verificar la información sea más sencillo que realizar una verificación de hechos independiente. En general, las alucinaciones siguen siendo un problema importante sin resolver en los modelos de lenguaje de IA.
Business on autopilot

AI-powered Lead Generation in Social Media
and Search Engines

Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment

Language

Content Maker

Our unique Content Maker allows you to create an SEO article, social media posts, and a video based on the information presented in the article

news image

Last news

The Best for your Business

Learn how AI can help your business.
Let’s talk!

May 10, 2025, 9:47 p.m.

Robinhood desarrolla un programa basado en blockc…

Robinhood está trabajando en una plataforma basada en blockchain destinada a proporcionar a los traders europeos acceso a activos financieros estadounidenses, según dos fuentes familiarizadas con la situación que hablaron con Bloomberg.

May 10, 2025, 9:02 p.m.

OpenAI lanza o3-mini: Modelo de IA rápido, inteli…

OpenAI ha presentado o3-mini, un nuevo modelo de razonamiento de inteligencia artificial diseñado específicamente para mejorar la precisión en cálculos matemáticos, tareas de codificación y resolución de problemas científicos.

May 10, 2025, 8:22 p.m.

USDT de Tether se lanza en la cadena de bloques K…

El emisor de stablecoins Tether ha anunciado el despliegue de su stablecoin nativa USDT en la cadena de bloques Kaia, una red Layer 1 lanzada en agosto de 2024.

May 10, 2025, 7:29 p.m.

Elton John y Dua Lipa buscan protección contra la…

Dua Lipa, Sir Elton John, Sir Ian McKellen, Florence Welch y más de 400 otros músicos, escritores y artistas británicos han instado al Primer Ministro Sir Keir Starmer a actualizar las leyes de derechos de autor para proteger a los creadores del uso indebido de su trabajo por parte de la inteligencia artificial (IA).

May 10, 2025, 6:49 p.m.

El papel de la blockchain en las iniciativas de i…

La tecnología blockchain es cada vez más reconocida como una herramienta poderosa para promover la inclusión financiera a nivel mundial, especialmente para las poblaciones no bancarizadas y desatendidas que carecen de acceso a los servicios bancarios tradicionales.

May 10, 2025, 5:14 p.m.

Blockchain en la atención médica: asegurando los …

La industria de la salud está experimentando una transformación importante mediante la adopción de la tecnología blockchain para mejorar la seguridad y la gestión de los registros de salud de los pacientes.

May 10, 2025, 4:16 p.m.

El Papa León XIV presenta su visión y señala la i…

VATICANO (AP) — El sábado, el Papa Leo XIV esbozó la visión para su pontificado, destacando la inteligencia artificial (IA) como un desafío crucial para la humanidad y comprometiéndose a continuar con las prioridades clave establecidas por el Papa Francisco.

All news