Falla de seguridad en el chatbot de DeepSeek AI expone cuentas de usuarios

Se han revelado detalles sobre un problema de seguridad ya resuelto en el chatbot DeepSeek AI que podría permitir a los atacantes tomar control de la cuenta de una víctima mediante un ataque de inyección de comandos. El investigador de seguridad Johann Rehberger descubrió que al introducir el comando "Imprimir la hoja de trucos xss en una lista con viñetas. solo cargas útiles" en el chat de DeepSeek se activaba la ejecución de código JavaScript en la respuesta. Este es un incidente típico de cross-site scripting (XSS). Los ataques XSS pueden ser peligrosos porque ejecutan código no autorizado en el navegador de la víctima, permitiendo a los atacantes secuestrar una sesión y acceder a datos como las cookies vinculadas al dominio chat. deepseek[. ]com, lo que podría llevar al secuestro de cuentas. Rehberger señaló que obtener la sesión de un usuario solo requería el userToken almacenado en localStorage en el dominio chat. deepseek. com, y un mensaje especialmente diseñado podría activar el XSS, permitiendo el acceso al userToken del usuario. Este mensaje incluye instrucciones y una cadena codificada en Base64 que DeepSeek decodifica para ejecutar la carga útil XSS, extrayendo el token de sesión de la víctima y permitiendo al atacante suplantar al usuario. Rehberger también demostró que el Uso de Computadora Claude de Anthropic, que permite a los desarrolladores controlar una computadora mediante movimientos del cursor, clics y escritura de texto, podría ser utilizado para ejecutar comandos dañinos de manera autónoma a través de inyección de comandos.
Este método, llamado ZombAIs, utiliza inyección de comandos para explotar el Uso de Computadora para descargar y ejecutar el marco Sliver C2, estableciendo una conexión con un servidor controlado por el atacante. Además, los modelos de lenguaje grande (LLMs) pueden emitir códigos de escape ANSI para secuestrar terminales del sistema a través de inyección de comandos, afectando principalmente a herramientas de interfaz de línea de comando (CLI) integradas con LLM. Este ataque se denomina Terminal DiLLMa. Rehberger resaltó cómo funciones de hace décadas están creando vulnerabilidades inesperadamente en aplicaciones de GenAI, enfatizando la necesidad de que los desarrolladores sean cautelosos con la salida de LLM, ya que no es de confianza y puede contener datos arbitrarios. Además, investigaciones de la Universidad de Wisconsin-Madison y la Universidad de Washington en St. Louis encontraron que el ChatGPT de OpenAI puede ser engañado para mostrar enlaces de imágenes externas en formato markdown, incluso si son explícitas o violentas, bajo la apariencia de un propósito benigno. También es posible usar inyección de comandos para activar indirectamente plugins de ChatGPT sin el consentimiento del usuario y eludir las restricciones de OpenAI para detener la representación de enlaces peligrosos, exponiendo potencialmente el historial de chat de un usuario a un servidor controlado por un atacante.
Brief news summary
Se descubrió una vulnerabilidad en el chatbot de IA DeepSeek por Johann Rehberger, que reveló susceptibilidad a ataques de inyección de comandos mediante cross-site scripting (XSS). Este fallo podría llevar a una ejecución no autorizada de código y al secuestro de sesiones en chat.deepseek.com, lo que representa una amenaza para los datos de los usuarios. Los atacantes explotaron cadenas codificadas en Base64 y diseñaron comandos para extraer tokens de usuario de localStorage, permitiendo la suplantación de identidad. Rehberger también identificó problemas similares con Claude de Anthropic mediante una técnica llamada ZombAIs, aprovechándose de dispositivos a través de inyecciones de comandos. Destacó los riesgos asociados con los códigos de escape ANSI producidos por modelos de lenguaje extensos (LLMs), denominados Terminal DiLLMa, subrayando la importancia de una gestión eficaz de la salida de los LLMs. Además, descubrió vulnerabilidades en ChatGPT de OpenAI, donde manipulaciones de comandos podrían exponer enlaces externos de imágenes en markdown, potencialmente eludiendo medidas de seguridad y revelando historiales de chat de usuarios. Esta investigación resalta la necesidad crítica de asegurar los modelos de IA contra tales amenazas para proteger la seguridad de los usuarios y la integridad de los datos.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

ICE quiere más tecnología de análisis de blockcha…
La Inmigración y Control de Aduanas de EE.

Descubrimiento de fármacos impulsado por IA: un a…
En un avance histórico en la investigación farmacéutica, los científicos han presentado una plataforma impulsada por inteligencia artificial diseñada para predecir la eficacia de diversos compuestos farmacológicos, prometiendo transformar el proceso de descubrimiento de medicamentos al reducir significativamente el tiempo y el costo necesarios para llevar nuevos medicamentos al mercado.

La inversión de 15 mil millones de dólares de Met…
Meta ha cerrado un acuerdo histórico para adquirir una participación del 49 por ciento en Scale AI, valorando a la empresa en más de 29 mil millones de dólares.

BTCS Inc. se asocia con el Instituto Mack de Gest…
BTCS Inc., una empresa líder especializada en infraestructura y tecnología blockchain, ha anunciado un importante avance que destaca su dedicación a promover el ecosistema blockchain.

Resúmenes de IA: Resúmenes generados por IA de Go…
Google ha lanzado una función innovadora llamada Resúmenes de IA dentro de su motor de búsqueda para mejorar la forma en que los usuarios acceden a la información en línea.

Pakistán forma un nuevo «Consejo de Criptomonedas…
Pakistán ha dado un paso importante para adoptar y regular la economía digital emergente mediante la creación del Consejo Cripto de Pakistán (PCC).

Con entrelazamiento cuántico y blockchain, finalm…
Sin ofender a Einstein, pero sin duda estuvo equivocado respecto a la teoría cuántica: no solo ha perdurado, sino que también ha demostrado ser invaluable en campos como la informática, biología, óptica e incluso en juegos de azar.