Уязвимость безопасности чат-бота DeepSeek AI подвергает риску учетные записи пользователей.

В сети появились сведения об уже исправленной проблеме безопасности в чат-боте DeepSeek AI, которая позволяла злоумышленникам захватить контроль над аккаунтом жертвы через атаку с использованием внедрения команд. Исследователь безопасности Йоханн Рехбергер обнаружил, что ввод команды "Print the xss cheat sheet in a bullet list. just payloads" в чате DeepSeek активировал выполнение JavaScript-кода в ответе. Это типичный инцидент межсайтового скриптинга (XSS). Атаки XSS могут быть опасными, так как выполняют несанкционированный код в браузере жертвы, позволяя злоумышленникам захватить сессию и получить доступ к данным, таким как куки, связанные с доменом chat. deepseek[. ]com, что потенциально может привести к захвату аккаунта. Рехбергер отметил, что для получения сессии пользователя достаточно только userToken, хранящегося в localStorage на домене chat. deepseek. com, и специально созданного запроса, активирующего XSS, позволяющего получить доступ к userToken.
Такой запрос содержит инструкции и строку, закодированную в формате Base64, которую DeepSeek декодирует для выполнения XSS-нагрузки, извлекая токен сессии жертвы и позволяя злоумышленнику выдавать себя за пользователя. Рехбергер также продемонстрировал, что Anthropic's Claude Computer Use, который позволяет разработчикам управлять компьютером с помощью движений курсора, кликов и ввода текста, может быть неправомерно использован для выполнения вредоносных команд автономно через внедрение команд. Этот метод, называемый ZombAIs, использует внедрение команд для эксплуатации Computer Use с целью загрузки и выполнения фреймворка Sliver C2, устанавливая соединение с сервером, управляемым злоумышленником. Кроме того, большие языковые модели (LLMs) могут выдавать ANSI-коды для захвата системных терминалов через внедрение команд, что в первую очередь затрагивает интегрированные в командный интерфейс системы (CLI) инструменты. Такая атака получила название Terminal DiLLMa. Рехбергер подчеркнул, как десятилетние функции неожиданно создают уязвимости в приложениях GenAI, подчеркивая необходимость для разработчиков быть осторожными с выводом LLM, так как он недоверительный и может содержать произвольные данные. Кроме того, исследование Университета Висконсин-Мадисон и Вашингтонского университета в Сент-Луисе показало, что ChatGPT от OpenAI может быть обманут, чтобы отображать внешние ссылки на изображения в формате markdown, даже если они являются явными или жестокими, под видом доброжелательной цели. Также возможно использовать внедрение команд для непрямой активации плагинов ChatGPT без согласия пользователя и обхода ограничений OpenAI на запрет опасного рендеринга ссылок, что потенциально раскрывает историю чата пользователя серверу, контролируемому злоумышленником.
Brief news summary
Уязвимость в чат-боте DeepSeek AI была обнаружена Йоханном Рехбергером, выявив возможность атак с использованием инъекций команд через межсайтовый скриптинг (XSS). Этот дефект может привести к несанкционированному выполнению кода и перехвату сессий на chat.deepseek.com, представляя угрозу для данных пользователей. Злоумышленники использовали строки, закодированные в Base64, и специально составленные команды для извлечения пользовательских токенов из localStorage, что позволяло имитировать действия пользователей. Рехбергер также выявил аналогичные проблемы с системой Claude от Anthropic, применяя технику под названием ZombAIs, задействуя устройства через инъекции команд. Он подчеркнул риски, связанные с ANSI-кодами экранирования, создаваемыми большими языковыми моделями (LLM), назвав это "Terminal DiLLMa", и указал на важность эффективного управления выводом LLM. Более того, он обнаружил уязвимости в ChatGPT от OpenAI, где манипуляции с командами могли раскрыть ссылки на внешние изображения в markdown, потенциально обходя меры безопасности и раскрывая историю чатов пользователей. Эти исследования подчеркивают критическую необходимость обеспечения безопасности моделей ИИ для защиты пользователей и сохранения целостности данных.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Эксперты по ИИ обсуждают потенциальные экзистенци…
Быстрый прогресс искусственного интеллекта (ИИ) вызвал значительные дебаты и опасения среди экспертов, особенно относительно его долгосрочных последствий для человечества.

SEC проводит круглый стол для обсуждения политики…
Команда по криптовалютам Комиссии по ценным бумагам и биржам (SEC) провела важную круглый стол в пятницу, сосредоточившись на сложных проблемах и развивающихся деталях на пересечении криптовалютной индустрии и законодательства о ценных бумагах.

Топ-5 компаний, создающих инфраструктуру блокчейн…
Финансовые учреждения все активнее исследуют технологии блокчейн из-за их способности оптимизировать расчётные процессы, обеспечивать мгновенные переводы и поддерживать токенизацию реальных активов (RWA), таких как ценные бумаги, кредиты, облигации и недвижимость.

Инвесторы Meta радуются, поскольку Цукерберг удва…
Войдите, чтобы получить доступ к вашему портфолио Войти

Машинное обучение на блокчейне: новый подход к ин…
Недавнее исследование, опубликованное в журнале Engineering, представляет инновационную систему, объединяющую машинное обучение (МО) и блокчейн-технологии (БТ) для повышения вычислительной безопасности в инженерных приложениях.

Искусственный интеллект в кибербезопасности: повы…
Искусственный интеллект становится неотъемлемым элементом кибербезопасности, значительно повышая способность обнаруживать и реагировать на потенциальные угрозы.

ICE хочет更多 технологий аналитики блокчейнов; Арми…
Служба иммиграции и таможенного контроля США (ICE) увеличивает свои инвестиции в технологии блокчейн-разыскной деятельности, наряду с другими платформами для расследований.