Во время основного выступления на конференции Nvidia GPU Technology Conference (GTC) 28 октября 2025 года произошёл тревожный инцидент с deepfake, вызвавший серьёзные опасения по поводу злоупотребления искусственным интеллектом и рисков, связанных с deepfake. Почти 100 тысяч зрителей были введены в заблуждение трансляцией в прямом эфире, в которой был показан AI-сгенерированный образ генерального директора Nvidia Дженсена Хуана, широко известного фигуры в сфере технологий. Этот поддельный канал, названный «Nvidia Live», казавшийся официальным, привлёк в пять раз больше зрителей, чем реальное мероприятие с примерно 20 000 присутствующих. Deepfake ложно рекламировал криптовалютную схему, призывая зрителей сканировать QR-код и переводить криптовалюту, вводя аудиторию в заблуждение, что это часть технологической миссии Nvidia. Официальный вид канала усилил его доверие, эксплуатируя общественное доверие к Nvidia и интерес к её технологиям, особенно в быстро развивающихся секторах криптовалют и искусственного интеллекта. Образ Хуана, созданный с помощью AI, использовал обширные публично доступные кадры его прошлых презентаций, демонстрируя достижения в области deepfake, подобные экспериментам вроде демонстрации Sam Altman, созданной OpenAI. По мере приближения стоимости Nvidia к отметке в 5 триллионов долларов, в основном благодаря лидерству в области AI, этот инцидент ставит важные задачи по обеспечению подлинности цифровых коммуникаций компании. Рост ожиданий со стороны заинтересованных сторон и технологического сообщества накладывает на Nvidia обязательство бороться с растущей угрозой со стороны всё более сложных deepfake. В настоящее время Nvidia использует системы обнаружения, такие как собственные AI-решения NIM и Hive, чтобы бороться с deepfake-контентом; однако данный инцидент показывает, что эти меры могут быть недостаточными против всё более совершенных подделок.
Ожидается, что Nvidia усилит эти меры для защиты своего бренда и установления отраслевых стандартов в предотвращении злоупотреблений AI. Помимо Nvidia, данный случай выявляет более широкие уязвимости цифровой эпохи, когда разграничить реальность и контент, созданный AI, становится всё сложнее. Это подчеркивает необходимость развития передовых методов обнаружения, нормативных рамок и повышения бдительности для снижения рисков, связанных с дезинформацией, управляемой AI. Эксперты по кибербезопасности и этике AI предупреждают о возможных масштабных ущербах, таких как финансовое мошенничество, кампании дезинформации, угроза общественному доверию и манипуляции мнением. Пример Nvidia с deepfake показывает, как злоумышленники используют новейший AI для обмана широкой аудитории и влияния на рынки. Для отдельных людей и организаций это событие подчеркивает важность скептицизма и проверки информации при работе с цифровым контентом, особенно в условиях высокой ответственности, таких как технологические демонстрации или финансовые обращения. Необходимо вводить практики подтверждения источников и сомнений в непрошенных предложениях криптовалюты. В будущем ответ Nvidia, вероятно, будет включать значительные инвестиции в новые технологии судебной экспертизы AI, сотрудничество с индустрией и правительственными структурами для создания надежных механизмов защиты, а также просветительную работу по распознаванию и противодействию угрозам deepfake. Эти усилия укрепят приверженность Nvidia инновациям и защитят сообщество в условиях новых вызовов AI. В целом, трансляция с deepfake во время GTC 2025 стала ключевым примером двойственной природы AI: удивительного потенциала творчества и одновременно этических и безопасности уязвимостей. По мере развития AI обществу необходимо совершенствовать свои стратегии, чтобы обеспечить использование технологий в конструктивных целях, а не для обмана и вреда.
Инцидент с Deepfake от Nvidia на GTC 2025 подчеркивает растущие риски безопасности ИИ
По мере приближения сезона праздничных покупок малый бизнес готовится к возможному переломному периоду, опираясь на ключевые тенденции из отчёта Shopify «Глобальный праздничный розничный рынок 2025», которые могут определить их успех в конце года.
Лаборатория искусственного интеллекта Meta добилась заметного прогресса в укреплении прозрачности и сотрудничества в области развития ИИ, запустив модель обработки языка с открытым исходным кодом.
Поскольку искусственный интеллект (ИИ) все больше интегрируется в поисковую оптимизацию (SEO), он вызывает значительные этические вопросы, которые нельзя игнорировать.
Британская рекламная компания WPP в четверг объявила о запуске новой версии своей платформы маркетинга, основанной на искусственном интеллекте — WPP Open Pro.
LeapEngine, прогрессивное агентство цифрового маркетинга, значительно расширило свои комплексные услуги, интегрировав в платформу полный набор передовых инструментов искусственного интеллекта (ИИ).
Последняя модель ИИ видео OpenAI, Sora 2, недавно столкнулась с серьезными правовыми и этическими проблемами после её запуска.
В 2019 году, до быстрого появления ИИ, руководители высшего звена в основном сосредоточивались на том, чтобы обеспечить, чтобы менеджеры по продажам обновляли данные в CRM.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today