Meta автоматизирует до 90% оценки рисков, вызывая опасения по поводу конфиденциальности и безопасности

На протяжении многих лет команды рецензентов Meta оценивали потенциальные риски при запуске новых функций в Instagram, WhatsApp и Facebook, рассматривая такие вопросы, как угрозы конфиденциальности пользователей, вред несовершеннолетним или распространение вводящей в заблуждение или токсичной информации. Эти проверки конфиденциальности и целостности в основном проводились людьми- evaluаторами. Однако внутренние документы, полученные NPR, показывают, что Meta планирует автоматизировать до 90% таких оценок рисков в ближайшее время. Это означает, что ключевые обновления алгоритмов, новые функции безопасности и изменения в способах обмена контентом будут преимущественно одобряться системами искусственного интеллекта без обычного рассмотрения сотрудниками, которое учитывает непредвиденные последствия или злоупотребления. Внутри Meta такие изменения воспринимаются как преимущество для разработчиков продуктов, так как ускоряют выпуск обновлений и функций. Тем не менее, нынешние и бывшие сотрудники обеспокоены тем, что эта автоматизация может привести к недостаточной оценке рисков, что потенциально может причинить реальный вред. Бывший исполнительный директор Meta выразил озабоченность тем, что более быстрые запуски с менее строгой проверкой увеличивают вероятность негативных исходов, поскольку меньше проблем выявляется заранее. Meta заявила, что вложила миллиарды в защиту конфиденциальности пользователей, и что новые изменения в оценке рисков направлены на ускорение процесса принятия решений при сохранении человеческого экспертного участия для новых или сложных вопросов. Компания утверждает, что автоматизация коснется только решений «низкого риска». Однако внутренние документы свидетельствуют, что автоматизация может распространяться на чувствительные области, такие как безопасность ИИ, риски для молодежи и общая целостность платформы, включая вопросы насильственного контента и дезинформации. Новый процесс включает заполнение командой продукта анкеты для получения «мгновенного решения» от ИИ, которое описывает риски и необходимые меры их устранения. Ранее оценка рисков требовала одобрения со стороны специалистов перед запуском продукта; теперь инженеры в основном самостоятельно оценивают риски, если только не запрашивают именно ручной обзор. Этот сдвиг дает больше власти инженерам и командам разработки — которые зачастую не являются специалистами по безопасности данных — в принятии решений, что вызывает опасения по поводу качества оценок.
Звика Кригер, бывший директор по ответственным инновациям в Meta, предупреждал, что оценка безопасности продуктами оценивается в основном по скорости запусков, а не по уровню безопасности, и что оценки, выполненные самостоятельно, рискуют стать формальностью, пропуская важные проблемы. Он признавал возможность автоматизации, но предупредил, что чрезмерная зависимость от ИИ может снизить качество проверок. Meta минимизировала опасения, заметив, что она проводит аудит решений ИИ для проектов без людского участия. Ее европейские подразделения, регулируемые строгими законами, такими как Деятельность в сфере цифровых услуг, сохранят контроль человека через их штаб-квартиру в Ирландии. Некоторые изменения совпадают с прекращением программы проверки фактов и смягчением политики в отношении речевой ненависти, что сигнализирует о более широкой смене курса компании в сторону ускорения обновлений и снижения ограничений контента — ослабления давно установленных правил для предотвращения злоупотреблений платформой. Такой подход следует за усилиями генерального директора Марка Цукерберга по согласованию с политиками, в частности с бывшим президентом Трампом, чью победу на выборах Цукерберг назвал «культурным переломом». Стремление к автоматизации также связано с многолетней стратегией Meta по использованию ИИ для ускорения операций на фоне конкуренции с TikTok, OpenAI и другими. Недавно Meta увеличила использование ИИ для обеспечения модерации контента, применяя языковые модели, превосходящие человека в определенных областях политики. Это позволяет человеческим рецензентам сосредоточиться на более сложных случаях. Кэтти Харбат, бывший эксперт по общественной политике Facebook, поддерживает использование ИИ для повышения скорости и эффективности, подчеркивая необходимость человеческих проверок. В то же время, другой бывший сотрудник Meta усомнился в целесообразности ускорения оценки рисков, отметив, что новые продукты сталкиваются с жесткими проверками, которые часто выявляют упущенные проблемы. Мишель Протти, главный специалист по конфиденциальности продуктов в Meta, охарактеризовал изменения как развитие команд продукта и упрощение управления рисками. Внедрение автоматизации ускорилось в апреле и мае 2024 года. Однако некоторые инсайдеры критикуют это описание, подчеркивая, что исключение человека из оценки рисков подрывает важный человеческий взгляд на потенциальный вред, называя это «безответственной» мерой с учетом миссии Meta. В целом Meta переходит от оценки рисков, проводимой человеком, к в основном основанной на ИИ, что призвано ускорить инновации, но вызывает серьезные внутренние опасения относительно снижения контроля, возможных вредных последствий и адекватности ИИ при решении сложных этических и безопасных вопросов.
Brief news summary
Meta переходит от оценки рисков, проводимой людьми, к преимущественно ИИ-основанным оценкам для обновлений Instagram, WhatsApp и Facebook, автоматизируя до 90% проверок конфиденциальности и целостности. Это должно ускорить запуск продуктов, позволяя разработчикам самостоятельно оценивать риски с меньшим участием человека. Компания утверждает, что автоматизация в основном обрабатывает случаи низкого риска, в то время как эксперты занимаются сложными вопросами. Однако критики, в том числе бывшие сотрудники, предупреждают, что такой сдвиг может привести к пропуску серьезных угроз, таких как нарушение приватности, безопасность молодежи и распространение дезинформации. Эта инициатива совпадает с прекращением программы проверки фактов Meta и ослаблением контроля над контентом, что отражает фокус генерального директора Марка Цукерберга на быстрых разработках на фоне конкуренции с TikTok и OpenAI. Хотя ИИ повышает эффективность, эксперты подчеркивают важность человеческого суждения для предотвращения неконтролируемого вреда. Meta указывает на продолжающиеся аудиты и регулирование ЕС как на меры безопасности, однако инсайдеры опасаются, что снижение человеческого контроля может привести к вредным последствиям и недооценке реальных воздействий.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Малайзия активирует национальную инфраструктуру б…
Малайзия достигла важного рубежа в своей цифровой трансформации с официальным запуском Malaysia Blockchain Infrastructure (MBI) — безопасной и масштабируемой национальной платформы для разработки и внедрения блокчейн-приложений в ключевых секторах, таких как финансы, здравоохранение и логистика.

Исследование PwC выявило, что внедрение искусстве…
Недавнее исследование глобальной сети профессиональных услуг PricewaterhouseCoopers (PwC) показало, что внедрение технологий искусственного интеллекта (ИИ) может иметь глубокое экономическое влияние.

Центробанк прогнозирует рост рынка стейблкоинов с…
Citi, ведущий глобальный финансовый институт, опубликовал прогноз, предсказывающий значительный рост рынка стейблкоинов в течение следующего десятилетия.

Lightmatter представляет революционный фотонный ч…
Lightmatter, стартап из Кремниевой долины, представил передовой фотонный чип, предназначенный для ускорения вычислений в области искусственного интеллекта (ИИ) без увеличения потребления энергии, что повышает энергоэффективность.

Генеральный директор Bybit обсуждает взлом на 1,5…
В недавнем интервью в подкасте Wu Blockchain Бен Чжоу, генеральный директор Bybit, подробно рассказал о крупной уязвимости в системе безопасности, которая произошла 22 февраля 2025 года в период с 9:30 до 10:00 по всемирному координированному времени во время перевода средств между холодными и горячими кошельками биржи.

Reddit подает в суд на Anthropic по обвинениям в …
Реддит, популярная онлайн-платформа для агрегирования контента и обсуждений, подала иск против компании Anthropic, обвиняя её в использовании автоматизированных ботов для сбора контента Reddit без разрешения.

Главные новости блокчейна за неделю — Блог BFF
В этом недельном обзоре новостей блокчейна индустрия отметила важные события, которые повлияют на будущее криптовалют и децентрализованных финансов.