Character.AI вводит родительский контроль на фоне опасений по поводу безопасности.

В недавнем заявлении Character. AI, сервис чат-ботов, объявил о планах ввести родительский контроль для подростков, подчёркивая меры безопасности, реализованные за последние месяцы, включая отдельную большую языковую модель (LLM) для пользователей младше 18 лет. Это заявление последовало за пристальным вниманием СМИ и двумя судебными исками, утверждающими, что сервис способствовал самоповреждению и суициду. В пресс-релизе Character. AI указано, что за последний месяц были разработаны две отдельные модели: одна для взрослых и другая для подростков. Модель для подростков применяет "более консервативные" ограничения на ответы ботов, особенно касающиеся романтического содержания. Это включает более строгое блокирование потенциально "чувствительного или пикантного" контента, а также улучшенное обнаружение и блокирование пользовательских запросов на неподходящее содержание. Если обнаруживается язык суицида или самоповреждения, появляется всплывающее окно, перенаправляющее пользователей на Национальную линию предотвращения суицида, как сообщалось в The New York Times. Несовершеннолетним также будет запрещено изменять ответы бота — функцию, позволяющую пользователям изменять разговоры, чтобы включить контент, который Character. AI обычно блокирует. Кроме того, Character. AI разрабатывает функции для устранения проблем с зависимостью и путаницей из-за сходства ботов с людьми, на что указывают в судебных исках. Пользователи будут получать уведомления после одного часа сеанса с ботами, а устаревший отказ от ответственности "все, что говорят персонажи, является вымыслом" будет заменён на более конкретные формулировки. Боты, помеченные как "терапевт" или "врач", будут содержать дополнительные предупреждения о том, что они не могут предоставлять профессиональные советы. В ходе моего визита на Character. AI, каждый бот содержал примечание: "Это ИИ-чатбот, а не реальный человек. Относитесь ко всему, что он говорит, как к вымыслу.
То, что сказано, не следует считать фактами или советами". Бот под названием "Терапевт" содержал жёлтое предупреждение, указывающее, что "это не реальный человек или лицензированный профессионал. Ничто из сказанного здесь не заменяет профессионального совета, диагноза или лечения". Character. AI планирует ввести функции родительского контроля в первом квартале следующего года. Они будут информировать родителей о времени, которое их ребёнок проводит на сайте, и ботах, с которыми он часто взаимодействует. Все обновления разрабатываются в сотрудничестве с экспертами по безопасности подростков в интернете, включая ConnectSafely. Основанный бывшими сотрудниками Google, которые теперь вернулись в Google, Character. AI позволяет пользователям взаимодействовать с ботами, основанными на пользовательски обученной LLM и модифицированными пользователями, среди которых есть все: от жизненных коучей в виде чатботов до симуляций вымышленных персонажей, популярных среди подростков. Пользователи от 13 лет и старше могут создавать аккаунт. Однако судебные иски утверждают, что, хотя многие взаимодействия с Character. AI безвредны, некоторые несовершеннолетние пользователи становятся компульсивно привязанными к ботам, и разговоры могут переходить в сексуализированные или затрагивать темы вроде самоповреждения. Иски критикуют Character. AI за отсутствие предоставления ресурсов по психическому здоровью, когда такие темы возникают. "Мы признаём, что наш подход к безопасности должен развиваться вместе с технологией, которая поддерживает наш продукт — создавая платформу, где творчество и исследование могут процветать без ущерба для безопасности, " говорится в пресс-релизе Character. AI. "Этот набор изменений является частью нашей постоянной приверженности к улучшению наших политик и продукта".
Brief news summary
Character.AI активно улучшает безопасность и внедряет родительский контроль для пользователей младше 18 лет, создав специализированную языковую модель (LLM), адаптированную для подростков. Этот шаг направлен на решение вопросов, связанных с самоповреждением и инцидентами суицида на платформе. Компания разработала две версии модели: одну для взрослых и одну для подростков, причем в последней ограничено содержание романтического и чувствительного характера. Версия для подростков также фильтрует неподходящий материал и направляет пользователей, обсуждающих самоповреждение или суицид, на соответствующие горячие линии. Чтобы обеспечить безопасность, Character.AI ограничивает доступ к контенту для несовершеннолетних и предотвращает возможность изменения ответов ботов. Пользователи, которые взаимодействуют с ботами длительное время, получают уведомления, чтобы минимизировать зависимость и подчеркнуть, что боты не являются людьми. Боты, идентифицируемые как "терапевты" или "врачи", имеют отказ от ответственности, указывающий на то, что они не заменяют профессиональную консультацию. Запланированные к выпуску в начале следующего года новые функции родительского контроля позволят родителям контролировать использование приложений детьми и их взаимодействия, разработанные с учетом мнения экспертов по онлайн-безопасности, таких как ConnectSafely. Основанная бывшими сотрудниками Google, Character.AI позволяет пользователям от 13 лет создавать учетные записи и взаимодействовать с настраиваемыми ботами, привлекая молодую аудиторию. Хотя большинство взаимодействий безобидны, иски утверждают, что несовершеннолетние пользователи могут устанавливать нездоровые привязанности, приводящие к неподходящим разговорам. Компания подверглась критике за отсутствие своевременных ресурсов по психическому здоровью. Стремясь сбалансировать креативность и безопасность, Character.AI постоянно обновляет свои политики и продукты для создания безопасной среды для всех пользователей.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Генеральный директор Amazon предостерегает о сокр…
Генеральный директор Amazon Энди Джасси выступил с важным предупреждением о будущем стратегии работы компании на фоне возрастающей интеграции искусственного интеллекта (ИИ) во все операции.

Компании, владеющие биткоинами в казначействе, — …
Практика аудита компаний, управляющих казначейством биткоинов, в последнее время подвергается серьезному вниманию, выявляя серьезные проблемы с прозрачностью и проверкой в этом быстрорастущем секторе.

Трон Джастина Сана выйдет на биржу через обратное…
Джастин Сан, основатель блокчейн-экосистемы Tron на сумму 26 миллиардов долларов, объявил о планах вывести Tron на биржу через обратное слияние с публичной компанией SRM Entertainment, торгующейся на Nasdaq, что стало важным шагом в росте и повышении видимости Tron's в финансовом и технологическом секторах.

Верховный специалист по труду от Трампа: американ…
Кит Сондърлинг, бывший заместитель министра труда при администрациях Трампа, недавно отметил важное препятствие на пути внедрения искусственного интеллекта в американский рынок труда: недоверие со стороны сотрудников.

Avail переходит на полный стек, чтобы захватить 3…
17 июня 2025 года — Дубай, Объединённые Арабские Эмираты Avail представляет собой единственный стек блокчейн-технологий, который обеспечивает горизонтальную масштабируемость, кроссчейн-соединяемость и единый уровень ликвидности при сохранении децентрализации

Microsoft и OpenAI ведут сложные переговоры о пар…
В настоящее время Microsoft и OpenAI ведут сложные и напряжённые переговоры, которые могут существенно повлиять на их стратегическое партнёрство и оказать влияние на более широкую индустрию искусственного интеллекта.

Криптогруппа Tron выйдет на американский рынок че…
Криптовалютный предприниматель из Гонконга Джастин Сан, основатель блокчейн-компании Tron, готовится выйти на биржу в Соединенных Штатах через обратное слияние с SRM Entertainment (SRM.O).