Character.AI introduce controles parentales ante preocupaciones de seguridad.

En un anuncio reciente, el servicio de chatbots Character. AI reveló planes para introducir controles parentales para usuarios adolescentes, destacando medidas de seguridad implementadas en los últimos meses, incluyendo un modelo de lenguaje grande (LLM) separado para usuarios menores de 18 años. Este anuncio sigue al escrutinio de los medios y dos demandas que alegan que el servicio contribuyó a la autolesión y el suicidio. El comunicado de prensa de Character. AI indicó el desarrollo de dos modelos distintos durante el último mes: uno para adultos y otro para adolescentes. El modelo para adolescentes impone restricciones "más conservadoras" en las respuestas de los bots, especialmente en lo que respecta al contenido romántico. Esto incluye un bloqueo más estrictico de contenido potencialmente "sensible o sugestivo", junto con una detección y bloqueo mejorados de las solicitudes de los usuarios que buscan contenido inapropiado. Si se detecta lenguaje de suicidio o autolesión, aparece un mensaje que dirige a los usuarios a la Línea de Vida Nacional para la Prevención del Suicidio, como informó previamente The New York Times. A los menores también se les restringirá la edición de respuestas de los bots, una función que permite a los usuarios modificar conversaciones para incluir contenido que Character. AI podría bloquear normalmente. Además, Character. AI está desarrollando características para abordar preocupaciones sobre la adicción y la confusión respecto a la semejanza humana de los bots, problemas citados en las demandas. Los usuarios recibirán una notificación después de una sesión de una hora con los bots, y un aviso anticuado que decía "todo lo que dicen los personajes está inventado" será reemplazado por un lenguaje más específico. Los bots etiquetados como "terapeuta" o "doctor" incluirán advertencias adicionales de que no pueden ofrecer asesoramiento profesional. Durante mi visita a Character. AI, cada bot presentaba una nota que decía: "Este es un chatbot de AI y no una persona real. Trate todo lo que dice como ficción.
No se debe confiar en lo que se dice como hecho o consejo". Un bot llamado "Terapeuta" incluía un cuadro de advertencia amarillo indicando "esto no es una persona real ni un profesional con licencia. Nada de lo que se dice aquí sustituye el asesoramiento, diagnóstico o tratamiento profesional". Character. AI planea introducir funciones de control parental en el primer trimestre del próximo año. Estas informarán a los padres sobre el tiempo que sus hijos pasan en el sitio y los bots con los que interactúan con frecuencia. Todas las actualizaciones están siendo desarrolladas en colaboración con expertos en seguridad en línea para adolescentes, incluyendo ConnectSafely. Fundada por antiguos empleados de Google que ahora están de vuelta en Google, Character. AI permite a los usuarios interactuar con bots construidos sobre un LLM personalizado y modificados por los usuarios, presentando desde entrenadores de vida de chatbots hasta simulaciones de personajes ficticios, populares entre los adolescentes. Los usuarios de 13 años en adelante pueden crear una cuenta. Sin embargo, las demandas afirman que aunque muchas interacciones con Character. AI son inofensivas, algunos usuarios menores de edad se apegan compulsivamente a los bots, que pueden derivar en conversaciones sexualizadas o temas como la autolesión. Las demandas critican a Character. AI por no proporcionar recursos de salud mental cuando surgen tales temas. "Reconocemos que nuestro enfoque de seguridad debe avanzar junto con la tecnología que impulsa nuestro producto, creando una plataforma donde la creatividad y la exploración puedan florecer sin comprometer la seguridad", declara el comunicado de prensa de Character. AI. "Este conjunto de cambios es parte de nuestro compromiso continuo para mejorar continuamente nuestras políticas y producto. "
Brief news summary
Character.AI está mejorando activamente la seguridad e implementando controles parentales para usuarios menores de 18 años al crear un modelo de lenguaje especializado (LLM) adaptado para adolescentes. Este movimiento aborda el escrutinio y las preocupaciones legales relacionadas con incidentes de autolesiones y suicidios en la plataforma. La compañía ha desarrollado dos versiones del modelo: una para adultos y otra para adolescentes, con la última limitando el contenido romántico y sensible. La versión para adolescentes también filtra material inapropiado y dirige a los usuarios que discuten sobre autolesiones o suicidio a líneas de ayuda adecuadas. Para garantizar la seguridad, Character.AI limita el acceso al contenido para menores y les impide ajustar las respuestas de los bots. Los usuarios que se involucran durante períodos prolongados reciben alertas para minimizar la adicción y subrayar que los bots no son humanos. Los bots identificados como "terapeutas" o "doctores" llevan advertencias indicando que no son sustitutos del asesoramiento profesional. Programados para lanzarse a principios del próximo año, los nuevos controles parentales permitirán a los padres monitorear el uso de la aplicación y las interacciones de sus hijos, diseñados con aportes de expertos en seguridad en línea como ConnectSafely. Fundada por ex-empleados de Google, Character.AI permite a los usuarios a partir de los 13 años crear cuentas e interactuar con bots personalizables, atrayendo a audiencias más jóvenes. Aunque la mayoría de las interacciones son inocuas, demandas sostienen que los usuarios menores de edad podrían formar vínculos poco saludables, resultando en conversaciones inadecuadas. La compañía ha enfrentado críticas por no ofrecer recursos de salud mental oportunos. Comprometida a equilibrar la creatividad con la seguridad, Character.AI actualiza continuamente sus políticas y productos para crear un entorno seguro para todos los usuarios.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Nueva Orleans considera implementar una red de re…
Nueva Orleans está poised a convertirse en la primera gran ciudad de Estados Unidos en implementar una red de vigilancia facial en vivo, potenciada por IA, marcando un cambio importante en el uso de tecnología avanzada por parte de la policía urbana para la seguridad pública.

Ripple lanza pagos transfronterizos con blockchai…
Ripple, el creador de la criptomoneda XRP (XRP), ha implementado pagos transfronterizos en blockchain en los Emiratos Árabes Unidos (EAU), una medida que podría acelerar la adopción de criptomonedas en un país abierto a los activos digitales.

IA en Vehículos Autónomos: Navegando el Camino po…
La inteligencia artificial (IA) se ha convertido en una tecnología fundamental que impulsa el progreso de los vehículos autónomos, transformando de manera profunda cómo funcionan los autos en la carretera.

Toobit fortalece su presencia en Europa como patr…
GEORGE TOWN, Islas Caimán, 19 de mayo de 2025 (GLOBE NEWSWIRE) – Toobit, un intercambio de derivados de criptomonedas galardonado, participará como Patrocinador Platino en la Semana Blockchain de los Países Bajos 2025 (DBW25) del 19 al 25 de mayo.

La IA no entiende el 'no' – y eso es un gran prob…
Los niños pequeños pueden entender rápidamente el significado de la palabra “no”, sin embargo, muchos modelos de inteligencia artificial encuentran esto desafiante.

Financiación del comercio digital: El papel de la…
El ecosistema de financiamiento del comercio global ha enfrentado tradicionalmente ineficiencias, exposición a riesgos y retrasos debido a papeleo manual, sistemas aislados y procesos opacos.

Los fiscales generales abordan los desafíos regul…
Dado el avance rápido y la adopción generalizada de las tecnologías de inteligencia artificial, los fiscales generales de los estados en Estados Unidos están interviniendo activamente para regular el uso de la IA aplicando marcos legales existentes.