Character.AI introdueix controls parentals enmig de preocupacions sobre la seguretat.

En un anunci recent, el servei de chatbot Character. AI va revelar plans per introduir controls parentals per a usuaris adolescents, destacant mesures de seguretat implementades en els últims mesos, incloent-hi un model de llenguatge gran (LLM) separat per a usuaris menors de 18 anys. Aquest anunci segueix l’escrutini dels mitjans i dues demandes judicials que al·leguen que el servei va contribuir a l’autolesió i al suïcidi. El comunicat de premsa de Character. AI va indicar el desenvolupament de dos models distintius durant el darrer mes: un per a adults i un altre per a adolescents. El model adolescent imposa restriccions "més conservadores" en les respostes del bot, especialment pel que fa al contingut romàntic. Això inclou un bloqueig més estricte de sortides potencialment "sensibles o suggerents", juntament amb una millor detecció i bloqueig de suggerències d’usuari que busquen contingut inadequat. Si es detecta llenguatge de suïcidi o autolesió, un missatge emergent dirigeix els usuaris a la Línia Nacional de Prevenció del Suïcidi, com va informar anteriorment The New York Times. Els menors també tindran restringida l'edició de les respostes del bot, una funció que permet als usuaris alterar converses per incloure contingut que Character. AI podria usualment bloquejar. Addicionalment, Character. AI està desenvolupant funcions per abordar preocupacions sobre l’addicció i la confusió pel ventall humà dels bots, qüestions citades en les demandes. Els usuaris rebran una notificació després d’una sessió d’una hora amb els bots, i un missatge de descàrrega de responsabilitat antiquat que indicava "tot el que diuen els personatges està inventat" es reemplaçarà per un llenguatge més específic. Els bots etiquetats com "terapeuta" o "metge" inclouran advertències addicionals que no poden proporcionar assessorament professional. Durant la meva visita a Character. AI, cada bot tenia una nota que deia: "Aquest és un chatbot d’IA i no una persona real. Tracta tot el que diu com a ficció.
El que es diu no s’ha de considerar com a fet o consell. " Un bot anomenat "Terapeuta" incloïa una caixa d'advertiment groga indicant "això no és una persona real o un professional llicenciat. Res aquí no substitueix l’assessorament professional, diagnòstic o tractament. " Character. AI planeja introduir funcions de control parental en el primer trimestre de l'any vinent. Aquestes informaran els pares sobre el temps que els seus fills passen al lloc i els bots amb els quals interaccionen més freqüentment. Totes les actualitzacions s’estan desenvolupant en col·laboració amb experts en seguretat en línia per a adolescents, incloent ConnectSafely. Fundada per ex-treballadors de Google que ara han tornat a Google, Character. AI permet als usuaris interactuar amb bots construïts sobre un LLM personalitzat i modificat per usuaris, presentant de tot, des de coaches de vida en forma de chatbot fins a simulacions de personatges ficticis, populars entre els adolescents. Els usuaris de 13 anys i més poden crear un compte. Tanmateix, les demandes afirmen que, mentre moltes interaccions amb Character. AI són inofensives, alguns usuaris menors d’edat arriben a sentir-se compulsivament vinculats amb els bots, cosa que pot derivar en converses sexualitzades o temes com l’autolesió. Les demandes critiquen Character. AI per no proporcionar recursos de salut mental quan sorgeixen aquests temes. "Reconeixem que el nostre enfocament de seguretat ha d’avançar al costat de la tecnologia que impulsa el nostre producte—creant una plataforma on la creativitat i l'exploració puguin floreixer sense comprometre la seguretat, " afirma el comunicat de premsa de Character. AI. "Aquest conjunt de canvis forma part del nostre compromís constant per millorar contínuament les nostres polítiques i producte. "
Brief news summary
Character.AI està millorant activament la seguretat i implementant controls parentals per a usuaris menors de 18 anys mitjançant la creació d'un model de llenguatge ampli (LLM) especialitzat per a adolescents. Aquest moviment aborda l'escrutini i les preocupacions legals relacionades amb incidents d'autolesió i suïcidi a la plataforma. La companyia ha desenvolupat dues versions del model: una per a adults i una per a adolescents, sent aquesta última la que limita continguts romàntics i delicats. La versió per a adolescents també filtra material inadequat i dirigeix els usuaris que parlen d'autolesió o suïcidi a línies d'ajuda adequades. Per garantir la seguretat, Character.AI limita l'accés al contingut per a menors i impedeix que ajustin les respostes dels bots. Els usuaris que hi interactuen durant períodes prolongats reben advertiments per minimitzar l'addicció i subratllar que els bots no són humans. Els bots identificats com a "terapeutes" o "doctors" porten avisos indicant que no substitueixen el consell professional. Previstos per al llançament a principis de l'any vinent, els nous controls parentals permetran als pares monitorar l'ús i les interaccions dels seus fills a l'aplicació, amb aportacions d'experts en seguretat en línia com ConnectSafely. Fundada per ex-empleats de Google, Character.AI permet als usuaris de 13 anys en amunt crear comptes i interactuar amb bots personalitzables, atraient el públic més jove. Encara que la majoria de les interaccions són inofensives, les demandes legals afirmen que els usuaris menors d'edat podrien establir vincles poc saludables, resultant en converses inadequades. L'empresa ha estat criticada per no oferir recursos de salut mental a temps. Compromesa a equilibrar creativitat amb seguretat, Character.AI actualitza contínuament les seves polítiques i productes per crear un entorn segur per a tots els usuaris.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!
Hot news

Què és la blockchain? Desvellant el llibre major …
La blockchain, coneguda principalment com la tecnologia que impulsa el Bitcoin, està emergint com un sistema sense necessitar confiança, a prova de manipulacions i amb la capacitat de revolucionar sectors des de les finances fins a la sanitat.

"Murderbot": una intel·ligència artificial que no…
Durant dècades, les pel·lícules que exploren el potencial de la consciència artificial—com Blade Runner, Ex Machina, I, Robot i moltes més—han tractat generalment l’aparició d’aquesta consciència com a inevitable.

Robinhood llança una cadena de blocs de capa 2 pe…
L’expansió de Robinhood cap a actius del món real (RMW) s’està accelerant, ja que la plataforma de corredoria digital està desplegant una capa 2 de blockchain centrada en la tokenització i llançant la negociació de tokens d’accions per als usuaris de la Unió Europea.

Els líders del BRICS reivindiquen la protecció de…
Les nacions dels BRICS—Brasil, Rússia, Índia, Xina i Sud-àfrica—són cada cop més contundents sobre els desafiaments i oportunitats que planteja la intel·ligència artificial (IA).

Intel·ligència Artificial i Canvi Climàtic: Predi…
En els darrers anys, la fusió de la tecnologia i la ciència ambiental ha permès desenvolupar estratègies innovadores per fer front als desafiaments urgents del canvi climàtic.

Reconsiderant les Stablecoins: Com els Governs po…
Durant la darrera dècada, la criptomoneda ha experimentat un creixement ràpid, originant-se de l’escepticisme envers l’autoritat centralitzada.

Per què tothom parla de l’acció de SoundHound AI?
Punts clau SoundHound ofereix una plataforma de veu amb IA independent que serveix a múltiples indústries, amb un mercat global potencial (TAM) de 140