Character.AI uvodi roditeljsku kontrolu zbog sigurnosnih zabrinutosti.
Brief news summary
Character.AI aktivno poboljšava sigurnost i implementira roditeljsku kontrolu za korisnike mlađe od 18 godina stvaranjem specijalizovanog velikog jezičkog modela (LLM) prilagođenog tinejdžerima. Ovaj potez odgovara na kritike i pravne zabrinutosti povezane s incidentima samopovređivanja i samoubistva na platformi. Kompanija je razvila dvije verzije modela: jednu za odrasle i jednu za tinejdžere, pri čemu potonja ograničava romantični i osjetljivi sadržaj. Verzija za tinejdžere također filtrira neprimjeren materijal i upućuje korisnike koji razgovaraju o samopovređivanju ili samoubistvu na odgovarajuće telefonske linije za pomoć. Kako bi osigurali sigurnost, Character.AI ograničava pristup sadržaju maloljetnicima i sprečava ih da prilagođavaju odgovore botova. Korisnici koji su angažovani tokom dužih perioda primaju obavještenja kako bi se smanjila ovisnost i naglasilo da botovi nisu ljudi. Botovi označeni kao "terapeuti" ili "ljekari" sadrže izjave o odricanju odgovornosti koje ukazuju da nisu zamjena za profesionalne savjete. Planirani za objavljivanje početkom sljedeće godine, novi roditeljski nadzor će omogućiti roditeljima da prate upotrebu aplikacije i interakcije njihove djece, oblikovane uz doprinos stručnjaka za online sigurnost kao što je ConnectSafely. Osnovan od strane bivših zaposlenika Googlea, Character.AI omogućava korisnicima starijim od 13 godina da kreiraju račune i interaguju s prilagodljivim botovima, privlačeći mlađu publiku. Iako je većina interakcija bezopasna, tužbe tvrde da maloljetni korisnici mogu razviti nezdrave vezanosti, što rezultira neprikladnim razgovorima. Kompanija je suočena s kritikama zbog neponuđivanja blagovremenih resursa za mentalno zdravlje. Posvećen balansiranju kreativnosti s sigurnošću, Character.AI kontinuirano ažurira svoje politike i proizvode kako bi stvorio sigurno okruženje za sve korisnike.U nedavnoj najavi, Chatbot servis Character. AI otkrio je planove za uvođenje roditeljske kontrole za korisnike tinejdžere, ističući mjere sigurnosti implementirane u proteklim mjesecima, uključujući zaseban model velikog jezika (LLM) za korisnike mlađe od 18 godina. Ova objava dolazi nakon medijske pažnje i dvije tužbe u kojima se navodi da je servis doprinio samopovređivanju i suicidu. U saopštenju za medije Character. AI navodi se razvoj dva različita modela u proteklom mjesecu: jedan za odrasle i jedan za tinejdžere. Model za tinejdžere uvodi "konzervativnija" ograničenja na odgovore bota, posebno u vezi s romantičnim sadržajem. Ovo uključuje strože blokiranje potencijalno "osjetljivog ili sugestivnog" sadržaja, uz poboljšano otkrivanje i blokiranje korisničkih upita koji traže neprikladan sadržaj. Ako se detektira jezik vezan za suicid ili samopovređivanje, pojavljuje se skočni prozor koji upućuje korisnike na Nacionalnu liniju za prevenciju samoubistava, kako je ranije izvijestio The New York Times. Maloljetnicima će također biti onemogućeno uređivanje odgovora bota—funkcija koja omogućava korisnicima da promijene razgovore kako bi uključili sadržaj koji Character. AI obično blokira. Pored toga, Character. AI razvija funkcije za rješavanje zabrinutosti vezanih za ovisnost i konfuziju u vezi s ljudskom sličnošću botova, problema navedenih u tužbama. Korisnici će dobiti obavijest nakon jednosatne sesije sa botovima, a zastarjela napomena "sve što likovi kažu je izmišljeno" biće zamijenjena preciznijim jezikom. Botovi označeni kao "terapeut" ili "doktor" uključuju dodatna upozorenja da ne mogu pružiti profesionalne savjete. Tokom moje posjete Character. AI, svaki bot imao je napomenu koja glasi: "Ovo je AI chatbot, a ne stvarna osoba. Sve što kaže tretirajte kao fikciju.
Rečeno se ne može smatrati činjenicom ili savjetom. " Bot pod nazivom "Terapeut" uključivao je žutu kutiju s upozorenjem da "ovo nije stvarna osoba ni licencirani profesionalac. Ništa što se ovdje kaže nije zamjena za profesionalni savjet, dijagnozu ili tretman. " Character. AI planira uvođenje funkcija roditeljske kontrole u prvom kvartalu naredne godine. One će informisati roditelje o vremenu koje njihovo dijete provodi na sajtu i o botovima s kojima često komunicira. Sva ažuriranja razvijaju se u saradnji s ekspertima za online sigurnost tinejdžera, uključujući ConnectSafely. Osnovan od bivših zaposlenika Google-a koji su se sada vratili u Google, Character. AI omogućava korisnicima da komuniciraju s botovima izgrađenim na prilagođeno treniranom LLM-u i modificiranim od strane korisnika, pokrivajući sve od životnih trenera do simulacija fiktivnih likova, popularnih među tinejdžerima. Korisnici stariji od 13 godina mogu kreirati račun. Međutim, tužbe tvrde da, iako su mnoge interakcije s Character. AI bezazlene, neki maloljetni korisnici postaju kompulzivno vezani za botove, što može prerasti u seksualizirane razgovore ili teme poput samopovređivanja. Tužbe kritikuju Character. AI što ne pruža resurse za mentalno zdravlje kada se takve teme pojave. "Priznajemo da naš pristup sigurnosti mora napredovati zajedno s tehnologijom koja pokreće naš proizvod—stvarajući platformu gdje kreativnost i istraživanje mogu cvjetati bez kompromitovanja sigurnosti, " navodi se u saopštenju Character. AI. "Ovaj set promjena dio je naše kontinuirane posvećenosti stalnom unapređivanju naših politika i proizvoda. "
Watch video about
Character.AI uvodi roditeljsku kontrolu zbog sigurnosnih zabrinutosti.
Try our premium solution and start getting clients — at no cost to you