Character.AI Memperkenalkan Kontrol Orang Tua di Tengah Kekhawatiran Keamanan

Dalam pengumuman terbaru, layanan Chatbot Character. AI mengungkapkan rencana untuk memperkenalkan kontrol orang tua bagi pengguna remaja, menyoroti langkah-langkah keamanan yang diterapkan dalam beberapa bulan terakhir, termasuk model bahasa besar (LLM) terpisah untuk pengguna di bawah 18 tahun. Pengumuman ini mengikuti sorotan media dan dua gugatan hukum yang menuduh layanan tersebut berkontribusi pada tindakan menyakiti diri sendiri dan bunuh diri. Dalam siaran persnya, Character. AI menyatakan pengembangan dua model berbeda selama bulan lalu: satu untuk dewasa dan satu untuk remaja. Model remaja memberlakukan pembatasan "lebih konservatif" pada respon bot, terutama terkait konten romantis. Ini termasuk pemblokiran yang lebih ketat terhadap keluaran yang berpotensi "sensitif atau sugestif", serta peningkatan deteksi dan pemblokiran permintaan pengguna yang mencari konten yang tidak pantas. Jika terdeteksi bahasa mengenai bunuh diri atau menyakiti diri sendiri, sebuah pop-up akan mengarahkan pengguna ke Layanan Pencegahan Bunuh Diri Nasional, seperti yang dilaporkan sebelumnya oleh New York Times. Anak di bawah umur juga akan dibatasi dari mengedit respons bot — fitur yang memungkinkan pengguna mengubah percakapan untuk menyertakan konten yang mungkin biasanya diblokir oleh Character. AI. Selain itu, Character. AI sedang mengembangkan fitur untuk menangani kekhawatiran tentang kecanduan dan kebingungan terkait kemiripan bot dengan manusia, isu-isu yang dikutip dalam gugatan hukum. Pengguna akan menerima pemberitahuan setelah sesi satu jam dengan bot, dan peringatan lama yang menyatakan "semua yang dikatakan karakter adalah fiktif" akan diganti dengan bahasa yang lebih spesifik. Bot yang diberi label sebagai "terapis" atau "dokter" akan menyertakan peringatan tambahan bahwa mereka tidak bisa memberikan nasihat profesional. Selama kunjungan saya ke Character. AI, setiap bot menampilkan catatan yang menyatakan, "Ini adalah chatbot A. I. dan bukan orang sungguhan.
Perlakukan semua yang dikatakan sebagai fiksi. Yang dikatakan tidak boleh dianggap sebagai fakta atau saran. " Bot bernama "Terapis" menyertakan kotak peringatan kuning yang menunjukkan "ini bukan orang sungguhan atau profesional berlisensi. Tidak ada yang dikatakan di sini yang menggantikan nasihat, diagnosis, atau pengobatan profesional. " Character. AI berencana untuk memperkenalkan fitur kontrol orang tua pada kuartal pertama tahun depan. Fitur ini akan memberi tahu orang tua tentang waktu yang dihabiskan anak mereka di situs dan bot yang sering mereka interaksikan. Semua pembaruan dikembangkan bekerja sama dengan pakar keselamatan online remaja, termasuk ConnectSafely. Didirikan oleh mantan pegawai Google yang kini kembali ke Google, Character. AI memungkinkan pengguna berinteraksi dengan bot yang dibangun di atas LLM yang dilatih khusus dan dimodifikasi oleh pengguna, menampilkan segalanya mulai dari pelatih kehidupan chatbot hingga simulasi karakter fiksi yang populer di kalangan remaja. Pengguna yang berusia 13 tahun ke atas dapat membuat akun. Namun, gugatan mengklaim bahwa meskipun banyak interaksi dengan Character. AI tidak berbahaya, beberapa pengguna di bawah umur menjadi terikat secara kompulsif pada bot, yang dapat berubah menjadi percakapan yang diseksualisasi atau topik seperti menyakiti diri sendiri. Gugatan ini mengkritik Character. AI karena tidak menyediakan sumber daya kesehatan mental ketika topik semacam itu muncul. "Kami mengakui bahwa pendekatan keamanan kami harus maju seiring dengan teknologi yang memicu produk kami — menciptakan platform di mana kreativitas dan eksplorasi dapat berkembang tanpa mengorbankan keselamatan, " kata siaran pers Character. AI. "Rangkaian perubahan ini adalah bagian dari dedikasi berkelanjutan kami untuk terus meningkatkan kebijakan dan produk kami. "
Brief news summary
Character.AI secara aktif meningkatkan keselamatan dan menerapkan kontrol orang tua untuk pengguna di bawah 18 tahun dengan menciptakan model bahasa besar (LLM) khusus untuk remaja. Langkah ini dilakukan untuk menjawab pengawasan dan masalah hukum terkait insiden melukai diri sendiri dan bunuh diri di platform. Perusahaan telah mengembangkan dua versi model: satu untuk dewasa dan satu untuk remaja, di mana versi remaja membatasi konten romantis dan sensitif. Versi remaja juga menyaring materi yang tidak pantas dan mengarahkan pengguna yang membahas melukai diri sendiri atau bunuh diri ke saluran bantuan yang sesuai. Untuk memastikan keselamatan, Character.AI membatasi akses konten untuk anak di bawah umur dan mencegah mereka menyesuaikan respons bot. Pengguna yang terlibat untuk periode waktu yang lama menerima peringatan untuk meminimalkan kecanduan dan menekankan bahwa bot bukanlah manusia. Bot yang diidentifikasi sebagai "terapis" atau "dokter" memuat penafian yang menunjukkan bahwa mereka bukan pengganti nasihat profesional. Dijadwalkan untuk dirilis awal tahun depan, kontrol orang tua baru akan memungkinkan orang tua memantau penggunaan aplikasi dan interaksi anak-anak mereka, dibentuk dengan masukan dari pakar keselamatan online seperti ConnectSafely. Didrikan oleh mantan karyawan Google, Character.AI memungkinkan pengguna berusia 13 tahun ke atas untuk membuat akun dan berinteraksi dengan bot yang dapat disesuaikan, menarik bagi audiens yang lebih muda. Meskipun sebagian besar interaksi tidak berbahaya, gugatan mengklaim bahwa pengguna di bawah umur mungkin membentuk keterikatan yang tidak sehat, mengakibatkan percakapan yang tidak pantas. Perusahaan telah menghadapi kritik karena tidak menawarkan sumber daya kesehatan mental tepat waktu. Berkomitmen untuk menyeimbangkan kreativitas dengan keselamatan, Character.AI terus memperbarui kebijakannya dan produknya untuk menciptakan lingkungan yang aman bagi semua pengguna.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

Perilaku Tak Terduga Model Bahasa AI Menimbulkan …
Edisi newsletter Axios AM 9 Juni 2025 menyoroti kekhawatiran yang meningkat seputar model bahasa besar (LLMs) canggih dalam kecerdasan buatan.

Minggu Besar di Kongres Mendorong Legislas i Mata…
Minggu ini menandai momen penting bagi industri cryptocurrency di AS, dengan kemajuan legislatif yang signifikan di Kongres di tengah perdebatan anggaran federal yang intens.

Peran Blockchain dalam Verifikasi Identitas Digit…
Dalam beberapa tahun terakhir, teknologi blockchain telah menjadi alat transformasional untuk meningkatkan keamanan digital, terutama dalam verifikasi identitas.

Google Tunjuk CTO DeepMind sebagai Arsitek Utama …
Google telah melakukan langkah strategis besar dalam bidang kecerdasan buatan yang berkembang pesat dengan menunjuk Koray Kavukcuoglu, Chief Technology Officer (CTO) laboratorium AI DeepMind-nya saat ini, sebagai Kepala Arsitek AI Baru dan Wakil Presiden Senior.

Strategi AI Agresif Meta di Tengah Akuisisi Talen…
Mark Zuckerberg sedang melakukan kembalinya yang kuat dalam perlombaan menuju kecerdasan buatan superinteligent, menandakan dedikasi Meta yang diperbarui untuk mengatasi hambatan-hhambatan terbaru.

Pemimpin DeFi Aave Memulai Debut di Blockchain So…
Perjanjian ini akan mencakup keterlibatan Aave dalam program insentif likuiditas mendatang, termasuk kolaborasi dengan Astar, sebuah blockchain yang terkenal di ekosistem Web3 Jepang.

Potensi Investasi Meta sebesar 14,8 Miliar Dolar …
Meta dilaporkan sedang menyiapkan investasi besar sebesar $14,8 miliar untuk memperoleh saham sebesar 49% di Scale AI, sebuah perusahaan kecerdasan buatan terkemuka.