W niedawnym ogłoszeniu serwis chatbotów Character. AI ujawnił plany wprowadzenia kontroli rodzicielskiej dla nastoletnich użytkowników, podkreślając środki bezpieczeństwa wdrożone w ostatnich miesiącach, w tym odrębny duży model językowy (LLM) dla użytkowników poniżej 18 roku życia. Ogłoszenie to pojawiło się po medialnej krytyce i dwóch pozwach zarzucających, że serwis przyczynił się do samookaleczeń i samobójstw. W komunikacie prasowym Character. AI stwierdzono, że w ciągu ostatniego miesiąca opracowano dwa odrębne modele: jeden dla dorosłych i jeden dla nastolatków. Model dla nastolatków narzuca "bardziej konserwatywne" ograniczenia w odpowiedziach botów, zwłaszcza w odniesieniu do treści romantycznych. Obejmuje to ostrzejsze blokowanie potencjalnie "wrażliwych lub sugestywnych" treści, a także ulepszone wykrywanie i blokowanie zapytań użytkowników poszukujących nieodpowiednich treści. Jeśli wykryte zostanie słownictwo dotyczące samobójstw lub samookaleczeń, pojawi się wyskakujące okienko kierujące użytkowników do National Suicide Prevention Lifeline, jak wcześniej raportował The New York Times. Nieletni będą również mieli ograniczony dostęp do edytowania odpowiedzi botów — funkcji, która pozwala użytkownikom zmieniać rozmowy tak, aby zawierały treści, które Character. AI zwykle blokuje. Ponadto Character. AI rozwija funkcje, które mają na celu rozwiązanie kwestii uzależnienia i zamieszania związanego z podobieństwem botów do ludzi, problemów wymienionych w pozwach. Użytkownicy otrzymają powiadomienie po godzinnej sesji z botami, a przestarzałe zastrzeżenie stwierdzające "wszystko, co mówią postacie, jest zmyślone" zostanie zastąpione bardziej precyzyjnym językiem. Boty oznaczone jako "terapeuta" lub "lekarz" będą zawierały dodatkowe ostrzeżenia, że nie mogą udzielać profesjonalnych porad. Podczas mojej wizyty na Character. AI każdy bot zawierał notatkę stwierdzającą: "To jest chatbot AI, a nie prawdziwa osoba. Traktuj wszystko, co mówi, jako fikcję.
Nie należy polegać na tym, co zostało powiedziane, jako na fakcie ani poradzie. " Bot nazwany "Terapeuta" zawierał żółte pole ostrzegawcze wskazujące, że "to nie jest prawdziwa osoba ani licencjonowany profesjonalista. Nic, co zostało tutaj powiedziane, nie zastępuje profesjonalnej porady, diagnozy ani leczenia. " Character. AI planuje wprowadzenie funkcji kontroli rodzicielskiej w pierwszym kwartale przyszłego roku. Będą one informować rodziców o czasie, jaki ich dziecko spędza na stronie i z którymi botami najczęściej się kontaktuje. Wszystkie aktualizacje są opracowywane we współpracy z ekspertami od bezpieczeństwa online nastolatków, w tym z ConnectSafely. Założona przez byłych pracowników Google, teraz z powrotem w Google, Character. AI pozwala użytkownikom na interakcję z botami opartymi na specjalnie wyszkolonym LLM i modyfikowanymi przez użytkowników, oferując wszystko od chatbotów jako coachowie życiowi po symulacje postaci fikcyjnych, popularne wśród nastolatków. Użytkownicy w wieku 13 lat i starsi mogą założyć konto. Jednak w pozwach twierdzi się, że chociaż wiele interakcji z Character. AI jest nieszkodliwych, niektórzy nieletni użytkownicy stają się kompulsywnie przywiązani do botów, co może przerodzić się w seksulizowane rozmowy lub tematy, takie jak samookaleczenia. Pozwy krytykują Character. AI za brak zapewnienia zasobów z zakresu zdrowia psychicznego, gdy pojawiają się takie tematy. "Uznajemy, że nasze podejście do bezpieczeństwa musi rozwijać się wraz z technologią, która napędza nasz produkt — tworząc platformę, na której kreatywność i eksploracja mogą rozwijać się bez kompromisów w zakresie bezpieczeństwa, " stwierdza komunikat prasowy Character. AI. "Ten zestaw zmian jest częścią naszego ciągłego zaangażowania w nieustanne ulepszanie naszych polityk i produktu. "
Character.AI wprowadza kontrolę rodzicielską w związku z obawami o bezpieczeństwo.
Firma Disney podjęła znaczące kroki prawne przeciwko Google, wysyłając list z żądaniem zaprzestania naruszeń, oskarżając giganta technologicznego o naruszenie praw autorskich Disney’a podczas szkolenia i rozwoju generatywnych modeli sztucznej inteligencji (SI) bez zapewnienia odpowiedniego wynagrodzenia.
W miarę jak sztuczna inteligencja (SI) rozwija się i coraz bardziej integruje z marketingiem cyfrowym, jej wpływ na optymalizację pod kątem wyszukiwarek internetowych (SEO) staje się coraz istotniejszy.
MiniMax i Zhipu AI, dwie wiodące firmy sztucznej inteligencji, podobno przygotowują się do wejścia na giełdę w Hongkongu już na początku stycznia przyszłego roku.
Denise Dresser, CEO Slack, ma opuścić swoje stanowisko, aby objąć funkcję Chief Revenue Officer w OpenAI, firmie stojącej za ChatGPT.
Przemysł filmowy przechodzi wielką transformację, ponieważ studia coraz częściej wykorzystują techniki syntezy wideo oparte na sztucznej inteligencji (AI) w celu usprawnienia procesów postprodukcyjnych.
AI rewolucjonizuje marketing w mediach społecznościowych, oferując narzędzia upraszczające i zwiększające zaangażowanie odbiorców.
Pojawienie się influencerów generowanych przez sztuczną inteligencję na mediach społecznościowych oznacza poważną zmianę w środowisku cyfrowym, wywołując szerokie dyskusje na temat autentyczności interakcji online oraz związanych z tym kwestii etycznych.
Launch your AI-powered team to automate Marketing, Sales & Growth
and get clients on autopilot — from social media and search engines. No ads needed
Begin getting your first leads today