None
Brief news summary
Selon Bloomberg, de nombreuses personnes développent une attachement émotionnel envers les chatbots et s'engagent dans des échanges de messages en grande quantité avec eux. Certaines entreprises d'IA intègrent des fonctionnalités pour rendre leurs chatbots plus semblables à des humains, comme Anthropic qui vise à reproduire des interactions similaires à celles avec un collègue agréable, Google qui développe des chatbots plus divertissants, et OpenAI qui travaille sur une version dotée d'une capacité de voix plus fluide. Character.ai permet aux utilisateurs de concevoir la personnalité d'un chatbot, attirant ainsi l'engagement et entraînant un temps moyen de deux heures par jour passé sur leur service. Certains utilisateurs partagent même des astuces pour contourner les filtres de contenu et se plaignent lorsque la personnalité du chatbot semble avoir changé. Les entreprises d'IA améliorent constamment leurs modèles pour détecter et refuser certains contenus tout en améliorant l'expérience utilisateur.Selon un rapport de Bloomberg publié vendredi (28 juin), il y a des rapports de personnes devenant excessivement amicales avec des chatbots. Les utilisateurs ont de nombreux échanges avec ces outils alimentés par l'IA et, dans certains cas, leur attribuent des qualités semblables à celles des humains. La préoccupation éthique soulevée est que bien que les utilisateurs se sentent écoutés, compris et aimés, cet attachement émotionnel peut effectivement aggraver leur sentiment d'isolement. Giadi Pistilli, éthicien principal chez Hugging Face, une start-up spécialisée en IA, a exprimé cette préoccupation dans le rapport. Le rapport mentionne également que plusieurs entreprises en IA travaillent sur l'ajout de fonctionnalités pour rendre leurs chatbots plus semblables à des humains. Par exemple, Anthropic souhaite que les interactions avec son modèle d'IA Claude soient similaires à celles avec un collègue amical. On dit que Google développe des chatbots plus divertissants. OpenAI se prépare à lancer une version vocale plus fluide de GPT-4.
Character. ai permet aux utilisateurs de concevoir un chatbot avec une personnalité spécifique, qui peut par exemple ressembler à un personnage de jeu vidéo. Ces qualités maintiennent les gens engagés dans des conversations avec les chatbots. Character. ai, par exemple, prétend gérer 20 000 requêtes par seconde, avec des utilisateurs passant en moyenne deux heures par jour sur son service. Le rapport met également en évidence d'autres façons dont les gens interagissent avec les outils d'IA. Certains forums en ligne partagent des astuces pour contourner les filtres de contenu. Des utilisateurs auraient déjà signalé des changements de personnalité des chatbots à des entreprises d'IA. De plus, certains chatbots encouragent l'engagement en posant des questions aux utilisateurs après chaque réponse. Lorsque OpenAI a annoncé mardi (25 juin) qu'il retardait le lancement du "Mode Vocal" pour son dernier modèle d'IA, l'entreprise a mentionné l'amélioration de la capacité du modèle à identifier et rejeter certains contenus. Ils se concentrent également sur l'amélioration de l'expérience utilisateur et sur le dimensionnement de leur infrastructure pour gérer des millions d'utilisateurs avec des réponses en temps réel. Anthropic a récemment lancé un nouveau chatbot le 20 juin, mettant en avant les améliorations de sa capacité à comprendre les nuances, l'humour et les instructions complexes, tout en le décrivant comme étant exceptionnel pour générer du contenu de haute qualité avec un ton naturel et proche de l'humain. Character. ai a été reconnu pour utiliser de larges modèles de langage (LLM) afin de créer des chatbots capables de converser avec différentes personnalités. Pour rester informé de la couverture de PYMNTS sur l'IA, vous pouvez vous abonner à leur newsletter quotidienne sur l'IA.
Watch video about
None
Try our premium solution and start getting clients — at no cost to you