None
Brief news summary
NonePesquisadores da Apple desenvolveram um sistema de IA chamado ReALM (Reference Resolution As Language Modeling) que pode interpretar referências ambíguas e pistas contextuais. Essa descoberta poderia revolucionar as interações com assistentes de voz e remodelar o cenário comercial. O sistema simplifica a compreensão de referências visuais baseadas em tela por meio de modelagem de linguagem usando grandes modelos linguísticos, com o objetivo de melhorar as comunicações de voz com IA e aprimorar as experiências do cliente. A tecnologia de voz está em ascensão, com os consumidores mostrando um interesse crescente em sua rapidez. No entanto, ainda há alguma ceticismo em relação à eficiência e confiabilidade da IA de voz em comparação com o atendimento humano. O projeto ReALM da Apple aborda o desafio de lidar com pronomes e referências implícitas em conversas, tratando a resolução de referência como uma tarefa de modelagem de linguagem, permitindo que o sistema compreenda elementos visuais e os integre à conversa de forma transparente.
Essa abordagem supera os métodos tradicionais e alcança resultados melhores que o GPT-4 da OpenAI. A solução da Apple poderia oferecer uma grande avanço na compreensão do contexto em comunicações de voz, uma área em que a IA tradicionalmente enfrenta dificuldades devido a pausas, palavras de preenchimento e distrações conversacionais. Embora a IA tenha melhorado na compreensão do contexto, ela ainda carece de empatia e inteligência emocional, o que torna as interações frias e impessoais em certas situações. A Apple tem explorado parcerias em IA, incluindo discussões com o Google para incorporar o mecanismo de IA do Google aos recursos de software do iPhone e envolvimentos com a OpenAI. No entanto, o desenvolvimento de IA da Apple tem sido comparativamente mais discreto em relação aos de seus concorrentes.
Watch video about
None
Try our premium solution and start getting clients — at no cost to you