None
Brief news summary
NonePesquisas têm mostrado que treinar modelos de IA a pensarem antes de responder pode significativamente aprimorar suas habilidades de raciocínio. Tradicionalmente, chatbots de IA como o ChatGPT não consideram suas respostas ou antecipam diferentes possibilidades de conversação. No entanto, um novo método de treinamento chamado "Quiet-STaR" instrui sistemas de IA a gerar múltiplas justificativas internas antes de fornecer uma resposta a uma solicitação. Ao combinar essas previsões, a IA pode oferecer a melhor resposta, que pode ser verificada por um participante humano.
Esse método também permite que a IA aprenda descartando justificativas incorretas, possibilitando que ela antecipe conversas futuras e aprenda com as em andamento. O algoritmo Quiet-STaR foi aplicado no Mistral 7B, um modelo de linguagem de código aberto, resultando em uma pontuação no teste de raciocínio de 47, 2%, o que representa uma melhoria significativa em comparação com a pontuação pré-treinamento de 36, 3%. A IA ainda enfrenta dificuldades em certas tarefas, como um teste de matemática escolar, mas seu desempenho dobrou de 5, 9% para 10, 9%. Essa abordagem mostra promessa em aprimorar as capacidades de raciocínio de modelos de IA e reduzir a lacuna entre sistemas baseados em redes neurais e raciocínio semelhante ao humano.
Watch video about
None
Try our premium solution and start getting clients — at no cost to you