None
Brief news summary
NoneForschungen haben gezeigt, dass das Training von KI-Modellen, um vor dem Antworten nachzudenken, ihre Schlussfolgerungsfähigkeiten erheblich verbessern kann. Traditionell berücksichtigen KI-Chatbots wie ChatGPT ihre Antworten nicht oder antizipieren verschiedene Gesprächsmöglichkeiten nicht. Jedoch ermöglicht eine neue Schulungsmethode namens "Quiet-STaR" KI-Systemen, mehrere innere Begründungen zu generieren, bevor sie eine Antwort auf eine Anfrage geben. Durch die Kombination dieser Vorhersagen kann die KI die beste Antwort liefern, die von einem menschlichen Teilnehmer überprüft werden kann.
Diese Methode ermöglicht es der KI auch, falsche Begründungen zu verwerfen und somit zukünftige Gespräche zu antizipieren und von laufenden zu lernen. Der Quiet-STaR-Algorithmus wurde auf Mistral 7B angewendet, ein Open-Source-Sprachmodell, was zu einer Schlussfolgertestwertung von 47, 2% führte, was im Vergleich zu der Vortrainingswertung von 36, 3% eine signifikante Verbesserung darstellt. Die KI hat immer noch Schwierigkeiten bei bestimmten Aufgaben wie einem Mathematiktest in der Schule, aber ihre Leistung hat sich von 5, 9% auf 10, 9% verdoppelt. Dieser Ansatz zeigt vielversprechende Ergebnisse bei der Verbesserung der Schlussfolgerungsfähigkeiten von KI-Modellen und bei der Überbrückung der Lücke zwischen auf neuronalen Netzwerken basierenden Systemen und menschenähnlicher Schlussfolgerung.
Watch video about
None
Try our premium solution and start getting clients — at no cost to you