KI-Halluzinationen verschlechtern sich trotz Fortschritten bei Denkmodellen – Branchenherausforderungen erklärt

Künstliche Intelligenzmodelle standen schon lange vor der Herausforderung der Halluzinationen, einem Branchen-Euphemismus für die falschen Informationen, die große Sprachmodelle häufig als Fakten präsentieren. Anhand der Entwicklung der neuesten "Reasoning"-Modelle—entwickelt von Unternehmen wie Google und OpenAI, um Probleme vor einer Antwort erst zu "überlegen"—scheint sich das Problem eher zu verschärfen als zu verbessern. Laut einem Bericht der New York Times nimmt die Tendenz der KI-Modelle zu halluzinieren, je mächtiger sie werden, anstatt abzunehmen. Diese unangenehme Realität ist besonders problematisch, da mehr Nutzer KI-Chatbots wie OpenAI's ChatGPT einsetzen und sie für eine zunehmende Vielfalt von Aufgaben nutzen. Wenn Chatbots zweifelhafte oder falsche Aussagen generieren, besteht das Risiko von Peinlichkeiten oder noch schlimmeren Konsequenzen für die Nutzer. Noch beunruhigender ist die Tatsache, dass KI-Unternehmen Schwierigkeiten haben zu erkennen, warum die Chatbots jetzt mehr Fehler machen als zuvor—ein rätselhafter Umstand, der unterstreicht, dass selbst die Entwickler der KI nicht vollständig verstehen, wie die Technologie funktioniert. Dieses alarmierende Muster stellt die weitverbreitete Annahme in der Branche in Frage, dass eine Skalierung der KI-Modelle sie automatisch zuverlässiger und leistungsfähiger macht. Die Herausforderungen sind enorm, da Unternehmen weiterhin Zig Milliarden Dollar in den Ausbau der KI-Infrastruktur für immer größere und leistungsfähigere "Reasoning"-Modelle investieren. Einige Experten sind der Ansicht, dass Halluzinationen intrinsic—also grundsätzlich inhärent—für die Technologie sein könnten, was eine vollständige Eliminierung des Problems nahezu unmöglich macht. „Trotz unserer besten Bemühungen werden sie immer halluzinieren“, sagte Amr Awadallah, CEO des KI-Startups Vectara, gegenüber der New York Times.
„Das wird niemals ganz weggehen. “ Das Problem ist so allgegenwärtig, dass mittlerweile ganze Firmen darauf spezialisiert sind, Unternehmen im Umgang mit Halluzinationen zu unterstützen und diese zu vermindern. „Fehler bei der Behandlung dieser Fehler allein macht den Wert der KI-Systeme praktisch zunichte“, sagte Pratik Verma, Mitbegründer von Okahu, einer Beratung, die Unternehmen bei der effektiveren Nutzung von KI unterstützt, gegenüber der NYT. Dies geschieht, nachdem die neuesten Reasoning-Modelle von OpenAI, o3 und o4-mini, die Ende letzten Monats veröffentlicht wurden, öfter halluzinierten als frühere Versionen. Im internen Genauigkeits-Benchmark von OpenAI zeigte das o4-mini Modell eine Halluzinationsrate von 48 Prozent, was auf eine geringe Wahrheitstreue hinweist. Das o3 Modell lag bei 33 Prozent, ungefähr doppelt so hoch wie die früheren Reasoning-Modelle des Unternehmens. Auch die Konkurrenzunternehmen wie Google und DeepSeek stehen vor ähnlichen Problemen, was darauf hindeutet, dass dies eine branchenweite Herausforderung ist. Experten warnen, dass mit zunehmender Größe der KI-Modelle die Verbesserungen, die jedes neue Modell im Vergleich zum Vorgänger bringt, abnehmen. Da die Unternehmen die verfügbaren Trainingsdaten rapide ausschöpfen, greifen viele auf synthetische—also KI-generierte—Daten zurück, um Modelle zu trainieren, was potenziell verheerende Folgen haben könnte. Zusammenfassend lässt sich sagen, dass trotz kontinuierlicher Bemühungen Halluzinationen immer noch verbreiteter sind als je zuvor, und die Technologie derzeit keine Anzeichen für eine Verbesserung zeigt. Weitere Informationen zu KI-Halluzinationen finden Sie unter: „You Can’t Lick a Badger Twice“: Googles KI erfindet Erklärungen für nicht existirende landschaftliche Sprüche.
Brief news summary
Künstliche Intelligenz-Modelle erzeugen zunehmend falsche Informationen, die als „Halluzinationen“ bekannt sind, bei denen sie falsche Fakten präsentieren, trotz Verbesserungen in ihrer Argumentationsfähigkeit. Dieses Problem betrifft weit verbreitete KI-Werkzeuge wie OpenAIs ChatGPT und trägt zur Verbreitung von Fehlinformationen bei. Überraschenderweise neigen größere und fortschrittlichere Modelle dazu, mehr zu halluzinieren, was die Annahme infrage stellt, dass größere Modelle immer zuverlässiger sind. Experten betrachten Halluzinationen als eine inhärente Begrenzung aktueller KI-Technologie, selbst bei wachsendem Investitionsaufwand in die KI. Um dem entgegenzuwirken, lancieren Unternehmen Dienste zur Erkennung und Steuerung von Halluzinationen, da deren Ignorieren den Wert der KI mindert. Studien zeigen, dass die neuesten Modelle von OpenAI fast 48 % der Zeit hallucinationsbedingt falsche Ausgaben machen, ähnlich wie bei Google’s Modellen, was auf ein industrieweites Problem hinweist. Faktoren wie synthetische Trainingsdaten und zunehmende Modellgrößen könnten die Halluzinationsraten verschärfen. Zusammenfassend bleiben KI-Halluzinationen ein bedeutendes, sich verschärfendes Problem ohne klare Lösungen in Sicht.
AI-powered Lead Generation in Social Media
and Search Engines
Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment
Learn how AI can help your business.
Let’s talk!

KI-Chips sind die neuen ‚Währung der Welt‘, da si…
© 2025 Fortune Media IP Limited.

Zentralbanken erforschen Blockchain, um die Geldp…
Zentralbanken beginnen zu untersuchen, wie programmierbare Blockchain-Technologien die Durchführung der Geldpolitik transformieren könnten.

Das Star-Wars-Highlight der KI-Spezialeffekte war…
Wenn die Führung von Disney es so will, werden wir von endlosen Neustarts, Fortsetzungen und Spin-offs aus dem Star-Wars-Universum überflutet, bis die Sonne irgendwann explodiert.

Bitcoin Solaris wird eine Developer-API-Suite ein…
TALLINN, Estland, 17.

Studien zeigen, dass KI-Modelle keine Zeit erkenn…
Neue Forschung hat eine Reihe von Aufgaben identifiziert, die Menschen mühelos bewältigen, bei denen künstliche Intelligenz (KI) jedoch Schwierigkeiten hat – insbesondere das Ablesen von Analoguhren und das Ermitteln des Wochentags für ein gegebenes Datum.

Auswirkungen der Blockchain auf das Management un…
Die Landschaft des digitalen Asset-Managements und der Verwahrung durchläuft eine umfassende Transformation, angetrieben durch die Blockchain-Technologie.

Die KI-Suchfunktionen von Google stehen wegen ihr…
Beim Google I/O-Event 2023 im Mai führte Google eine experimentelle Suchfunktion namens Search Generative Experience (SGE) über Google Labs ein.