lang icon German
Auto-Filling SEO Website as a Gift

Launch Your AI-Powered Business and get clients!

No advertising investment needed—just results. AI finds, negotiates, and closes deals automatically

May 6, 2025, 11:47 a.m.
33

KI-Halluzinationen verschlechtern sich trotz Fortschritten bei Denkmodellen – Branchenherausforderungen erklärt

Künstliche Intelligenzmodelle standen schon lange vor der Herausforderung der Halluzinationen, einem Branchen-Euphemismus für die falschen Informationen, die große Sprachmodelle häufig als Fakten präsentieren. Anhand der Entwicklung der neuesten "Reasoning"-Modelle—entwickelt von Unternehmen wie Google und OpenAI, um Probleme vor einer Antwort erst zu "überlegen"—scheint sich das Problem eher zu verschärfen als zu verbessern. Laut einem Bericht der New York Times nimmt die Tendenz der KI-Modelle zu halluzinieren, je mächtiger sie werden, anstatt abzunehmen. Diese unangenehme Realität ist besonders problematisch, da mehr Nutzer KI-Chatbots wie OpenAI's ChatGPT einsetzen und sie für eine zunehmende Vielfalt von Aufgaben nutzen. Wenn Chatbots zweifelhafte oder falsche Aussagen generieren, besteht das Risiko von Peinlichkeiten oder noch schlimmeren Konsequenzen für die Nutzer. Noch beunruhigender ist die Tatsache, dass KI-Unternehmen Schwierigkeiten haben zu erkennen, warum die Chatbots jetzt mehr Fehler machen als zuvor—ein rätselhafter Umstand, der unterstreicht, dass selbst die Entwickler der KI nicht vollständig verstehen, wie die Technologie funktioniert. Dieses alarmierende Muster stellt die weitverbreitete Annahme in der Branche in Frage, dass eine Skalierung der KI-Modelle sie automatisch zuverlässiger und leistungsfähiger macht. Die Herausforderungen sind enorm, da Unternehmen weiterhin Zig Milliarden Dollar in den Ausbau der KI-Infrastruktur für immer größere und leistungsfähigere "Reasoning"-Modelle investieren. Einige Experten sind der Ansicht, dass Halluzinationen intrinsic—also grundsätzlich inhärent—für die Technologie sein könnten, was eine vollständige Eliminierung des Problems nahezu unmöglich macht. „Trotz unserer besten Bemühungen werden sie immer halluzinieren“, sagte Amr Awadallah, CEO des KI-Startups Vectara, gegenüber der New York Times.

„Das wird niemals ganz weggehen. “ Das Problem ist so allgegenwärtig, dass mittlerweile ganze Firmen darauf spezialisiert sind, Unternehmen im Umgang mit Halluzinationen zu unterstützen und diese zu vermindern. „Fehler bei der Behandlung dieser Fehler allein macht den Wert der KI-Systeme praktisch zunichte“, sagte Pratik Verma, Mitbegründer von Okahu, einer Beratung, die Unternehmen bei der effektiveren Nutzung von KI unterstützt, gegenüber der NYT. Dies geschieht, nachdem die neuesten Reasoning-Modelle von OpenAI, o3 und o4-mini, die Ende letzten Monats veröffentlicht wurden, öfter halluzinierten als frühere Versionen. Im internen Genauigkeits-Benchmark von OpenAI zeigte das o4-mini Modell eine Halluzinationsrate von 48 Prozent, was auf eine geringe Wahrheitstreue hinweist. Das o3 Modell lag bei 33 Prozent, ungefähr doppelt so hoch wie die früheren Reasoning-Modelle des Unternehmens. Auch die Konkurrenzunternehmen wie Google und DeepSeek stehen vor ähnlichen Problemen, was darauf hindeutet, dass dies eine branchenweite Herausforderung ist. Experten warnen, dass mit zunehmender Größe der KI-Modelle die Verbesserungen, die jedes neue Modell im Vergleich zum Vorgänger bringt, abnehmen. Da die Unternehmen die verfügbaren Trainingsdaten rapide ausschöpfen, greifen viele auf synthetische—also KI-generierte—Daten zurück, um Modelle zu trainieren, was potenziell verheerende Folgen haben könnte. Zusammenfassend lässt sich sagen, dass trotz kontinuierlicher Bemühungen Halluzinationen immer noch verbreiteter sind als je zuvor, und die Technologie derzeit keine Anzeichen für eine Verbesserung zeigt. Weitere Informationen zu KI-Halluzinationen finden Sie unter: „You Can’t Lick a Badger Twice“: Googles KI erfindet Erklärungen für nicht existirende landschaftliche Sprüche.



Brief news summary

Künstliche Intelligenz-Modelle erzeugen zunehmend falsche Informationen, die als „Halluzinationen“ bekannt sind, bei denen sie falsche Fakten präsentieren, trotz Verbesserungen in ihrer Argumentationsfähigkeit. Dieses Problem betrifft weit verbreitete KI-Werkzeuge wie OpenAIs ChatGPT und trägt zur Verbreitung von Fehlinformationen bei. Überraschenderweise neigen größere und fortschrittlichere Modelle dazu, mehr zu halluzinieren, was die Annahme infrage stellt, dass größere Modelle immer zuverlässiger sind. Experten betrachten Halluzinationen als eine inhärente Begrenzung aktueller KI-Technologie, selbst bei wachsendem Investitionsaufwand in die KI. Um dem entgegenzuwirken, lancieren Unternehmen Dienste zur Erkennung und Steuerung von Halluzinationen, da deren Ignorieren den Wert der KI mindert. Studien zeigen, dass die neuesten Modelle von OpenAI fast 48 % der Zeit hallucinationsbedingt falsche Ausgaben machen, ähnlich wie bei Google’s Modellen, was auf ein industrieweites Problem hinweist. Faktoren wie synthetische Trainingsdaten und zunehmende Modellgrößen könnten die Halluzinationsraten verschärfen. Zusammenfassend bleiben KI-Halluzinationen ein bedeutendes, sich verschärfendes Problem ohne klare Lösungen in Sicht.
Business on autopilot

AI-powered Lead Generation in Social Media
and Search Engines

Let AI take control and automatically generate leads for you!

I'm your Content Manager, ready to handle your first test assignment

Language

Content Maker

Our unique Content Maker allows you to create an SEO article, social media posts, and a video based on the information presented in the article

news image

Last news

The Best for your Business

Learn how AI can help your business.
Let’s talk!

All news