top of page

Future Feed

Logo von 1E9 Denkfabrik GmbH

OpenAI will Gründe für Halluzinationen gefunden haben

Michael Förtsch

16. September 2025 um 02:26:06

Michael Förtsch

Forscher von OpenAI haben ein neues Paper veröffentlicht, in dem sie behaupten, die Gründe für Halluzinationen von KI-Modellen gefunden zu haben. Mit anderen Worten: Sie haben eine Erklärung für das Phänomen, dass die Modelle immer wieder Informationen erfinden, die nachweislich falsch oder vollkommen erfunden sind.

 

Ein zentraler Faktor sei, dass große Sprachmodelle vom Training bis hin zur Validierung und dem Tuning so incentiviert werden, dass sie sich wie „gute Testteilnehmer“ verhalten, also Fragen besonders gut und vollständig beantworten. Ein inhärenter Teil dieser Natur sei es, „wenn sie unsicher sind, zu raten“, da dies in vielen Fällen die beste Option ist, um in einer Prüfungs- oder Testumgebung am besten abzuschneiden.


Dazu kommen jedoch noch weitere Faktoren. Den Modellen fällt es schwerer, Informationen, die nur selten oder sogar nur einmal in den Trainingsdaten vorkommen, in ihrem digitalen Wissensraum zu verankern. Zudem ist es den Modellen zuweilen unmöglich, in manchen Daten klare Strukturen oder Muster auszumachen, weswegen diese nur fragmentiert verinnerlicht werden.

 

Laut den Forschern könnte das Problem der Halluzinationen durch neue Trainings- und Tuning-Methoden abgeschwächt werden. Eine echte Lösung gäbe es jedoch nicht. Und selbst wenn es eine gäbe, würde diese die Modelle wohl deutlich schwerer und frustrierender nutzbar machen, da Chatbots viele Fragen nicht mehr beantworten würden, für die sie keine absolut richtige Antwort parat haben.

Kommentare

Deine Meinung teilenJetzt den ersten Kommentar verfassen.
bottom of page