Eine Untersuchung von OpenAI liefert einen mathematischen Nachweis, dass Halluzinationen von KI-Modellen nicht zu verhindern sind. Sprachmodelle können gar nicht anders, als mit großer Zuversicht falsche Aussagen vorzutragen. Dies sei mathematisch unvermeidlich. Da dieses Verhalten selbst bei perfekten Trainingsdaten bestehen bleibe, ist es nicht ein bloßer Nebeneffekt, der durch Verbesserungen der Modelle beseitigt werden könnte. Für Nutzer bedeutet dies, dass man auf dieses Verhalten adäquat reagieren muss, um bei der Arbeit mit Sprachmodellen nicht falsche Informationen weiterzuverwenden. Beispielsweise halluziniert ein Modell umso wahrscheinlicher, je seltener es mit einer bestimmten Tatsache im Training konfrontiert war. Stellt man den Modellen also Recherchefragen, für deren Beantwortung kaum Material in öffentlichen Quellen zu finden ist, sollten die Antwort und die Quellen sehr sorgfältig geprüft werden.
Von Maria Kleiner
Quelle: Telepolis, 30.09.2025, von Uwe Kerkow
