ISBN-Nummern sind für Wikipedia von zentraler Bedeutung, da sie die Überprüfbarkeit von Quellen gewährleisten. Bei der Kontrolle solcher ISBN-Nummern stieß der Wikipedia-Autor Mathias Schindler auf fehlerhafte, nicht auffindbare Angaben, also halluzinierte ISBNs. Die Halluzinationen deuteten darauf hin, dass ganze Textpassagen mithilfe von Large Language Models (LLMs) verfasst worden waren und die zugehörigen Referenzen teilweise erfunden waren. Mit dieser Methode konnten rund 150 Artikel identifiziert werden, die KI-Halluzinationen enthielten.
Schindler beschreibt dieses Phänomen als eine „Kontamination mit Inhalten, die auf den ersten Blick wahr erscheinen könnten und sich als Fakten tarnen“. Problematisch ist dabei insbesondere die Selbstverstärkung falscher Informationen: Externe Publikationen können vermeintliche Wikipedia-Fakten zitieren, die später wiederum als Beleg in Wikipedia-Artikeln auftauchen. Gleichzeitig schaden sich LLMs selbst, da sie häufig mit Wikipedia-Inhalten trainiert werden und so fehlerhaftes Wissen weiterverarbeiten.
Während Wikipedia früher aufgrund ihres nutzergenerierten Charakters oft als problematische Quelle galt, könnte gerade dieser Umstand heute ein Qualitätsmerkmal sein: Die gemeinschaftliche bzw. menschliche Kontrolle erhöht die Wahrscheinlichkeit, dass Inhalte überprüft und nicht schlicht erfunden sind.
Von Ida Kandler
Quelle: Netzpolitik, 29.12.2025, von Leonhard Pitz
