Wikipedia ist nicht nur für viele Menschen im Alltag eine verlässliche Informationsquelle, sie bildet auch eine der zentralen Grundlagen für das Training von Large Language Models (LLMs). Dabei werden ihre Inhalte nicht selten systematisch „übergewichtet“, um den Modellen umfangreiches Wissen zu vermitteln. In gewisser Weise trainiert Wikipedia also KI-Systeme – und wird nun von diesen selbst überholt: Während die Besucherzahlen der Online-Enzyklopädie rückläufig sind, verzeichnet ChatGPT mittlerweile deutlich mehr monatliche Zugriffe. Für Wikipedia bedeutet dieser Trend eine doppelte Herausforderung: Zum einen können sinkende Besucherzahlen mit einer abnehmenden inhaltlichen Qualität einhergehen, zum anderen konfrontieren KI-generierte Texte die Plattform mit neuen Problemen. Mit KI erstellten Beiträge weisen nämlich häufig eine deutlich geringere Qualität und Quellenvielfalt auf. Um der KI-Entwicklung auf Wikipedia entgegenzuwirken, wurde das WikiProjekt „AI Cleanup“ gegründet, das KI-Inhalte auf Wikipedia ausfindig machen und rausnehmen soll. Der BR-Artikel beleuchtet u. a. die daraus entstehende grundlegende Frage: Wie verändert sich Wissen und Wissensgewinnung, wenn die Qualität der Wikipedia-Inhalte erodiert – und damit auch die Trainingsdaten jener KI-Systeme, die sich wiederum aus diesen Inhalten speisen?
Von Ida Kandler
Quelle: BR24, 05.10.2025, von Gregor Schmalzried und Christian Schiffer
