Schlagwort: Quellenqualität
-
Nutzung von ChatGPT zur Schließung von Informationslücken
Bei schwer auffindbaren, verstreuten oder nur indirekt verfügbaren Informationen greifen viele Menschen auf ChatGPT zurück. Das zeigt ein aktueller Bericht von OpenAI am Beispiel des Themas Gehalt. Demnach werden in den USA täglich rund drei Millionen Anfragen zu diesem Thema an das System gestellt. Der Bericht verdeutlicht, dass solche Anfragen insbesondere in Situationen auftreten, in…
-
KI-Content-Farmen bedrohen zunehmend die Informationsqualität im Netz
—
KI-generierte Spam-Webseiten überschwemmen das Internet mit falschen Inhalten und wachsen rasant. Das Medienanalyseunternehmen NewsGuard und der KI-Detektor Pangram Labs haben gemeinsam ein Echtzeitsystem zur Identifikation solcher Websites entwickelt und seit 2023 bereits rund 3.000 solcher „KI-Content-Farmen“ erfasst. Diese Zahl hat sich innerhalb eines Jahres mehr als verdoppelt und wächst derzeit um 300 bis 500 neue…
-
KI als Quelle für Expertise?
Nicht für jede Fragestellung gibt es belastbare Studien oder zitierfähige Quellen und dann sind plausible Einschätzungen oder Herleitungen die einzige Möglichkeit, um Ergebnisse erschließen zu können. Wir haben uns gefragt: Kann eine KI in manchen Fällen nachvollziehbare und plausible Einschätzungen liefern, die an eine Form von „Expertise“ heranreichen? Im Rahmen einer Recherche zu Benchmarks für…
-
Schadet Grokipedia anderen KI-Chatbots?
—
Eine Analyse des Guardian zeigt, dass ChatGPT wie auch Claude in mehreren Antworten Inhalte aus Grokipedia übernommen hatten. Bereits zuvor war bekannt, dass KI-Chatbots auch Inhalte aus Propaganda-Webseiten reproduzieren. Zwar greifen KI-Systeme grundsätzlich auf eine Vielzahl öffentlich zugänglicher Quellen zurück, doch unbedacht kann dieses Verhalten problematisch sein. Grokipedia ist eine im Oktober 2025 gestartete Online-Enzyklopädie,…
-
Hilft KI bei der Suche nach Zukunftsprognosen?
Wie gut funktioniert die Suche mittels Sprachmodellen, wenn quantitative Daten für zukünftige Zeiträume gesucht werden? Für die aktuelle Ausgabe des Newsletters haben wir getestet, wie KI-Tools mit quantitativen Zukunftsprognosen umgehen. Als Ausgangsfrage diente die Entwicklung der Arbeitslosenquote in Deutschland in den nächsten 10 bis 25 Jahren. Die Recherche erfolgte mithilfe mehrerer KI-Tools wie: Die Zahl…
-
Risiken KI-generierter Inhalte für die Wissensqualität von Wikipedia
—
ISBN-Nummern sind für Wikipedia von zentraler Bedeutung, da sie die Überprüfbarkeit von Quellen gewährleisten. Bei der Kontrolle solcher ISBN-Nummern stieß der Wikipedia-Autor Mathias Schindler auf fehlerhafte, nicht auffindbare Angaben, also halluzinierte ISBNs. Die Halluzinationen deuteten darauf hin, dass ganze Textpassagen mithilfe von Large Language Models (LLMs) verfasst worden waren und die zugehörigen Referenzen teilweise erfunden…
-
Google und KI-Systeme: Wie sich Quellenauswahl und inhaltliche Darstellung unterscheiden
—
Eine aktuelle Untersuchung der Ruhr-Universität Bochum und des Max-Planck-Instituts für Softwaresysteme beleuchtet, wie stark sich ausgewählte KI-Suchsysteme (Google AI Overview, Gemini 2.5 Flash mit Suche, GPT-4o-Search und GPT-4o mit aktiviertem Suchwerkzeug) von der klassischen Google-Suche unterscheiden. Analysiert wurden sechs Themenbereiche anhand von mehr als 4.600 Suchanfragen. Die Ergebnisse zeigen, dass KI-Systeme auf ein anderes Spektrum…
-
KI als Informationsquelle: Studie zeigt klare Grenzen bei Recherche-Assistenz
In der vergangenen Woche veröffentlichte die Europäische Rundfunkunion eine Studie, die signifikante Fehlerquoten bei populären KI-Chatbots aufdeckt. Demnach erfinden ChatGPT & Co. regelmäßig Informationen und präsentieren sie als Fakten, wobei die Quellen entweder falsch zugeordnet oder gar nicht angegeben werden. Laut der Studie verbreiten KI-Chatbots in bis zu 40 % der Fälle Fake News und…
-
Neue Wissensgewinnung: ChatGPT statt Enzyklopädie?
—
Wikipedia ist nicht nur für viele Menschen im Alltag eine verlässliche Informationsquelle, sie bildet auch eine der zentralen Grundlagen für das Training von Large Language Models (LLMs). Dabei werden ihre Inhalte nicht selten systematisch „übergewichtet“, um den Modellen umfangreiches Wissen zu vermitteln. In gewisser Weise trainiert Wikipedia also KI-Systeme – und wird nun von diesen…
-
Weitergabe substanzloser KI-Inhalte untergräbt das Vertrauen in Arbeitsteams
—
In einer Befragung von BetterUp Labs und dem Stanford Social Media Lab wurden 1.150 Vollzeitbeschäftigte in den USA zu einem neuen Problem befragt, das durch die zunehmende Nutzung von KI am Arbeitsplatz entstanden ist. Die Befragten schätzen, dass durchschnittlich 15,4 Prozent aller Arbeitsinhalte, die sie erhalten, schlechte KI-Inhalte sind. Die Bearbeitung eines jeden solchen Vorfalls…









