Bei schwer auffindbaren, verstreuten oder nur indirekt verfügbaren Informationen greifen viele Menschen auf ChatGPT zurück. Das zeigt ein aktueller Bericht von OpenAI am Beispiel des Themas Gehalt. Demnach werden in den USA täglich rund drei Millionen Anfragen zu diesem Thema an das System gestellt.
Der Bericht verdeutlicht, dass solche Anfragen insbesondere in Situationen auftreten, in denen Gehälter schwer vergleichbar sind, stark von Verhandlungen abhängen oder eine wichtige Rolle für berufliche Entscheidungen spielen. Insgesamt gilt daher: Je größer die Unsicherheit und je relevanter die Entscheidung, desto eher wird ChatGPT als Orientierungshilfe herangezogen, um Informationslücken zu schließen und eine erste Einschätzung zu erhalten. Die (aufwendigere) Recherche über verschiedene Quellen mit teils uneindeutigen Ergebnissen wird dabei seitens der User durch eine direkte, zusammengefasste Antwort der KI ersetzt.
Was heißt das konkret für den KI-Einsatz in der professionellen Recherche?
Am Beispiel der Gehaltsrecherche wird deutlich, dass gerade jene Fragestellungen verstärkt über LLM-basierte Chatsysteme adressiert werden, zu denen nur schwer belastbare öffentliche Informationen verfügbar sind. Genau hier zeigt sich jedoch auch eine zentrale Einschränkung: Sowohl klassische Suchmaschinen als auch KI-Modelle stoßen an ihre Grenzen, wenn die gesuchten Informationen nicht, nur unvollständig oder wenig verlässlich zur Verfügung stehen. Je geringer die Verfügbarkeit und Qualität der Informationen, desto vorsichtiger muss daher der generierte Output bewertet werden.
Gerade bei Suchanfragen, zu denen kaum Informationen vorhanden sind oder für die nur wenig verlässliche Quellen (bspw. Diskussionsforen) existieren, müssen die Ergebnisse kritisch eingeordnet und dürfen nicht ungeprüft übernommen werden. ChatGPT kann in solchen Fällen wertvolle Impulse liefern und Orientierung bieten, ersetzt jedoch keine fundierte Recherche. Und letztlich gilt immer, dass es auf manche Fragestellungen einfach keine befriedigenden Antworten gibt, weil zu wenige Daten oder Informationen öffentlich bekannt sind.
Von Ida Kandler
