Die Europäische Union treibt derzeit mit Nachdruck den Aufbau eigener KI-Basismodelle voran. Kürzlich stellte die EU-Kommission das Strategiepapier Resilienz 2.0 vor, in dem unter anderem auch dargelegt wird, wie durch Investitionen und einen angepassten Rechtsrahmen eigene KI-Infrastrukturen und Datenressourcen geschaffen werden sollen. Das Ziel ist klar: Europa soll in einer Welt, in der leistungsfähige KI-Systeme zunehmend die Grundlage für wirtschaftliche Wettbewerbsfähigkeit, digitale Infrastruktur und gesellschaftliche Entscheidungsprozesse bilden, technologisch souverän werden.
Folgende Umsetzungsmaßnahmen zu KI werden im Strategiepapier genannt:
- Aufbau und Förderung europäischer KI-Großprojekte („AI Gigafactories“) und ein General-Purpose AI Code of Practice
- Vereinfachung von Finanzierungs- und Regulierungsprozessen
- Förderung einer Werte-basierten Innovationskultur („EU values-based innovation model“) als Gegensatz zu marktorientierten Modellen (USA) und staatlich gelenkten Modellen (China)
Was heißt das konkret für den KI-Einsatz in der professionellen Recherche?
Aktuell dominieren vor allem Unternehmen aus den USA und China den Markt für sogenannte Foundation Models – also große, leistungsstarke KI-Modelle, die für unterschiedlichste Anwendungszwecke genutzt werden. Diese Abhängigkeit birgt Risiken: Politische Einflussnahme, eingeschränkte Transparenz, Sicherheitsbedenken und ein Mangel an Kontrolle über Trainingsdaten und Modellverhalten. So ist beispielsweise bekannt, dass chinesische KI-Modelle meist ohne Kennzeichnung systematisch bestimmte politische oder historische Fakten verzerren oder ganz ausblenden. Auch US-amerikanische Systeme könnten durch die immer enger werdende Verbindung von Tech-Riesen und US-Administration anfällig für ökonomische oder geopolitische Interessen werden, die nicht unbedingt europäische Werte wie Datenschutz, Meinungsfreiheit oder ethische Standards widerspiegeln.
Immer mehr Prozesse, ob in Verwaltung, Medien, Wissenschaft oder Unternehmen, werden heute durch KI unterstützt: von der Textanalyse über die Recherche bis hin zur Entscheidungsunterstützung. Wenn dabei unklare Quellen, politische Verzerrungen oder datenschutzrechtlich bedenkliche Systeme im Einsatz sind, gefährdet das nicht nur die Qualität der Ergebnisse, sondern auch Vertrauen und Rechtssicherheit. Die Entscheidung für europäische KI kann ein erster Schritt für mehr Qualität, Sicherheit und Kontrolle in der digitalen Arbeitswelt sein.
Die Schweiz wagte mit dem KI-Modell Apertus kürzlich den Versuch, eine vertrauenswürdige, sichere und transparente Modell-Alternative bereitzustellen. Es wird spannend zu sehen, welche Erfahrungen mit Apertus gemacht werden.
Von Markus Hoffmann
