Eine neue Forschungsarbeit zur Sicherheit großer KI-Sprachmodelle zeigt, dass bereits eine sehr kleine Anzahl von „vergifteten Dokumenten“ genügt, um schädliche Anweisungen in Sprachmodelle einzuschleusen. Da es nicht auf den prozentualen Anteil der „vergifteten Dokumente“ ankommt, sondern auf deren absolute Zahl, bietet die zunehmende Größe von Sprachmodellen auch keinen besseren Schutz – im Gegenteil, Sprachmodelle mit hoher Lerneffizienz sind besonders anfällig, da diese auch gut darin sind, seltene, aber konsistente Muster in den Trainingsdaten zu erkennen. Desinformationskampagnen im Online-Raum können damit für die Weiterverwendung von mittels Sprachmodellen recherchierten Informationen zu einem Problem werden. Denn konsistent falsche Informationen aus einer verhältnismäßig kleinen Zahl an Quellen würden dann schon ausreichen, um im Sprachmodell die Ausgabe von fehlerhaften Antworten zu erreichen.
Von Markus Hoffmann
Quelle: heise.de, 15.10.2025, von Dr. Volker Zota
![© [2025] [𝘒𝘐-𝘎𝘦𝘯.] 𝘔𝘢𝘳𝘤𝘦𝘭 𝘖𝘩𝘳𝘦𝘯𝘴𝘤𝘩𝘢𝘭𝘭. 𝘉𝘢𝘴𝘪𝘦𝘳𝘦𝘯𝘥 𝘢𝘶𝘧 𝘞𝘦𝘳𝘬𝘦𝘯 𝘷𝘰𝘯 𝘈𝘯𝘥𝘳𝘦𝘢𝘴 𝘖𝘩𝘳𝘦𝘯𝘴𝘤𝘩𝘢𝘭𝘭.](https://research-ki.de/wp-content/uploads/2026/02/bitten_apple_with_a_technical_computer_structure_in_be951617-f4b4-495b-bb1f-c24301dea78e_3.png)