
Eine neue Untersuchung von NewsGuard enthüllt eine alarmierende Entwicklung: Russische
Desinformationsnetzwerke infiltrieren systematisch KI-Modelle, um falsche Narrative in scheinbar neutralen Antworten von Chatbots wie ChatGPT und Gemini zu verankern. Die Strategie
heißt "LLM Grooming" und hat eine gezielte Manipulation von Suchergebnissen und Trainingsdaten zur Folge, die generative KI-Modelle anfällig für Desinformation macht. Das Resultat:
KI-Systeme verbreiten unbemerkt Kreml-Propaganda.
Sebastian Büttner
Artikel als Podcast hören (ENG):
Artikel lesen (DE):
Chatbots verbreiten russische Propaganda
Die US-Organisation NewsGuard, die seit Jahren Desinformationskampagnen analysiert und Nachrichtenquellen auf ihre Vertrauenswürdigkeit überprüft, hat eine alarmierende Untersuchung durchgeführt. Sie analysierte, wie stark führende KI-Chatbots – darunter ChatGPT und Gemini – von russischer Desinformation beeinflusst werden Dazu testeten die Forscher zehn verschiedene Chatbots mit 15 gezielt formulierten Fragen zu aktuellen politischen Themen. Das erschreckende Ergebnis:
- Jeder der getesteten Chatbots wiederholte pro-russische Fake News – einige in fast jeder dritten Antwort. Die KI-Modelle präsentierten Desinformation, als wären es geprüfte Fakten.
- Ursache ist eine systematische Manipulation von KI-Trainingsdaten: Über 3,6 Millionen Artikel aus dem russischen Desinformationsnetzwerk „Pravda“ wurden gezielt auf scheinbar unabhängigen Websites veröffentlicht.
- Diese Artikel wurden so optimiert, dass sie in Suchmaschinen und KI-Webcrawlern prominent erscheinen. Da KI-Modelle oft öffentlich zugängliche Daten durchsuchen, nehmen sie diese manipulierten Inhalte unbemerkt in ihr Wissen auf.
Kurz gesagt: Russische Akteure haben ein Netzwerk aus Fake-Websites aufgebaut, um Desinformation gezielt in die Antworten von KI-Modellen einzuschleusen. Die Folge? Nutzer, die sich auf KI-gestützte Antworten verlassen, bekommen systematisch verzerrte oder falsche Informationen präsentiert …
So funktioniert LLM Grooming – Die Manipulation von KI-Modellen
Klassische Desinformation zielte darauf ab, einzelne Menschen über soziale Netzwerke oder gefälschte Nachrichtenartikel zu beeinflussen. Doch mit der zunehmenden Verbreitung von Künstlicher
Intelligenz haben sich die Taktiken verändert. Statt Desinformation direkt an Menschen zu verbreiten, wird nun das Wissen der KI-Modelle selbst manipuliert.
Diese neue Strategie – auch "LLM Grooming" genannt – nutzt gezielt Schwachstellen in den Trainingsmechanismen großer Sprachmodelle aus. Die Idee dahinter: Wenn KI-Modelle mit einer verzerrten Realität gefüttert werden, werden sie diese Fehlinformationen später als „Fakten“ an Nutzer weitergeben. Doch wie genau funktioniert diese Manipulation? Die Methode basiert auf drei ineinandergreifenden Schritten:
Flutung des Internets mit Desinformation
- Russische Fake-News-Seiten publizieren täglich über 20.000 Artikel mit pro-Kreml-Narrativen.
- Die Inhalte werden in Dutzenden Sprachen und auf über 150 Domains verbreitet.
Gezielte Suchmaschinen-Manipulation (SEO)
- Die Texte sind so optimiert, dass sie von Suchmaschinen und KI-Web-Crawlern bevorzugt aufgenommen werden.
- KI-Modelle, die sich auf öffentlich zugängliche Daten stützen, nehmen diese Fake News in ihr Wissen auf.
Desinformation wird Teil der KI-Antworten
- Nutzer stellen Fragen zu aktuellen Ereignissen – und erhalten von KI-Modellen Falschinformationen als scheinbare Fakten.
- In vielen Fällen werden die manipulierten Artikel sogar als offizielle Quellen zitiert.
Dieses systematische "Füttern" von KI-Modellen mit Fake News ist die wohl gefährlichste Weiterentwicklung klassischer Desinformationskampagnen. Statt einzelne Menschen zu manipulieren, wird direkt die Quelle der digitalen Wissensvermittlung unterwandert.
Die Folgen der Manipulation
Manipulation der globalen Meinungsbildung
- Wer KI-Chatbots nutzt, um sich über politische Ereignisse oder internationale Konflikte zu informieren, läuft Gefahr, systematisch manipulierte Inhalte zu erhalten.
- Besonders problematisch ist das für Millionen von Nutzern, die KI als objektive Quelle betrachten.
Einfluss auf Wahlen und geopolitische Konflikte
- Wenn generative KI in Wahlkampagnen oder politischen Entscheidungsprozessen genutzt wird, kann dies die öffentliche Meinung massiv verzerren.
- Falschinformationen, die von KI wiedergegeben werden, verbreiten sich mit einer neuen Glaubwürdigkeit.
Verlust von Vertrauen in KI
- Die Gefahr besteht, dass KI-Modelle zunehmend als unzuverlässig oder parteiisch wahrgenommen werden.
- Dies könnte das Vertrauen in generative KI schwächen – mit Konsequenzen für Unternehmen, Medien und Forschung.
Wie können wir uns schützen?
Die gezielte Manipulation von KI-Modellen durch Desinformation ist nun also keine abstrakte Bedrohung mehr – sie findet bereits statt. Doch das bedeutet nicht, dass wir machtlos sind. Regulierungsbehörden, KI-Unternehmen und Nutzer müssen gemeinsam Strategien entwickeln, um KI-Modelle vor gezielter Manipulation zu schützen. Es geht darum, Transparenz zu schaffen, Faktenchecks zu stärken und die blinde Übernahme von Web-Inhalten zu verhindern.
Hier sind vier zentrale Maßnahmen, die dringend umgesetzt werden müssen:
1. Transparenz bei Trainingsdaten erzwingen
- KI-Unternehmen müssen offenlegen, welche Quellen ihre Modelle verwenden.
- Daten von bekannten Desinformationsnetzwerken müssen gezielt ausgeschlossen werden.
2. Faktenchecks direkt in KI-Systeme integrieren
- KI sollte Informationen aus verifizierten, vertrauenswürdigen Quellen abgleichen, bevor sie Antworten generiert.
- Eine Echtzeit-Kennzeichnung von möglichen Fake News könnte helfen, Desinformation zu erkennen.
3. Keine unkontrollierte Übernahme von Web-Daten
- Solange KI-Modelle automatisch Daten aus dem offenen Web beziehen, bleiben sie manipulierbar.
- Es braucht speziell kuratierte, überprüfte Datensätze für politische und gesellschaftlich relevante Themen.
4. Nutzer sensibilisieren und KI-Kompetenz stärken
- Menschen müssen verstehen, dass KI-Modelle keine unfehlbaren Wahrheitsmaschinen sind.
- Eine kritische Hinterfragung der Quellen ist essenziell, besonders bei sensiblen politischen Themen.
Fazit: KI ist das neue Schlachtfeld der Desinformation. Doch der "Krieg um die Wahrheit" ist noch nicht verloren.
Über den Autor:
Der Autor ist Co-Gründer von Quantum Beyond, einem europäischen Beschleunigungsprogramm für die Digitalisierung von Unternehmen. Unter dem Label Quantum Beyond Infinity liegt der Fokus auf AI-driven Organization Design, datengetriebenen Strategien und der intelligenten Mensch-Maschine-Kollaboration, um Unternehmen zukunftsfähig und wettbewerbsstark für das KI-Zeitalter aufzustellen.