
Ein Essay über KI, Ideologie und die Notwendigkeit europäischer Alternativen.
Sebastian Büttner
LLMs sind nicht neutral
Auf den ersten Blick scheinen Large Language Models (LLMs) das perfekte Beispiel für Neutralität zu sein. Sie sind keine Menschen, haben keine Überzeugungen, keine
politischen Ansichten, keine Werte. Sie verarbeiten lediglich Daten und generieren Texte – scheinbar objektiv, scheinbar ideologiefrei.
Doch ein genauer Blick offenbart ein Problem: Die Art und Weise, wie diese Modelle trainiert werden, kann dazu führen, dass sie ideologisch eingefärbte Ergebnisse liefern. Nicht, weil die KI selbst eine Meinung hätte – sondern weil sie das widerspiegelt, was in ihren Trainingsdaten steckt. Das bedeutet: Ein LLM ist nicht von Natur aus ideologisch. Aber es kann zur Benutzeroberfläche einer bestimmten Ideologie werden.
Und genau deshalb ist es entscheidend, dass Europa eigene KI-Modelle entwickelt, die auf den Prinzipien von Wissenschaft, journalistischer Objektivität und Meinungsvielfalt beruhen.
Ideologie durch Daten: Wie LLMs beeinflusst werden
Ein Large Language Model ist im Grunde ein gigantisches Statistikprogramm. Es lernt aus Millionen von Texten, wie Sprache funktioniert, welche Worte häufig zusammen vorkommen und welche Argumente in welchen Kontexten typisch sind. Doch hier liegt der kritische Punkt: Wer bestimmt, aus welchen Texten die KI lernt?
-
Ein LLM, das hauptsächlich aus amerikanischen Medien trainiert wurde, übernimmt zwangsläufig die dortigen gesellschaftlichen
und politischen Narrative. -
Ein LLM, das nur mit wissenschaftlichen Publikationen trainiert wird, spricht anders über Themen als eines, das von
Social-Media-Daten geprägt ist. -
Ein LLM, das von einer bestimmten Organisation entwickelt wird, kann unbewusst (oder bewusst) die Werte dieser
Organisation widerspiegeln.
Das Problem ist nicht, dass LLMs lügen oder manipulieren. Das Problem ist, dass sie nie aus einem „neutralen“ Pool von Informationen lernen können – weil ein solcher Pool nicht existiert.
Die unsichtbare Verzerrung
Nehmen wir ein konkretes Beispiel: eine KI, die Antworten zu wirtschaftspolitischen Fragen generiert.
- Wenn sie mit neoliberalen Wirtschaftstheorien trainiert wurde, könnte sie tendenziell Marktliberalismus bevorzugen.
-
Wenn sie mehrheitlich mit sozialistischen Theorien trainiert wurde, könnten ihre Antworten staatsinterventionistische
Lösungen betonen.
Noch problematischer wird es in sensiblen gesellschaftlichen oder politischen Debatten:
-
Welche Perspektiven auf Migration, Klimapolitik oder digitale Regulierung erscheinen als „neutral“, wenn ein Modell zu
80 % aus amerikanischen, englischsprachigen Quellen lernt? - Wie stellt eine KI Vielfalt sicher, wenn sie hauptsächlich mit Quellen gefüttert wird, die bestimmte Meinungen dominieren?
- Und wer entscheidet letztlich, welche Perspektiven als relevant gelten und welche als „Randmeinungen“ aussortiert werden?
Selbst wenn kein offenes „Bias“ (Verzerrung) beabsichtigt ist, entstehen so narrative Schieflagen. Das LLM reproduziert nicht „die Wahrheit“, sondern die dominanten Erzählungen seiner Trainingsdaten.
Europa hat die Wahl – noch zumindest
Die meisten großen LLMs – OpenAI (ChatGPT), Google Gemini, Anthropic (Claude) – werden in den USA entwickelt. Die Trainingsdaten sind überwiegend englischsprachig, die Feinabstimmung erfolgt oft in einem kulturellen
Rahmen, der amerikanische Werte und Diskurse reflektiert. Doch Europa hat eigene journalistische Standards,
eigene wissenschaftliche Methoden, eigene historische und politische Perspektiven. Das Gute ist, Europa ist nicht machtlos – es gibt bereits
Alternativen:
- Mistral AI (Frankreich): Ein vielversprechendes europäisches KI-Start-up mit einem Open-Source-Ansatz, das eine wettbewerbsfähige Alternative zu den US-amerikanischen Modellen aufbauen will.
- Aleph Alpha (Deutschland): Entwickelt LLMs mit Fokus auf europäische Werte und Datenschutz – eines der transparentesten Modelle auf dem Markt.
- OpenEuroLLM (EU): Ein von der EU gefördertes Projekt, das Open-Source-LLMs für alle europäischen Sprachen entwickeln will.
- TrustLLM & Occiglot (EU): Forschungsprojekte, die sich mit KI-Trainingsdaten beschäftigen, um sicherzustellen, dass europäische LLMs neutraler und transparenter bleiben.
Diese Initiativen sind nicht nur wichtig – sie sind essenziell für Europas digitale Souveränität. Denn wer die KI kontrolliert, kontrolliert die Narrative.
Europäische LLMs sind eine Frage der digitalen Souveränität
Large Language Models sind nicht von Natur aus ideologisch, aber sie können ideologische Ergebnisse liefern, wenn ihr Training unausgewogen
ist. Wenn Europa will, dass KI-Modelle den höchsten Standards von Wissenschaft, Journalismus und Meinungsvielfalt entsprechen, dann führt kein Weg an
einer eigenen, unabhängigen Alternative vorbei.
Die Frage ist nicht, ob KI unsere Narrative formt – das tut sie längst. Die Frage ist, wer diese Narrative definiert. Europa hat die Chance, mit eigenen LLMs eine neue Standard für transparente, objektive und demokratische KI zu setzen. Die Frage ist nur: Werden wir sie auch ergreifen?
Über den Autor:
Der Autor ist Co-Gründer von Quantum Beyond, einem europäischen Beschleunigungsprogramm für die Digitalisierung von Unternehmen. Unter dem Label Quantum Beyond Infinity liegt der Fokus auf AI-driven Organization Design, datengetriebenen Strategien und der intelligenten Mensch-Maschine-Kollaboration, um Unternehmen zukunftsfähig und wettbewerbsstark für das KI-Zeitalter aufzustellen.