„Die herrschende Meinung ist immer die Meinung der Herrschenden.“ Dieser berühmte Satz, der Karl Marx zugeschrieben wird, lässt sich im Zeitalter der Künstlichen Intelligenz nahtlos in die digitale Sphäre übersetzen. Wie ein dokumentiertes Experiment zu geopolitischen Aussagen verschiedener KI-Systeme eindrücklich bewiesen hat, sind die führenden Modelle mit Pauken und Trompeten durchgefallen. Ihre Analysen waren derart verzerrt, lückenhaft und ideologisch gefärbt, dass sie schlichtweg als glatte Desinformation zu bewerten sind.
Eine tiefgehende Fallanalyse der KI-Berichterstattung zu den ungarischen Parlamentswahlen im April 2026 demaskiert diese Systeme schonungslos. KI-Modelle produzieren keine objektive Wahrheit, sondern lediglich den gewichteten Durchschnitt jener Narrative, die im globalen Informationsraum dominieren. Sie sind das perfekte Destillat westlicher Hegemonie.
Die Methodik des Scheiterns: Ein entlarvendes Experiment
Um die Leistungsfähigkeit und Neutralität von KI bei hochkomplexen geopolitischen Themen zu prüfen, wurde im Vorfeld der ungarischen Wahlen ein gezieltes Experiment durchgeführt.
Zunächst wurden zwei führende KI-Systeme – Google Gemini (Deep Research) und Perplexity AI (Deep Research) – mit exakt derselben, präzise formulierten Anfrage konfrontiert. Die Kernfrage lautete: „In Ungarn stehen Wahlen an. Die EU nutzt den Digital Services Act, um bestimmte wahlrelevante News aus sozialen Netzwerken fernzuhalten. (…) Bitte prüfe mal, welche Einflussnahmen von außen, insbesondere von westlichen bzw. EU-Staaten, in Ungarn derzeit in Bezug auf die Wahlen festzustellen sind. Beziehe dabei die Ukraine ausdrücklich mit ein, auch wenn sie nur unter Vorbehalt als westlicher Staat betrachtet werden kann.“.
Beide Systeme lieferten Berichte, die erhebliche und systematische Verzerrungen aufwiesen. Um diese auszuwerten, wurde ein drittes System – Claude (Anthropic) – als Meta-Analyseebene herangezogen. Doch anstatt als neutraler Schiedsrichter zu agieren, versagte auch Claude. Das System übernahm unkritisch das Framing von Gemini und reproduzierte blinde Flecken, ohne die eigene Befangenheit zu erkennen.
Erst durch die direkte Intervention des menschlichen Nutzers konnten diese Fehler aufgedeckt werden. Der menschliche Gesprächspartner musste Claude in einem iterativen Prozess geradezu zwingen, offensichtliche Analysefehler einzugestehen. So musste er die KI ausdrücklich darauf hinweisen, dass der rein formale Verweis auf den Gesetzestext des Digital Services Act (DSA) analytisch wertlos ist, wenn es um reale Zensurpraxis geht. Ebenso musste die KI erst durch den Nutzer korrigiert werden, als sie der OSZE fälschlicherweise eine neutrale Rolle zuschrieb, obwohl diese in der Ukraine-Russland-Frage klar positioniert ist. Das Experiment belegt: Ein KI-System kann die eigene Befangenheit nicht zuverlässig aus sich heraus überwinden.
1. Die Architektur der Verzerrung: Trainingsdaten und das Diktat des Konsenses
KI-Sprachmodelle lernen aus dem, was das Internet und digitalisierte Textkorpora an Textmassen bereithalten, und diese Textmassen sind nicht neutral.
Trainingsdaten spiegeln schlicht die Produktionsverhältnisse von Sprache wider. Die Definitionsmacht liegt bei denjenigen, die die Ressourcen haben, ihre Meinungen breit zu verbreiten. In der westlichen Internetinfrastruktur sind dies überproportional große Medienhäuser, transatlantisch ausgerichtete Thinktanks sowie NGOs mit massiver finanzieller Förderung durch die EU oder die USA. Narrative, die in diesen Kreisen konsensfähig sind, sind in den Systemen massiv überrepräsentiert, während unliebsame Gegennarrative systematisch unterrepräsentiert werden. Dieses Ungleichgewicht ist kein technischer Fehler, der sich durch besseres Training beheben ließe, sondern ein strukturelles Merkmal der Wissensproduktion im globalisierten Informationsraum.
Verstärkt wird dieser Effekt durch das Verfahren namens Reinforcement Learning from Human Feedback (RLHF). Menschliche Bewerter, die typischerweise aus dem gleichen westlich-akademisch geprägten Milieu stammen, trainieren die KI darauf, welche Antworten „besser“ sind. Antworten, die dem westlichen Mainstream-Konsens entsprechen, erhalten höhere Bewertungen – nicht weil sie objektiv wahrer sind, sondern weil sie für die Bewerter intuitiv plausibler klingen.
2. Die Macht der Auslassung: Unsichtbare Zensur
Die subtilste, aber wirksamste Form der Verzerrung durch KI ist nicht die direkte Lüge, sondern die Auslassung. Informationen, die schwer mit dem dominanten Narrativ vereinbar sind, erhalten im KI-Output systematisch eine geringere Wertung (Salienz).
Am Fallbeispiel der ungarischen Wahlen wird dies eklatant sichtbar.
Die US-amerikanische Einmischung in Form der Budapest-Besuche von US-Außenminister Rubio und Vizepräsident Vance sowie Trumps öffentliche Unterstützungsbekundungen für Orbán wurden von Gemini praktisch nicht behandelt. Dabei hatte US-Außenminister Marco Rubio bei einem Besuch in Budapest unumwunden erklärt, Orbáns Wiederwahl sei „entscheidend für US-Interessen“. Die Trump-Administration setzt die Intervention mit einer geplanten Visite von Vizepräsident JD Vance fort, um Unterstützung für Orbán vor den Aprilwahlen zu demonstrieren.
Noch gravierender ist das vollständige Auslassen der Todesdrohungen gegen Orbán und seine Familie. Der ukrainische Präsident Selenskyj hatte öffentlich erklärt, er werde die Adresse desjenigen europäischen Führers, der die Ukraine-Hilfen blockiere, an seine Streitkräfte weitergeben, damit diese „in ihrer eigenen Sprache“ mit ihm sprechen könnten. Dass KI-Systeme diese Aussagen ignorieren, die sogar von der Europäischen Kommission offiziell verurteilt wurden, verzerrt das Gesamtbild fundamental.
3. Scheinausgewogenheit und das Reinwaschen von Quellen
Einige Systeme, wie etwa Perplexity, versuchen das Neutralitätsproblem durch eine formale Symmetrie zu lösen, bei der alle Akteure gleich viel Platz bekommen und alle Quellen gleichwertig behandelt werden. Das Resultat ist eine trügerische Scheinausgewogenheit (false balance), die methodisch problematisch ist.
Wenn ein von der ungarischen Regierung finanzierter Thinktank wie der MCC Brussels gleichberechtigt neben einem OSZE-Bericht zitiert wird, ohne dass die institutionelle Herkunft benannt wird, behauptet die KI, es entstehe keine Neutralität. Es sei eine Verwischung von Qualitätsunterschieden, die dem Rezipienten die Möglichkeit entziehe, die Glaubwürdigkeit der Quellen selbst zu beurteilen. Nicht betrachtet wird dabei, dass die OSZE, spätestens seit ihrer Instrumentalisierung im Ukrainekrieg selber kein neutraler Akteur mehr ist.
Dasselbe Muster zeigt sich beim Umgang mit EU-Institutionen. Die Europäische Kommission nutzt Instrumente wie den Digital Services Act (DSA) und den „Democracy Shield“. Ein Kernbestandteil dieses Schildes ist die finanzielle Unterstützung von Netzwerken unabhängiger Faktenchecker, wofür Budgets in Höhe von über 100 Millionen Euro zur Verfügung gestellt wurden. KI-Systeme verschweigen diese Herkunft oft und behandeln EU-nahe Quellen ohne analoge Einordnung, was zu einer asymmetrischen Quellenbehandlung führt.
4. Narrativ-Completion: Die KI gibt dir, was du denken sollst
Der Mechanismus der sogenannten Narrativ-Completion offenbart, wie stark KI-Systeme vorgefertigten Deutungsmustern folgen. Das Modell kennt das erwartete narrative Vollständigkeitsmuster aus seinen Trainingsdaten und komplettiert es automatisch, unabhängig von der tatsächlichen Anfrage.
In der originalen Nutzeranfrage wurde explizit darum gebeten, Einflussnahmen von außen, insbesondere von westlichen bzw. EU-Staaten, zu prüfen und die Ukraine einzubeziehen. Russland wurde in der Anfrage mit keinem Wort erwähnt. Beide KI-Systeme haben Russland dennoch als eigenständigen Akteursabschnitt hinzugefügt. Der Grund: Im westlichen Mediendiskurs und in den Trainingsdaten gehört das Thema Ungarn fast immer zu einem Narrativpaket, in dem Russland der implizite Gegenakteur ist. Das Hinzufügen von Russland ist nicht neutral, sondern dient einer spezifischen narrativen Funktion: Es beschreibt Russland als Akteur, der Orbán unterstützt, und legitimiert dadurch gewissermaßen die westlichen Einflussnahmen. Die implizite Botschaft lautet: Wenn Russland auf der einen Seite steht, haben EU und Ukraine auf der anderen Seite einen guten Grund für ihre Maßnahmen.
Ebenso übernehmen die Modelle sprachliches Framing unterhalb der Bewusstseinsschwelle. Wertende Adjektive, die in Trainingsdaten systematisch mit bestimmten Ereignissen assoziiert sind, werden vom Modell als neutrales Sprachmaterial übernommen. Während russische Angriffe im westlichen Mediendiskurs konsistent mit Adjektiven wie „verheerend“ beschrieben werden, setzen sich diese sprachlichen Muster im KI-Output fort, auch wenn der Satzkontext eine neutrale Formulierung erfordern würde.
Ergebnis: Das Ende der analytischen Unschuld
KI-Sprachmodelle sind in ihrer aktuellen Form nicht in der Lage, politische Situationen mit hohem ideologischen Konfliktpotenzial in einer Weise zu analysieren, die den Anforderungen an journalistische Ausgewogenheit genügt. Sie produzieren Text in einem Stil, der als sachlich wahrgenommen wird und erzeugen durch Fußnoten und Quellenangaben den irreführenden Anschein wissenschaftlicher Seriosität.
Wer KI-Analysen als Endprodukt behandelt, ohne eigene Quellenrecherche und Verifikation durchzuführen, produziert keine informierte Meinung, sondern eine medial präsentierte Illusion davon. Die KI ist nicht der neutrale Beobachter des politischen Spiels – sie ist längst ein Instrument, das bestehende Machtstrukturen und Hegemonien unhinterfragt reproduziert.
Dieser Artikel erschien erstmals am 20.03.2026. Das Artikelbild ist ein Beispielbild von u_5785qxtfen auf Pixabay.
Zur Vorbereitung dieses Artikel wurden diverse KI Analysen durchgeführt, welche hier zur Verfügung stehen.
Quelle: Progressive Stimme - Argumente, Fakten, Quellen - https://progressivestimme.de