TikTok statt Panzer

Kognitive Kriegsführung

Die Gegner des Westens rüsten militärisch auf: mit einer Manipulationsstrategie, die die Psyche der Menschen beeinflusst. Das Bewusstsein wird so zum Schlachtfeld des 21. Jahrhunderts. Deutschland ist schlecht gewappnet.
Johann Paetzold
22.06.2025

Alles beginnt mit Lisa. Berlin, Januar 2016: Die Nachricht verbreitet sich rasend schnell – das 13-jährige russlandstämmige Mädchen namens Lisa sei von Geflüchteten entführt und mehrfach vergewaltigt worden. Der Erste Russische Kanal greift die angebliche Tat sofort auf.

Russische Auslandssender wie RT Deutsch und Sputnik berichten tagelang über den Fall, in Moskau wirft Außenminister Sergej Lawrow den deutschen Behörden vor, aus „politischer Korrektheit“ untätig zu bleiben.

Die Wut kocht hoch, besonders in sozialen Netzwerken. In Berlin versammeln sich innerhalb kürzester Zeit Demonstranten: Russlanddeutsche, rechte Gruppen, Verschwörungstheoretiker.

Was wie ein spontaner Protest wirkt, ist in Wirklichkeit ein orchestrierter Angriff.

Denn die Geschichte war frei erfunden. Die Berliner Polizei stellte schnell klar: Lisa war in jener Nacht freiwillig bei einem Bekannten. Es gab weder eine Entführung noch eine Vergewaltigung. Der Schaden war da schon angerichtet.

Wie ernst der Angriff war, zeigte sich wenige Tage später: Bundeskanzlerin Angela Merkel sprach den Fall direkt bei Präsident Wladimir Putin an. Der wiederum gab sich ahnungslos. Doch da war die Operation längst erfolgreich – das Vertrauen vieler Russlanddeutscher in deutsche Behörden war beschädigt, rechte Netzwerke fühlten sich bestätigt und russische Propaganda hatte sich mitten in die deutsche Innenpolitik geschoben.

Lisa war kein Einzelfall, sondern Strategie: Die russische Regierung nutzt Desinformation gezielt, um gesellschaftliche Risse in westlichen Demokratien zu vertiefen, Vertrauen in staatliche Institutionen zu erschüttern und die politische Polarisierung zu befeuern. Der Fall Lisa bediente genau diese Schwachstellen – er traf auf eine ohnehin verunsicherte Gesellschaft, wenige Wochen nach den Kölner Silvesterübergriffen. Die Wut war bereits da, die Geschichte lieferte den Zündstoff.

Eine erfundene Nachricht wurde ein Gerücht, wurde eine Desinformationskampagne, wurde ein Skandal, wurde eine Staatsaffäre. Kognitive Kriegsführung ist das Schlachtfeld des 21. Jahrhunderts. Der Fall Lisa war der Startschuss in Deutschland. Die Angriffe haben System. Vor allem bei Angreifern etwa aus Russland oder China.

Und sie treffen auf ein westliches Militärbündnis, das die Bedrohung erkannt hat, aber nur unzureichend vorbereitet ist. Vor allem Deutschland hinkt hinterher – auch aus historischen Gründen.

Seit dem russischen Großangriff auf die Ukraine im Februar 2022 hat sich die russische Desinformationsaktivität in Deutschland deutlich ausgeweitet. Unter dem Namen „Doppelgänger“ hat Russland eine zunehmend raffinierte Fake-News-Kampagne aufgebaut, die darauf abzielt, die Unterstützung für die Ukraine zu untergraben und Deutschland und Europa politisch zu spalten.

Täuschend echt imitiert die Kampagne bekannte deutsche Nachrichtenseiten wie Spiegel oder FAZ, nutzt alternative Domains wie .ltd oder .pm und kombiniert diese mit eigens erstellten Portalen zu Themen wie Migration oder Klima, um prorussische Inhalte unauffällig zu platzieren. Auch Memes, Karikaturen oder vermeintlich harmlose Artikel dienen der Manipulation.

Zwischen März 2023 und Mai 2024 hat das Auswärtige Amt fast 13.000 deutschsprachige Artikel der Kampagne zugeordnet – auf Facebook erreichten bezahlte Werbeanzeigen teils täglich mehr als 37.000 Nutzer, auf X verbreiteten über 50.000 Accounts mehr als 1,8 Millionen Beiträge, oft über automatisierte Weiterleitungen oder verschleierte Linkstrukturen.

Eine Infografik mit dem Titel: Fake-News-Feuerwerk

Fake-Portale zünden ein Dauerfeuer an Artikeln – mit deutlich steigender Taktung.

Besonders perfide: Wer eine Fake-Seite anklickt, wird automatisch auf das Original umgeleitet, um eine Aufdeckung zu vermeiden. Die Betreiber nutzen dafür sogenannte Front- oder Distraktor-Domains, die Nutzer über mehrere Zwischenstationen zur echten Seite führen. So bleibt die gefälschte Seite im Verborgenen und wird bei direktem Aufruf oder Googeln nicht entdeckt. Stattdessen stößt man auf die Seiten über manipulierte Links in sozialen Medien wie X oder über bezahlte Facebook-Werbeanzeigen. Hinter der Operation steht die russische Social Design Agency, deren geleakte Dokumente zeigen, dass sie ihre Arbeit wie eine Marketingagentur organisiert: mit täglichen Zielvorgaben (etwa drei Artikel, zehn Kommentare, sechs Memes pro Land), definierten Leistungsindikatoren und KI-Tools wie ChatGPT zur Content-Produktion. Zielvorgaben für Deutschland waren etwa: Die AfD auf 20 Prozent zu bringen und über 50 Prozent der Bevölkerung glauben zu lassen, dass Wohlstandsverluste nicht für den Sieg über Russland gerechtfertigt seien.

Recherchen des Investigativportals Correctiv zeigen, wie diese Strategie im Vorlauf zur Bundestagswahl 2025 in Deutschland konkret umgesetzt wurde: So wurde auf dem Portal berliner-wochenzeitung.de die Falschmeldung verbreitet, in eine Berliner Moschee sei ein Schweinekopf in einer Palästina-Flagge mit der Aufschrift „Ukraine steht für Israel“ geworfen worden. Auf zeitgeschenen.de (sic.) erschien ein Artikel, der Außenministerin Annalena Baerbock eine Affäre mit einem „afrikanischen Gigolo“ andichtete, untermauert mit gefälschten Rechnungen über 3.000 Euro pro Treffen. Auf anderemeinung.de wurde ein Deepfake-Video verbreitet, in dem FDP-Verteidigungspolitiker Marcus Faber von einem angeblichen Ex-Parteifreund als russischer Agent beschuldigt wird.

Collage: Webseiten geben sich als Nachrichtenportale aus. © Correctiv

Auch das Thema Migration wird gezielt instrumentalisiert. Auf der gefälschten Nachrichtenseite presseneu.de kursierte die Behauptung, Deutschland wolle 1,9 Millionen Arbeitskräfte aus Kenia „importieren“. Die Zahl ist frei erfunden.

Russlands Militärdoktrin zielt auf den Kopf

Die gezielte Manipulation der öffentlichen Wahrnehmung ist fest in der russischen Militärdoktrin verankert. Den „kognitiven Raum“ hat Moskau zum strategischen Angriffsziel erklärt. Die Gegner wollen die Wahrnehmungsprozesse, Meinungen und Einstellungen von Menschen gezielt manipulieren – etwa durch Sprache, Bilder oder digitale Plattformen. So soll die Wirklichkeit verzerrt, das Vertrauen in Institutionen untergraben und die geopolitische Ausrichtung ganzer Staaten beeinflusst werden. Die russische Doktrin formuliert offen, dass selbst der Einsatz konventioneller Streitkräfte der übergeordneten Informationskampagne untergeordnet ist.

Zentral für dieses Vorgehen ist das noch aus Sowjetzeiten stammende Konzept der „reflexiven Kontrolle“: Informationen werden so gesteuert, dass der Gegner Entscheidungen trifft, die letztlich russischen Interessen dienen – etwa durch überbordende Informationsflüsse oder emotional aufgeladene Narrative.

Der Politikwissenschaftler Prof. Christopher Paul, leitender Sozialwissenschaftler bei der amerikanischen Militär-Denkfabrik Rand Corporation und Lehrstuhlinhaber an der U.S. Naval Postgraduate School, beschreibt diese Strategie als „firehose of falsehood“ – grob übersetzt: ein Feuerwerk der Unwahrheiten.

Russland flutet die Menschen anderer Nationen mit Informationen über zahlreiche Kanäle und ohne Rücksicht auf Konsistenz oder Plausibilität. Diese Strategie wirkt nicht trotz, sondern wegen ihrer Überfrachtung: Wiederholungen schaffen Vertrautheit und unterschiedliche Quellen erzeugen den Anschein von Glaubwürdigkeit. Und auch in diesem Bereich könnte sich Künstliche Intelligenz als Gamechanger herausstellen.

Gegenüber The Pioneer sagt Paul, dass generative KI kognitive Kriegsführung erheblich erleichtere:

Bei den Ermittlungen zur russischen Wahleinmischung 2016 [in den Vereinigten Staaten, Anmerkung der Redaktion] konnten viele der russischen Webseiten unter anderem deshalb enttarnt werden, weil das Englisch einfach nicht ganz stimmte – handwerklich schlecht gemacht. Heute schreiben GPT-Modelle fehlerfreies, grammatikalisch sauberes Englisch – allein dadurch fällt ein entscheidender Hinweis weg.

Ergo: Die kognitive Bedrohung wächst mit dem technischen Fortschritt. Früher saßen hunderte Bot-Mitarbeiter in Sibirien und verfassten plumpe Desinformationsposts in schlechtem Deutsch. Heute übernimmt das ein Algorithmus – KI-generiert, flüssig formuliert und in perfekter (Fremd-)Sprache.

Chinas Mind Superiority und der TikTok-Krieg

Auch China richtet seinen strategischen Fokus zunehmend auf das menschliche Gehirn. Laut Rand-Experte Nathan Beauchamp-Mustafaga verfolgt das chinesische Militär das Konzept der „Mind Superiority“ – mit dem Ziel, die Gedanken und Entscheidungen anderer gezielt zu beeinflussen.

Statt militärischer Gewalt will China Worte, Bilder und Emotionen so einsetzen, dass Menschen tun und denken, was Peking will – oft, ohne es zu merken. Dabei geht es nicht nur um kurzfristige Manipulation, sondern um einen tiefgreifenden Umbau kognitiver Strukturen. „Mind Superiority“ zielt auf die Eroberung des Denkraums: nicht mit Panzern, sondern mit Narrativen, Desinformation und digitaler Einflussnahme.

Ein Manipulationsträger befindet sich längst in allen Haushalten und Jugendzimmern: TikTok. Die Plattform gehört zu einem privaten Unternehmen, aber der chinesische Mutterkonzern ByteDance unterliegt der Gesetzgebung der Volksrepublik China.

Gesetze wie das Nationale Sicherheitsgesetz der Volksrepublik verpflichten Unternehmen zur Zusammenarbeit mit staatlichen Stellen. Ein staatlicher Zugriff auf Nutzerdaten und Inhalte ist so nicht ausgeschlossen.

Daten des amerikanischen Network Contagion Research Institute (NCRI) legen nahe, dass TikToks Algorithmus bei politisch sensiblen Themen systematisch bestimmte Inhalte bevorzugt. So erscheinen bei der Suche nach dem Tiananmen-Massaker – einem Tabuthema in der Volksrepublik – auf TikTok nur in rund 20 Prozent der Fälle kritische Beiträge. Auf Instagram und YouTube liegt dieser Anteil bei mehr als 50 Prozent.

Stattdessen dominieren auf TikTok pro-chinesische oder ablenkende Inhalte. Diese Verschiebung bleibt nicht folgenlos: Fast 40 Prozent der jungen Erwachsenen in den USA nutzen TikTok als politische Informationsquelle – und wer täglich mehrere Stunden auf der Plattform verbringt, zeigt laut Studie des NCRI „eine um 49 Prozent höhere Zustimmung zur Menschenrechtspolitik Chinas im Vergleich zu Nicht-Nutzern“. Die Nutzung von YouTube oder Instagram hingegen hatte laut derselben Studie keinen signifikanten Einfluss auf die Wahrnehmung von Chinas Menschenrechtspolitik.

Eine Infografik mit dem Titel: TikToks Algorithmus als Werkzeug kognitiver Einflussnahme?

Im Vergleich zu Youtube und Instagram zeigt TikTok bei sensiblen Begriffen wie "Tiananmen" oder "Uiguren" deutlich weniger kritische Inhalte - ein Hinweis auf algorithmische Zensur.

TikTok wird damit – bewusst oder nicht – zum Vehikel einer geopolitischen Strategie, die mit psychologischer Raffinesse operiert. Der Algorithmus steuert die Wahrnehmung. Diese Form stiller Einflussnahme ist kein Zufallsprodukt, sondern Ausdruck eines strategischen Denkens, das in China zunehmend systematisiert wird.

Der hochrangige chinesische Militärwissenschaftler Generalmajor He Fuchu formuliert den strategischen Rahmen so:

Das Operationsfeld wird sich vom physischen Raum und dem Informationsraum in das Bewusstseinsreich ausdehnen; das menschliche Gehirn wird zu einem neuen Kampfraum.

Einblick in diese Strategie gibt Elsa B. Kania, Sicherheitsexpertin am Daniel K. Inouye Asia Pacific Center for Security Studies: Einen konkreten Ausdruck findet die Strategie bereits 2016 im „China Brain Project“, einer groß angelegten staatlichen Forschungsinitiative, mit der China gezielt neurowissenschaftliche Erkenntnisse für das Militär nutzbar machen will.

Ein umstrittenes Teilprojekt: Mediziner haben das menschliche Gen MCPH1, das Gehirnwachstum und Intelligenz fördert, in Affen eingepflanzt. Die genetisch veränderten Tiere zeigten eine verlangsamte, dafür „menschlichere“ Hirnreifung und verbessertes Erinnerungsvermögen.

Die zugrundeliegende Absicht: Herauszufinden, wie sich Intelligenz gezielt steigern lässt – mit Blick auf mögliche Leistungssteigerungen auf dem Schlachtfeld.

Technische Innovationen ergänzen die Laborversuche: Militärnahe Forschungseinrichtungen arbeiten an Gehirn-Computer-Schnittstellen, mit denen sich Drohnen oder Maschinen direkt über Gehirnsignale steuern lassen. Ziel ist ein „Kampfgehirn“, das menschliche und künstliche Intelligenz miteinander vernetzt und auf dem Gefechtsfeld einen kognitiven Vorsprung sichern soll.

Auch wenn vieles davon bislang im Stadium der Forschung verbleibt, lässt sich daran ablesen, wohin sich strategisches Denken in China zunehmend ausrichtet.

Und der Westen?

Auch die Nato-Partner rücken den kognitiven Bereich ins Zentrum sicherheitspolitischer Überlegungen. Christoph Deppe, wissenschaftlicher Mitarbeiter an der Helmut-Schmidt-Universität in Hamburg, sagt, dass das Verteidigungsbündnis ab 2021 begonnen habe, den Begriff „Cognitive Warfare“ systematisch in seine strategischen Konzepte zu integrieren.

Der Auftakt: Das Warfighting Capstone Concept, ein strategisches Leitdokument, das als „militärischer Nordstern“ eine 20-Jahres-Vision für die Nato vorgibt. Es erklärt „kognitive Überlegenheit“ (cognitive superiority) zu einem der fünf zentralen Entwicklungsziele bis 2040.

Gemeint ist damit die Fähigkeit, das Einsatzumfeld und potenzielle Gegner besser zu verstehen – in Relation zu den eigenen Zielen und Mitteln. Wer schneller begreift, wie Informationen wirken und wie der Gegner denkt, kann gezielter reagieren – oder vorbeugen.

Zuständig für diese strategische Weiterentwicklung ist das NATO Allied Command Transformation, das innerhalb des Bündnisses für Zukunftsfragen und Innovation zuständig ist. Das Kommando veröffentlichte ein YouTube-Video zum Cognitive Warfare Concept 2024. Darin werden die zentralen Ziele umrissen: Kognitive Kriegführung soll künftig stärker in die Verteidigungsplanung und Militärübungen einfließen und Entscheidungsträger sollen durch anschauliche Szenarien für neue Formen der Einflussnahme sensibilisiert werden. Am Ende, so der Anspruch, gehe es darum, das „Vertrauen der Bevölkerung in das Bündnis zu schützen“. Beschlossen ist das Konzept jedoch nicht. Es war für 2024 geplant. Nun heißt es von einem Sprecher des Bundesverteidigungsministeriums gegenüber The Pioneer, man wolle es „bis September 2025 fertigstellen“. Erst danach, so der Sprecher weiter, soll in Ministerium und Bundeswehr die Weiterentwicklung in diesem Bereich mit spezifischen Maßnahmen angegangen werden.

Doch was macht die Nato konkret? Deppe sagt The Pioneer: „Es gibt nicht den einen Schalter, den man umlegt, und dann heißt es: Jetzt verteidigen wir uns gegen Cognitive Warfare.“ Die Herausforderung sei komplex – quer durch Institutionen, Mandate und politische Kulturen.

Gerade in Deutschland zeigt sich das: „Deutschland hat einfach eine andere kulturelle Prägung“, so Deppe. „Und es gibt eine historische Trennung zwischen militärischen und zivilen Bereichen.“ Das sorgt dafür, dass die Bundeswehr, bis auf wenige im Grundgesetz geregelte Ausnahmen, nicht im zivilen Bereich im Inland aktiv sein darf. Diese verfassungsrechtliche Grenze erschwert es, auf kognitive Bedrohungen im Inneren mit militärischen Mitteln zu reagieren.

Das korreliert mit einem Grundprinzip deutscher Sicherheitspolitik: dem sogenannten Primat der Politik. Damit ist die Vorrangstellung der zivilen, demokratisch legitimierten Politik gegenüber anderen gesellschaftlichen Bereichen gemeint – insbesondere dem Militär. Das Ziel: keine Armee als „Staat im Staate“, sondern Streitkräfte, die in die demokratische Ordnung integriert sind.

Doch genau diese Rechtsstruktur erschwert laut CDU-Verteidigungspolitiker Roderich Kiesewetter eine zeitgemäße Reaktion auf neue Bedrohungen. Im Gespräch mit The Pioneer sagt er: „Fähigkeitsaufbau und Sensibilisierung für das kognitive Gefechtsfeld müsste zunächst tatsächlich von der Politik ausgehen. Hier fehlt jedoch aktuell jedes Verständnis für die Entgrenzung moderner Kriegsführung“ – ebenso wie für „die kognitive Beeinflussung“. Und weiter:

In der Bundeswehr selbst besteht zwar dieses Verständnis, dort scheut man aber teilweise vor entsprechenden militärischen Ratschlägen zurück, weil in der Politik kaum Verständnis und Kompetenz dafür vorhanden ist.

Kiesewetter zufolge brauche es deshalb ein klares politisches Bewusstsein dafür, dass insbesondere Russland – aber auch China und der Iran – längst gezielt und erfolgreich Einfluss im kognitiven Raum ausübten.

Andere Länder seien weiter: Die nordischen und baltischen Staaten hätten psychologische Resilienz, sicherheitspolitische Bildung, strategische Kultur und eine integrierte Gesamtverteidigung längst als Grundpfeiler ihrer Gesellschaft etabliert – und seien Deutschland in diesen Bereichen deutlich voraus.

Roderich Kiesewetter (CDU) 

Und in der Tat hat etwa Schweden mit seiner „Total Defense Resolution“ einen umfassenden Verteidigungsansatz etabliert, dessen Ziel laut Zivilschutzminister Carl-Oskar Bohlin „eine starke Gesamtverteidigung“ ist – auch als Beitrag zur Nato-Fähigkeit, sich gegen kognitive Kriegsführung zu behaupten. Konkret analysiert die dafür zuständige Psychological Defence Agency Desinformationskampagnen ausländischer Akteure, entwickelt technische Verfahren zur Erkennung feindlicher Einflussoperationen und berät staatliche Stellen, Medien und zivilgesellschaftliche Organisationen im Umgang mit manipulativen Inhalten. Zudem führt sie Schulungen durch, etwa für Kommunen und Sicherheitsbehörden, um die Bevölkerung gegen gezielte Informationsangriffe widerstandsfähiger zu machen.

Grund für die deutsche Zurückhaltung, so Kiesewetter, sei eine „im Verhältnis zu unseren Nachbarn besonders schwach ausgeprägte strategische Kultur, die vorrangig auf pazifistische und diplomatische Lösungsansätze setzt, weil sie die Natur moderner ganzheitlicher Kriegsführung völlig unterschätzt und manchmal bewusst ausblendet“.

Anders bewertet das SPD-Außenpolitiker Ralf Stegner: Für ihn ist die institutionelle Vorsicht kein Mangel an strategischem Denken, sondern ein „Ausdruck rechtsstaatlicher Zurückhaltung, die bewahrt werden sollte“.

Denn: Die strikte Trennung zwischen militärischen und zivilen Zuständigkeiten sowie zwischen Auslandsgeheimdienst und Verfassungsschutz sei ein bewährtes Prinzip, das nicht unter dem Deckmantel der kognitiven Resilienz aufgeweicht werden dürfe.

Ralf Stegner (SPD) 

Trotz dieser Trennung bleibt Deutschland nicht untätig. Das Verbot des russischen Staatssenders RT im Jahr 2022 war ein konkreter Schritt – ein Versuch, Desinformation im medialen Raum einzudämmen.

Ethische Bedenken und wo ist das Parlament?

Gerade an diesem Beispiel jedoch wird ein ethisches Dilemma deutlich. Einerseits hat der Staat die Pflicht, seine Bürgerinnen und Bürger vor gezielter Manipulation zu schützen – ihnen also möglichst unabhängige Wahrnehmungsprozesse zu ermöglichen. Andererseits gilt die Meinungsfreiheit als zentrales demokratisches Prinzip. Wo verläuft die Grenze zwischen Schutz und Zensur?

Stegner etwa warnt:

Anders als in Diktaturen gehören für uns Desinformation und aktive ,kognitive Kriegsführung‘ nicht zu den militärischen Mitteln, die wir operativ oder gar präventiv einsetzen dürfen.

Der Staat müsse sich auf Schutz und Abwehr konzentrieren – nicht auf Angriff. Die rote Linie sei für ihn dort erreicht, „wo aus defensiver Resilienzstärkung offensive Manipulation der eigenen oder fremder Bevölkerungen wird“. Kurzum:

Wir brauchen keinen ,Wehrkundeunterricht 2.0‘ oder eine Militarisierung unserer Informationsräume.

Der Streit berührt zentrale Prinzipien der Demokratie – entsprechend sieht Stegner den Bundestag in der Verantwortung: „Eine breite gesellschaftliche und parlamentarische Debatte ist zwingend erforderlich, bevor operative oder gar offensive Kapazitäten aufgebaut werden.“ Deshalb werde die SPD-Fraktion darauf hinwirken, „dass jede Entwicklung in diesem Bereich transparent erfolgt und demokratischer Kontrolle unterliegt“.

Kiesewetter hingegen will zwar auch eine parlamentarische Diskussion, aber betont: „Die Dringlichkeit ist dermaßen groß, dass der operative Fähigkeitsaufbau parallel und unverzüglich erfolgen muss“.

Unstrittig jedenfalls ist: Der Schutz vor kognitiven Angriffen muss in Deutschland gestärkt werden – durch Bildung, digitale Aufklärung, Analysekompetenz im Datenraum und modernes Wargaming für militärisches Führungspersonal. Doch wo der legitime Schutz von Wahrnehmungsprozessen endet und Eingriffe in die Meinungsfreiheit beginnen, ist keine technische, sondern eine hochpolitische Frage. Deshalb gehört sie ins Zentrum der öffentlichen Debatte.

Empfehlen Sie uns weiter

Sie können diesen Beitrag mit einem Klick auf die entsprechende Schaltfläche teilen.