Stell Dir vor, es ist Informationskrieg, und keiner guckt hin

Von John Reiter

Vier Tage nach dem russischen Überfall auf die Ukraine rief Anonymous Social-Media-User zum Handeln auf: „Geh auf Google Maps. Geh nach Russland. Suche ein Restaurant oder Unternehmen und schreibe eine Rezension. Wenn Du sie schreibst, erkläre, was in der Ukraine passiert.“[1] Mit einer Graswurzel-Kampagne wollte die Organisation der Bevölkerung im medial abgeschotteten, autoritär regierten Russland Informationen jenseits staatlich gelenkter Medien verschaffen. Was auf den ersten Blick wie ein einfallsreicher Akt zivilen Widerstands anmutet, klingt in Medienberichten plötzlich martialisch. Einige Medien griffen zu Kriegsmetaphern wie etwa „Ukraine Activists bombard Google reviews in Russia“ oder „Keyboard Army using restaurant reviews to take on russian state media“.

Weiterlesen: Stell Dir vor, es ist Informationskrieg, und keiner guckt hin

Es ist schwer einzuschätzen, wie es auf jemanden irgendwo in Russland wirkt, der so eine Nachricht aus der Anonymous-Aktion auf dem Google-Eintrag eines Restaurants liest. Zumal vor dem Hintergrund, dass die russische Staatspropaganda permanent behauptet, „der Westen“ habe einen „Kulturkrieg“ angezettelt. Den Urhebern dieser Behauptung kämen Medienberichte, die von „Bombardements“ russischer Restaurants durch eine „Keyboard-Army“ schwadronieren, wahrscheinlich eher entgegen.

Die Kriegsmetaphorik wirft weitere Fragen auf: Wer ist verantwortlich, wenn bei so einer grenzüberschreitenden Social-Media-Kampagne etwas schiefläuft? Anscheinend haben sich nicht alle Beteiligten an die Instruktionen von Anonymous gehalten und einige beleidigende, drohende oder rassistische Reviews verfasst. Wird ein Land zur „Kriegspartei“, wenn IP-Nummern der „Keyboard-Army“ dort registriert sind? Möglicherweise hat Anonymous selbst die Risiken der Aktion erkannt und sie – soweit äußerlich erkennbar – nicht mit Nachdruck weiterbetrieben.

Wiederkehrende Kriegsmetaphorik

Was vor dem Hintergrund dieser Schilderung auffällt, ist eine wiederkehrende Kriegsmetaphorik in der öffentlichen Debatte: „Dieser Krieg ist auch ein Informationskrieg“, sagt der medienpolitische Sprecher der FDP-Bundestagsfraktion in der taz. „Wie die Ukraine gezeigt hat, ist der Kampf um die Demokratie ein Informationskrieg, in dem es nicht nur um Panzer und Artilleriegeschütze geht.“, schreiben Maria Ressa und Mark Thompson von einer Medien-NGO in der Welt und sind zuversichtlich: „Es ist ein Krieg, der gewonnen werden kann.“

„Als vermeintlich Unbeteiligte werden wir regelmäßig in den Informationskrieg hineingezogen“, meint ein Autor vom „Freundeskreis Heeresaufklärer“ in einem Blog der KAS. Dessen „Kombattanten“ kennzeichneten sich in den sozialen Medien mit Hashtags und Profilfiltern, teilten Propaganda und verbreiteten Desinformationen. Schüler:innen müssten „in der Schule lernen, die Fake News des Informationskriegs gegen die Ukraine neben dem blutigen Krieg mit Bomben zu verstehen“, moderiert ein Fachportal zur Schulbildung ein Interview mit einer Lehrerin an.

Das sind nur wenige Beispiele. Wer „Ukraine Informationskrieg“ in einer Suchmaschine eingibt, bekommt unzählige weitere Beiträge mit dieser und verwandten Kriegsmetaphern. Das wirft die Frage auf, wie man sich einen solchen „Informationskrieg“ konkret vorstellen soll.

Mit Informationen aufeinander “schießen”?

Desinformationen sind in der digitalen Massenkommunikation allgegenwärtig, aber welche Vorstellungen weckt deren metaphorische Gleichsetzung mit einem Krieg? Es klingt so, als ob die Kriegsparteien mit Informationen gleichsam wie mit Kanonen aufeinander “schössen”. Tatsächlich hat sich in der sicherheitspolitischen Debatte in den zurückliegenden Jahren ein Sprachgebrauch herausgebildet, der die Wirkung von Social Media mit der von Waffen gleichsetzt. Das hat eine Vorgeschichte.

Bei der gewaltsamen, völkerrechtswidrigen Annexion der Krim 2014 hatte Russland – noch anders als 2022 – die Ukraine nicht offen militärisch angegriffen, sondern Separatisten militarisiert, irreguläre Soldaten eingesetzt und umfängliche Desinformationskampagnen betrieben. Dieses Vorgehen wurde in den demokratischen Nationen des Westens sicherheitspolitisch als neue konzeptionelle Qualität „nichtlinearer“ oder „hybrider“ Kriegführung interpretiert und prägt seither die Wahrnehmung der Bedrohungslage. Dazu gehört inzwischen auch, dass Russland Gaslieferungen an Deutschland als politisches Druckmittel in seinem Krieg gegen die Ukraine einsetzt.

Problematisch an den hybriden Bedrohungen ist, dass sie sich im Vergleich zum bewaffneten Konflikt wesentlich weniger eindeutig manifestieren. Überschreitet eine bewaffnete Streitmacht eine territoriale Grenze, ist der feindselige Akt offensichtlich. Bei virtuellen oder politischen Handlungen ist das schon schwieriger zu bestimmen. Die Tragweite eines Cyberangriffs ist besser einzuschätzen als die von Desinformationen. Auch wenn Sicherheitsbehörden „Angriffe durch Desinformation“ als „echte Gefahr“ einstufen, bleibt die Beschreibung des Risikos („das Vertrauen in staatliche Stellen zu untergraben und durch das Befeuern kontroverser Themen gesellschaftliche Konflikte zu vertiefen“) doch verhältnismäßig vage.

Unspezifizierter “Einfluss”

Einschlägige Publikationen bleiben oft unbestimmt, beschreiben ein Risiko der „Beeinflussung“, ohne Objekte, Grad und Richtung des vermeintlichen Einflusses zu spezifizieren. Desinformationsaktivitäten werden quantitativ anhand ihrer Intensität vermessen, obwohl Reichweite nicht mit Wirkung gleichzusetzen ist. Ein Briefing für das EU-Parlament war 2016 mit der Überschrift „An evolving battle of narratives“ versehen, obwohl diese Formulierung im Fließtext des Papiers nicht einmal vorkommt.

Jedenfalls – so erläutern es zwei Experten in einem Beitrag für die BPB – wurde somit die grenzenlose Welt digitaler Kommunikationsverbindungen, der sogenannte „Informationsraum“, zum sicherheitspolitischen Schauplatz: „Im Informationsraum erreicht die hybride Methode ihr in letzter Konsequenz politisches Ziel nicht unmittelbar durch Handlungen, sondern durch die Provokation von Reaktionen auf Handlungen.“ Mit dieser “Methode“ sah sich nun eine sicherheitspolitische Sphäre konfrontiert, die die „größte Verwundbarkeit westlicher Gesellschaften (…) eher im psychischen als im physischen Bereich“[2] erwartete.

Wie ist das zu verstehen? In Sicherheitskreisen ist die Sicht auf kommunikative Belange geprägt von der militärischen Disziplin der Psychological Operations (Psyops) aus der Ära der Weltkriege und aus dem „Kalten Krieg“. Deren Aufgabe ist es ursprünglich, im Falle eines Krieges gegnerische Truppen und eventuell auch deren Heimatbevölkerung kommunikativ zu beeinflussen. Traditionell wurden dafür Flugzettel, Lautsprecherwagen und Kurzwellensender eingesetzt. Im Vergleich zu digitaler Kommunikation, bei der man zumindest leicht herausfinden kann, ob eine Nachricht jemanden überhaupt erreicht hat, entzogen sich diese Mittel allerdings weitgehend einer Messung ihrer Effekte.

Konzeptionell[3] stehen Psyops in der Tradition bestimmter Grundannahmen, zum einen der sogenannten „Massenpsychologie“ nach Gustave Le Bon, also eines eher skeptischen Menschenbilds von der intellektuellen Selbstbestimmung des Individuums, zum anderen des Stimulus-Response-Modells, das davon ausgeht, dass alle Menschen auf bestimmte Reize gleich reagieren.

Skeptisches Menschenbild

Das kann in dieser Sphäre das Paradox erzeugen, dass die offene Gesellschaft von ihren Verteidigern als struktureller Nachteil gegenüber dem Aggressor empfunden wird: „Die Beeinflussung von Debatten durch führende russische Staatsvertreter funktioniert insbesondere in offenen Gesellschaften. Dabei werden sie in den öffentlichen Diskursen als Vertreter ihres Landes zitiert und schaffen es in die Schlagzeilen der großen Mainstream- und Qualitätsmedien. Erfolgreicher kann Desinformation nicht sein, es braucht keine Trolle oder gekaufte Verstärker in den Zielländern: Allein durch ihre Position bringen Regierungsvertreter exklusiv ihre Narrative in die Debatten europäischer Staaten.“

Dass sich in der offenen Gesellschaft jeder selbst und im pluralistischen Kontext ein Bild von den bizarren Statements russischer Regierungsvertreter machen kann, sieht der Autor von der Deutschen Gesellschaft für Auswärtige Politik nicht als Faktor eigener Stärke, sondern des gegnerischen Erfolgs. Die erwähnten „Narrative“ spielen in dieser Weltsicht eine herausgehobene Rolle, wie zwei einschlägige Berater in einer Publikation der KAS darlegen:

 „Die feindlichen Beeinflussungsoperationen, die hinter Desinformation stehen – Onlineveröffentlichungen von absichtlich falschen Aussagen, die zu strategischen Zwecken produziert und zur sozialen Beeinflussung verbreitet werden, beziehen ihre Wirksamkeit aus den Narrativen, die sie in Diskurse einbringen. Diese bilden die Linse, durch die Einzelne die Informationen interpretieren und damit interagieren, und bestimmen die Art der moralischen Lehren und Schlussfolgerungen, die daraus gezogen werden. Feindliche Beeinflussungsoperationen zielen darauf ab, die ‚Herzen und Köpfe‘[4] des Zielpublikums zu gewinnen, es zur Matrix des Aggressors zu bekehren und mit dieser manipulierten Wahrnehmung die Welt und die Ereignisse, die sich in ihr abspielen, zu beurteilen.“

“Counter-Influence-Kampagnen”

Das Narrativ ist demnach also eine „Linse“, die wiederum die Interpretation des Einzelnen „bestimmt“ und ihn somit zur Matrix des Aggressors „bekehrt“. Das klingt dann tatsächlich nach Grundannahmen aus der Zeit des Stimulus-Response-Modells (s.o.). Konsequenterweise schlagen die Autoren „Counter-Influence-Kampagnen“ zur „Bekämpfung kommunikativer Angriffshandlungen“ vor, um die „Deutungshoheit zurückzuerlangen“.

Würde dies Wirklichkeit, könnte ein von Russland ausgerufener „Informationskrieg“ sein strategisches Ziel erreicht haben – nämlich demokratische Nationen dazu zu verleiten, gegen ihre eigenen Werte zu handeln. Diese These bedarf der Erläuterung.

In den USA, wo seit den Wahlen 2016 das Social Science Research Council sich intensiv mit russischer Desinformationsaktivität auseinandergesetzt hat, kam der Rechtswissenschaftler Yochai Benkler 2018 zu dem Schluss: „Wenn der größte Erfolg der russischen Informationsoperationen darin bestand, die politische Kommunikation in Amerika zu verwirren, dann trägt die Überbewertung der Auswirkungen tatsächlich dazu bei, ihren Erfolg zu konsolidieren.“ Ununterbrochene Berichterstattung über Desinformationen und Spekulationen über deren Auswirkungen ohne konkrete Belege nagten stattdessen am Vertrauen in die demokratischen Institutionen.

Zum Informationskrieg gehören zwei

Die Chefredakteurin von Russia Today hat schon vor zehn Jahren in einem Interview verkündet, ihr Sender führe seit dem russischen Einmarsch in Georgien 2008 „den Informationskrieg gegen die gesamte westliche Welt“ und setze dabei eine „Informationswaffe“ ein. Nun gehören zum „Informationskrieg“ aber zwei, also mindestens eine weitere Partei, die sich darauf einlässt. Wer sich den Begriff zu eigen macht, akzeptiert implizit die Behauptung, Informationen könnten im Sinne einer „Waffe“ eingesetzt werden.

Dieser Logik folgend, ist dann gleichermaßen ein paternalistischer Schutz der eigenen Bevölkerung vor deren „Wirkung“, als auch die Selbstverteidigung mit „Informationswaffen“ geboten. Das kollidiert aber mit der Wertewelt demokratischer Staaten, von denen normativ die Absicht zu erwarten ist, ihre Staatsbürger:innen und die Weltöffentlichkeit möglichst sachlich zu informieren. Hierin besteht der grundsätzliche Unterschied der Systeme.

Insoweit kommt es den Interessen Russlands entgegen, wenn westliche Nationen in einen „Informationskrieg“ eintreten. Es ist dabei egal, ob die Metapher und die damit verbundenen Assoziationen einer sophistizierten Desinformationsstrategie entspringen, oder nur zufällig Dynamik entfalten, weil sie den Nerv eines breiten Spektrums potenziell Beteiligter treffen. Was macht dieses Vokabular so attraktiv?

Prägnante Metaphorik

 „Informationskrieg“ stimuliert Ersatzhandlungen: Wer als zivile Bürger:in das eigene Ohnmachtsgefühl angesichts des russischen Überfalls auf die Ukraine entlasten will, kann – siehe die Anonymous-Aktion – auf dem Smartphone russische Restaurants mit Kritiken „bombardieren“ und sich dabei im heimischen Sessel als Teil einer „Keyboard-Army“ fühlen. Auch Regierungen bietet der sicherheitspolitische Fokus auf Desinformationen einen sichtbaren Tätigkeitsnachweis, der von der Auseinandersetzung mit strukturellen Ursachen tangierten Institutionenvertrauens entledigt. 

„Informationskrieg“ als Berichtsgegenstand stützt auch das professionelle Selbstwertgefühl von Journalist:innen, die Fokussierung auf „Narrative“ kommt berufsständischen Trends entgegen. Ohnehin stößt der Nachrichtenjournalismus im Umgang mit Desinformationen handwerklich an seine Grenzen. Typische Beispiele sind die Wiedergabe von Propagandabehauptungen im Indikativ sowie die unreflektierte Übernahme von Drohgebärden oder Euphemismen. Bemerkenswert ist auch, wenn Medien in digitalen Überschriften selbst eine propagandistische Sprache („Kläffer“, „geifern“) übernehmen, die sich im dazugehörigen, sachlich-informativen Text gar nicht wiederfindet[5]. 

„Informationskrieg“ ist als Metapher prägnant und verspricht, Komplexität zu reduzieren. Überdies ist sie in Deutschland anschlussfähig an Brauchtümer wie eine zackige Attitüde politischer Kolumnisten sowie der Neigung zu martialischem Vokabular im Marketing– und Managementwesen.[6] Verbreitet sind in diesem Kontext auch die notorischen Sprachbilder „Echokammer“ und „Filterblase“. Tatsächlich wurden die Begriffe vor mehr als zehn Jahren von einem Internetaktivisten und einem Politikberater aufgebracht. Die damit verbundene Annahme einer algorithmisch bedingten Verengung der Informationsquellen hat sich in der einschlägigen Forschung nicht bestätigt. Dasselbe gilt übrigens auch für die Metapher von der „Spaltung“ der Gesellschaft.

Ballistische Vorstellungswelt

Schließlich: „Informationskrieg“ spricht eine gleichsam ballistische Vorstellungswelt in Militär und Sicherheitsbehörden an und eröffnet damit Möglichkeiten, selbst scheinbar risikolos und ohne großen Aufwand an Mensch und Material aktiv werden zu können. Ein „Informationskrieg“ bedarf keiner teuren Kampfflugzeuge, Panzer oder Kriegsschiffe und es gehen keine lebensgefährlichen Wirkungen von ihm aus. Um kollaterale Effekte für die demokratische Öffentlichkeit einschätzen zu können, bedürfte es einer vertieften Qualifikation in Medienwirkungsforschung, die bislang in dieser Sphäre nicht zum Standard gehört. Das britische Verteidigungsministerium geht ungeachtet möglicher problematischer Assoziationen sogar grundsätzlich von einem „Triumph des Narrativs“ aus – und zwar gleich, ob gegenüber in- oder auswärtiger Öffentlichkeit.

Um die kollateralen Effekte geht es aber. Während in der vordigitalen Zeit eine Wirkung kommunikativer Aktivitäten mehr oder minder beliebig behauptet werden konnte, besteht zumindest in den einschlägigen zivilen Berufsverbänden inzwischen Einigkeit über die Methoden deren Erhebung und vor allem über die Grenzen: „Gezielte Kommunikationsmaßnahmen führen jedoch keineswegs zwangsläufig zu Einstellungs- und Verhaltensänderungen bei den Rezipienten, da Kommunikationswirkungen stets von den Interessen aller Beteiligten beeinflusst werden. Der Einfluss externer Faktoren nimmt von Input zu Outflow zu, während der Einfluss des Kommunikationsmanagements zwangsläufig stufenweise abnimmt.“

Erfolgsbetrachtungen des Dialogmarketings lassen sich nicht auf die politische Kommunikation übertragen. Beim Marketing oder Vertrieb geht es in aller Regel um den Austausch einer mehr oder minder realen Leistung. Der Erfolg bemisst sich daran, wie profitabel ein Produkt im Verhältnis zum Vertriebsaufwand verkauft werden kann. Wenn eine günstige digitale Kampagne nur einen niedrigen einstelligen Prozentsatz an Adressierten veranlasst, ein Produkt zu einem profitablen Preis zu kaufen, ist das ein Erfolg – auch, wenn man den weit überwiegenden Teil nicht erreicht hat. 

Auch die Ergebnisse des dabei verwendeten Instruments Microtargeting sind alles andere als eindeutig. Dass sich dennoch hartnäckig die Legende hält, Microtargeting habe entscheidenden Einfluss auf die US-Wahlen 2016 gehabt, korrespondiert ironischerweise mit dem PR-Narrativ einer zweifelhaften Datenfirma (siehe auch unten), das die Wirkung mit einer „Bombe“ gleichgesetzt hatte. Die Wirksamkeit von Microtargeting ließe sich intensiver erforschen, wenn die Social-Media-Plattformen dafür der Wissenschaft die erforderlichen Daten bereitstellen würden. Daran haben sie jedoch kein Interesse, weil ihr Geschäftsmodell darauf basiert, dass die Kund:innen an die Wirksamkeit glauben.

Normen und Werte abtragen

Während es in der traditionellen Kriegspropaganda also darum ging, taktisch Wahrnehmungen oder Meinungen zu beeinflussen, ist das übergeordnete Ziel heutiger Desinformationsaktivitäten, öffentliche Debatten zu desintegrieren sowie demokratische Normen und Werte abzutragen. Hierin sind sich die russischen Desinformationsakteure und die Demokratiegegner in den westlichen Staaten einig. 

In einschlägigen Pamphleten der amerikanischen Rechtsradikalen[7] sind es die „Social Justice Warriors“ – Menschen mit progressiven gesellschaftpolitischen Einstellungen – die angeblich ihre Narrative hegemonial über die (US-)Gesellschaft ausgebreitet haben und jeden öffentlich „vernichten“ wollen, der abweichende Ansichten vertritt. Der Autor empfiehlt, die Auseinandersetzung methodisch zu eskalieren und die Konventionen des politischen Konflikts außer Kraft zu setzen, so „dass die normalen Regeln des ‚Leben und leben lassen‘ nicht mehr gelten.“

Deshalb können die Regierungen demokratischer Staaten nicht in einen „Informationskrieg“ eintreten: Sie würden selbst dazu beitragen, die für Demokratien konstitutive öffentliche Debatte zu desintegrieren – also, die gesellschaftlichen Konventionen mit einzureißen, auf denen sie gründet. Wer auf „kommunikative Angriffshandlungen“ mit „Counter-Influence-Kampagnen“ reagiert, um die „Deutungshoheit zurückzuerlangen“ (vgl. die Vorschläge der KAS-Autoren oben), lässt sich von seinen Gegnern Art und Mittel der Auseinandersetzung aufzwingen. Er läuft Gefahr, zu Nachrichtenvermeidung, Trotzreaktionen oder Polarisierung beizutragen.

“Deutungshoheit” in pluralistischer Debatte?

Außerdem: Wäre eine demokratische Regierung überhaupt legitimiert, mit Mitteln der „Exekutive Counter-Influence-Kampagnen“ auf die inländische Bevölkerung anzuwenden – ganz abgesehen von der Frage, ob diese die gewünschte Wirkung erzielen? Und nebenbei: Welche Regierung verfügte über ein Instrumentarium, den „Influence“ valide zu bestimmen, den es zu „countern“ gälte? Gibt es in einer pluralistischen öffentlichen Debatte, zumal in der unbeherrschbaren Dynamik digitaler Massenkommunikation, ernsthaft eine „Deutungshoheit“ und wäre diese ein legitimes Ziel einer demokratischen Regierung?

Wenn Marketingleute funktionale Phantasien von der „Steuerung von Meinungen, Einstellungen, Erwartungen und Verhaltensweisen“ durch Kommunikation hegen, ist das nicht weiter problematisch, weil es lediglich um Konsumgüter geht. Regierungen demokratischer Staaten haben aber nur sehr bedingt ein Mandat, Meinungen und Einstellungen ihres Souveräns – also der Staatsbürger:innen – beeinflussen zu wollen. Am Beispiel der „verhaltensbeeinflussenden“ Umweltkommunikation lassen sich die innewohnenden Zielkonflikte gut herausarbeiten. Auch seit den 2010er Jahren diskutierte Kommunikationskonzepte auf Grundlage der sogenannten „Verhaltensökonomik“ stehen vor ungelösten Problemen der Legitimation und der Transparenz.

Allerdings hat dies beispielsweise die Regierung des Vereinigten Königreichs nicht davon abgehalten, seit 2010[8] unter Prime Minister David Cameron die gesamte Regierungskommunikation in einen verhaltensökonomischen Kampagnenapparat umzubauen. Geht es vordergründig darum, auf das Verhalten der Bevölkerung einzuwirken, instruiert die Ebene der Praxisdokumente gleichzeitig zur Beeinflussung von deren Einstellungen. Wenn eine Regierung selbst glaubt, sie könne (und dürfe) ohne weiteres die Einstellungen ihres Souveräns kommunikativ beeinflussen, dann steht einem Influence/Counter-Influence-Kreislauf nichts im Wege.

Wertebasis der Verteidigung

Anscheinend hält sich die Regierung in London zu derlei Aktivitäten für grundsätzlich mandatiert und „traditionelle Unterscheidungen zwischen ‚Frieden‘ und ‚Krieg‘, zwischen ‚öffentlich‘ und ‚privat‘, zwischen ‚Ausland‘ und ‚Inland‘ sowie zwischen ‚Staat‘ und ‚Nicht-Staat‘ [für] zunehmend überholt“. Auch eine solche Sichtweise wird von der Metapher „Informationskrieg“ semantisch unterstützt. Es könnte unter diesen Voraussetzungen allerdings schwierig werden, die Wertebasis zu plausibilisieren, von der aus sich das demokratische gegen das autoritäre System verteidigt.

Vorsorglich ließen sich anscheinend Streitkräfte aus Großbritannien, Kanada und aus den Niederlanden bei einem Nachfolger der bereits erwähnten Datenfirma Cambrigde Analytica in Microtargeting ausbilden. Die kanadische Armee hat das Know-how anlässlich der Covid-Pandemie wohl gleich an der inländischen Bevölkerung ausprobiert, was allerdings umgehend durch Medienrecherchen aufflog und dort seither Politik und Öffentlichkeit beschäftigt. Insoweit hatten die „heilsamen Folgen einer Veröffentlichung“[9] im politischen Diskurs wohl den stärkeren Impact als die „weaponized“ Public Affairs der kanadischen Streitkräfte. Gleichzeitig erzielte die Aktion nach Medienberichten eher das Gegenteil der erwünschten Wirkung.

Reaktanz und Nachrichtenvermeidung

Überhaupt scheint die Möglichkeit, dass Beeinflussungskampagnen in der digitalen Massenkommunikation auch andere, als die gewünschten Effekte hervorrufen könnten, die Informationskrieger nicht zu irritieren[10]. Phänomene wie Reaktanz – also Gegenreaktionen – oder Nachrichtenvermeidung müssten konzeptionell beim Umgang mit Desinformationen eigentlich eine zentrale Rolle spielen – es sei denn, man geht noch immer von Stimulus-Response-Modellen (s.o.) aus, oder ist von Aktionismus getrieben.

Zusammenfassend lässt sich feststellen: Die Metapher „Informationskrieg“ klingt prägnant und übt Reiz aus, führt aber in die Irre. . Es gibt einen realen, tödlichen Krieg, in dem sich die Ukraine unter unvorstellbaren, realen Opfern gegen die Aggression Russlands verteidigt. Russische Desinformationen und Propaganda sind dessen Bestandteile, aber kein eigenständiges Phänomen darüber hinaus. Außerhalb der Ukraine den Eindruck zu erwecken, von einem „Informationskrieg“ betroffen zu sein, ist im Angesicht deren Opfer eine Anmaßung. Zwar gibt es militärische „Information Operations“, aber insbesondere für „Information Warfare“ existiert keine allgemeingültige Definition.

Auch die Analogie von Information und Waffe ist unpassend. Im Gebrauch von kinetischen Waffen werden reguläre Soldat:innen intensiv trainiert, können deren Wirkung und Flugbahn verhältnismäßig genau einschätzen. Völkerrechtlich sind sie verpflichtet, mögliche „kollaterale“ Effekte, also unbeabsichtigte oder nicht unmittelbar dem militärischen Ziel dienende Folgen im Vorhinein abzuwägen.[11] Eine Wirkung von Botschaften und Bildern in der digitalen Massenkommunikation hingegen lässt sich angesichts der Vielzahl von Variablen nicht in vergleichbarer Form antizipieren.

Kommunikation kann aus Sicht demokratischer Staaten definitiv keine Waffe sein – egal wie viele Interessierte in Politik, Militär und Industrie das mit ihrem Sprachgebrauch nahelegen möchten. Stattdessen verwischt das Kompositum „Informationskrieg“ die definitorische Trennschärfe des völkerrechtlichen Kriegsbegriffs und der Vergleich verharmlost die Wirkung kinetischer Waffen. Auch in anderem Kontext werden militarisierende Sprachbilder oder die sprachliche Gleichsetzung mit Waffen kritisch reflektiert.

Zugleich lädt „Informationskrieg“ zu Ersatzhandlungen anstelle echter, substanzieller und womöglich risikoreicher Aktivität ein.. Die Vokabel mag außerdem dazu verleiten, die eigenen Normen und Werte, die es zu verteidigen gilt, eher als Hindernis wahrzunehmen. Schließlich – und das ist vielleicht am gefährlichsten – könnte sie politische und Funktionseliten der demokratischen Gesellschaft dazu verleiten, ihren Souverän nicht mehr ernstzunehmen.

Vorrang der Bildungspolitik

Als wirklich effektiv hingegen identifizierte die CNN den Ansatz einer Nation, die grundsätzlich in ihren Souverän vertraut und dessen individuelles Urteilsvermögen durch Bildungsprogramme unterstützt. Finnland betreibt seit Jahrzehnten ein ganzheitliches nationales Bildungsprogramm zur „Media Literacy“. Die finnische Bevölkerung verfügt laut dem Media Literacy Index der Open Society Foundation über die ausgeprägtesten Kompetenzen im Umgang mit „Postfaktizismus“.[12] Dieser Ansatz erscheint für demokratische Staaten vielversprechender als „Counter-Influence-Kampagnen“ gegen die eigene Bevölkerung. Deutschland steht im Index mit 62 Punkten auf Platz 8 hinter Finnland mit 78, es besteht also noch Spielraum.

Der Umgang mit Desinformationen sollte demnach vorrangig ein Thema der Bildungs-, nicht der Sicherheitspolitik bleiben. Natürlich müssen Sicherheitsbehörden auch gegenüber Desinformationen staatliche Gefahrenabwehr betreiben können. Dies kann aber nur gelingen, wenn Ursache-Wirkungsbeziehungen der digitalen Massenkommunikation, mögliche Risiken und letztlich staatliche Interventionsmöglichkeiten realistisch eingeschätzt werden. Für demokratische Staaten überwiegt das Risiko von Kollateralschäden an der öffentlichen Debatte den möglichen Verteidigungseffekt eines „Informationskrieges“.

Dass in den USA das gleichnamige rechtsradikale Onlineportal im April 2022 Insolvenz angemeldet hat, sollte Anlass sein, die Metapher „Informationskrieg“ ein für allemal stillzulegen. Um auf einen Slogan der Friedensbewegung in den 1980ern zurückzugreifen: „Stell Dir vor, es ist Informationskrieg, und keiner guckt hin.“

P.S. Eine andere Metapher ließe sich bei dieser Gelegenheit gleich mit abräumen: Die von der WHO leider in die Welt gesetzte „Infodemie“, die sprachlich nahelegt, wer Desinformationen verbreite, sei krank, daher also nicht für sein Handeln verantwortlich und könne medizinisch therapiert werden.


[1] Englische Originalquellen wurden für diesen Text vom Verfasser übersetzt. 

[2] Der Politikwissenschaftler Herfried Münkler, zitiert in obigem BPB-Beitrag.

[3] Vgl. Bussemer, T. (2008), Propaganda. Konzepte und Theorien, 2.Aufl., Wiesbaden: 63ff

[4] Auch die etwas holprige Übersetzung „Herzen und Köpfe“ deutet auf einen konzeptionellen Hintergrund der Psychological Operations hin.

[5] Zugriff am 17.07.2022. Die Überschrift lautete „Putins Kläffer geifern um die Gunst“, während im dazugehörigen, sachlich-informativ gehaltenen Text entsprechend von „buhlenden Funktionären“ die Rede ist.

[6] Vgl. auch Chapoutot, J. (2021): Gehorsam macht frei. Eine Geschichte des Managements – von Hitler bis heute, München: 93ff (Kapitel: „Die Kunst einen [Wirtschafts-] Krieg zu führen“).

[7] Vox Day (aka Theodore Beale, 2015): SJW always lie. Taking down the thought police, Zug: Chapter 7, What to do wen SJW attack (o. Seitenzahl)

[8] S. Graf, R. (2018): Verhaltenssteuerung jenseits von Markt und Moral: in VfZ 66: 436

[9] Formulierung des deutschen Bundesverfassungsgericht 1966 in einem Urteil über die sogenannte „Spiegel-Affäre“ (https://de.wikipedia.org/wiki/Spiegel-Aff%C3%A4re), bei der das Bundesverteidigungsministerium auf Grund eines Berichts des gleichnamigen Magazins Strafverfolgung wegen Landesverrats veranlasst hatte: „Vielmehr ist diesem gewiß sehr wesentlichen Interesse [der Geheimhaltung] gegenüberzustellen das sich aus dem demokratischen Prinzip ergebende Anrecht der Öffentlichkeit an der Information und Diskussion der betreffenden Fakten; hierbei sind auch die möglichen heilsamen Folgen einer Veröffentlichung in Rechnung zu stellen. So kann etwa die Aufdeckung wesentlicher Schwächen der Verteidigungsbereitschaft trotz der zunächst damit verbundenen militärischen Nachteile für das Wohl der Bundesrepublik auf lange Sicht wichtiger sein als die Geheimhaltung; die Reaktion der Öffentlichkeit wird die zuständigen Staatsorgane normalerweise veranlassen, rechtzeitig für Abhilfe zu sorgen.“ BVerfGE 20/162, 1966 (Abs. 49).

[10] Vgl. den oben zitierten OCCRP-Bericht: „Behavioral Dynamics Methodology was twice analyzed by the British Defense Science and Technology Laboratory to determine whether it was effective, but the results were inconclusive, according to documents obtained through Freedom of Information legislation.“ https://www.occrp.org/en/37-ccblog/ccblog/13225-governments-have-failed-to-learn-from-the-cambridge-analytica-scandal

[11] Erstes Zusatzprotokoll zu den Genfer Abkommen von 1949, Art 35.: „Es ist verboten, Waffen, Geschosse und Material sowie Methoden der Kriegführung zu verwenden, die geeignet sind, überflüssige Verletzungen oder unnötige Leiden zu verursachen.“

[12] Original: „the post-truth-phenomenon“.

Foto von Clark Gu auf Unsplash

WordPress Cookie Plugin von Real Cookie Banner