Diskursmanipulation

Den Informationsraum in seiner Funktion als schützenswerte Grundlage demokratischer Entscheidungsprozesse können wir als jenen Ort verstehen, in dem politische Präferenzen geformt werden, in dem Narrative sich allmählich im kommunikativen Abgleich bilden und in dem sie manipulativ konstruiert werden. Wir können ihn auffassen als basisdemokratisches, diskursives Kommunikationsgefüge, in dem bestenfalls gesamtgesellschaftliche und im bedrohlichsten Fall isoliert milieuspezifische Deutungsmuster, die demokratiefeindlichen bzw. fremdstaatlichen Interessen dienen, entstehen. Digitale Diskurse setzen Themen im Informationsraum, definieren Gegner, verschieben Wahrnehmungen und erzeugen in der Rückkopplung gesellschaftspolitische Wirklichkeit. Der digitale Informationsraum ist heute nicht mehr ergänzender, sondern bestimmender Ort politischer Willensbildung, der Einfluss digitaler Diskurse auf Wahrnehmung, Haltung und letztlich auch auf Entscheidungen nimmt zu und mit diesem Einfluss wiederum das systemische Risiko, das von großangelegter, orchestrierter Diskursmanipulation ausgeht.

Ohne die Analyse und belastbare Kenntnis der Wirkung derart struktureller Manipulation ist die politische Lagebeurteilung unvollständig und der Informationsraum als Ort politischer Willensbildung unzureichend geschützt. Jene, die strukturell Einfluss auf das Informations- und Meinungsangebot nehmen, agieren massenhaft und ungehindert im deutschen Informationsraum und lösen die konsensorientierte, pluralistische Mitte, die sich nicht manipulativ in den Vordergrund drängt, sondern die offene Debatte, den kommunikativen Abgleich und die gemeinsame Lösung sucht, zwischen künstlich verstärkten, radikalen Extrempositionen und Empörungspeaks auf.

Derzeit verzerren tausende Accounts wirkungsvoll unseren Informationsraum, handeln ereignisbezogen als in Haltung und Thema synchronisierte Großgruppen und schaffen auf diese Weise eine Scheinwirklichkeit, die Meinungen formt, Feindbilder schärft, Widerstand bricht oder Zustimmung etabliert, und die mit dem Meinungspluralismus unserer offenen Gesellschaft, mit ihren Herausforderungen, Entwicklungen und tatsächlichen Konflikten nichts mehr zu tun hat.

1. Lage und Bewertung

Seit mindestens einem Jahrzehnt ist die Bundesrepublik Deutschland kontinuierlich hybriden Angriffen ausgesetzt, die politische Instabilität manifestieren und gesellschaftliche Spannungen erzeugen bzw. verschärfen; anzunehmen, allein Russland agiere in unserem Informationsraum, wäre wohl naiv. Nichtsdestotrotz folgen die in den letzten Jahren beobachteten, wirksamen Einflussnahmen der sicherheitsstrategisch von der russischen Militärdoktrin (2014, Abschnitt III und IV) und der Informationssicherheitsdoktrin (2016, Abschnitt II, Art. 11, 15, Abschnitt IV, Art. 20ff.) legitimierten Architektur informationspsychologischer Konzepte zur Verteidigung russischer Interessen, vor allem dem der „Reflexiven Kontrolle“. Die Operationen in unserem Informationsraum lassen sich aus russischer Sicht als Teil notwendiger, asymmetrisch-defensiver Präventivaktionen auf die in den Doktrinen definierten Bedrohungslagen verstehen.

Diese Einflussnahmen sind nicht allein inhaltlicher Natur (Falschnachrichten), sondern bestehen vor allem und unter Nutzung sowohl falscher, wie auch irreführender/konnotierter und wahrer Informationen in der strukturellen Manipulation von Diskursen durch unzählige orchestriert handelnde Accounts. Primäre Treiber der von diesen Netzwerken verursachten Verzerrung sind die asymmetrische Verstärkung von Extrempositionen im linken und rechten Spektrum, die eine Polarisierung unseres Informationsraums zur Folge hat, die orchestrierte Verstärkung weniger Meinungen, die diskursive Übergewichte und realitätsferne Mehrheitsverhältnisse erzeugt und nicht zuletzt die massenhaft verteilten, aber im Einzelnen strafrechtlich irrelevanten Fragmente zusammengehörender Narration, die Themen konnotieren und damit Haltungen etablieren, verstärken oder manifestieren können. Diese Form struktureller Manipulation gefährdet insofern den freien Meinungsbildungsprozess, als dessen Voraussetzung, d.h. ein vielfältiges Informations- und Meinungsangebot, auf wenige konträre Extrempositionen1 verengt wird.

Dabei scheint vordergründig das Ziel der beobachteten Diskursmanipulationen die Polarisierung, die Spaltung unserer Gesellschaft zu sein, doch ist mit dem Teilen allein noch nichts gewonnen. Vielmehr ist eine Polarisierung desjenigen Raums, in dem die Grundlagen jedweder Entscheidungen, die Deutungen von Informationen, verhandelt werden, ein geeignetes Mittel, um institutionelle Entscheidungsprozesse zu lähmen und zu lenken, indem sie die Bedingungen verändert, unter denen sich Meinungen bzw. Urteile entwickeln. Konkurrierende Deutungsmodelle von Wirklichkeit sorgen für den Verlust gemeinsamer Referenzen, die jeweils konsensorientierte Lösung verliert mit dem Verschwinden der politischen Mitte ihren gesellschaftlichen Rückhalt, antagonistische Extrempositionen und Empörungspeaks bestimmen die Debatte. Was für den Blick des Einzelnen, „aus nächster Nähe“ unsichtbar ist, zeigt sich in der unvoreingenommenen Massendatenauswertung, „aus der Distanz“ als künstlich erzeugtes Bild, das sukzessive unsere gemeinsame Erfahrungsgrundlage ersetzt und eine etwaige Verständigung strukturell verhindert.

Ist der Informationsraum geteilter bzw. gemeinsamer Wirklichkeit zugunsten isolierter Deutungsmuster verzerrt, wird der demokratische Meinungsbildungsprozess selbst Opfer der Manipulation. Das Ergebnis derartiger Manipulation des Informationsraums ist, wie im Konzept der Reflexiven Kontrolle vorgesehen, die strukturelle Handlungsunfähigkeit eines demokratischen Systems, d.h. die Unfähigkeit, den für das Gemeinwesen besten Weg in die Zukunft zu finden.

2. Techniken manipulativer Einflussnahme

In den letzten Jahren konnten vor allem die folgenden strukturellen Manipulationstechniken identifiziert werden, die messbare Folgen für die Meinungsvielfalt im Informationsraum haben:


Verstärkungen/Amplifikationen und narrative Themensetzungen

  • das zeitlich synchronisierte Handeln großer Mengen scheinbar voneinander unabhängiger Accounts, die außerhalb des jeweiligen Diskurses liegen, auf den sie Einfluss nehmen, zur Verstärkung einzelner Accounts; hier konnte eine Besonderheit beobachtet werden, es wird nicht nur eine, sondern es werden thematisch zueinander passende, in der Haltung jedoch konträre Botschaften verstärkt, und zwar asymmetrisch im linken (ca. 1/3) und rechten (ca. 2/3) politischen Milieu; die technische Signatur ist ein über alle Kenngrößen einheitliches und konstantes Missverhältnis der Repräsentationen der widerstreitenden Positionen.

Untenstehend ausschnittsweise die Amplifikatoren im politisch linken (rot) und politisch rechten (blau) Spektrum zur Bundestagswahl 2025, jeder Punkt markiert einen Account.

  • die koordinierte Streuung einer Vielzahl strafrechtlich irrelevanter, aber thematisch abgestimmter Einzelbotschaften, die ein bestimmtes Narrativ absichern, ohne es offen zu behaupten; Rezipienten konstruieren aus der Akkumulation vermeintlich unabhängiger Beobachtungen ein geschlossenes, subjektiv glaubwürdiges Deutungsmuster, dessen manipulative Wirkung und Überzeugungskraft aus der Illusion selbstgewonnener Erkenntnis resultiert
  • die Übernahme von Narrativen aus fremden Sprachräumen; bislang über Netzwerke inauthentisch aguerender Accounts in den deutschen Diskurs eingebracht

Die Wirkung derartiger Einflussnahmen ist sichtbar, sie haben zwischen 2015 und 2025 einen damals strukturell homogen und inhaltlich vielfältigen, heute strukturell strikt polarisierten und inhaltlich auf wenige Themen beschränkten Informationsraum mit der Logik von Echokammern hervorgebracht, der nicht mehr Ausdruck pluralistischer Vielfalt und damit Basis demokratischen Konsens ist sondern Austragungsort aggressiver ‚Informationsgefechte‘ zwischen abgeschotteten politischen Lagern.

Diese Angriffe geschehen weder sporadisch noch sind sie improvisiert, vielmehr haben wir es mit langfristig geplanten Kampagnen zu tun, die den Meinungsbildungsprozess im Informationsraum korrumpieren. Sie basieren auf der Kombination von Datenanalyse, psychologischer Zielgruppenansprache und skalierbarer, technischer Infrastruktur und unser Land steht vor der Herausforderung, eine Antwort zu entwickeln, die Manipulation verhindert, ohne die Grundpfeiler der Meinungsfreiheit aufzugeben.

3. Die Polarisierung des Informationsraums 2015 – 2025

Die Visualisierungen von Netzwerkanalysen zeigen diejenigen Teilnehmer des digitalen Diskurses, die 2015 mit Regionalbezug zu Mecklenburg Vorpommern kommuniziert haben und sie zeigen all jene, die 2025 mit Regionalbezug zu MV kommuniziert haben, jeder Punkt markiert einen Account. Beiden Darstellungen der Ergebnisse mehrstufiger Netzwerkanalysen liegt die exakt gleiche Fragestellung zugrunde.


Dieselbe Fragestellung, die ausschließlich Lokalbezüge adressiert, zeigt 2015 einen gemeinsamen Informationsraum. 10 Jahre später gibt es die gemeinsame Debatte nicht mehr, stattdessen zwei verfeindete, voneinander abgeschottete Milieus ohne jede Chance auf Verständigung. Ausgewertet wurde neben Mecklenburg Vorpommern (ca. 28.000 Akteure) auch die regionalbezogene Kommunikation in den Ländern Bremen (ca. 34.000 Akteure) und Brandenburg (ca. 20.000 Akteure). Die Ergebnisse zeigten, dass die polarisierte Verengung unseres Informationsraums nicht nur Mecklenburg Vorpommern betrifft, auch Brandenburg und Bremen weisen nahezu identische Polarisierungen mit rechtspopulistischer Milieudominanz2 auf.

Beide Lager werden in ihren Extrempositionen von inauthentischen Accounts verstärkt, allein die politische Mitte erfährt keinerlei Unterstützung und erodiert auf Länder- wie auf Bundesebene zwischen den künstlich verstärkten, übermächtigen Polen.
Und obgleich ausschließlich der Lokalbezug abgefragt wurde, überwiegen sehr deutlich bundespolitische Themen in den Brandenburger, Mecklenburger und Bremischen Milieus – hochaufgeladen und jeweils entgegengesetzt bewertet. Der Lokalbezug dient lediglich als Kulisse für den Kampf der verfeindeten Lager um die Rettung der beiderseitig als hochgradig gefährdet wahrgenommenen Demokratie gegen die ‚Faschisten‘ auf der jeweils anderen Seite, der Diskurs gleicht eher einem digitalen Bürgerkrieg denn einer pluralistischen, demokratischen Debatte.

4. Manipulative Akteure

Die voneinander unterscheidbaren, politischen Milieus, dies war in jeder Analyse nachweisbar, sind durchsetzt von manipulativ agierenden Accounts und Accountgruppierungen, die Extrempositionen konfrontativ verstärken und mit der Radikalisierung beider politischer Seiten, sowohl linkem als auch rechtem Meinungsmilieu, die von ihnen vorangetriebene Polarisierung manifestieren.

Amplifikatoren politischer Diskurs Brandenburg

Hier im Bild, das erneut den Brandenburger Diskurs zur BTW25 zeigt, sind die Accounts, die sich in einem bestimmten Zeitfenster versammelt hatten, um jeweils nur eine extreme Position zu verstärken, hellrot gefärbt. Es handelt sich um ereignisbezogene „Versammlungen“, bei denen mehrere hundert bis mehrere tausend Accounts, die untereinander kaum oder gar nicht vernetzt sind und auch nicht am Diskurs der anderen Netzwerkakteure teilnehmen, ein gleichartiges Verhalten zeigen.

Analog zu unangemeldeten Massendemonstrationen im physischen öffentlichen Raum sorgt jede dieser scheinbar zufälligen Gruppierungen durch zeitlich und inhaltlich abgestimmtes Handeln in einem bestimmten Zeitfenster für die Sichtbarkeit nur eines Accounts, eines Beitrags, eines Themas.

5. Zur Notwendigkeit regelgeleiteter Wirkungsmessung

Wichtige Publikationen, die die Analyse von Meinungsmanipulation behandeln, stellen Erkenntnisse zur Verfügung, die, das zeigen z.B. die Veröffentlichungen zur breit ausgeleuchteten Doppelgänger-Kampagne (ClearSky Ldt., aber auch CEMAS) darunter auch der Bericht des bayrischen Verfassungsschutzes und des AA, vor allem Attribuierung und Distributionslogik bzw. technische und semantische Verbreitungsmechanismen von Meinungsmanipulation in den Blick nehmen. Aber erst mit der milieudifferenzierten Massendatenauswertung wird über die Verstärkerstrukturen hinaus eine Mechanik sichtbar, die entscheidend für eine valide Wirkungskontrolle und vor allem für jedwede Resilienzbemühung ist: Die untersuchten Manipulationskampagnen adressieren analog zu Werbekampagnen segmentierte Zielgruppen und transportieren über passende Medien/Distributionskanäle zielgruppengerechte Inhalte, bzw. besser: Kommunikate3, in auf Medium und Milieu abgestimmter Weise.

Dass die orchestrierte Ausspielung von manipulativen Kommunikaten im Informationsraum wenigstens auf ein Mindestmaß an Interesse beim Rezipienten treffen muss, um irgendeine, bestenfalls die gewünschte Wirkung zu entfalten, ist geradezu intuitiv einsichtig. Meinungsmanipulation als Technik der (politischen) Massenkommunikation, als geplanter, medientechnisch im Informationsraum vermittelter Versuch der Einflussnahme auf soziale Großgruppen bzw. Milieus ist, um Wirkung zu erzielen, darauf angewiesen, dass die kommunizierten Botschaften mit den Bedürfnissen und (gesellschafts-)politischen Frames der Empfängergruppen kompatibel sind. Nicht vornehmlich die Botschaft entscheidet über Wirksamkeit, sondern vielmehr ihre Resonanzfähigkeit in der Zielgruppe – auf eben dieselbe müssen neben den Inhalten manipulativer Aktivitäten auch Werbemittel, crossmediale Distributionskanäle und zu Medium, Zielgruppe und Botschaft passende Formate wie auch die Kampagnendramaturgie abgestimmt sein.

Die für Monitoring und Justierung der russischen Doppelgänger-Kampagne benutzte Software „Keitaro“, die übereinstimmend von der East StratCom Task Force (PDF) und in Berichten von IT-Sicherheitsunternehmen als webbasierte Softwarelösung für Kampagnenmessung und -management von „Doppelgänger“ genannt wird, weist folgerichtig diejenigen Funktionen aus, die eine crossmediale Kampagnensteuerung und -auswertung inkl. umfassendem Nutzer-Tracking und Optimierung von Content und Traffic ermöglichen, u.a. können Konversionsraten4 über A/B-Tests und hardwareangepasste Weiterleitungen auf Landingpages erhöht werden. Nutzerströme können nach geographischen, technischen und verhaltensbezogenen Parametern segmentiert werden, die Resonanz verbreiteter Botschaften pro Zielgruppe u.a. über aussagekräftigere Engagement-Kenngrößen wie Likes, Shares oder (dies scheint mit Blick auf Bots und Automatisierung zunehmend relevant geworden zu sein, ist aber mittlerweile mittels LLM-Chatbot auch recht einfach zu übernehmen) über Kommentare verfolgt und gemessen werden.

6. Herausforderungen

Nicht nur die Beobachtung, dass die Wirkung von Meinungsmanipulation milieu- bzw. zielgruppenabhängig ist, auch der forensisch rekonstruierte Nachweis der Nutzung o.g. Software belegt eine professionalisierte, milieuspezifisch konfigurierte Manipulationsarchitektur, die den Prinzipien wirkungsorientierter Werbekampagnen folgt. Ziel der Kampagnen ist offenkundig nicht eine breit gestreute, diffuse Meinungseinwirkung, sondern die präzise, milieuabgestimmte Veränderung von Information und Bewertung – letztlich und langfristig die Manipulation des Meinungsbildungsprozesses ganzer Bevölkerungsgruppen.
Die zielgruppenspezifische Kenntnis der Wirkung von Meinungsmanipulationskampagnen ermöglicht die Unterscheidung zwischen strategischer Manipulation und tatsächlicher Meinungsdynamik, die methodisch kontrollierte, zielgruppengenaue Wirkungskontrolle erkennt, ob und in welchen Milieus destabilisierende Narrative, Misstrauen gegenüber Institutionen, Polarisierung, Radikalisierung oder die Etablierung bzw. Schärfung von Feindbildern greifen. „Nur durch ein differenziertes und entschlossenes Bemühen, die Auswirkungen der Desinformation zu ermitteln, können wir Aussagen über den Erfolg oder Misserfolg der aktuellen Desinformationskampagnen des Kremls treffen“, schreiben die Analysten des „European Centre of Excellence for Countering Hybrid Threats“ im März 2024.

Derzeit beherrschen jedoch Überzeugungen die deutsche Debatte zu Propaganda und Desinformation, in deren Folge finanzielle und personelle Ressourcen vornehmlich auf die Regulierung von Plattformalgorithmen, auf deren Empfehlungs- und Selektionsmechanismen, auf die demokratische Legitimität medialer Angebote, auf etwaig juristisch relevante Meinungsäußerungen deutscher Bürger und auf die Richtigstellung einzelner Tatsachenbehauptungen konzentriert werden, während die technische Ermittlung den politischen Diskurs verzerrender Verstärkungs- und Verbeitungsmechanismen, wie auch deren Wirkungsmessung vergleichsweise nachrangig behandelt wird. Nun beeinflussen Plattformalgorithmen zwar Kenngrößen wie Impressions5, sie erklären aber nicht das in den Massendatenanalysen messbare, ereignisbezogen synchrone Engagement (reposts oder kommentieren) tausender Accounts, das auf koordinierte Dynamiken verweist. Und ob in einer Demokratie das Mittel der Wahl sein sollte, den für die Staatsform konstitutiven Schutzraum von Meinungs- und Pressefreiheit einzuengen, ist wenigstens fraglich.

Herausfordernd ist der aktuelle Diskurs aber auch in wissenschaftlicher und rechtlicher Hinsicht, er folgt insofern einem positivistischen Konzept von Wahrheit, als er die Möglichkeit (und Notwendigkeit) der eindeutigen Verifikation von Aussagen behauptet, wie gleichermaßen mit der Definition von Desinformation als „absichtliche Verbreitung“ die juristische Verfolgbarkeit von Meinungsmanipulation an eine nachzuweisende Täuschungsabsicht gebunden wird.6 Und ganz praktisch besteht neben Unschärfen in der behördlichen Zuständigkeit7 auch ein Mangel an fundiertem, interdisziplinär verankertem Wissen (u.a. neurobiologische Lernmechanismen, linguistische Zeichentheorien, funktionale Organisation kognitiver Systeme) über die Informationsverarbeitung durch unüberwacht trainierte, neuronale Netze, speziell Self Organizing Maps.

7. Regulierungsperspektiven

Die beobachteten Manipulationen geschehen durch den funktionalen und zeitlich begrenzten Zusammenschluss einer Vielzahl scheinbar unabhängiger Accounts zu einer gemeinsamen Handlung. Wir haben es mit distributiven Gruppen zu tun, die kollektiv handeln und in ihren Zielgruppen („Meinungsmilieus“) Sichtbarkeit erlangen, die in keinem Verhältnis8 zur organischen, gesellschaftlichen Verankerung ihrer Botschaften steht.
Diese Gruppen entfalten eine vergleichbare Wirkung wie marktmächtige Medienunternehmen, weil sie in ihrem synchronisierten Handeln Sichtbarkeit und Diskurslogik signifikant prägen. Es entsteht eine strukturelle Dominanz, die in ihrer Wirkung faktisch einer klassischen Meinungsmacht entspricht, ohne dass eine zentrale Steuerung im Sinne eines Rundfunkunternehmens oder Plattformbetreibers nachweisbar ist. Das erfordert eine Regulierung, die algorithmisch erzeugte Meinungsmacht in dem Blick nimmt, ganz gleich ob sie durch Plattformen selbst oder durch externe, zentral oder dezentral orchestrierte Einflussnahmen zustande kommt. Denn die beschriebenen Muster werden derzeit von synchron handelnden Nutzerkonten erzeugt, mitunter in unterschiedlichen Rechtsräumen verteilt, die mit entsprechend abgestimmtem Verhalten algorithmische Mechanismen ausnutzen.
Die bestehenden Instrumente des MStV regeln bisher jedoch keine dreartiegn strukturellen Verstärkungsmechanismen, für die Diskursmanipulation durch kollektives Handeln distributiver Gruppen fehlt bis dato ein adäquater regulatorischer Zugriff.

Vor dieser Kulisse werden im Folgenden vorgeschlagen:

  • eine regelgeleitete, zielgruppenspezifische Wirkungsmessung struktureller Diskursmanipulation einzuführen
  • eine Regulierung zu etablieren, die auf strukturelle Dominanz abstellt, nicht der Inhalt der Einzelmeinung würde verfolgt werden, sondern das kollektive Handeln distributiver Gruppen, das strukturelle Einseitigkeiten im Diskurs schafft und sdie pluralistische Meinungsvielfalt unterdrückt

Vorstellbar wäre zum Beispiel die Erweiterung des bestehenden MStV auf die Ergänzung der klassischen Medienvielfaltssicherung durch eine neue, über Sender hinausgehende Kategorie (Schutzgut bliebe weiterhin die Medienvielfalt (§ 59 Abs. 1) Denkbar wäre in diesem Zusammenhang, dass Betreiber von Medienintermediären und/oder Plattformen (d.h. human oder algorithmisch kuratierte Informationsangebote) im Sinne des § 2 Abs. 2 Nr. 16 sicherzustellen haben, dass die inhaltliche Vielfalt der öffentlichen Kommunikation in wesentlichen politischen, gesellschaftlichen und weltanschaulichen Fragen nicht in einer Weise strukturell verzerrt wird, die einer vorherrschenden Meinungsmacht nach § 60 gleichkommt. Die Landesmedienanstalten könnten Schwellenwerte für z.B. Sichtbarkeit, Engagement und semantische Dominanz festlegen, bei deren Überschreiten eine technische oder organisatorische Gegensteuerung zu erfolgen hat.

Mit der regelmäßigen Beobachtung und Auswertung der manipulativen Dynamiken, der Kenntnis von Stoßrichtung, Akteuren und Wirkung psychologischer Operationen in ihren Zielgruppen, können Resilienzstrategien entwickelt, angepasst und entsprechende Gegenmaßnahmen ergriffen werden. Eine Regulierung struktureller Diskursmanipulation könnte die Wirksamkeit von psychologischen Operationen in unserem Informationsraum eindämmen, ohne die individuelle Meinungsfreiheit einzuschränken.

  1. Vergleichende Analysen arabisch- und türkischsprachiger Milieus weisen darauf hin, dass diese Polarisierung kein Ergebnis eines organischen Prozesses ist. Im Gegensatz zu den deutschen Milieus bot die arabische und türkische Kommunikation in Deutschland thematische Vielfalt und ein heterogenes Meinungsspektrum. Auch fand sich keine polarisierte Struktur, sondern ein pluralistischer Informationsraum. Allein im Arabischen zeigten sich sieben, in Haltungen und Themen voneinander unterscheidbare Milieus. ↩︎
  2. Es ist sehr unwahrscheinlich, dass die massive Unterstützung dieses Milieus allein auf parteiinternes Engagement zurückzuführen ist. Derartige Unterstützungen erfuhren u.a. bereits Pegida und die „Klimajugend“, des Weiteren geopolitische Positionen: Zwischen 07. Oktober 2023 und Jahresende 2025 drangen die Stimmen jener, die Israel unterstützen, wie auch der Iraner, die sich (bereits seit Oktober 2022) gegen das Regime zu Wehr setzen, nur marginal in deutsche Diskurse. Mit massiver Diskursdominanz wurde hingegen die Abkehr von israelischen (und westlichen) Interessen resp. Werten zugunsten einer „multipolaren“, vermeintlich gerechteren Weltordnung gefordert – ein seit Jahren vom Kreml kultiviertes und mit Mitteln der Desinformation und Propaganda vorangetriebenes Narrativ. ↩︎
  3. Um die Multimodalität herauszustellen, mit der uns Informationen im digitalen Informationsraum entgegentreten, können wir statt von den der Linguistik entlehnten „kommunikativen Äußerungen“ oder den alltagssprachlichen „Inhalten“ vielleicht besser von „Kommunikaten“sprechen, zumal die EU den Begriff „content“ verwendet (Vgl.: „Disinformation is false or misleading content that is spread with an intention to deceive or secure economic or political gain, and which may cause public harm“). „Content“ wird in der Werbebranche, deren Mechaniken auch Manipulationskampagnen im digitalen Informationsraum folgen, vorrangig nicht synonym zu „Inhalt“ im engeren deutschen Sprachverständnis verwendet, sondern bezeichnet ein multimodales, digitales Kommunikationsprodukt, das eine beabsichtige oder unbeabsichtigte Perlokution transportiert und organisch, als gekennzeichnete Werbung oder manipulativ-verstärkt im digitalen Informationsraum verbreitet wird. Die manipulative Verbreitung von Kommunikaten, nicht deren Inhalt, könnte einer Regulierung unterliegen. ↩︎
  4. Die im Online-Marketing gebräuchliche „Conversion Rate“ (deutsch: Konversionsrate) bezeichnet den prozentualen Anteil jener Nutzer, die eine gewünschte Zielhandlung ausführen, nachdem sie mit einem Kommunikat (Werbemittel/Teaser) interagiert haben. ↩︎
  5. Als „Impressions“ zählt die Anzahl der Einblendungen eines Beitrags auf Endgeräten von Nutzern und zwar kumuliert (Einblendungen pro unique user = Reichweite), Impressions und Reichweite geben folglich keine Auskunft darüber, ob ein Beitrag tatsächlich wahrgenommen wurde, geschweige denn, dass sie Auskunft über eine etwaige Wirkung von Propaganda in gesellschaftlichen Milieus geben. ↩︎
  6. Dieser Versuch der Begriffsbestimmung ist hinsichtlich der brauchbaren Operationalisierung in juristischem oder regulatorischem Kontext insofern nur begrenzt belastbar, als „Desinformation“ hiernach sowohl „Verbreitung“, d.h. Kommunikationsakt und/oder Distribution, das ist hier nicht eindeutig, ein manipulierter Informationsgehalt selbst („die manipulierte Information “), als auch Intention („absichtliche Verbreitung“/„ die Absicht, die hinter ihrer Verbreitung steckt.“), sein soll. ↩︎
  7. In Deutschland existiert Anfang des Jahres 2026 ein verzweigtes, institutionelles Gefüge aus staatlichen, föderalen, zivilgesellschaftlichen, wissenschaftlichen und weiteren Akteuren, beteiligt sind unter anderen (Aufzählung unvollständig): das Kommando Cyber- und Informationsraum der Bundeswehr, das Zentrum Operative Kommunikation der Bundeswehr, das Bundesministerium des Innern und für Heimat, mehrere Projektgruppen und Arbeitskreise, darunter ZEAM, die Task Force gegen Desinformation und weitere hybride Bedrohungen, das Bundeskriminalamt, das Bundesamt für Verfassungsschutz, das Bundesamt für Sicherheit in der Informationstechnik, das Bundesministerium der Verteidigung, das Bundesministerium der Justiz, das Bundesministerium für Digitales und Verkehr, das Bundesministerium für Bildung und Forschung, das Bundesministerium für wirtschaftliche Zusammenarbeit und Entwicklung, das Auswärtiges Amt, das Bundespresseamt, die Beauftragte der Bundesregierung für Kultur und Medien, die Bundesnetzagentur, die Bundeszentrale für politische Bildung, die Wissenschaftlichen Dienste des Deutschen Bundestages, die Innenministerien der Länder, Justizministerien und Staatskanzleien der Länder, die sechzehn Landesämter für Verfassungsschutz, die sechzehn Landeskriminalämter, die vierzehn Landesmedienanstalten einschließlich der Gemeinsamen Stellen ZAK, KJM, KEK und GVK, die Bund-Länder-offene Arbeitsgruppe Hybride Bedrohungen einschließlich der jeweiligen Single Points of Contact (SPOC) die Landeszentralen für politische Bildung, das German-Austrian Digital Media Observatory, nationale Durchsetzungsstrukturen zum Digital Services Act, CORRECTIV, CEMAS, die Amadeu-Antonio-Stiftung, Das NETTZ, Neue deutsche Medienmacher*innen, die Stiftung Neue Verantwortung, das Institute for Strategic Dialogue Germany, Democracy Reporting International, HateAid, AlgorithmWatch, das Global Public Policy Institute, das Zentrum Liberale Moderne, projektbezogene Strukturen von Campact und More in Common Deutschland, die Stiftung Wissenschaft und Politik, das Wissenschaftszentrum Berlin für Sozialforschung, das Deutsche Institut für Wirtschaftsforschung, das Humboldt-Institut für Internet und Gesellschaft, das Weizenbaum-Institut, der Forschungsverbund MOTRA, thematische Förderlinien des Bundesministeriums für Bildung und Forschung, Schwerpunktprogramme der Deutschen Forschungsgemeinschaft, einschlägige Institute der Leibniz-Gemeinschaft und der Fraunhofer-Gesellschaft, universitäre Forschungscluster, Sonderforschungsbereiche und Graduiertenkollegs sowie darüber hinaus Trusted-Flagger-und Faktencheck-Projekte und verschiedene gGmbHs ↩︎
  8. Während das AfD nahe MIlieu z.B. im Kontext der Hamburger Bürgerschaftswahl realiter bei etwa 7,5% lag, stellte es mit rund 60% der Kommunikate die bei weitem größte Gruppe im Informationsraum. ↩︎