Lego-Figuren, die Trump als isolierten Greis inszenieren. Der US-Präsident, der sich selbst als Jesus-ähnlichen Heiler postet. Im US-Iran-Konflikt zeigt sich zum ersten Mal, wie KI-generierte Propaganda im großen Stil funktioniert – und was das für Plattformen, Marken und die öffentliche Debatte bedeutet.
Warum das wichtig ist: Slopaganda – ein Kofferwort aus "Slop" (KI-generierter Schrott) und "Propaganda" – ist der Begriff für ein Phänomen, das Social-Media-Profis ab sofort begleiten wird. Was im US-Iran-Krieg gerade passiert, ist kein Einzelfall: Es ist der Prototyp für künftige Informationskonflikte. Die Produktionskosten liegen nahe null, die Reichweite geht in die Millionen, und die Unterscheidung zwischen Satire, Propaganda und Desinformation wird praktisch unmöglich.
Was gerade passiert: Beide Seiten des US-Iran-Konflikts nutzen KI-generierte Inhalte als Waffe – aber mit unterschiedlicher Ästhetik:
- Iran: Die Gruppe "Akhbar Enfejari" (Explosive News) produziert aufwendige Lego-Animationen, die Trump, Netanyahu und Epstein als Minifiguren inszenieren. Die Videos gehen viral, werden vom iranischen Staatsfernsehen übernommen und sammeln Millionen Views. YouTube hat den Kanal wegen "gewaltverherrlichender Inhalte" gesperrt – der Iran protestierte.
- USA: Das Weiße Haus mischte in einem Video echte Angriffsaufnahmen mit Clips aus Filmen, TV-Serien und Videospielen. Trump selbst postete KI-generierte Bilder von sich als Kampfpilot und Jesus, das später wieder gelöscht wurde.
- Die Grauzone: Beide Seiten operieren in einem Raum, in dem staatliche Akteure, regierungsnahe Gruppen und anonyme Einzelpersonen denselben Content remixen und weiterverbreiten. Wer Urheber ist, lässt sich oft nicht mehr feststellen.
Im aktuellen Konflikt fällt eine Asymmetrie auf: Der Iran mobilisiert laut Narges Bajoghli, Nahostexpertin an der Johns Hopkins University, vor allem auch junge Creator – die produzieren Inhalte für ein globales Publikum. Auf US-Seite fehlt das Gegenstück: Das State Department wurde durch DOGE-Kürzungen geschwächt, das Pentagon kommuniziert nur in Richtung der eigenen Basis.
Das große Bild: Slopaganda funktioniert anders als klassische Propaganda. Es geht nicht darum, Menschen von einer Lüge zu überzeugen – es geht darum, den Informationsraum so zu verunreinigen, dass niemand mehr weiß, was echt ist. Forscher der Macquarie University und der Tilburg University identifizieren vier Wirkmechanismen:
- Penetration durch Wiederholung: Beim ablenkten Scrollen durch Social Feeds sinken die kognitiven Abwehrmechanismen.
- Epistemische Verdünnung: Falschinformationen vermischen sich mit Fakten, bis der gesamte Informationsraum kontaminiert ist.
- Emotionale Assoziation: Nicht Überzeugung ist das Ziel, sondern das Schaffen emotionaler Verbindungen – Trump als Lego-Clown bleibt haften, auch wenn man weiß, dass es Propaganda ist.
- Vertrauenserosion: Der Nebeneffekt ist paradox: Menschen beginnen auch echte Inhalte als KI-generiert abzutun. Eine Art nihilistischer Zweifel entsteht.
Die Gegenseite: Die Debatte darüber, wie Slopaganda einzuordnen ist, hat selbst eine interessante Wendung genommen. Der Medienanalyst Marcus Bösch argumentiert, dass der klassische Begriff "Desinformation" das Problem verfehlt. Nicht einzelne falsche Inhalte seien das Problem, sondern die Infrastruktur: Empfehlungsalgorithmen bestimmen Sichtbarkeit, emotionale Reaktionen werden zu Ranking-Signalen, und kontinuierliches Remixing durch Nutzer macht Autorenschaft irrelevant. Sein Vorschlag: den Blick von den Inhalten auf die Systeme richten, die sie verbreiten.
Dazu passen Zahlen einer Harris-Poll-Erhebung: 73 % der Gen-Z-TikTok-Nutzer empfinden Inhalte auf der Plattform als "inszeniert". Das Bewusstsein ist da – die Konsequenz daraus noch nicht.
Was als Nächstes kommt: Die Forscher Alfano und Klincewicz schlagen einen Drei-Ebenen-Ansatz vor: individuelle digitale Kompetenz, Wasserzeichen durch die Industrie und regulatorische Haftung für Tech-Konzerne. Realistisch betrachtet wird sich kurzfristig wenig ändern – die KI-Tools werden besser, die Produktionskosten fallen weiter, und Plattformen reagieren wie gewohnt: reaktiv und inkonsequent. YouTube sperrt iranische Lego-Videos, lässt aber ähnliche Inhalte von anderen Akteuren stehen.
Für Social-Media-Teams wird Slopaganda zur Kontextbedingung. Markeninhalte konkurrieren nicht mehr nur mit Creator-Content und Werbung, sondern mit einem ständig wachsenden Strom an KI-generiertem Rauschen. Wer Vertrauen aufbauen will, muss härter dafür arbeiten und Vertrauen aufbauen – durch Transparenz, Quellenangaben und konsistente Kommunikation, diese Signale werden wichtiger als je zuvor.
Unterm Strich: Slopaganda ist keine Zukunftssorge mehr. Der US-Iran-Konflikt zeigt, dass KI-generierte Propaganda billig, viral und kaum einzudämmen ist. Die Frage ist nicht ob, sondern wie schnell das Modell auf Wahlkämpfe, Unternehmenskommunikation und alltägliche Social-Media-Debatten übergreift.
Quellen: New Lines Magazine – Slopaganda Comes of Age, The Conversation – Slopaganda Wars, Marcus Bösch via Substack | Erstellt mit Hilfe von KI
