Mit KI-Hetze wurde auch der Bundestagswahlkampf 2025 beeinflusst
Schwarze Männer werden in KI-Wahlwerbespots als Bedrohung dargestellt, deutsche Politiker in Deepfakes diffamiert: Künstliche Intelligenz hat längst Einzug in den deutschen Wahlkampf des Jahres 2025 gehalten. – Wenn es um das Hetzpotenzial Künstlicher Intelligenz geht, dann ist die AfD ganz vorne mit dabei. Ein aktueller Wahlwerbespot ihres brandenburgischen Landesverbandes zeigt schwarze Männer, die weiße Frauen begrapschen oder als Drogendealer im Park sitzen. Als „positive“ Zukunftsvision eines von der AfD regierten Deutschlands werden diesen Bildern Videosequenzen gegenübergestellt, die zeigen, wie Gesundheitsminister Karl Lauterbach (SPD) von Polizisten in Handschellen abgeführt wird. Und vermeintliche Videoaufnahmen von Bundeswirtschaftsminister Robert Habeck (Grüne), der mit einer Warnweste bekleidet in einem Park Müll aufsammelt. Nichts davon ist real – das Video ist mithilfe von Künstlicher Intelligenz generiert. Die AfD hat das nicht gekennzeichnet, aber mit etwas geschultem Blick fällt trotzdem schnell auf, dass es sich nicht um echte Videoaufnahmen von echten Menschen handelt.
Aktuelle Studie: Mangelnde KI-Kompetenz
Eine aktuelle Studie der Otto-Brenner-Stiftung zeigt jedoch: Vielen Bürgerinnen und Bürgern fehlt dieser geschulte Blick. Und emotionalisierende KI-Bilder wirken auch dann, wenn sie als solche erkannt werden. In einem Onlineexperiment haben die Forscher untersucht, wie gut Menschen KI-generierte Wahlkampfbilder erkennen und welche emotionale Wirkung diese Bilder auf sie haben. Ihr Ergebnis: Viele der Teilnehmenden hatten Schwierigkeiten, die von Künstlicher Intelligenz generierten Bilder zu erkennen. „Ob KI-Inhalte erkannt und wie kritisch sie bewertet werden, hängt auch davon ab, ob die Botschaften mit der eigenen Weltsicht übereinstimmen“, erklärt der Kommunikationswissenschaftler Pablo Jost, einer der Autoren der Studie. Die Studie zeigt auch: Selbst wenn Bilder klar als KI-generiert gekennzeichnet sind, unterscheiden sich die Emotionen, die sie auslösen, kaum von denen, die echte Fotos hervorrufen. Durch den Einsatz von Künstlicher Intelligenz wirke politische Werbung nicht grundlegend anders, erklärt Forscher Jost. „Was sich verändert, ist die Effizienz, mit der Kampagnen umgesetzt werden können.“
Die AfD verwendet regelmäßig KI-generierte Darstellungen,
Gut zu beobachten ist das bei der AfD. Wie keine andere Partei in Deutschland setzt sie seit dem vergangenen Jahr verstärkt auf KI-generierte Bilder und Videos. Ein anderer Wahlwerbespot der AfD-Brandenburg aus dem Landtagswahlkampf 2024 rief sogar die Medienaufsicht auf den Plan. Die Medienanstalt Berlin-Brandenburg hatte im Januar die weitere Verbreitung des Videos mit dem Titel „Wochenmarkt oder Drogenmarkt“ an unter 16-Jährige verboten, weil durch den Spot Vorurteile geschürt, Vorverurteilungen gefördert und Menschen mit dunkler Hautfarbe stigmatisiert würden. Einen Eilantrag der AfD gegen das Verbot lehnte das Verwaltungsgericht Potsdam am 13. Februar ab.
Die AfD verwendet regelmäßig KI-generierte Darstellungen, um bedrohliche Bilder von Migranten zu zeichnen, oder um eine angebliche Überfremdung und Islamisierung Deutschlands darzustellen. Gekennzeichnet sind diese KI-Bilder oft nicht. In ihrer aktuellen Bundestagswahlkampagne nutzt die Partei auch zahlreiche generierte Bilder, die ganz normale Menschen zeigen sollen, zur positiven Illustration ihrer Wahlkampfslogans. Wer KI-generierte Bilder anstelle von echten Fotos verwendet, spart Zeit für Fotoshootings und Videodrehs und muss kein Geld ausgeben, um Stockfotos von Agenturen zu kaufen. Die meisten anderen Parteien sind beim Einsatz von KI im Wahlkampf bislang eher zurückhaltend. Wer ohne erkennbare Leitplanken und ethische Richtlinien auf den massiven Einsatz von KI setzt, hat also einen gewissen Vorteil.
Deepfakes aus Russland
In der Bevölkerung wird das allerdings skeptisch gesehen. Laut der Studie der Otto-Brenner-Stiftung, für die auch eine repräsentative Befragung durchgeführt wurde, hält mehr als die Hälfte der Deutschen den Einsatz von KI in politischen Kampagnen für gefährlich. Mehr als 80 Prozent sprechen sich für eine Kennzeichnungspflicht aus.
Doch vor allem ein anderer Einsatz von KI-generierten Inhalten bereitet Wissenschaftlern, Sicherheitsexperten und Nachrichtendiensten Sorgen: Längst werden sogenannte Deepfakes auch in staatlich gesteuerten Desinformationskampagnen eingesetzt, mit denen vor allem Russland versucht, sich von außen in die politische Willensbildung in Deutschland einzumischen. Unter Deepfakes versteht man mehr oder weniger täuschend echt wirkende Fotos, Videos oder Audiosequenzen von Menschen, die durch Künstliche Intelligenz erzeugt oder verändert wurden. Mal werden die Audiospur und die dazugehörigen Lippenbewegungen in einem Video ausgetauscht, mal werden Fotos einer prominenten Person komplett KI-generiert.
Video mit einer Lüge über den Kanzlerkandidaten Merz verbreitet
Besonders effektiv können Desinformationskampagnen wirken, wenn sie echte Aufnahmen und Deepfakes gezielt vermischen. Anfang Februar 2025 richtete sich eine solche Kampagne gegen den CDU-Kanzlerkandidaten Friedrich Merz. In einem Video wird die Lüge verbreitet, Merz habe im Jahr 2017 einen Suizidversuch unternommen und sei in einem Klinikum im Sauerland behandelt worden. Als Kronzeuge dient ein vermeintlicher Arzt – es handelt sich anscheinend um einen Schauspieler, der seine Schilderungen über Merz‘ angebliche Behandlung abliest.
Außerdem wird ein Bild eingeblendet, das angeblich Merz zeigen soll, in einem blauen Krankenhauskittel und mit verbundenen Unterarmen – ein Deepfake. Das Video soll den CDU-Politiker als psychisch labil und unzurechnungsfähig dastehen lassen. Sicherheitsbehörden und Desinformationsforscher ordnen das Video einer russischen Einflussoperation zu, die unter dem Spitznamen Storm-1516 bekannt ist und sich schon seit mehreren Monaten in den Bundestagswahlkampf einmischt. Dafür wurde ein ganzes Netzwerk aus rund 100 Websites aufgebaut. Ein Teil dieser Seiten wurde bereits verwendet, um Lügen über deutsche Politiker zu verbreiten. Im vergangenen Dezember traf es den Grünen-Kanzlerkandidaten Robert Habeck. Ihm wurde mithilfe eines Deepfake-Videos unterstellt, 2017 eine junge Schülerin sexuell missbraucht zu haben.
Websites als Schläferseiten
Viele der Websites wurden hingegen bislang nicht einschlägig verwendet – sie werden als Schläferseiten für etwaige weitere Kampagnen in der Hinterhand gehalten. Einer Untersuchung der Nichtregierungsorganisation Alliance4Europe und des gemeinnützigen Centers für Monitoring, Analyse und Strategie (Cemas) zufolge hat die Kampagne „laut der Metriken der Social-Media-Plattformen 19 Millionen Nutzer erreicht“. Vor allem die Grünen und die CDU seien mit diffamierenden Lügen ins Visier genommen worden. Die Grünen sind schon seit Jahren besonders stark von russischer Desinformation betroffen. Mit der CDU trifft es nun eine weitere Partei, die sich für eine intensivere Unterstützung der Ukraine starkmacht – und wahrscheinlich den nächsten Kanzler stellt. Cemas-Desinformationsexpertin Julia Smirnova sieht die Plattformen in der Verantwortung. Sie sagt: „Je näher der Wahltag rückt, desto wichtiger ist es, dass sowohl Social-Media-Plattformen als auch Politiker wachsam gegenüber ausländischen Einflusskampagnen bleiben, die polarisierende Narrative verstärken und Kandidaten verunglimpfen. Social-Media-Plattformen dürfen nicht als fruchtbarer Boden für die Verbreitung derart schädlicher Inhalte dienen.“
Siehe auch: Wahlen (Artikelübersicht)
Quelle: Felix Huesmann in RN (DZ) vom 20. Februar 2025