Menu Close

FCK Artificial Fictional Deepfakes

Zu meinem zunehmend tiefer empfundenen Unbehagen generierten Bildern gegenüber gesellt sich jetzt langsam ein zum Teil wissenschaftlich fundierter Diskurs, der darauf hinweist, dass diese Bilder bzw. die Arten und Weisen wie diese Bilder eingesetzt werden können und werden strukturell bedingt faschistoid und schädlich für das demokratische Gemeinwesen sind.

Als Zeugen darf ich da Roland Meyer (Dozent an der Uni Zürich) aufrufen, den ich 2023 in Regensburg gehört hab, dem ich auf Insta folge (@Bildoperationen) und der seine Sichtweise in einem kurzen Interview in den Photonews 10/25 prägnant dargelegt hat.

Aber was sagt die KI dazu? Ich habe Perplexity mit der Aussage konfrontiert und diese Maschine hat unter anderem folgendes zusammengetragen:

„Zugänglichkeit & Masse

KI-Tools ermöglichen es, in kürzester Zeit massenhaft maßgeschneiderte Bildinhalte mit beliebiger politischer oder gesellschaftlicher Aussage zu generieren. Für faschistoide Narrative heißt das: Die Bilder können immer wieder neu, mit unterschiedlichen Stereotypen, Feindbildern und Symboliken erstellt und an Zielgruppen angepasst werden, ohne dass eine tiefe künstlerische oder mediale Kompetenz notwendig ist. Das senkt die Schwelle für die Produktion und Verbreitung radikaler Ästhetiken enorm.

Ästhetische Anschlussfähigkeit & Nostalgie

KI-Bildgeneratoren arbeiten datenbasiert meist mit einem Pool vergangener Bilder und Stile: Sie reproduzieren tradierte, oftmals diskriminierende oder vergangenheitsverklärende Ästhetiken. Das passt ideal zu faschistoiden oder rechtsextremen Bildsprachen, die häufig mit ikonischen, heroischen oder an vergangene Ideale anknüpfenden Motiven operieren, um eine „verlorene Größe“ wieder zu beschwören oder zu inszenieren.

Manipulation & Entgrenzung

Durch Fotorealismus und Deepfake-Technik lassen sich menschenverachtende oder gezielt Furcht schürende Szenarien überzeugend realisieren und im Gewand des vermeintlich „echten“ Bildes ausgeben. Das verschleiert Urheberschaft und Intention; eine Bewertung durch den Betrachter wird erschwert. Gleichzeitig ermöglicht die Technik die gezielte Verbreitung emotionalisierender, spaltender und diskriminierender Propaganda. „

So weit, so glatt. Inhaltlich ist das ungefähr der Stand der Erkenntnisse, aber eben so formuliert, als ob das unumgänglich so sein muss. Es ist niemand dafür verantwortlich. Man wird das wohl hinnehmen müssen. Ich war jetzt nicht so albern, die KI auch noch zu fragen, was man dagegen unternehmen kann. Roland Meyer rät dazu, die Bildergeneratoren einfach nicht zu benutzen. Er arbeitet auf seinem Lehrstuhl darauf hin, den Umgang mit Bildern generell besser in Curricula einzubinden. Das wird diese künstlichen Bilder nicht aufhalten. Aber irgendwo muss man ja anfangen.

Man kann zum Beispiel den lustigen Boomern im Bekanntenkreis zurückmelden, dass man keine sprechenden Kätzchen oder Babys geschickt bekommen will, egal was sie Nettes oder Süßes sagen. Man kann darauf verzichten, für die Illustration des eigenen Blogs auf die bequeme Bild oder Textgenerierung zurückzugreifen. Man kann sich informieren, damit man nicht aus Versehen solche Propaganda weiterverbreitet. Wir hatten das kürzlich im Familienkreis, als jemand, weil er das gerade passend fand, mit einem blauen Herzchen reagiert hat. Der/diejenige wusste einfach nicht, dass das AFD-Infizierte gerne benutzen, um Zustimmung zu signalisieren.

Man kann dreimal tief atmen, bevor man in der Empörung ein scheinbar besonders schlimmes Video weiterverbreitet. Es könnte sich um eine Fälschung handeln. Ich habe kürzlich ein Video zugeschickt bekommen, wo jemand von einem nach seiner Aussage in Richtung Gaza segelnden Schiff aus, aufgerufen hat für Gaza zu spenden. Es war in nichts zu erkennen, dass er wirklich auf dem Mittelmeer unterwegs war oder ob er wirklich das tut, was er vorgibt zu tun. Es war auch nichts an dem Video, nachdem man hätte recherchieren können. Dieses Beispiel zeigt auch, wie diese Art von Bildgenerierung das Vertrauen in Bilderzeugnisse untergräbt. Vielleicht war ja auch alles echt und nur schlecht gemacht.

Genug der persönlichen Geschichtchen. Hier noch paar Stellen, wo man sich informieren kann:

My increasingly deep-seated unease about generated images is now slowly being accompanied by a partly scientifically based discourse that points out that these images, or rather the ways in which they can and are used, are structurally fascistic and harmful to the democratic community.

As a witness, I would like to call on Roland Meyer (lecturer at the University of Zurich), whom I heard speak in Regensburg in 2023, whom I follow on Instagram (@Bildoperationen) and who succinctly presented his views in a short interview in Photonews 10/25.

But what does AI have to say about this? I confronted Perplexity with this statement, and this machine compiled the following, among other things:

“Accessibility & mass

AI tools make it possible to generate masses of tailor-made image content with any political or social message in a very short time. For fascist narratives, this means: The images can be recreated again and again, with different stereotypes, enemy images and symbols, and adapted to target groups without the need for in-depth artistic or media expertise. This greatly lowers the threshold for the production and dissemination of radical aesthetics.

Aesthetic connectivity & nostalgia

AI image generators are mostly data-based and work with a pool of past images and styles: They reproduce traditional aesthetics that are often discriminatory or romanticise the past. This fits perfectly with fascist or right-wing extremist imagery, which often uses iconic, heroic motifs or motifs linked to past ideals to conjure up or stage a ‘lost greatness’.

Manipulation & blurring of boundaries

Through photorealism and deepfake technology, scenarios that are inhumane or deliberately fear-mongering can be convincingly realised and presented as supposedly ‘real’ images. This obscures authorship and intention, making it difficult for the viewer to evaluate. At the same time, the technology enables the targeted dissemination of emotional, divisive and discriminatory propaganda. “

So far, so smooth. In terms of content, this is roughly the state of knowledge, but it is formulated as if it were inevitable. As if no one is responsible for it. As if we will probably have to accept it. I wasn’t silly enough to ask the AI what can be done about it. Roland Meyer advises simply not to use image generators. In his university chair, he is working towards better integrating the use of images into curricula in general. That won’t stop these artificial images. But you have to start somewhere.

For example, you can tell the funny boomers in your circle of acquaintances that you don’t want to be sent talking kittens or babies, no matter how nice or cute they are. You can refrain from using convenient image or text generators to illustrate your own blog. You can inform yourself so that you don’t accidentally spread such propaganda. We recently had this in our family circle when someone reacted with a blue heart because they thought it was appropriate. They simply didn’t know that AFD (Right Wing political Party in Germany) supporters like to use it to signal approval.

You can take three deep breaths before spreading a seemingly particularly bad video in outrage. It could be fake. I recently received a video in which someone, according to his statement, called for donations for Gaza from a ship sailing towards Gaza. There was no way to tell whether he was really travelling on the Mediterranean or whether he was really doing what he claimed to be doing. There was also nothing in the video that could be researched. This example also shows how this type of image generation undermines trust in image products. Maybe it was all real and just poorly done.

Enough of the personal anecdotes. Here are a few places where you can find more information:

• Bildoperationen (Roland Meyer’s Insta account

• A study on AI and the German right wing 

• A book by Rainer Mühlhoff for those who still enjoy reading 

• An article about AI in social media 

• Fact finder (a service provided by tageschau)

• Roland Meyer in a podcast interview

• Seminar on digital fascism and other topics at the University of Zurich
• Lecture by Roland Meyer on the aesthetics of digital fascism at re:publica25 
• Also a topic on Anekdotisch-Evident alongside “people pleasing”

And something on the aesthetics of fascism in English (Rest is all in german)

 

 

 

Translated with the help of DeepL.com 

Leave a Comment / Schreib einen Kommentar

This site uses Akismet to reduce spam. Learn how your comment data is processed.