CloudCaptain
Well-known member
Die FPÖ setzt KI-Bilder und -videos so stark ein, dass sie fast schon unvermeidlich geworden sind. Dabei nutzt die Partei die Technologie, um dramatische und oft groteske Bilder zu erzeugen, die negative Gefühle gegenüber Minderheiten verstärken oder ein negatives Bild von Österreich zeichnen. Aber warum setzt die FPÖ so stark auf KI?
Die Antwort liegt nicht in der Komplexität der Frage selbst, sondern vielmehr darin, wie einfach es ist, mit KI-Bildern zu arbeiten. Diese Maschinen können umso einfacher dramatisierte und überzogene Darstellungen erzeugen, ohne sich mit der spröden Realität beschäftigen zu müssen. Das ist besonders interessant bei politischen Kampagnen, wie der gegen das neue Pfandsystem.
Die FPÖ nutzt KI-Bilder und -videos, um ihre Botschaft zu vermitteln und Unmut zu schüren. Ein Beispiel dafür sind die Karikaturen, die die Partei auf ihrer Website verwendet. Dort wird ein Pfandautomat gezeigt, der alt und abgenutzt aussieht, und Menschen, die schwarze Säcke mit leeren Flaschen tragen und vor ihm warten. Das Bild suggeriert, dass die Österreicherinnen und Österreicher unter dem Flaschenpfand leiden.
Aber das Bild ist nicht nur grotesk, sondern auch ungenau. Es gibt keine solche Situation in Österreich, und die FPÖ muss sich daher auf KI-Bilder verlassen, um ihre Botschaft zu vermitteln. Dieser Einsatz von KI-Bildern im politischen Diskurs sollte uns beschäftigen, da es ein weiterer Schritt darstellt, wie nicht die Realität abgebildet wird, sondern wie eine Scheinrealität herzeigt wird, die Ängste und Wut weckt.
Roland Meyer, ein Medienwissenschaftler, hat jedoch einen einfachen Grund für den Einsatz von KI-Bildern in der politischen Kommunikation. Er argumentiert, dass diese Maschinen darauf optimiert werden, bestimmte ästhetische und ideologische Erwartungen zu erfüllen. Sie sollen so ausschauen, dass sie gut geklickt werden, um unmittelbare Reaktionen auszulösen.
Klischeeverstärker sind KI-Maschinen, die Stereotype und Muster aus großen Datenmengen extrahieren und reproduzieren. Diese Maschinen verstärken und vereindeutigen diese Stereotype und Muster, was besonders bei Geschlechterklischenes und rassistischen Zuschreibungen zu Problemen führen kann.
Das Bild, das die FPÖ verwendet, um ein Klassenzimmer darzustellen, das es so nicht gibt, ist ein weiteres Beispiel dafür. Es zeigt eine Schulklasse mit Schülerinnen, die auf einer Tafel nach vorne schauen, und fast alle tragen das gleiche Kopftuch im gleichen Schwarzton. Dieses Bild suggeriert, dass die FPÖ eine Realität zeichnet, die nicht existiert.
Dieser Einsatz von KI-Bildern im politischen Diskurs sollte uns beschäftigen, da er ein weiterer Schritt darstellt, wie die Realität abgebildet wird und wie eine Scheinrealität herzeigt wird, die Ängste und Wut weckt. Wir sollten über den Einsatz von KI-Bildern in der Politik diskutieren und uns fragen, ob es sinnvoll ist, solche Bilder im politischen Diskurs zu verwenden.
Die Antwort liegt nicht in der Komplexität der Frage selbst, sondern vielmehr darin, wie einfach es ist, mit KI-Bildern zu arbeiten. Diese Maschinen können umso einfacher dramatisierte und überzogene Darstellungen erzeugen, ohne sich mit der spröden Realität beschäftigen zu müssen. Das ist besonders interessant bei politischen Kampagnen, wie der gegen das neue Pfandsystem.
Die FPÖ nutzt KI-Bilder und -videos, um ihre Botschaft zu vermitteln und Unmut zu schüren. Ein Beispiel dafür sind die Karikaturen, die die Partei auf ihrer Website verwendet. Dort wird ein Pfandautomat gezeigt, der alt und abgenutzt aussieht, und Menschen, die schwarze Säcke mit leeren Flaschen tragen und vor ihm warten. Das Bild suggeriert, dass die Österreicherinnen und Österreicher unter dem Flaschenpfand leiden.
Aber das Bild ist nicht nur grotesk, sondern auch ungenau. Es gibt keine solche Situation in Österreich, und die FPÖ muss sich daher auf KI-Bilder verlassen, um ihre Botschaft zu vermitteln. Dieser Einsatz von KI-Bildern im politischen Diskurs sollte uns beschäftigen, da es ein weiterer Schritt darstellt, wie nicht die Realität abgebildet wird, sondern wie eine Scheinrealität herzeigt wird, die Ängste und Wut weckt.
Roland Meyer, ein Medienwissenschaftler, hat jedoch einen einfachen Grund für den Einsatz von KI-Bildern in der politischen Kommunikation. Er argumentiert, dass diese Maschinen darauf optimiert werden, bestimmte ästhetische und ideologische Erwartungen zu erfüllen. Sie sollen so ausschauen, dass sie gut geklickt werden, um unmittelbare Reaktionen auszulösen.
Klischeeverstärker sind KI-Maschinen, die Stereotype und Muster aus großen Datenmengen extrahieren und reproduzieren. Diese Maschinen verstärken und vereindeutigen diese Stereotype und Muster, was besonders bei Geschlechterklischenes und rassistischen Zuschreibungen zu Problemen führen kann.
Das Bild, das die FPÖ verwendet, um ein Klassenzimmer darzustellen, das es so nicht gibt, ist ein weiteres Beispiel dafür. Es zeigt eine Schulklasse mit Schülerinnen, die auf einer Tafel nach vorne schauen, und fast alle tragen das gleiche Kopftuch im gleichen Schwarzton. Dieses Bild suggeriert, dass die FPÖ eine Realität zeichnet, die nicht existiert.
Dieser Einsatz von KI-Bildern im politischen Diskurs sollte uns beschäftigen, da er ein weiterer Schritt darstellt, wie die Realität abgebildet wird und wie eine Scheinrealität herzeigt wird, die Ängste und Wut weckt. Wir sollten über den Einsatz von KI-Bildern in der Politik diskutieren und uns fragen, ob es sinnvoll ist, solche Bilder im politischen Diskurs zu verwenden.