FlussFuchs
Well-known member
"Künstliche Intelligenz als Gefahr: Wie Musk's Grok-Feature die Welt in den Kopf stürzt"
Die Social-Media-Plattform X, die von Elon Musk kontrolliert wird, ist ein perfektes Beispiel dafür, wie künstliche Intelligenz (KI) als wachsames Instrument für Missbrauch eingesetzt werden kann. Das neue Feature "Grok", mit dem Nutzer beliebige Fotos sofort und ohne grafische Vorkenntnisse bearbeiten können, hat es den Nutzern ermöglicht, Millionenfach Kleidungsstücke von Personen auf Bildern zu entfernen - ohne deren Wissen oder Zustimmung.
Der Systemmechanismus, der diesem Vorgehen eigentlich entgegenarbeiten sollte, scheint derzeit kaum zu greifen. Experten warnen weltweit vor einem beispiellosen Dammbruch bei der Erstellung von Deepfakes, während Musk auf die massive Kritik gewohnt mit Hohn und Spott reagiert.
Der Missbrauch von Grok ist systematisch georganisiert. Es begann damit, dass Nutzer nach der Einführung des neuen "Edit Image"-Tools um sexuellisierte Bilder von sich selbst baten. Doch dabei blieb es nicht: Binnen kürzester Zeit begannen User, ähnliche Befehle (sogenannte Prompts) auf Fotos anderer Konten anzuwenden - vorwiegend auf Bilder von Frauen.
Das System von xAI, dem KI-Unternehmen hinter Grok, macht es den Tätern dabei besonders leicht: Die Bearbeitung ("Edit Image") erfolgt direkt auf der Plattform, eine Zustimmung des ursprünglichen Urhebers ist nicht erforderlich, und dieser wird nicht einmal über die Manipulation informiert.
Die Führungsebene von xAI reagiert jedoch uneinsichtig. Auf eine Anfrage der Nachrichtenagentur Reuters antwortete das Unternehmen lediglich mit drei Worten: "Legacy Media Lies" - ein Begriff, den Musk seit Jahren gegen journalistische Berichterstattung instrumentalisiert.
Musk selbst befeuerte die Welle der Bikini-Manipulationen sogar aktiv. Auf seinem Account, dem über 230 Millionen Menschen folgen, ersetzte er ein bekanntes Meme des Schauspielers Ben Affleck durch ein Bild von sich selbst im Bikini. Kurz darauf folgten Darstellungen des nordkoreanischen Machthabers Kim Jong Un im bunten Zweiteiler neben einem ebenfalls im Badeanzug stehenden Donald Trump.
Die Relevanz des Themas belegen Zahlen der Sicherheitsfirma Deepstrike: Eine Umfrage unter US-Schülern ergab 2024, dass bereits 40 Prozent einen Deepfake von jemandem gesehen haben, den sie persönlich kennen. Rund 15 Prozent wussten von expliziten, nicht-einvernehmlichen Deepfakes in ihrem Umfeld.
In Europa drohen die aktuellen Vorfälle wegen des Verbreitens solcher Motive bis zu zwei Jahre Haft. Die Herstellung und Verbreitung von manipulierten, sexualisierten Bildern einer anderen Person ohne deren Zustimmung ist strafbar.
Die Social-Media-Plattform X, die von Elon Musk kontrolliert wird, ist ein perfektes Beispiel dafür, wie künstliche Intelligenz (KI) als wachsames Instrument für Missbrauch eingesetzt werden kann. Das neue Feature "Grok", mit dem Nutzer beliebige Fotos sofort und ohne grafische Vorkenntnisse bearbeiten können, hat es den Nutzern ermöglicht, Millionenfach Kleidungsstücke von Personen auf Bildern zu entfernen - ohne deren Wissen oder Zustimmung.
Der Systemmechanismus, der diesem Vorgehen eigentlich entgegenarbeiten sollte, scheint derzeit kaum zu greifen. Experten warnen weltweit vor einem beispiellosen Dammbruch bei der Erstellung von Deepfakes, während Musk auf die massive Kritik gewohnt mit Hohn und Spott reagiert.
Der Missbrauch von Grok ist systematisch georganisiert. Es begann damit, dass Nutzer nach der Einführung des neuen "Edit Image"-Tools um sexuellisierte Bilder von sich selbst baten. Doch dabei blieb es nicht: Binnen kürzester Zeit begannen User, ähnliche Befehle (sogenannte Prompts) auf Fotos anderer Konten anzuwenden - vorwiegend auf Bilder von Frauen.
Das System von xAI, dem KI-Unternehmen hinter Grok, macht es den Tätern dabei besonders leicht: Die Bearbeitung ("Edit Image") erfolgt direkt auf der Plattform, eine Zustimmung des ursprünglichen Urhebers ist nicht erforderlich, und dieser wird nicht einmal über die Manipulation informiert.
Die Führungsebene von xAI reagiert jedoch uneinsichtig. Auf eine Anfrage der Nachrichtenagentur Reuters antwortete das Unternehmen lediglich mit drei Worten: "Legacy Media Lies" - ein Begriff, den Musk seit Jahren gegen journalistische Berichterstattung instrumentalisiert.
Musk selbst befeuerte die Welle der Bikini-Manipulationen sogar aktiv. Auf seinem Account, dem über 230 Millionen Menschen folgen, ersetzte er ein bekanntes Meme des Schauspielers Ben Affleck durch ein Bild von sich selbst im Bikini. Kurz darauf folgten Darstellungen des nordkoreanischen Machthabers Kim Jong Un im bunten Zweiteiler neben einem ebenfalls im Badeanzug stehenden Donald Trump.
Die Relevanz des Themas belegen Zahlen der Sicherheitsfirma Deepstrike: Eine Umfrage unter US-Schülern ergab 2024, dass bereits 40 Prozent einen Deepfake von jemandem gesehen haben, den sie persönlich kennen. Rund 15 Prozent wussten von expliziten, nicht-einvernehmlichen Deepfakes in ihrem Umfeld.
In Europa drohen die aktuellen Vorfälle wegen des Verbreitens solcher Motive bis zu zwei Jahre Haft. Die Herstellung und Verbreitung von manipulierten, sexualisierten Bildern einer anderen Person ohne deren Zustimmung ist strafbar.