Reaktion auf Deepfake-Bilder von Taylor Swift
Die Social-Media-Plattform X hat entschieden, die Suche nach Taylor Swift auf ihrer Plattform vorübergehend zu deaktivieren. Diese Entscheidung folgt auf die Verbreitung sexuell eindeutiger, KI-generierter Deepfake-Bilder der Sängerin, die im Internet viral gingen. Begriffe wie „Taylor Swift“, „Taylor Swift AI“ und „AI Taylor Swift“ führen aktuell zu keinen Suchergebnissen auf der Plattform. Diese Maßnahme zielt darauf ab, die Verbreitung dieser unangemessenen Inhalte einzudämmen.
Gemischte Reaktionen auf Deepfake-Inhalte
Die Bilder, die von harmlosen bis zu sexuell expliziten Darstellungen reichten, haben eine Welle der Empörung ausgelöst. Die überwiegende Mehrheit dieser Bilder enthielt sexuell eindeutige Motive. Instagram, eine andere beliebte Bild- und Videoplattform, hat ähnliche Maßnahmen ergriffen und die Suche nach „Taylor Swift AI“ mit einem Warnhinweis versehen.
Mögliche rechtliche Schritte
Berichten zufolge zieht Taylor Swift rechtliche Schritte gegen die Website in Betracht, die für die Veröffentlichung dieser Deepfake-Bilder verantwortlich ist. Diese Entwicklung folgt auf wachsende Bedenken hinsichtlich des Missbrauchs von KI-Technologie zur Erstellung gefälschter Inhalte.
Politische Reaktionen und Gesetzesvorschläge
Am 27. Januar äußerte sich der US-Abgeordnete Joseph Morelle zu den viralen Bildern und forderte Gesetze, um die Herstellung von Deepfakes zu kriminalisieren. Er hatte bereits im Mai 2023 den „Preventing Deepfakes of Intimate Images Act“ eingebracht, der nicht-einvernehmliche Deepfakes zu einem Bundesvergehen machen würde. Im Oktober 2023 schlugen US-Senatoren einen weiteren Gesetzentwurf vor, der die Erstellung jeglicher KI-generierter Deepfakes unter Strafe stellen würde, nicht nur die mit sexuellem oder intimem Inhalt.
Anstieg von Deepfakes und prominente Opfer
Eine Studie von SumSub zeigt, dass sich die Anzahl der Deepfakes im letzten Jahr weltweit verzehnfacht hat, mit prominenten Opfern wie Tom Hanks, dem YouTuber MrBeast und der Rundfunkjournalistin Gayle King. Diese Prominenten wurden ohne ihr Einverständnis in KI-generierten Deepfakes dargestellt, die Produkte bewarben, die sie nie unterstützt hatten.
Michael Saylor, Vorstandsvorsitzender von MicroStrategy, enthüllte, dass er täglich fast 80 gefälschte Videos von sich selbst entfernen müsse, was die Dringlichkeit des Problems unterstreicht.