
Frauen kämpfen schon seit Jahren gegen gefälschte pornografische Inhalte, die Männer von ihnen erstellen und im Netz verbreiten – sei es aus Rachegelüsten oder zur Befriedigung sexueller Fantasien. Denken wir nur an Sängerin Taylor Swift, die Ende Januar Opfer von den sogenannten Deepfakes wurde.
Bald könnte das Erstellen solcher Fake-Inhalte noch einfacher werden – und zwar mit Sora, dem neuesten Baby des US-Unternehmens OpenAI, das auch hinter ChatGPT steckt. Es handelt sich dabei um ein KI-Modell, mit dem sich aus kurzen Textbefehlen (Prompts) fotorealistische Videoclips erstellen lassen. Steht dieses bald der breiten Masse zur Verfügung, könnte es die Leben zahlreicher Frauen ruinieren. Darüber müssen wir reden.
Noch mehr über Sora erfährst du im Video:
Realistische Videos auf Textbasis
Sora befindet sich aktuell noch in der Beta-Version, liefert jedoch schon jetzt erstaunlich realistische Videos. Auf X (ehemals Twitter) hat OpenAI eine Auswahl an KI-generierten Videoclips samt Prompts, die ihnen zugrunde liegen, der Welt vorgestellt. Darunter ein Video von einem Paar, das Hand in Hand durch das verschneite Tokyo bummelt. Beide bewegen sich natürlich, ganz wie echte Menschen. Auch die Umgebung wirkt auf den ersten Blick täuschend echt.
Perfekt sei das Tool laut OpenAI noch nicht, da physikalische Gesetze in einigen Fällen nicht eingehalten werden. Auch eine Rechts-Links-Schwäche soll Sora haben. Doch je weiter die Technik voranschreitet und je mehr Tests durchgeführt werden, desto besser wird das Text-to-Video-Tool.
Das Problem? Sora lädt förmlich dazu ein, missbraucht zu werden. Groß ist nicht nur die Sorge vor Wahlmanipulation durch Deepfakes, sondern auch vor KI-generierten Pornos, die sich mit nur einem Mausklick erstellen lassen. Von allen Menschen auf der Welt. Und der Markt dafür ist riesig.
Die meisten Deepfakes sind pornografische Inhalte
Laut Schätzungen von Sensity AI, einem Unternehmen, das sich auf KI-Erkennung spezialisiert, seien bis zu 96 Prozent der Deepfake-Videos im Internet nicht einvernehmliche Pornos. In 99 Prozent der Fälle seien Frauen die Opfer, so der Report von Februar 2021. Die Anzahl der Fake-Pornos soll sich zwischen 2018 und 2020 alle zwei Monate sogar verdoppelt haben. Es lässt sich nur erahnen, wie groß die Zahl im Jahr 2024 sein wird.
Betroffen sind aber nicht nur Promis, sondern auch Privatpersonen. Geht der unfreiwillige Porno im Freundes- und Bekanntenkreis rum, hat das schlimme Folgen: Ausgrenzung, Probleme bei der Jobsuche und natürlich die eigene Scham, obwohl es sich ja "nur" um einen Fake handelt. Aber die Bilder vom eigenen nackten Körper existieren dann trotzdem in den Köpfen der Mitmenschen – und tausenden Schaulustigen im Netz.
KI mit Schwachstellen
OpenAI ist sich der Gefahr bewusst und lässt Sora deshalb von ausgewählten Experten auf Herz und Nieren testen, um mögliche Schwachstellen zu entdecken. Auf der Website heißt es, dass Sora keine Prompts akzeptiere, die "extreme Gewalt, sexuelle Inhalte, hasserfüllte Bilder, die Abbildung von Prominenten oder das geistige Eigentum anderer" beinhalten. Auch Erkennungsmerkmale wie Wasserzeichen sollen eingesetzt werden. Gleichzeitig könne man aber nicht alle Möglichkeiten, mit denen die KI missbraucht werden kann, vorhersagen. Und das ist höchst bedenklich.
KI lässt sich nämlich austricksen. Die Deepfakes von Taylor Swift zum Beispiel waren nur möglich, weil einige User die Sperren der KI von Microsoft umgehen konnten. Oft reicht auch schon eine Kombination aus bestimmten Schlagwörtern, um verbotene Inhalte trotzdem generieren zu lassen. KI wird nämlich auch mit Material trainiert, das sie eben nicht erstellen soll.
Es braucht neue Gesetze
Wie Frauen sich vor Deepfakes schützen können? Es ist möglich, solche Inhalte bei der jeweiligen Plattform zu melden und entfernen zu lassen. Aber wie wir alle wissen: Das Internet vergisst nie. Einmal hochgeladen, können Nutzer die Videos rasend schnell auf verschiedenen Websites verbreiten, Screenshots machen oder herunterladen.
Immerhin: Die ungewollte Verbreitung sexualisierter Deepfakes sowie das unaufgeforderte Versenden von pornografischen Inhalten soll laut neuer EU-Richtlinie europaweit strafbar werden. Die gemeinnützige Organisation "HateAid", die Beratung und rechtliche Unterstützung bei digitaler Gewalt bietet, hat dem Bundesdigitalminister auch schon eine Online-Petition mit mehr als 76.000 Unterschriften vorgelegt. Gefordert werden Gesetze gegen die massenhafte Verbreitung von gefälschten Nacktaufnahmen und Deepfake-Pornos im Netz. Prominente Unterstützerinnen sind zum Beispiel Louisa Dellert oder Collien Ulmen-Fernandes.Wie die EU-Richtlinie genau umgesetzt wird, können die Mitgliedsstaaten jedoch selbst entscheiden ...
Verwendete Quellen: openai.com, theguardian.com, stern.de, hateaid.org