fbpx

Deepfake: „Sie haben mein Gesicht in einem Pornobild benutzt“

0 208

Sarah McDermott und Jess Davies, BBC News

Können Sie sich vorstellen, dass Ihr Gesicht ohne Ihre Erlaubnis digital zu einem Pornobild hinzugefügt und online geteilt wird? Kate Isaacs hat genau das durchgemacht und sie beschreibt ihre eigenen Erfahrungen.

Als Kate eines Abends ihren Twitter-Account ansah, stieß sie auf ein verstörendes Bild in ihren Benachrichtigungen.

„Plötzlich geriet ich in Panik. Jemand hatte mein Gesicht genommen und es in ein Pornobild eingefügt“, sagt Kate, die diesen Moment zum ersten Mal unverblümt beschreibt.

Kate war Opfer von Deepfake-Technologie geworden.

Jemand hatte ihr Gesicht mit künstlicher Intelligenz auf das Gesicht eines Pornostars geklebt.

Kate glaubt, dass das Filmmaterial aus Filmmaterial ihrer zuvor im Fernsehen übertragenen Interviews besteht.

Kate, die sich gegen unfreiwillige Pornobilder einsetzt, wurde auf dem Bild so dargestellt, als hätte sie Sex.

„Ich konnte es nicht glauben. Ich konnte nicht wirklich klar denken“, sagt Kate.

„Es war so katastrophal. Ich dachte, das Bild würde überall geteilt werden.“

In der Vergangenheit wurden Gesichter von Prominenten und Politikern in Deepfake-Bildern verwendet.

Videos waren nicht immer pornographisch, manchmal wurden humorvolle Bilder gemacht.

In den letzten Jahren hat sich dies jedoch geändert. Laut dem Cybersicherheitsunternehmen Deeptrace bestehen 96 Prozent der Deepfake-Bilder aus pornografischen Bildern.

Kinos, die mit Deepfake-Technologie erstellt wurden, sowie pornografische Bilder, die aus Rache gemacht wurden, werden als sexueller Missbrauch auf der Grundlage von Kulissen definiert.

#Nicht dein Porno

Kate, 30, startete 2019 die Kampagne #NotYourPorn (Not Your Porn).

Ein Jahr später musste die „Adult Revel Site“ Pornhub dank Kates Kampagnen alle Bilder entfernen, die von nicht verifizierten Benutzern hochgeladen wurden. Dies waren fast alle Bilder auf der Website.

Kate glaubt, dass die Person, die die Deepfake-Technologie gegen sie verwendet hat, so etwas als Reaktion auf diese Kampagne getan hat, aber sie hat keine Ahnung, wer diese Person ist.

Kate sagt, dass das Video sehr überzeugend gemacht wurde, und teilt mit, dass sie Angst hat, dass die Leute nicht verstehen werden, dass es sich um eine Fälschung handelt.

Kate erzählt, dass die Leute nach einer Weile anfingen, drohende Kommentare unter dem Bild zu hinterlassen, einige sagten, dass sie Kate zu ihrem Haus folgen, sie vergewaltigen, den Angriff filmen und es ins Internet stellen würden.

Kate sagt, dass sogar ihre Wohn- und Geschäftsadresse am unteren Rand des Bildes enthalten ist.

„Ich wurde paranoid. Wer kannte meine Adresse? Ich begann zu glauben, dass es jemand war, den ich kannte“, sagt Kate.

„Ich dachte wirklich, ich wäre in Gefahr.“

Das Bild wurde von der Social-Media-Plattform entfernt, nachdem ein Kollege von Kate das Bild Twitter-Beamten gemeldet hatte.

Wenn jedoch ein Deepfake-Bild im Internet geteilt wird, ist es sehr schwierig, es vollständig zu zerstören.

Experten empfehlen, dass diejenigen, die dem Deepfake-Vorfall ausgesetzt sind, Beweise sammeln und diese so schnell wie möglich der Polizei melden.

Deepfake-Markt

In Online-Foren besteht eine erhebliche Nachfrage nach der Herstellung von Deepfake-Bildern.

Die Menschen fordern, dass sogar ihre Ehepartner, Nachbarn, Kollegen und Familienmitglieder in Deepfake-Bildern verwendet werden.

Ein in England lebender Hersteller von Deepfake-Bildern, der der BBC seinen richtigen Namen nicht genannt hat, erklärt, dass er zunächst damit begonnen habe, Bilder von Prominenten zu machen.

Der Produzent, der sich Görkem nennt, sagt, dass die Menschen dank dieser Bilder „ihre Fantasien auf eine Weise befriedigen, die vorher nicht möglich war“. Dann erzählt er, dass er anfing, Bilder von Frauen und Kollegen zu machen, die er attraktiv fand:

„Eine war verheiratet und eine andere hatte eine Beziehung. Es war ein seltsames Gefühl, ins Büro zu gehen, nachdem ich Deepake-Aufnahmen von diesen Damen gemacht hatte, aber ich tat so, als wäre nichts passiert und ging mir auf die Nerven.“

Görkem, der erkannt hat, dass er mit diesem Hobby Geld verdienen kann, sagt, dass er nach einer Weile angefangen hat, Bestellungen über das Internet entgegenzunehmen.

Görkem sagt, dass die Frauen angefangen haben, Fotos von ihren Social-Media-Konten zu sammeln, und einmal Bilder mit den Ansichten des Zoom-Meetings gemacht haben:

„Bilder von Frauen, die direkt in die Kamera schauen, sind für mich sehr hilfreich. Der Algorithmus kann diese Bilder dann verwenden, um ihre Gesichter zu verwenden.“

Während Görkem anerkennt, dass „manche Frauen“ durch den Deepfake-Prozess psychisch beeinträchtigt sein könnten, schert er sich im Allgemeinen nicht allzu sehr um den Schaden, der durch die Bewegung zur Objektivierung von Frauen angerichtet wird.

Görkem sagt: „Sie können sagen, das bin nicht ich, es ist ein ungültiges Bild, und mit ihrem Leben weitermachen. Ich glaube nicht, dass es irgendetwas gibt, das mich moralisch aufhalten kann“, und fährt fort:

„Wenn ich in einem Komitee Geld verdienen will, mache ich das, ich muss nicht einmal darüber nachdenken.“

Der Standard von Deepfake-Bildern kann je nach Erfahrung und Technologie des Herstellers variieren.

Aber ein anderer Mann, der eine der weltweit größten Deepfake-Pornoseiten betreibt, sagt, es sei jetzt sehr schwierig zu sagen, ob die Bilder in den Bildern manipuliert wurden.

Dieser Mann, der in den USA lebt, sagt, dass 13 Millionen Menschen die Website mit etwa 20.000 Bildern pro Monat besuchen.

T24

Hinterlasse eine Antwort

Deine Email-Adresse wird nicht veröffentlicht.