Kann man sich vor Deepfakes schützen, die für schändliche Zwecke wie unerlaubte Pornoproduktion und Finanzbetrug eingesetzt werden?

0 105

Merve Kara-Kaşka
BBC Türkisch

Jetzt kann jeder zum Ziel werden, dass seine Stimme und sein Bild gegen seinen Willen für böswillige Zwecke missbraucht werden. Wie können Nutzer also vor potenziellen Angriffen geschützt werden?

Neue Inhalte, die Töne und Bilder verwenden, scheinen eine neue Ära des generativen KI-Betrugs eingeläutet zu haben.

Während verdächtig aussehende E-Mails durch Software ersetzt werden, die Sie mit der Stimme und dem Bild Ihrer Verwandten anruft und um Geld bittet, nimmt die Zahl der Fälle, in denen unerwünschte Bilder ausgenutzt werden, von Tag zu Tag zu.

Obwohl Tools gegen Deepfake-Betrügereien entwickelt wurden, die menschliche Stimmen und Bilder imitieren, könnten schnelle Fortschritte in der Technologie „eine ewige Ära des Katz-und-Maus-Spiels“ eingeläutet haben.

Was ist Deepfake und wie wird es verwendet?

Deepfake ist eine Technologie, deren Einsatzgebiete sich von Tag zu Tag erweitern und weiterentwickeln. Es ermöglicht die Produktion realistischer Bilder oder Geräusche mit künstlicher Intelligenz.

Heutzutage werden weiterhin augenöffnende, angemessene Einsatzmöglichkeiten von Deepfake entwickelt.

Beispielsweise ermöglichten Forscher der University of California San Francisco und Berkeley in den Vereinigten Staaten (USA) in diesem Sommer einem seit 18 Jahren gelähmten Patienten mit Hilfe eines Gehirnimplantats und einer künstlichen Beatmung erstmals das „Sprechen“. Intelligenz.

Das Team resynthetisierte die Stimme der Patientin anhand eines Bildes, das bei ihrer Hochzeit im Jahr 2005 aufgenommen wurde.

Trotz der vielversprechenden Studien scheint Deepfake eine neue Ära für böswillige Nutzungen einzuläuten.

Bei einem Betrugsvorfall im Norden Chinas im Mai gab die Stadtpolizei Baotou bekannt, dass ein Angreifer, der Deepfake nutzte, sich als Freund des Opfers ausgab und über einen ungültigen Videoanruf eine Geldüberweisung in Höhe von 622.000 US-Dollar tätigte.

Das Opfer sagte, er habe das Geld überwiesen, weil er glaubte, sein Freund müsse während des Bieterverfahrens eine Anzahlung leisten.

Der Einsatz von Deepfake bei Finanzkriminalität ist wichtig, da er zeigt, dass die Zielgruppe der Angriffe nicht nur die digitale Leserschaft ist.

Wer kann das Ziel sein?

Heutzutage ist es möglich, eine Deepfake-Software herunterzuladen und innerhalb weniger Stunden ein gefälschtes Bild oder einen gefälschten Ton zu erzeugen.

Prominente, Social-Media-Influencer oder Personen, die mit den von ihnen produzierten Inhalten Geld verdienen und deren Bilder oder Stimmen im Internet zugänglich sind, können die ersten Ziele von Deepfake-Angriffen sein.

Allerdings betreffen böswillige Nutzungen ein viel größeres Publikum als dieses und betreffen nicht alle gleichermaßen.

Beispielsweise scheinen Frauen einem größeren Risiko hinsichtlich der Produktion unerwünschter privater Bilder ausgesetzt zu sein.

Prof. beantwortet die Fragen von BBC Turkish und ist Experte für Ethik und Gesetze der künstlichen Intelligenz am Oxford University Internet Institute. Sandra Wachter macht auf die Geschlechterdimension des böswilligen Einsatzes von Deepfakes aufmerksam:

„Technologie wird oft missbraucht, um unerwünschte intime Bilder von Frauen zu verbreiten und Verleumdungskampagnen durchzuführen, die ihrem Ansehen schaden.“

Auch Kleinkinder und Mädchen im schulpflichtigen Alter sind von Angriffen betroffen.

Familien, die Opfer gefälschter Nacktbilder von Mädchen wurden, die Anfang dieser Woche in zwei verschiedenen Schulen im Osten und Westen der USA produziert und verbreitet wurden, sagen, dass sie strengere rechtliche Maßnahmen gegen die Schäden künstlicher Intelligenz wünschen.

Neben gefälschten Bildern werfen Fortschritte bei der gefälschten Audioproduktion auch Fragen zu neuen Sicherheitslücken auf.

Beantwortung der Fragen von BBC Turkish, Prof. Leiter des Computer Vision and Analysis Clusters an der Ludwig-Maximilians-Universität München in Deutschland. Björn Ommer sagt, dass ungültige Audiodaten eine „besonders problematische Art von Angriff“ darstellen können, da sie dem Empfänger relativ begrenzte Möglichkeiten zur Überprüfung der Neuheit lassen.

Durch Deepfake erzeugte gefälschte Stimmen bedrohen auch Unternehmen, die heute Sprachauthentifizierungssysteme verwenden.

Forscher der University of Waterloo in England gaben bekannt, dass sie bei ihren Versuchen, Sprachauthentifizierungssysteme mithilfe der von ihnen erzeugten Stimme mit Deepfake zu täuschen, in nur sechs Versuchen eine Erfolgsquote von 99 Prozent erreichten.

Forscher haben gewarnt, dass Unternehmen, die zur Überprüfung der Identität nur die Stimmen ihrer Kunden nutzen, strengere Maßnahmen ergreifen müssen.

Darüber hinaus ist der ältere Teil der Bevölkerung möglicherweise einem größeren Risiko durch Angriffe ausgesetzt, bei denen Geld von ihren Angehörigen verlangt wird, indem die Stimmen ihrer Angehörigen mit Deepfakes nachgeahmt werden.

Prof. „Hier geht es nicht um Personen mit hoher Reputation, sondern um Personen mit minimaler Medien-/Digitalkompetenz“, sagt Ommer.

Prof. Ommer erklärt dies damit, dass sich die jüngsten Fortschritte in der Sprachsynthese darauf konzentrierten, Modelle mit nur wenigen Samples zu trainieren, anstatt stundenlange Audioaufnahmen zu verwenden.

Deepfake kann auch ein Modul von Desinformationskampagnen sein, die sich in sozialen Medien rasant verbreiten und so nahezu alle Internetnutzer betreffen.

Prof. von der Universität Oxford. „Und das Problem ist, dass alle davon betroffen sind“, sagt Sandra Wachter.

„Politiker und Regierungsführer sind potenzielle Ziele, die Desinformation verbreiten und Wahlprozesse beeinflussen können.

„Technologie wird genutzt, um Fake News und Verschwörungstheorien über Kriege zu verbreiten, die Frieden und Demokratie beeinträchtigen.

„Wir befinden uns definitiv in einer Integritätskrise. Obwohl es nichts Neues ist, zwischen Fakten, Fiktion und Fälschung unterscheiden zu müssen, hatten wir noch nie eine Technologie, die unsere Augen und Ohren so überzeugend täuscht.“

Kann man sich vor Deepfake-Betrug schützen?

Es gibt Online-Tools, die angeblich Internetnutzer davor schützen, ungültige Töne oder Szenen zu erzeugen oder ungültige Bilder zu erkennen.

Allerdings ist es schwierig zu sagen, ob die meisten dieser Tools benutzerfreundlich sind oder sich weit verbreitet haben.

Darüber hinaus ist nach Ansicht von Experten heute eine der wichtigsten Herausforderungen die Entwicklungsgeschwindigkeit der künstlichen Intelligenz.

Assistenzprofessor für Informatik und Ingenieurwesen an der Washington University in St. Louis, der Überwachungssoftware gegen Deepfake-Software entwickelt hat, die gefälschte Geräusche erzeugt. Assoc. DR. „Es gibt kein System, das vollkommen sicher ist“, sagt Ning Zhang gegenüber BBC Turkish.

„Angesichts neuer Technologien, die Schall mit einer völlig anderen Theorie synthetisieren, muss die Naturschutzpraxis unbedingt entsprechend angepasst werden“, fügt er hinzu.

Das gleiche Szenario gilt für Software mit künstlicher Intelligenz, die gefälschte Bilder erzeugt, und ungültige Inhalte überzeugen immer mehr.

Prof. von der Universität Oxford. „Ich denke, wir betreten eine Ära des ewigen Katz-und-Maus-Spiels, in der einige erfundene Inhalte erstellen und andere Technologien entwickeln, um diese Inhalte zu erkennen und zu kennzeichnen“, sagt Wachter.

Prof. Wachter glaubt, dass es „niemals möglich sein wird, ein hundertprozentig sicheres System zu haben, das gefälschte Inhalte erkennen kann“ und fügt hinzu:

„Aber das sollte uns nicht abschrecken. Immer wenn jemand eine Mauer baut, wird der andere darüber springen wollen.“

„Alles, was wir tun können, ist, in (gefälschte) Erkennungssoftware zu investieren, wachsam und kritisch zu bleiben.“

Kritisches und hinterfragendes Verhalten kann neben der Verbreitung erfundener Inhalte, die wir im Internet sehen, auch verhindern, dass eine Person, die einen verdächtigen Anruf von der Stimme eines Verwandten erhält, diesen Anruf bestätigt, und möglicherweise das Geld, das sie im Laufe ihres Lebens gespart hat, nicht mehr erhalten davor, in die falschen Hände zu geraten.

Individuelle Bemühungen müssen durch gesetzliche Regelungen unterstützt werden, die die Menschen vor den möglichen Schäden gefälschter Inhalte schützen.

Prof. „In Zukunft wäre es auch sinnvoll, die Anbringung von Wasserzeichen für KI-Inhalte gesetzlich vorzuschreiben und für die Entfernung dieser Markierungen Geldstrafen zu verhängen“, sagt Wachter.

Verschiedene Ministerien, von der Europäischen Union bis zu den USA und Technologieunternehmen wie OpenAI und Google, haben sich in diesem Jahr verpflichtet, Inhalte der künstlichen Intelligenz mit Wasserzeichen zu kennzeichnen.

Der Online Security Act, der derzeit im britischen Oberhaus erörtert wird, macht es illegal, unerwünschte Deepfake-Pornobilder zu teilen.

Allerdings bleibt unklar, ob gesetzliche Regelungen mit der Entwicklungsgeschwindigkeit der Künstlichen Intelligenz mithalten können.

 

T24

Hinterlasse eine Antwort

Deine Email-Adresse wird nicht veröffentlicht.