Einladung an die Regierung im Vereinigten Königreich: Gegen durch künstliche Intelligenz produzierte Bilder von Kindesmissbrauch muss vorgegangen werden

0 172

Internet Watch Foundation, die sich für die Internetsicherheit von Kindern im Vereinigten Königreich einsetzt.  (IWF) machte auf durch künstliche Intelligenz erzeugte Bilder von sexuellem Kindesmissbrauch aufmerksam und forderte die Regierung auf, in dieser Angelegenheit Maßnahmen zu ergreifen.

Die Stiftung, die die Bilder untersucht und die missbräuchlichen Bilder entfernt, macht auf die Zunahme von durch künstliche Intelligenz generierten Bildern aufmerksam.

Die Stiftung ist der Premierminister beim ersten globalen Sicherheitsgipfel für künstliche Intelligenz, der im Herbst in Großbritannien stattfinden wird. Rishi-AltarEr möchte in dieser Angelegenheit einen Schritt machen.

Das IWF hat letzten Monat erstmals damit begonnen, KI-generierte Bilder aufzulisten.

Es wird angegeben, dass solche Landschaften aus vielen Teilen der Welt in Albumform geteilt werden und einige von ihnen so realistisch wie Fotos aussehen.

Susie, CEO der Stiftung Hargreaves, „Derzeit sehen wir nicht viele dieser Szenen, aber Täter haben das Potenzial, viele realistische Bilder von sexuellem Kindesmissbrauch zu produzieren.“genannt.

Er zeigte der BBC Beispiele redigierter Versionen einiger Bilder, die fünfjährige Mädchen zeigen, die nackt in sexuellen Stellungen posieren.

IWF ist eine von nur drei Wohltätigkeitsorganisationen weltweit, die berechtigt sind, das Internet aktiv nach Inhalten über Kindesmissbrauch zu durchsuchen.

Die Stiftung, die am 24. Mai mit der Auflistung von Bildern begann, die mit künstlicher Intelligenz erstellt wurden, durchsuchte innerhalb von fünf Wochen 29 Websites und identifizierte sieben Websites, auf denen Galerien mit Bildern aus künstlicher Intelligenz geteilt wurden.

Obwohl die genaue Anzahl der Bilder nicht genannt wurde, wurde angegeben, dass Dutzende mit künstlicher Intelligenz erstellte Bilder mit echtem Missbrauchsmaterial gemischt wurden, das auf illegalen Websites geteilt wurde.

Bei einigen davon handelte es sich um Geschlechtsverkehrslandschaften, die Experten der Kategorie A zuordneten.

Das Erstellen von Bildern von Kindesmissbrauch ist in fast allen Ländern schnell verboten.

Durch künstliche Intelligenz erzeugte Bilder nehmen zu

Laut Hargreaves, „Jetzt haben wir die Chance, diese neue Technologie zu verhindern, aber die Gesetzgebung muss dies berücksichtigen und angesichts dieser neuen Bedrohung ihren Zweck erfüllen.“

Premierminister Sunak kündigte im Juni die Pläne Großbritanniens an, den weltweit ersten globalen Gipfel zur Sicherheit künstlicher Intelligenz auszurichten.

Ziel der Regierung ist es, Experten und Gesetzgeber zusammenzubringen, um die Risiken der KI zu bewerten und zu diskutieren, wie diese durch international koordinierte Aktionspläne gemindert werden können.

Als Teil ihrer Arbeit erfassen IWF-Analysten Trends in Exploit-Landschaften. So kam es in letzter Zeit vermehrt zu Missbrauchsinhalten, bei denen Kinder gezwungen werden, eigene Bilder oder Bilder zu versenden.

Die Stiftung ist besorgt über die Zunahme von Bildern, die durch künstliche Intelligenz erzeugt werden.

Im Jahr 2022 hat die IWF mehr als 250.000 Webseiten mit Bildern von sexuellem Kindesmissbrauch gespeichert und versucht, sie offline zu schalten.

Experten zeichneten auch Gespräche in Foren auf und gaben Tipps, wie man möglichst realistische Bilder von Kindern erstellt.

Sie stießen auf Erklärungen dazu, wie man KI manipuliert, um Bilder von Exploits zu erstellen, wie man Open-Source-KI-Modelle herunterlädt und wie man Sicherheitsbarrieren beseitigt.

Obwohl die meisten KI-Bildgeneratoren strenge Regeln haben, um zu verhindern, dass Benutzer Inhalte mit verbotenen Wörtern oder Phrasen erstellen, können Open-Source-Tools kostenlos heruntergeladen und nach Wunsch des Benutzers geändert werden.

„Bilder können erheblichen Schaden anrichten“

Die BBC sprach mit einem Landschaftsgenerator für künstliche Intelligenz, der eine spezielle Version von Stable Diffusion verwendet, um sexualisierte Bilder von Mädchen im Teenageralter zu erstellen.

Der Japaner verteidigte die von ihm geschaffenen „süßen“ Landschaften und sagte, dass „zum ersten Mal in der Geschichte Bilder von Kindern gemacht werden können, ohne echte Kinder auszubeuten“.

Experten sagen jedoch, dass Landschaften erheblichen Schaden anrichten können.

Spezialisiert auf sexuelle Vergehen und Pädophilie in den USA, Dr. Michael Bourke, „Ich habe keinen Zweifel daran, dass KI-generierte Landschaften diese Trends verstärken, diese Perversion verstärken und das Risiko bergen, Kindern auf der ganzen Welt noch mehr zu schaden.“genannt.

Professor, Mitentwickler von Stable Diffusion Björn Ommerverteidigte seine Entscheidung, die Plattform als Open Source im August 2022 zu veröffentlichen, und sagte, dass seitdem Hunderte von akademischen Forschungsprojekten entstanden seien.

Ommer argumentiert, dass dies seine Entscheidung und die seiner Gruppe rechtfertige und dass ein Stopp der Forschung nicht real sei.

Ommer, „Wir müssen der Tatsache ins Auge sehen, dass es sich um eine weltweite, globale Entwicklung handelt. Dies zu stoppen wird nicht die globale Entwicklung dieser Technologie in nichtdemokratischen Ländern stoppen. Wir müssen diese Entwicklung berücksichtigen und Maßnahmen ergreifen, um Risiken zu mindern, so wie wir es tun.“ Ich sehe, dass es rasch voranschreitet.sagt

Stability AI, das die Entwicklung des Modells finanziert hat, ist eines der Unternehmen, die neue Versionen von Stable Diffusion entwickeln. Das Unternehmen lehnte das Interviewangebot ab, erklärte jedoch zuvor, dass es den Missbrauch von KI-Versionen für illegale oder unmoralische Zwecke verbiete.

 

T24

Hinterlasse eine Antwort

Deine Email-Adresse wird nicht veröffentlicht.