BBC deckt auf, wie KI-generierte Kindesmissbrauchsbilder vermarktet werden

Angus Crawford und Tony Smith
BBC Türkisch

Es wurde davon ausgegangen, dass einige dieser Tools über Abonnements erworben wurden, die bei großen Content-Sharing-Sites wie Patreon bezahlt wurden.

Er erklärte, dass sie eine „Null-Toleranz“-Politik hinsichtlich der Präsenz solcher Bilder auf der Patreon-Website hätten.

Das National Board of Chiefs of Police sagte in einer Erklärung, dass „es für einige Plattformen inakzeptabel ist, ohne moralische Verantwortung riesige Gewinne zu erzielen“.

GCHQ, der Sicherheits- und Geheimdienst der britischen Regierung, der sich mit Cyberangriffen und -bedrohungen befasst, gab ebenfalls eine Erklärung zu diesem Thema ab:

„Diejenigen, die an der sexuellen Ausbeutung von Kindern beteiligt sind, nutzen alle Arten von Technologien, und einige glauben, dass die Zukunft des Materials über sexuellen Missbrauch von Kindern in Inhalten liegt, die auf künstlicher Intelligenz basieren.“

Diejenigen, die die missbräuchlichen Bilder vorbereiten, verwenden die Software für künstliche Intelligenz namens Stable Diffusion, die darauf abzielt, Bilder für die Verwendung in künstlerischen oder grafischen Designs zu erstellen.

Künstliche Intelligenz ermöglicht es Computern, bestimmte Aufgaben auszuführen, die oft menschliche Intelligenz erfordern.

Mit Stable Diffusion können Benutzer jedes gewünschte Bild definieren, indem sie Befehle mit Wörtern erteilen. Anschließend erstellt das Programm diese Bilder.

Die Recherche der BBC ergab jedoch, dass dieses Programm zur Produktion lebensechter Bilder verwendet wurde, die sexuellen Missbrauch von Kindern zeigten, darunter auch Inhalte wie die Vergewaltigung von Säuglingen und Kindern.

Die britische Polizei sagte, Teams zur Bekämpfung von Kindesmissbrauch würden solche Inhalte bereits untersuchen.

Die Journalistin Octavia Sheepshanks hatte diese Geschichte monatelang recherchiert. Über eine Kinderhilfsorganisation erreichte er die BBC und teilte seine Erkenntnisse mit.

„Seit der künstlichen Intelligenz die Gestaltung von Bildern möglich ist, gibt es einen unerträglichen Anstieg. Es gibt Pädophile, die über Kinder sprechen, nicht nur über kleine Mädchen.“

Im Vereinigten Königreich wird ein „falsches Bild“, das von einem Computer erstellt wurde und Kindesmissbrauch zeigt, vor dem Gesetz ebenfalls als echtes Bild behandelt, und das Mitführen, Veröffentlichen oder Übertragen solchen Materials wird unter Strafe gestellt.

Ian Critchley, Leiter der Kindersicherungseinheit des National Board of Chiefs of Police, sagt, es wäre falsch zu sagen, dass niemand zu Schaden gekommen sei, weil auf diesen „falschen Bildern“ kein echtes Kind abgebildet sei.

Laut Critchley kann ein Pädophiler von der Stufe der Absicht über die Produktion gefälschter Bilder bis hin zur tatsächlichen körperlichen Misshandlung eines Kindes gelangen.

Einige ungültige Bilder werden auf der bekannten japanischen Social-Media-Plattform Pixiv geteilt, die vor allem von Künstlern genutzt wird, die Manga oder Anime entwerfen.

Auf dieser Website, die in Japan verwaltet wird, wo es nicht verboten ist, sexuell eindeutige Comics oder Kinderzeichnungen einzubinden, machen diejenigen, die sexuell missbräuchliche Bilder entwerfen, diese mithilfe von Tags sichtbarer.

Ein Sprecher von Pixiv gab an, dass man diesem Problem große Aufmerksamkeit schenke und dass die Beschreibungen von sexuell eindeutigen Fotos mit Kindern am 31. Mai vollständig verboten wurden.

Das Unternehmen gab außerdem an, dass es ein großes Budget für die Behandlung von Problemen im Zusammenhang mit künstlicher Intelligenz bereitgestellt und seine Überwachungssysteme gestärkt habe.

„Das Volumen ist so groß, dass die Leute sagen, sie wollen 1.000 Bilder pro Monat produzieren“, sagte Sheepshanks.

Verschiedene Zahlungsmöglichkeiten

Von der BBC gemeinsam mit Octavia Sheepshanks durchgeführte Untersuchungen ergaben, dass Bilder, die Kindesmissbrauch zeigen und mit künstlicher Intelligenz erstellt wurden, im Vergleich zu ihrem Inhalt zu unterschiedlichen Preisoptionen zum Verkauf angeboten werden.

In einem Bericht wurde betont, dass sie „unterwürfig“ gesehen wurden, als sie sagten: „Ich trainiere meine Mädchen am Computer.“

Ein anderer Account versprach „unzensierte Kunst“ für 8,30 Dollar im Monat.

Die BBC teilte eines dieser Konten mit Patreon und das Konto wurde gesperrt, nachdem die Plattform feststellte, dass die fraglichen Inhalte gegen die Unternehmensrichtlinien verstießen.

Patreon betonte, dass sie in dieser Hinsicht eine „Null-Toleranz“-Politik verfolgen und sagte: „Produzenten dürfen kein Geld für sexuell basierte Inhalte überweisen, in denen Kinder vorkommen.“

Die britische Firma Stability AI, die Muttergesellschaft von Stable Diffusion, die Bilder mit künstlicher Intelligenz entwirft, teilte der BBC ebenfalls mit, dass „jede Verwendung für illegale oder unmoralische Absichten auf ihrer Plattform verboten ist, einschließlich Tools für sexuellen Kindesmissbrauch.“

In der Erklärung wurde auch darauf hingewiesen, dass die Ermittlungen der Strafverfolgungsbehörden gegen diejenigen, die Stabilitäts-KI-Artefakte für böswillige Zwecke nutzen, verstärkt wurden.

Da sich künstliche Intelligenz rasant weiterentwickelt, sind Fragen aufgekommen, welche Risiken sie in Zukunft mit sich bringen wird und wie sie sich auf das Privatleben, die Rechte oder die Sicherheit der Menschen auswirken wird.

Ian Critchley vom National Board of Chiefs of Police sagt, die Gesellschaft stehe an einem Scheideweg.

„Wir können sicherstellen, dass das Internet und die Technologie außergewöhnliche Möglichkeiten für junge Menschen schaffen, sonst wird das Internet zu einem viel verschwenderischen Ort“, sagte Critchley.

Die Erklärung der Regierung enthielt Folgendes:

„Das Internet-Sicherheitsgesetz verpflichtet Unternehmen dazu, proaktive Maßnahmen gegen alle Formen des sexuellen Missbrauchs von Kindern im Internet zu ergreifen. Andernfalls drohen ihnen hohe Strafen.“

 

T24

EindämmendInhaltKindkünstliche IntelligenzVisuell
Comments (0)
Add Comment