Wie erkennt man eine manipulierte Landschaft?

0 63

Die zur Manipulation von Bildern verwendeten Techniken sind so fortschrittlich, dass wir in das Zeitalter hyperrealistischer gefälschter Landschaften eingetreten sind.

Solche Szenen können zur Verbreitung von Fehlinformationen führen und sogar die öffentliche Meinung zu wichtigen Ereignissen wie Wahlen beeinflussen.

Dieses Problem rückte wie nie zuvor in den Vordergrund, als ein Foto der Prinzessin von Wales Kate Middleton und ihrer Kinder von Nachrichtenagenturen zurückgezogen wurde, weil sie befürchteten, es sei „manipuliert“ worden.

Was kann man also tun, um eine Landschaft zu erkennen, die durch künstliche Intelligenz bearbeitet oder erzeugt wurde?

Reflexionen und Schatten

Eine ungewöhnliche Beleuchtung verrät oft, dass ein Foto verändert wurde. Überprüfen Sie beispielsweise die Lichtreflexionen in den Augen von Menschen. Die Lichtquelle wird oft in die Augen reflektiert.

Wenn Größe und Farbe nicht mit der Position übereinstimmen oder ein Unterschied zwischen den Augen besteht, besteht möglicherweise Grund zum Misstrauen.

Auch die Art und Weise, wie Motive und Objekte auf reflektierenden Oberflächen in einer Landschaft erscheinen, kann Hinweise geben.

Die Schatten von Objekten im Bild stimmen möglicherweise nicht genau überein, wenn sie aus mehr als einem Bild kombiniert werden. Beachten Sie jedoch, dass einige Fotos mit mehr als einer Lichtquelle aufgenommen werden können.

Es lohnt sich zu untersuchen, wie Licht auf dem Gesicht einer Person erscheint. Wenn beispielsweise die Sonne hinter ihnen steht, können ihre Ohren rot erscheinen.

KI kann auch nicht übereinstimmende Licht- und Schattenverhältnisse erzeugen, aber mit der Verbesserung der Algorithmen können von KI erzeugte Gesichter oft für realer gehalten werden als menschliche Gesichter.

Hände und Ohren

Ein weiteres bestimmendes System besteht darin, nach Funktionen zu suchen, die schwer zu kopieren sind. Die KI ist derzeit bei der Darstellung von Händen und Ohren schwach; Er kann ihren Zustand, ihre Proportionen und sogar die Anzahl der Finger verwechseln.

Das sind genau die Merkmale, die Malern Schwierigkeiten bereiten. Da jedoch andere Aspekte der von der KI generierten Bilder von Menschen hyperreal werden, erzeugen diese Ungenauigkeiten ein unnatürliches und unangenehmes Gefühl.

  • Trumps Anhänger versuchen, schwarze Wähler mit durch künstliche Intelligenz generierten Bildern dazu zu bewegen, für den ehemaligen Führer zu stimmen

BBC

Siehe Metainformationen

In den Codes digitaler Landschaften verbergen sich Informationsschnipsel, die dabei helfen könnten, eine ungültige Landschaft zu erkennen.

Jedes Mal, wenn eine Digitalkamera eine Landschaft aufnimmt, werden Metainformationen in die Bilddatei geschrieben.

Beispielsweise warfen Zeitstempel die Frage auf, ob Präsident Donald Trump einen Tag nach seiner Bekanntgabe, dass er im Oktober 2020 an Covid-19 erkrankt war, tatsächlich im Weißen Haus war.

Bildrauschen

Jeder Digitalkamerasensor kann kleine Herstellungsfehler aufweisen, die zu einzigartigen Unvollkommenheiten führen, die eine Art „Fingerabdruck“ auf den Fotos hinterlassen.

Dies wird dann mit einer vernünftigen Kamera korreliert und kann helfen, manipulierte Bereiche eines Fotos zu identifizieren.

Auch die Körnung einer KI-generierten Landschaft kann seltsam aussehen.

Verifizierungstools

Internetunternehmen wie Google haben Bildverifizierungstools eingeführt, die Menschen dabei helfen können, durch künstliche Intelligenz erzeugte Bilder zu identifizieren.

Facebook und Instagram haben damit begonnen, KI-generierte Bilder zu markieren, die aus Metas eigenen Systemen stammen, und planen, das Gleiche auch für Bilder zu tun, die mit KI-Tools anderer Unternehmen erstellt wurden.

  • Was tun Technologieunternehmen, um zu verhindern, dass Wähler durch künstliche Intelligenz getäuscht werden?
  • Trumps Anhänger versuchen, schwarze Wähler mit ungültigen, von der KI generierten Bildern zu ermutigen, für den ehemaligen Führer zu stimmen
  • Facebook und Instagram beginnen mit der Kennzeichnung von KI-Bildern, um eine böswillige Nutzung zu verhindern
  • Sora: Künstliche Intelligenz-Technologie, die Text in Bilder umwandelt

T24

Hinterlasse eine Antwort

Deine Email-Adresse wird nicht veröffentlicht.