„Deepfake“-Warnung von Microsoft-Marktführer Smith

0 119

Microsoft ist führend in der Diskussion über die Gefahren künstlicher Intelligenz Brad Smith haben auch teilgenommen. Smith sagte in seiner Rede im Museum of Planet World in Washington, der Hauptstadt der USA, dass Deepfake die besorgniserregendste Richtung der künstlichen Intelligenz sei.

Deepfake, was auf Türkisch „Deep Fake“ bedeutet, ist eine Technologie, die es Ihnen ermöglicht, das Gesicht einer Person digital auf den Körper einer anderen Person zu montieren und das erhaltene Bild nach Ihren Wünschen zu verwenden. Kurz gesagt: Dank Algorithmen, die leicht über das Internet zugänglich sind, kann das Gesicht von Individuum A auf Individuum B montiert werden.

Laut Independent Turkish; In Fällen, in denen ein Foto oder Bild mit künstlicher Intelligenz erstellt wird, forderte Smith zum Handeln auf und verwendete die folgenden Worte, damit jeder es weiß:

„Wir müssen die Probleme mit Deepfake angehen. Wir müssen speziell auf unsere Bedenken hinsichtlich vieler ausländischer Cyber-Einflussoperationen eingehen. Die russische Regierung, die Chinesen und Iraner führen diese medizinischen Aktivitäten bereits durch.“

Microsoft Leader erklärte, dass Maßnahmen gegen die Veränderung von Inhalten ergriffen werden sollten, die künstliche Intelligenz nutzen, um die Öffentlichkeit zu täuschen oder zu betrügen.

Smith betonte die Lizenzierung von Arbeiten im Bereich der künstlichen Intelligenz und dass diese Lizenzen Verteidigungspflichten gegen Cyber- oder nationale Sicherheitsbedrohungen mit sich bringen, und fuhr fort:

„Um sicherzustellen, dass diese Modelle nicht gestohlen oder in einer Weise verwendet werden, die gegen die Exportkontrollanforderungen des Landes verstößt, brauchen wir eine neue Generation von Exportkontrollen oder zumindest die Weiterentwicklung der Exportkontrollen, die wir haben.“

„Ein großer Grund zur Sorge“

CEO von OpenAI, mit dem Microsoft zusammenarbeitet Sam AltmanIn einer Sitzung im US-Kongress am 16. Mai äußerte er auch seine Besorgnis über Wahleinmischung durch künstliche Intelligenz und sagte, dass die Technologie reguliert werden müsse, um die Glaubwürdigkeit der Abstimmung zu wahren.

Im Gespräch mit dem Unterausschuss für Vertraulichkeit, Technologie und Recht des US-Justizministeriums sagte Altman, dass Chatbots mit künstlicher Intelligenz den ChatGPT seines Unternehmens mögen „ein großer Anlass zur Sorge“er hatte es gesagt.

Altman, der in Bezug auf Wahlen und künstliche Intelligenz sagte: „Ich bin wegen dieser Angelegenheit nervös“, fügte hinzu, dass Regeln und Richtlinien erforderlich seien.

T24

Hinterlasse eine Antwort

Deine Email-Adresse wird nicht veröffentlicht.