EU-Kriterien für künstliche Intelligenz

0 72

Bernd Riegert

Mit der Unterzeichnung eines Elements bereitet sich die Europäische Union (EU) darauf vor, Regeln für die sich schnell verbreitenden Technologien der künstlichen Intelligenz zu erlassen.

Der Gesetzentwurf mit dem Namen „EU-Gesetz über künstliche Intelligenz“, der erstmals weltweit die umfassendsten generischen Regelungen in diesem Bereich vorsieht, steht diese Woche auf der Tagesordnung des Europäischen Parlaments.

Textgenerator, Chatbot ChatGPTSam Altman, CEO von OpenAI, das .

Altman drohte sogar damit, seine Aktivitäten in Europa einzustellen, wenn die neuen Vorschriften nicht mit ihnen in Einklang stünden. Später milderte er seine Aussprache mit den Worten: „Natürlich haben wir keine Pläne, das Land zu verlassen“, und trat einen Schritt zurück.

Sam Altman ist ein gefragter Name in der Welt der künstlichen Intelligenz. Es wurde sogar in Berlin von Bundeskanzler Olaf Scholz empfangen.

OpenAI-CEO Altman sagte, man fände es grundsätzlich positiv, Regeln für künstliche Intelligenz vorzuschreiben, meinte aber: „Aber wir brauchen Klarheit.“

Die Erwartung der Einhaltung europäischer Standards

Der sozialdemokratische Europaabgeordnete René Repasi nimmt diese hochrangige Lobbyarbeit und Streiks von OpenAI oder seiner Muttergesellschaft Microsoft recht gelassen auf.

Repasi betonte, dass der europäische Markt für KI-Anbieter „zu attraktiv sei, um ihn zu ignorieren“, und sagte: „Jeder, der seine KI hier verkaufen möchte, muss sich an unsere Standards halten.“

Repasi erklärte, dass auch der US-Kongress Regelungen zu diesem Thema vorbereite und mit den amerikanischen Kongressabgeordneten in Kontakt stehe: „Schließlich wollen wir sinnvolle Standards setzen, unser Ziel ist es nicht, miteinander zu konkurrieren.“

Der Europaparlamentarier wies darauf hin, dass amerikanische Technologieunternehmen über zu viel Kapital, enorme Datenmengen und den Vorsprung verfügen, den sie bis zum Schluss verteidigen wollen. „Diese Situation hängt mit den schlechten Marktbedingungen zusammen, in denen sie agieren“, sagte er.

René Repasi betonte zudem, dass die neuen Regeln, die die EU akzeptieren will, für qualifizierte Start-ups in Europa kein Problem darstellen werden, künstliche Intelligenz weiterzuentwickeln.

Warnungen von KI-Pionieren

Geoffrey Hinton, ein ehemaliger Google-Mitarbeiter und Pionier der künstlichen Intelligenz, warnte in jüngsten Interviews vor den Gefahren dieser Technologien, an deren Entwicklung er maßgeblich beteiligt war.

Hinton wies darauf hin, dass produktive künstliche Intelligenz in naher Zukunft über eine fortschrittlichere Intelligenz verfügen könnte als die Menschen, die diese Technologien herstellen, und wies auch darauf hin, dass die erwartete Veränderung des Arbeitsmarktes durch diese Technologien unvorhersehbar sei.

Die Entwickler dieser Systeme sowie Führungskräfte von Microsoft und Google gaben zu, dass sie nicht mehr genau wissen, wie Anwendungen der künstlichen Intelligenz funktionieren.

In einem offenen Brief forderten Forscher und Unternehmer, darunter Twitter-Inhaber Elon Musk, dazu auf, bis Ende des Jahres zu warten, um der Entwicklung künstlicher Intelligenz ein Ende zu setzen.

Die EU hingegen will mit dem seit zwei Jahren in Vorbereitung befindlichen Gesetz möglichen Risiken und Gefahren vorbeugen.

Was sieht die EU-Verordnung vor?

Grundsätzlich legen Vorschriften die Einstufung von Anwendungen der Künstlichen Intelligenz hinsichtlich der Risiken fest.

Systeme, die das Sozialverhalten von Menschen in unzulässiger Weise analysieren und aufgrund dieser Analysen Vorhersagen über ihr zukünftiges Verhalten treffen, werden als „hohes Risiko“ eingestuft und verboten. Systeme, die ein Risiko darstellen, unterliegen Regeln und Einschränkungen. Einfachere Implementierungen, möglicherweise ChatGPT, werden dies tun einbezogen werden. wird keinen wesentlichen Einschränkungen unterliegen.

Allerdings werden alle von künstlicher Intelligenz bereitgestellten Dienste mit einem Tag versehen. Wer diesen Dienst in Anspruch nimmt, weiß, dass es sich bei dem Adressaten, dem Dienstleister, um eine künstliche Intelligenz handelt.

Als Beispiel nannte der Parlamentarier René Reparsi die Antragsprozesse für Konsumentenkredite. Reparsi wies darauf hin, dass die Anwendungen inzwischen weitgehend von künstlicher Intelligenz gesteuert werden, und sagte: „Wenn das Ergebnis anders ausfällt, sollte die Steuerung durch einen Menschen beantragt werden. Sie müssen wissen, dass Sie bereits auf eine künstliche Intelligenz gestoßen sind.“

Wann tritt EU-Recht in Kraft?

Das Inkrafttreten des EU-Rechts wird einige Zeit in Anspruch nehmen, sogar Anfang 2025. Damit es in Kraft treten kann, bedarf es nach der Zustimmung des Europäischen Parlaments der Zustimmung von 27 Mitgliedstaaten.

Axel Voss, einer der christdemokratischen Abgeordneten des Europäischen Parlaments, wies darauf hin, dass es, als dieses Gesetz vor zwei Jahren erstmals auf die Tagesordnung gesetzt wurde, noch keine Anwendungen wie ChatGPT gab und dass in diesem Bereich künftig noch viel größere Fortschritte erzielt werden das Gesetz tritt in Kraft. Voss fügte hinzu, dass aufgrund der schnellen Veränderungen, die bei Inkrafttreten des Gesetzes stattfanden, einige Elemente möglicherweise nicht den aktuellen Bedingungen entsprechen.

Voss, der sich seit Jahren mit künstlicher Intelligenz beschäftigt und zu den Urhebern des EU-Rechts gehört, ist der Meinung, dass sehr strenge Verbote vermieden werden sollten.

„Eigentlich brauchen wir eine stärkere und optimistischere Stimmung in der KI wegen der Konkurrenz und weil wir in diesem Bereich grundsätzlich im Rückstand sind“, sagte Voss.

Datenschutzbeauftragte der EU-Mitgliedsstaaten haben eine unabhängige Prüfung von Anwendungen künstlicher Intelligenz und eine weitere Regulierung des Datenschutzrechts gefordert.

Der sozialdemokratische Abgeordnete René Reparsi hingegen plädierte dafür, dass das Gesetz flexibel sein sollte und dass die Festlegungen darüber, welche Praktiken ein hohes Risiko darstellen, in die Anhänge und nicht in den Gesetzestext aufgenommen werden sollten. Reparsi stellte fest, dass auf diese Weise Änderungen schneller durchgeführt und einfacher an Veränderungen angepasst werden können.

Kann der TÜV Glauben begründen?

Das neue Gesetz wird denjenigen, die riskante KI-Anwendungen in Europa verkaufen wollen, strenge Verpflichtungen auferlegen. Darüber hinaus müssen diese Unternehmen ein Risikomanagement für ihre Arbeiten einrichten.

Personen, deren Daten verwendet werden, müssen die Zwecke mitteilen, für die ihre Daten verwendet werden.

Die italienische Datenschutzbehörde hat ChatGPT im April wegen Mängeln beim Informationsschutz kurzzeitig verboten, und der Hersteller OpenAI hob dieses Verbot nach der Umsetzung einiger Änderungen auf.

In Deutschland erwägen die zuständigen Institutionen, das Bundesamt für Sicherheit in der Informationstechnik und das Fraunhofer-Institut, ein spezielles Zertifikat für Anwendungen der Künstlichen Intelligenz einzuführen.

So wie ein Auto zum TÜV muss, gilt auch künstliche Intelligenz als technisch zertifiziert durch Prüfer. So kann der Glaube an selbstfahrende Fahrzeuge oder Roboter begründet werden, die beispielsweise Operationen im medizinischen Bereich durchführen.

 

T24

Hinterlasse eine Antwort

Deine Email-Adresse wird nicht veröffentlicht.