Ausschüsse des Europäischen Parlaments haben strenge Regeln für künstliche Intelligenz entworfen
Ausschüsse des Europäischen Parlaments (EP) haben den Geltungsbereich des neuen Gesetzes festgelegt, das strenge Regeln für verschiedene Technologien der künstlichen Intelligenz wie ChatGPT vorschreiben wird.
Auf der Sitzung des EP-Ausschusses für Binnenmarkt und Bürgerrechte in Straßburg wurden die Vorbereitungen für die Gesetzgebung, einschließlich der ersten Regeln für künstliche Intelligenz in Europa, besprochen.
Die Mitglieder des Ausschusses haben in den mit den Mitgliedsländern anstehenden Verhandlungen über das Gesetz zur künstlichen Intelligenz den Entwurf eines Verhandlungsmandats, das den Status des EP bestimmen wird, mit Stimmenmehrheit angenommen.
Die Abgeordneten nahmen einige Änderungen an dem vom Ausschuss vorgelegten Gesetzentwurf zur künstlichen Intelligenz vor. Dem Entwurf zufolge müssen Systeme der künstlichen Intelligenz von Menschen geprüft, diskriminierungsfrei, glaubwürdig, transparent, nachvollziehbar und umweltfreundlich sein.
Ein gemeinsames Rezept wird zur künstlichen Intelligenz gebracht. Auf künstliche Intelligenz wird ein risikobasierter Ansatz angewendet. Die Regeln ändern sich je nach dem Grad des Risikos, das künstliche Intelligenz darstellen kann.
Systeme der künstlichen Intelligenz, die ein unzumutbares Risiko für die Sicherheit der Menschen darstellen, werden verboten. Dazu gehören Systeme der künstlichen Intelligenz, die unbewusst oder absichtlich manipulative Techniken anwenden, Schwachstellen von Menschen identifizieren und für das Social Scoring eingesetzt werden.
Der Einsatz biometrischer Echtzeit-Fernidentifizierungssysteme an öffentlichen Orten wird verboten. Biometrische Identifikationssysteme werden nur nach gesetzlicher Genehmigung zur Verfolgung schwerwiegender Vergehen eingesetzt.
Biometrische Klassifizierungssysteme, die sensible Elemente wie Geschlecht, Rasse, ethnische Zugehörigkeit, Staatsbürgerschaftsstatus, Religion und politische Orientierung verwenden, werden verboten.
Strafverfolgungsbehörden, Grenzbehörden, Arbeitsplätze und Bildungseinrichtungen können keine Sentiment-Identifikationssysteme verwenden.
Es werden keine Informationen aus sozialen Medien oder CCTV-Aufnahmen gesammelt, um Gesichtserkennungsdatenbanken zu erstellen.
KI-Klassifizierung mit hohem Risiko; Es wird ausgeweitet, um auch Schäden an der Gesundheit, der Sicherheit, den Grundrechten oder der Umwelt der Menschen einzubeziehen.
Der Einsatz künstlicher Intelligenzsysteme zur Beeinflussung von Wählern in politischen Kampagnen wird in die Kategorie des hohen Risikos fallen. Auch die Systeme großer Social-Media-Plattformen werden in die Hochrisikoliste aufgenommen.
ChatGPT
Systeme wie ChatGPT müssen zusätzliche Transparenzregeln befolgen.
Diese Systeme müssen deutlich machen, dass die Inhalte durch künstliche Intelligenz erstellt werden.
Es werden Systeme entwickelt, um die Produktion illegaler Inhalte zu verhindern. Zusammenfassungen urheberrechtlich geschützter Informationen, die für Bildungszwecke verwendet werden, werden von diesen Systemen an der Veröffentlichung gehindert.
Über die Verhandlungskompetenz wird nach dieser Phase im EP-Generalausschuss abgestimmt. Dann werden das EP und die Mitgliedstaaten das Gesetz fertigstellen.
Die EU verfügt derzeit über keine Verordnung zu künstlichen Intelligenzsystemen wie ChatGPT oder ähnlichem, aber der EU-Vorstand hat vor zwei Jahren den ersten Gesetzesvorschlag mit dem neuen Regelwerk zu künstlicher Intelligenz ausgearbeitet und ihn den Mitgliedstaaten und dem Europäischen Parlament vorgelegt (EP).
Mit diesem Vorschlag wurden einige Einschränkungen und Transparenzregeln für den Einsatz künstlicher Intelligenzsysteme eingeführt.
Im Vorschlag der Kommission wurden Systeme der künstlichen Intelligenz in vier Hauptgruppen unterteilt: inakzeptables Risiko, hohes Risiko, endliches Risiko und geringstes Risiko.
(AA)
T24