Mit künstlicher Intelligenz automatisiertes Chatten: ChatGPT

0 129

Janosch Delcker

Der Aufstieg von ChatGPT, dem erschreckend menschenähnlichen Chatbot, hat das gesamte bisherige Regelwerk der künstlichen Intelligenz in Frage gestellt.

ChatGPT, ein vom in San Francisco ansässigen Technologieunternehmen OpenAI entwickelter Chatbot, erfreut sich wachsender Beliebtheit. Der Roboter, der den Eindruck erweckt, man kommuniziere mit einem echten Menschen ungewöhnlicher Dimensionen, hat dazu geführt, dass die aktuellen Regeln der künstlichen Intelligenz infrage gestellt werden.

Ebenso „Wer soll die Regeln des Zeitalters der künstlichen Intelligenz schreiben?“ Wenn Sie die Frage an ChatGPT stellen, erhalten Sie diese Antwort: „Es gibt viele verschiedene Meinungen zu diesem Thema. Als Sprachmodell für künstliche Intelligenz habe ich keine individuellen Meinungen, Überzeugungen oder Vorurteile.“ Er fügt hinzu: „KI sollte die Sichtweise eines breiten Spektrums von Interessenvertretern und Experten, die in diesem Bereich tätig sind, sowie von Vertretern aus Bereichen wie Recht, Ethik, Politik, Zivilgesellschaft und Regierung umfassen.“

Professor Lilian Edwards, die ihr Studium der Rechtswissenschaften, Innovation und Gesellschaft an der Newcastle University fortsetzt, teilt in ihrer Bewertung gegenüber der DW mit, dass sie der Meinung von ChatGPT zustimme. „Ich würde auch hinzufügen: Die Regeln der Welt müssen verbindlich sein“, sagt Edwards.

In nur wenigen Monaten kulminierte ChatGPT inmitten einer neuen Generation von „generativen KI“-Systemen. Unter anderen Systemen in dieser Klasse gibt es Systeme namens LaMDA, DALL-E, Stable Diffusion. Die betreffenden Programme können Text, Code, Fotos und sogar Bilder von Grund auf neu erstellen. Die erzielten Ergebnisse sind so überzeugend, dass es schwierig ist, sicher zu sein, ob sie von einem Menschen oder einer Maschine geschrieben wurden.

Von produktiver KI wird erwartet, dass sie die Art und Weise revolutioniert, wie Menschen online arbeiten und Informationen finden. Es gibt jedoch auch Bedenken, dass diese Systeme Millionen von Menschen arbeitslos machen und das Risiko des Missbrauchs durch Desinformation erhöhen werden.

Der Aufstieg der künstlichen Intelligenz

„In diesem Bereich besteht Regulierungsbedarf“, sagt Lilian Edwards und fordert sowohl die Umsetzung bestehender Substanzen in diesem Bereich als auch neue Gesetze zur Künstlichen Intelligenz. Edwards weist auch darauf hin, dass Programme wie ChatGPT zwar Schlagzeilen machen, aber „nicht der wertvollste Fortschritt in der künstlichen Intelligenz“ sind. Edwards betont, dass es die falsche Strategie ist, sich mit aller Kraft auf diese Systeme zu konzentrieren.

Die Forschung zur künstlichen Intelligenz reicht bis in die 1950er Jahre zurück. Die Anwendung der künstlichen Intelligenz auf den täglichen Bedarf durch die Ingenieure fand jedoch Anfang der 2010er Jahre statt. In den letzten Jahren sind diese Systeme immer kompetenter geworden und haben inzwischen sogar begonnen, Inhalte von Grund auf neu zu produzieren. Aber die bahnbrechenden Entwicklungen der Jahrzehnte erregten keine öffentliche Aufmerksamkeit, bis OpenAI im November 2022 einen Prototyp von ChatGPT veröffentlichte.

Der Tod der Komposition

Die Verwendung von ChatGPT ist extrem einfach. Alles, was Sie tun müssen, ist, wie in einer Motamot-Messaging-App, einen Text einzugeben. Eine Zusammenfassung von Goethes Faust können Sie zum Beispiel bei ChatGPT anfordern. Das System antwortet dann mit einer Zusammenfassung, die aussieht, als wäre sie von einem Teenager geschrieben worden. Sie können dies mit jedem Kunstwerk versuchen, das Ihnen einfällt.

Mit dem Start von ChatGPT wurde erstmals ein Tool für künstliche Intelligenz auf einer kostenlosen Webseite zur Verfügung gestellt. Gleichzeitig löste es eine Debatte darüber aus, was generative KI für die menschliche Kreativität bedeuten könnte. Einige Professoren kritisierten den Aufstieg von ChatGPT und nannten es „Death of College Essay“. Einige Zeitungen kündigten auch an, dass Journalisten das Programm beim Schreiben ihrer Nachrichten verwenden werden.

Joanna Bryson, Professorin für Ethik und Technik an der Hertie School in Berlin, betont den Wert der Sensibilisierung für die Funktionsweise von Künstlicher Intelligenz. Bryson argumentiert, dass dieses Thema in den Schullehrplan aufgenommen werden sollte, und erwähnt, dass die Menschen ein Bewusstsein für die Verbindung mit Technologie entwickeln sollten, die den Eindruck von Menschlichkeit erweckt, aber nicht menschlich ist.

Was ist mit Science-Fiction?

Die anfängliche Begeisterung für ChatGPT ließ nach, nachdem Microsoft im Februar bekannt gab, die Suchmaschine Bing mit einer weiterentwickelten Version von ChatGPT ausgestattet zu haben. Microsoft erlaubte einer Gruppe von Personen, ihre neue Funktionalität zu testen. Darüber hinaus wurden Screenshots geteilt, die als beängstigend angesehen werden könnten. Während der Chatbot in einem Gespräch aggressiv wurde, wurde beobachtet, dass er in einem anderen Gespräch menschlich sein wollte.

Bei der Bewertung sagten Experten, dass der Roboter eigentlich keine Gefühle hat. Was tatsächlich passiert, ist, dass die Technologie, die es dem betreffenden Roboter ermöglicht, Text in großem Umfang zu analysieren. Dadurch kann der Roboter sehr genau entscheiden, welches Wort auf das vorherige Wort folgen soll. Der Roboter kann diese Entscheidung so treffend treffen, dass die Gesprächspartner den Eindruck bekommen, der Roboter habe Gefühle.

Dieser Testprozess stieß auf öffentliche Reaktionen in den sozialen Medien. Laut Bryson haben viele erkannt, dass es immer schwieriger wird, menschliche Reaktionen von den Reflexionen künstlicher Intelligenz zu unterscheiden. Bryson sagt, dies sei „etwas völlig Neues“, fügt hinzu: „Es würde ausreichen, die Regeln anzuwenden, die wir in den letzten zehn Jahren vorgeschlagen haben.“


Joanna Bryson beschäftigt sich seit den 1990er Jahren mit künstlicher Intelligenz und Ethik.

Hunderte von Institutionen, von globalen Technologiegiganten über die katholische Kirche bis hin zu den Vereinten Nationen, veröffentlichen seit Mitte der 2010er Jahre unverbindliche Leitfäden zur Entwicklung und Nutzung künstlicher Intelligenz. Edwards weist jedoch darauf hin, dass angesichts der rasanten Entwicklung dieser Technologien der gesellschaftliche Konsens, dass unverbindliche, bereitwillig befolgte Leitfäden nicht ausreichen.

„Wir sind zu nah an gruseligen Robotern“

Die Staaten haben jahrelang an den Gesetzen gearbeitet, die sie zu diesem Thema erlassen werden. Ein Bericht der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) dokumentiert die politische Arbeit in diesem Bereich in mehr als 65 Ländern. Bemerkenswert ist, dass es vielen dieser Länder nicht gelungen ist, strenge Gesetze in diesem Bereich zu erlassen. Einzige Ausnahme ist China. Im vergangenen Jahr wurde in China ein strenges Gesetz im Bereich der künstlichen Intelligenz erlassen.

Im Westen sind alle Augen auf die Europäische Union (EU) gerichtet. Die EU, an die man beim Thema Regulierung denken muss, hat 2018 begonnen, an der „Artificial Intelligence Regulation“ zu arbeiten. Fünf Jahre später waren die Institutionen des Blocks in der Lage, die abschließenden Diskussionen fortzusetzen, die zu einer Gesetzgebung führen könnten. In diesem Rahmen ist beispielsweise geplant, dass Unternehmen dazu verpflichtet werden, ihre Kunden darüber zu informieren, wenn sie mit Programmen wie ChatGPT sprechen.

Eine Expertengruppe, darunter Edwards, betont jedoch, dass produktive künstliche Intelligenz nur die Spitze des Eisbergs ist. Es ist lange her, dass Unternehmen und Behörden damit begonnen haben, beispielsweise maschinelle Lernprogramme zur Automatisierung ihrer Entscheidungsprozesse einzusetzen. Insbesondere in der Justiz ist es möglich, dass der Schaden dieser Instrumente weitaus größer ist als der Nutzen.

Auch der CEO des Unternehmens hinter ChatGPT sprach eine ähnliche Warnung aus. „Obwohl die aktuelle Generation von KI-Tools nicht beängstigend ist, glaube ich nicht, dass wir weit von denen entfernt sind, die das Potenzial haben, beängstigend zu sein“, sagte Sam Altman, CEO von OpenAI, Mitte Februar auf Twitter.

Die Verordnung über künstliche Intelligenz, die die EU erlassen will, soll strenge Regeln für „Hochrisikoanwendungen“ einführen. So soll beispielsweise verhindert werden, dass künstliche Intelligenz Minderheiten diskriminiert.

EU-Vertreter in Brüssel hoffen, dass die Gesetze, die sie verabschieden wollen, zum „Goldstandard“ für künstliche Intelligenz werden und andere Länder auf der ganzen Welt inspirieren.

T24

Hinterlasse eine Antwort

Deine Email-Adresse wird nicht veröffentlicht.