Künstliche Intelligenz: Was kann in ihren drei Stadien zu unserem Aussterben führen?

0 160

ChatGPT, ein Chatbot, der KI nutzt, um Fragen zu beantworten, Text auf Abruf zu generieren oder sogar Code zu generieren, ist seit seiner Einführung im November 2022 die am schnellsten wachsende Internetanwendung in der Geschichte. In nur zwei Monaten wurden 100 Millionen aktive Nutzer erreicht.

Nach Angaben des Technologieüberwachungsunternehmens Sensor Town dauerte es 2,5 Jahre, bis Instagram diese Nutzerzahl erreichte.


Mit dem Aufkommen von ChatGPT begann eine hitzige Debatte über die KI-Sicherheit.

ChatGPT, das vom Unternehmen Open AI mit finanzieller Unterstützung von Microsoft entwickelt wurde, löste heftige Spekulationen über die Auswirkungen künstlicher Intelligenz auf die Zukunft der Menschheit aus.

Dutzende Experten bekräftigten die auf der Website des AI Security Center veröffentlichte Aussage, dass „die Verringerung des Risikos des Aussterbens durch KI angesichts enormer Risiken wie Pandemien und Atomkrieg eine globale Priorität sein sollte“.

Einige Experten halten die Bedenken jedoch für übertrieben.

Menschen nachahmen

Essays, Gedichte, Witze, Computercodes, Texte, Diagramme, Fotos und Kunstwerke, die durch Anwendungen der künstlichen Intelligenz wie ChatGPT, DALL-E, Bard und AlphaCode erstellt wurden, können sich nicht von von Menschenhand geschaffenen unterscheiden.

Studenten nutzen diese Apps, um ihre Hausaufgaben zu machen, und Politiker, um ihre Reden zu schreiben. Der letzte dieser Politiker war Jake Auchincloss, Mitglied der Demokratischen Partei im US-Repräsentantenhaus.

Der Technologieriese IBM hat angekündigt, die 7.800 Mitarbeiter, die für Aufgaben zuständig sind, die durch KI erledigt werden können, nicht zu ersetzen.


Mit dem Fortschritt der KI wächst auch ihre Fähigkeit, das zu übernehmen, was Menschen tun.

Wenn Ihnen all diese Veränderungen zu viel sind, bereiten Sie sich darauf vor:

Wir befinden uns erst im ersten Schritt der KI, und zwei weitere sind auf dem Weg, von denen einige Wissenschaftler befürchten, dass sie die menschliche Existenz gefährden könnten.

Hier sind die drei Phasen der KI.

1. Schmale künstliche Intelligenz (ANI)

Narrow Artificial Intelligence (ANI), auch bekannt als Dar IA, konzentriert sich auf eine einzelne Aufgabe und führt bestimmte Aufgaben aus.

Normalerweise lernt er viele Daten aus dem Internet, aber nur in einem bestimmten Bereich, in dem er programmiert ist.

Ein Beispiel hierfür sind Schachprogramme. Sie können den Weltmeister besiegen, aber eine weitere Mission können sie nicht erfüllen.


Eine schmale KI kann Menschen schlagen, aber nur in einem bestimmten Bereich.

Smartphones sind voll von Apps, die diese Technologie nutzen. Von GPS-Karten bis hin zu Musik- und Videoprogrammen, die sich auskennen und Ratschläge geben.

Auch fahrerlose Fahrzeuge und komplexere Systeme wie ChatGPT sind verschiedene Formen der Narrow AI. Sie können nicht außerhalb einer Reihe von Rollen agieren, das heißt, sie können keine Entscheidungen selbst treffen.

Einige Experten glauben jedoch, dass Systeme, die auf automatisches Lernen programmiert sind, wie ChatGPT und AutoGPT, in die nächste Entwicklungsstufe übergehen können.

2. Künstliche allgemeine Intelligenz (AGI)

Künstliche allgemeine Intelligenz wird durch eine Maschine erreicht, die jede intellektuelle Mission erfüllt, die ein Mensch erfüllen kann.


Künstliche allgemeine Intelligenz ist der Punkt, an dem eine Maschine eine Eins-zu-eins-intellektuelle Kapazität mit einem Menschen hat.

Aufruf zu „6 Monaten mittelfristig“

Im März 2023 forderten mehr als 1.000 Technologen „alle KI-Labore auf, sofort eine sechsmonatige Fortbildung für KI auf allen Systemen anzubieten, die stärker als GPT-4, die neueste Version von ChatGPT“, sind.

„KI-Systeme, die mit Menschen konkurrieren können, stellen enorme Risiken für die Gesellschaft und die Menschheit dar“, schrieben andere Technologen, darunter Steve Wozniak, Mitbegründer von Apple, und Elon Musk, Besitzer von Tesla und Space X.

Elon Musk war einer der Gründer von Open AI, bevor er zurücktrat, nachdem er Probleme mit dem Führungsteam des Unternehmens hatte.

In dem vom gemeinnützigen Future of Life Institute veröffentlichten Brief sagten Experten: „Wenn Unternehmen ihre Projekte nicht sofort stoppen, sollten die Regierungen eingreifen und ein Moratorium verhängen“, damit Sicherheitsmaßnahmen entworfen und umgesetzt werden können.

„So dumm wie klug“

Auch Carissa Veliz vom Ethics Institute at AI der Universität Oxford unterzeichnete den Brief. Später erklärte er jedoch, dass die Erklärung des Center for AI Security, in der von der Auslöschung der Menschheit gesprochen wurde, zu weit ging und entschied sich daher, sie nicht zu unterzeichnen.

„Die Art von KI, die wir gerade entwickeln, ist ebenso dumm wie intelligent. Wer ChatGPT oder andere ausprobiert, wird feststellen, dass sie sehr, sehr wertvolle Mängel haben“, sagte Carissa Veliz gegenüber der BBC.

Veliz äußerte auch Befürchtungen, dass KI massive Mengen an Desinformation erzeugen könnte, und fügte hinzu: „Ich mache mir darüber mehr Sorgen, da die amerikanischen Präsidentschaftswahlen im Jahr 2024 näher rückten und Twitter und andere ihre KI-Ethik- und Sicherheitsteams entlassen.“

Die US-Regierung erkennt mögliche Bedrohungen an.

„KI ist heute die leistungsfähigste Technologie, aber um die Chancen, die sie bietet, zu nutzen, müssen wir zunächst ihre Risiken reduzieren“, sagte das Weiße Haus in einer schriftlichen Erklärung vom 4. Mai.

Sam Altman, CEO von Open AI, sprach im Kongress und beantwortete Fragen zu ChatGPT.


Sam Altman, CEO von Open AI und Erfinder von ChatGPT, gab dem Kongress die Grundlage für die staatliche Aufsicht und Regelsetzung von KI.

Auf sein Wort im Senat hin sagte Altman: „Da die KI immer stärker wird, ist es für die Branche wertvoll, von der Regierung reguliert zu werden.“

Carlos Ignacio Gutierrez, Politikforscher am Future of Life Institute, sagte gegenüber der BBC, dass die größte Herausforderung durch KI darin bestehe, dass es kein Expertengremium gebe, das darüber entscheide, wie Regeln festgelegt werden, wie etwa das Zwischenstaatliche Gremium für Klimaänderungen (IPCC).

Das bringt uns zur dritten und letzten Stufe der KI.

3. Brillante künstliche Intelligenz (ASI)

Der Theorie zufolge springen wir, wenn wir die zweite Stufe (AGI) erreichen, zur letzten Stufe, „Super Artificial Intelligence“ (ASI). Dies wird geschehen, wenn die künstliche Intelligenz größer ist als die menschliche Intelligenz.

Der Philosoph und KI-Experte Nick Bostrom von der Universität Oxford definiert brillante Intelligenz als „eine Intelligenz, die das menschliche Gehirn in fast allen Bereichen, einschließlich wissenschaftlicher Kreativität, allgemeiner Weisheit und sozialen Fähigkeiten, bei weitem übertrifft.“

Gutierrez erklärt: „Menschen müssen lange studieren, um Ingenieure, Krankenschwestern oder Anwälte zu werden. Das Problem mit AGI ist, dass es sich immer verbessert, auch wenn wir es nicht können.“

Science-Fiction


Arnold Schwarzenegger hat in Kinos wie „Terminator“ mitgewirkt, wo Menschen mit künstlicher Intelligenz experimentieren.

Arvind Narayanan, ein Computeringenieur an der Princeton University, sagte zuvor gegenüber der BBC, dass Katastrophenszenarien, denen Science-Fiction vorausgeht, nicht gerechtfertigt seien:

„Die derzeitige KI ist bei weitem nicht in der Lage, diese Risiken Wirklichkeit werden zu lassen. Dies hat zur Folge, dass die Aufmerksamkeit von den kurzfristigen Schäden der KI abgelenkt wird.“


In der Anspielung „I, Robot“ aus dem Jahr 2004 spielte Will Smith einen technikfeindlichen Mordkommissar.

Es wurde viel darüber diskutiert, ob Maschinen tatsächlich über eine so umfassende Intelligenz wie ein Mensch verfügen können, insbesondere wenn es um emotionale Intelligenz geht. Dies ist eines der Dinge, die diejenigen am meisten beunruhigen, die glauben, dass wir kurz davor stehen, AGI zu erreichen.


Hollywood und KI: Im Film „2001: Odyssee im Weltraum“ von 1968 kontrollierte der Raumschiffcomputer HAL die Systeme des Raumschiffs und quälte die Besatzung.

Kürzlich warnte Geoffrey Hinton, der den Spitznamen „Vater der künstlichen Intelligenz“ trägt und einer der Pioniere darin ist, Maschinen beizubringen, aus Erfahrungen zu lernen, dass wir kurz vor einem Wendepunkt stehen.


„Vater der KI“ Geoffrey Hinton gibt eine Gefahrenwarnung heraus, als er von Google zurücktritt.

„Im Moment sind Maschinen nicht schlauer als wir, soweit ich weiß, aber das könnte schon bald der Fall sein“, sagte Hinton, 75, ein frisch pensionierter Google-Mitarbeiter.

In seinem Brief an die New York Times, in dem er seinen Abschied von Google ankündigte, sagte Hinton, er bereue seinen Job, weil er „fürchtete, dass schlechte Schauspieler KI für schreckliche Dinge nutzen würden“.

Hinton nannte der BBC dieses „Albtraumszenario“ als Beispiel

„Stellen Sie sich zum Beispiel vor, ein mieser Schauspieler wie der russische Präsident Wladimir Putin hätte Robotern die Fähigkeit gegeben, ihre eigenen roten Ziele zu erschaffen. Maschinen können schließlich ein Unterziel wie ‚Wir brauchen mehr Macht‘ schaffen, und das wird zu einer ‚existenziellen Bedrohung‘.“

Aber Hinton merkte an, dass KI „kurzfristig“ mehr Nutzen als Verschwendung bringen würde, und fügte hinzu: „Deshalb denke ich nicht, dass wir aufhören sollten, sie zu entwickeln.“

Aussterben oder Unsterblichkeit

Der britische Physiker Stephen Hawking warnte deutlich.


Der britische Physiker Stephen Hawking sagte, dass „superintelligente KI das Ende der menschlichen Spezies herbeiführen könnte“.

„Eine vollständige KI-Entwicklung könnte das Ende der Menschheit bedeuten“, sagte Hawking 2014, vier Jahre vor seinem Tod, der BBC.

Hawking erklärte, dass eine Maschine mit diesem Intelligenzniveau nach und nach selbstständig arbeiten und sich selbst neu gestalten werde.

Nanobots und Unsterblichkeit

Einer der größten Fans von KI ist der Erfinder und Autor Ray Kurzweil, KI-Forscher bei Google und Mitbegründer der Singularity University im Silicon Valley.

Kurzweil glaubt, dass Menschen überlegene intelligente KI nutzen werden, um biologische Manien zu umgehen.

Kurzweil behauptete 2015, dass wir bis 2030 Unsterblichkeit erreichen würden, dank Nanobots (sehr kleine Roboter), die im menschlichen Körper arbeiten und alle Krankheiten oder Schäden behandeln.

KI-Management

Guitérrez stimmt auch zu, dass die Einrichtung eines KI-Managementsystems am wertvollsten ist.

„Stellen Sie sich eine Zukunft vor, in der ein Wesen, das so viel über jeden Menschen auf dem Planeten weiß und seine Gewohnheiten kennt (durch Internetrecherchen), uns auf eine Weise kontrollieren kann, die uns nicht bewusst ist“, sagt er.

„Das schlimmste Szenario wäre kein Mensch-Roboter-Krieg. Das schlimmste wäre, nicht zu erkennen, dass wir manipuliert wurden, weil wir den Planeten mit einem Wesen teilen, das schlauer ist als wir.“

Mitwirkende Andrew Webb und Chris Vallance

T24

Hinterlasse eine Antwort

Deine Email-Adresse wird nicht veröffentlicht.