fbpx

Eine „existentielle Risiko“-Warnung für künstliche Intelligenz von den Entwicklern von ChatGPT: Eine Organisation wie die Internationale Atomenergiebehörde wird benötigt

0 167

T24 Auslandsnachrichten

Künstliche Intelligenz von ChatGPT  von Software   Führungskräfte von OpenAI sagten, dass eine Regulierung für „superintelligente“ Anwendungen der künstlichen Intelligenz erforderlich sei. Die Administratoren argumentierten, dass eine der Internationalen Atomenergiebehörde gleichwertige Institution für künstliche Intelligenz gegen das Risiko einer Bedrohung der Menschheit eingerichtet werden sollte.

Den Nachrichten im Guardian zufolge teilten die Gründer dies auf der OpenAI-Website mit. Greg Brockman Ilja Sutkkeverund CEO Sam Altman hat eine Regulierung gefordert, um künstliche Intelligenz zu prüfen, ihre Einhaltung von Sicherheitsstandards zu testen und die notwendigen Beschränkungen durchzusetzen. Führungskräfte von OpenAI sagten, die fraglichen Systeme könnten andernfalls „existentielle Probleme“ für die Menschheit darstellen.

In der Erklärung fügte er hinzu, dass die „Superintelligenz“ voraussichtlich stärker sein werde als alle bisher von der Menschheit entwickelten Technologien, und fügte hinzu: „Wir können eine wesentlich wohlhabendere Zukunft haben, aber um diesen Punkt zu erreichen, müssen wir ein Risiko bewältigen.“ . Wir können nicht passiv handeln, wenn wir ein existenzielles Risiko eingehen.“

OpenAI-Führungskräfte schlugen als kurzfristige Maßnahme eine gewisse Angleichung der Unternehmen vor, die KI-Forschung betreiben.  

Manager, die vorschlugen, Risiken zu managen und gleichzeitig von den Vorteilen der künstlichen Intelligenz zu profitieren, schlugen auch eine Organisation wie die Internationale Atomenergiebehörde vor.

T24

Hinterlasse eine Antwort

Deine Email-Adresse wird nicht veröffentlicht.