fbpx

Forschung: Künstliche Intelligenz könnte der „große Filter“ sein, der die Menschheit zerstören wird

0 126

Eine neue Studie warnt davor, dass fortschrittliche künstliche Intelligenz eine katastrophale Gefahr für die Menschheit darstellen und ganze Zivilisationen zerstören könnte.

Laut den Nachrichten von Independent Turkish; Die jetzt von Experten begutachtete Studie, die auf dem Preprint-Server ArXiv veröffentlicht wurde, legt nahe, dass die Antwort auf den „Großen Filter“ des Fermi-Paradoxons möglicherweise in der KI verborgen sein könnte, mit dem Potenzial, intelligentes Leben im Kosmos zu zerstören, bevor es mit anderen in Kontakt kommt .

„Wo sind alle?“ Das Fermi-Paradoxon verwirrt Wissenschaftler seit Jahrzehnten. Das Fermi-Paradoxon bringt die beunruhigende Vorstellung zum Ausdruck, dass, wenn es die Möglichkeit außerirdischen Lebens im Kosmos gibt, warum Menschen nicht jetzt damit in Berührung kommen?

Bisher wurden viele Theorien aufgestellt, die unterschiedliche Erklärungen für unser einsames Dasein im Kosmos bieten.

Obwohl Wahrscheinlichkeitsberechnungen wie die beliebte Drake-Gleichung darauf hindeuten, dass es in der Galaxie möglicherweise viele intelligente Zivilisationen gibt, herrscht immer noch eine verwirrende kosmische Stille.

Eine bekannte Hypothese, bekannt als der Große Filter, legt nahe, dass einige Ereignisse, die für die Entstehung intelligenten Lebens erforderlich sind, praktisch unmöglich sind, was zu kosmischer Stille führt.

Ein logisches Äquivalent dieser Theorie ist, dass einige katastrophale kosmische Phänomene die Verlängerung der Lebensspanne auf der ganzen Welt verhindern könnten.

Der Autor der Studie stammt von der National Intelligence University (NIU). Mark Baileyer schrieb.

Die neue Forschung geht davon aus, dass die Weiterentwicklung der künstlichen Intelligenz ein katastrophales Risikoereignis dieser Art sein könnte, das das Potenzial hat, eine ganze Zivilisation zu zerstören.

In der Studie hat Dr. Bailey betrachtet den Great Filter-Kontext als das potenzielle langfristige Risiko von Technologien, die wir nicht vollständig verstehen, wie etwa künstliche Intelligenz.

NIU-Wissenschaftler, „Menschen sind schrecklich darin, langfristige Risiken intuitiv einzugehen“sagte, und obwohl wir künstliche Intelligenz, diese Technologie, nicht vollständig verstehen „Es ist schnell in unser Leben eingedrungen“hinzugefügt.

DR. Bailey, „Künftige KI wird sich wahrscheinlich in Richtung generalisierbarerer, zweckorientierter Systeme mit aussagekräftigeren Kontrollen bewegen, bei denen die Folgen unbeabsichtigter Folgen deutlich gravierender werden.“er warnte.

DR. Bailey, „Argument zweiter Art“Er kam auf die Idee, die er „KI“ nannte, und stellte die Möglichkeit in Aussicht, dass fortschrittliche künstliche Intelligenz letztendlich de facto als „zweite intelligente Spezies“ fungieren könnte, mit der wir diesen Planeten teilen werden.

Wenn man bedenkt, was geschah, als moderne Menschen und Neandertaler in der Mitte der Erde lebten, sagten die NIU-Forscher, die „möglichen Auswirkungen seien besorgniserregend“.

DR. Bailey, im Arbeitszimmer, „Es macht Sinn, dass eine unkontrollierbare Technologie, insbesondere eine speziell entwickelte Technologie wie künstliche Intelligenz, ein starker Kandidat für einen großen Filter wäre.“er schrieb.

T24

Hinterlasse eine Antwort

Deine Email-Adresse wird nicht veröffentlicht.