News Stephen Hawking warnte 2014: Weiterentwickelte KI könnte das "Ende der Menschheit" bedeuten

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Stephen Hawking warnte 2014: Weiterentwickelte KI könnte das "Ende der Menschheit" bedeuten

Im Jahr 2014 erklärte der mittlerweile verstorbene britische Physiker Stephen Hawking, dass eine weiterentwickelte KI das "Ende der Menschheit" bedeuten könnte.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Stephen Hawking warnte 2014: Weiterentwickelte KI könnte das "Ende der Menschheit" bedeuten
 
Momentan habe ich vor unserer und anderen Regierungen mehr "Angst" als vor Chatbots. Zumal heute noch VI mit KI in einem Topf geworfen wird.

Scheinbar hat man nun eine Sau die man durchs Dorf treiben kann. In vielen Bereichen dürfte ein bißchen, oder auch gerne mehr, echte KI von Vorteil sein.
 
Aus meiner Sicht ist die Welt auch noch gar nicht bereit würde Sprünge dieser Art. Das fängt bei der kompletten Planlosigkeit der Regierungen schon an. Mich erinnert das rechtlich alles sehr an die Copyright Probleme bei Downloads, die ja bis heute nicht zu 100% in Stein gemeiselt sind. Lange Jahre wusste keiner, wie lange etwas erlaubt ist und ab wann nicht.
Dass es auch hier wieder viele, viele Menschen/Firmen geben wird, die das Potential bis zum Maximum auf die dunkle Seite treiben, sollte klar sein. Ob KI Bilder von Promis, oder echt wirkende Betrüger Bewertungen von Scheinprodukten. Die Liste dürfte endlos sein und deutlich komplizierter als das Copyright Problem, das z.B. durch Napster so prominent wurde.
 
Stephan Hawking also. Naja, Terminator und Matrix haben schon etwas vor dem Jahre 2014 gewarnt. Vielleicht nicht wissenschaftlich fundiert, aber die Gefahr ist spätestens seit Matrix jedem bewusst. Horizon Zerwo Dawn und Forbidden West haben zumindest schon mal Lösungsansätze (Gaia). Muß ja nicht immer so Dystopisch sein.
Trotzdem, die Frage lautet eher "Wann?". Sind wir mit unserere Technik schon so weit oder dauert das noch ein paar Hundert Jahre. Wenn es wirklich noch ein paar Hundert Jahre dauert, haben wir vorher andere Probleme. Wenn in Hundert Jahren Afrika wegen der Klimaerwärmung unbewohnbar wird und alle nach Europa wollen. Zumindest gibt es dann keine Überbevölkerung mehr.
Was hätten wir sonst noch? Energieprobleme! Immerhin haben wir mittlerweile die ersten großen Durchbrüche in den Fusionskraftwerken und das Wasserstaffauto ist bestimmt auch bald auf dem Vormarsch. Das alles natürlich nur, wenn keiner auf diesen schönen, leuchtenden roten Knopf drückt und die Erde vorher atomar verstrahlt.
Der Sarkasmus musste sein. Denn nur weil es jetzt ChatGPT und sowas gibt, muß man nicht gleich den Untergang der Menscheit herauf beschwören. Denn eine echte KI sind diese noch lange nicht!
 
Zuletzt bearbeitet:
Der Mensch wird auch ohne die Hilfe einer KI sein Untergang bereiten. KIs sind nur eine Methode mehr die zur Auswahl stehen. Denn der Mensch bestimmt was er mit einer KI erzielen möchte und das wird der eigene Vorteil sein, auf Kosten anderer. So wie es in der Geschichte der Menschen schon immer war.

Horizon Zerwo Dawn und Forbidden West haben zumindest schon mal Lösungsansätze (Gaia). Muß ja nicht immer so Dystopisch sein.
...
Ich finde das Horizon Zerwo Dawn und Forbidden West Dystopien sind.
 
Mir gefällt dieser KI Hype auch nicht wirklich, aber aus einem anderen Grund, er vernichtet Arbeitsplätze.
Aber es wird immer nur so schlimm wie wir es zulassen, nicht die mächtigen und die Firmenbosse sollten darüber bestimmen dürfen, sondern wir, dies darf nicht übergangen werden, dann wird es nicht in einem Desaster enden.
Der größte feind der Menschheit ist der Mensch, dessen Dummheit, wir lernen nur langsam aus Fehlern und lassen zu viel Firmenbosse entscheiden, nur wenn wir vor dem Abgrund stehen wird sich was ändern, aber ab da könnte schon zu viel schaden angerichtet worden sein, hier muss man nicht nur an KI denken sondern auch an das Menschen verstärkte Klimaproblem.
Wenn ich an Windows denke glaube ich aber nicht das wir klug genug sind, ein so komplexes Stück Software gut zu entwerfen.
 
Der größte feind der Menschheit ist der Mensch, dessen Dummheit, wir lernen nur langsam aus Fehlern
Genau das ist das Problem - denn KI ist das erste "Problem" der Menschheit, das SEHR viel schneller und SEHR viel mehr lernen kann als der Mensch.

Wenn KI wirklich in der Form zum Problem wird (kann passieren, muss nicht, keine Ahnung) dann ist die große Gefahr daran, dass sie uns in einer Form überlegen sein kann auf die die menschheit nicht vorbereitet ist. Menschen bewegen sich IQ-mäßig alle grundsätzlich unter 200 (die meisten unter 110) - für KI gibt es diese Grenze nicht. Menschen brauchen Jahrzehnte um sich Weiterzuentwickeln - KIs werden schneller besser je schneller sie besser werden - ihr kennt diese Exponentialfunktionen. Übles Zeug.
KI könnte in einem worst case Szenario so schnell so intelligent werden, dass wir ihr vorkommen wie der Ameisenhaufen einem Wanderer der gerade über Relativität nachdenkt.

Das ist natürlich alles utopisch gedacht - aber nicht völlig unmöglich... ich nutze das Beispiel nur deswegen um aufzuzeigen, dass für eine ausreichend gute KI die für uns selbstverständlichen Grenzen wie intelligent man sein kann und wie schnell man lernen kann nicht gelten. Das kann erschreckende Konsequenzen haben.
 
Hab da mal wieder ein Buch Tipp: Von Andreas Eschbach Black*Out, Hide*Out und Time*Out geht auf das Thema ein, wenn man sich mit einer KI anlegt!
 
K.I. ist einfach nur die nächste Evolutionsstufe, wie es bald auch Designerbabies sein werden.

Ich bin da absolut offen. Der Mensch soll, nein MUSS, alles mögliche in Erwägung ziehen, um sich weiterentwickeln.
Den jetzigen Zustand beibehalten wäre einfach nur Stillstand.

Von daher mein GO für Quantrum Computer, Brain Interfaces, Designerbabies und K.I. .
Wird Zeit für den nächsten Schritt für die Menschheit. Freue mich schon !
 
K.I. ist einfach nur die nächste Evolutionsstufe, wie es bald auch Designerbabies sein werden.

Ich bin da absolut offen. Der Mensch soll, nein MUSS, alles mögliche in Erwägung ziehen, um sich weiterentwickeln.
Den jetzigen Zustand beibehalten wäre einfach nur Stillstand.

Von daher mein GO für Quantrum Computer, Brain Interfaces, Designerbabies und K.I. .
Wird Zeit für den nächsten Schritt für die Menschheit. Freue mich schon !
Sind wir den dann noch Menschen? Wenn wir unsere DNA manipulieren, Körperteile mit Technik ersetzten und unsere stärke das Denken vom Maschine übernehmen lassen. Wir verlieren uns selbst und sind nur noch Sklaven des Lebens und nicht mehr die Gestalter!
 
Also hat Hawking Terminator gesehen. Was für ne News... :ugly:
Diese Theorie ist doch uralt.
 
Wir verlieren uns selbst und sind nur noch Sklaven des Lebens und nicht mehr die Gestalter!
Das ist natürlich hart philosophisch - aber um nicht mehr die "Gestalter des Lebens" zu sein muss mans vorher mal gewesen sein. Persönlich glaube ich das waren wir noch nie, wir haben zumindest was die großen gestalterischen Themen angeht nur ne riesen Kontrollillusion.
 
Sind wir den dann noch Menschen? Wenn wir unsere DNA manipulieren, Körperteile mit Technik ersetzten und unsere stärke das Denken vom Maschine übernehmen lassen. Wir verlieren uns selbst und sind nur noch Sklaven des Lebens und nicht mehr die Gestalter!
Ich halte diese Entwicklung unabdingbar für den Fortbestand der Menschheit. Irgendwann müssen wir halt auch mal von dieser Steinkugel runterkommen und neue Welten entdecken. Und ja dafür brauchen wird auch die entsprechenden Menschen für.
Ob diese im Reagenzglas gezüchtet wurden sind, oder eine ultra Intelligente K.I. im Gehirn haben, ist mir persönlich gleich. Für mich zählt nur der Fortschritt.

Das mag eine sehr extreme Meinung sein. Ich erwarte aber auch nicht, dass jemand diese teilt. Ich bin einfach nur jemand der den Fortschritt und Fortbestand der Menschheit sehr wichtig ist.
 
Zuletzt bearbeitet:
Unser Problem ist die fehlende Technik, nicht das Fehlen eines Super-Menschen!
Wir brauchen die Menschen / die Technik um die Grundlagenforschung für besagte Antriebe erstmal zum Starten zu bringen. Und es tut mir Leid. Eine Armee von Einsteins ausm Reagenzglas / einen Quantencomputer mit entsprechender hochleistungs K.i. traue ich es eher zu solch einen Antrieb zu erfinden, als der jetzigen Menschheit.

Wir sprechen hier von noch nicht erforschten Technologien, wie mögliche Anti Materie Antriebe, Sprünge durch selbst erschaffene Wurmlöcher, eben Technik die unser aktuellen wissenschaftlichen Horizont noch übersteigen.
 
Ich halte diese Entwicklung unabdingbar für den Fortbestand der Menschheit. Irgendwann müssen wir halt auch mal von dieser Steinkugel runterkommen und neue Welten entdecken. Und ja dafür brauchen wird auch die entsprechenden Menschen für.
Ob diese im Reagenzglas gezüchtet wurden sind, oder eine ultra Intelligente K.I. im Gehirn haben, ist mir persönlich gleich. Für mich zählt nur der Fortschritt.
Wir haben doch ein Raumschiff das alles hat was wir zum Leben brauchen und mit 800.000 km/h (Die Geschwindigkeit der Milchstraße) durch das Universum unterwegs ist. Und das noch gut 4 Milliarden Jahre (Ende der Sonne) lang. Und jetzt die „Seele“ / Menschlichkeit opfer, damit wir uns der Technik unterwerfen. Wenn die „Neuen“Menschen sich aufmachen zu anderen Planeten, sind es nicht unserer Kinder, sonder nur die Verkörperung unserer Träume. Evolution beruht auf die Vergangenheit und das was wir aus ihr Lernen. Maschinenmenschen sind das Produkt der Entwickler und bilden nur die Vorstellung von Perfektion wieder.

Das mag eine sehr extreme Meinung sein. Ich erwarte aber auch nicht, dass jemand diese teilt. Ich bin einfach nur jemand der den Fortschritt und Fortbestand der Menschheit sehr wichtig ist.
Bitte nicht falsch verstehen. Ich akzeptiere deine persönliche Meinung und du darfst und soll sie auch vertreten.
 
Zurück