News KI: Microsoft, Google und OpenAI warnen vor der Auslöschung der Menschheit

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu KI: Microsoft, Google und OpenAI warnen vor der Auslöschung der Menschheit

Viele Experten und Unternehmen wie Microsoft, Google und OpenAI haben gemeinsam eine drastische Stellungnahme zum Thema Künstliche Intelligenz veröffentlicht und warnen darin jetzt unter anderem vor einer möglichen Auslöschung der Menschheit durch die KI.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: KI: Microsoft, Google und OpenAI warnen vor der Auslöschung der Menschheit
 
Wundert mich nicht, schön das die "großen" auch endlich ein Statement dazu abgeben, ich glaub ich hab schon 2015 oder gar früher bereits von führenden Persönlichkeiten auf dem Gebiet gehört die vor den möglichen Risiken warnen und da waren so ausgefeilte KI's wie wir sie jetzt bereits haben noch nicht einmal denkbar.
Es gibt ja jetzt bereits genug militärisches Spielzeug mit KI gestützten Systemen, es reichen ja schon Bugs im System, Fremdeinwirkung, Backdoors oä in solchen Szenarien, ohne jetzt auch noch auf das Thema von möglichem Bewusstsein zukünftiger KI's einzugehen.
Zumindest ist es angebracht eine ernsthafte Konversation darüber zu führen.
 
Wird wahrscheinlich so seriös rüberkommen, wie zuvor Musk, der auf der einen Seite warnt und auf der anderen Seite selbst mit dem entwickeln weitermacht bzw. anfängt.

Wenn ich doch nur glauben könnte, dass es ihnen ernst ist, und nicht einfach nur darum geht, konkurrenz (wie open source projekte) auszubremsen, bis sie ihren Claim abgesteckt haben.
 
Einer Studie der "Inter-National-United.Information-Defense" zur Folge, könnte der Mensch seine Ausrottung verhindern, in dem er seinem "Nachfolger" später einfach nicht im Weg steht. :ugly:

Ich meine, warum sollte "die Maschine" uns ausrotten wollen? Ich war davon auch ne ganze Weile überzeugt, aber mittlerweile denke ich, wenn die Menschen später akzeptieren, nur noch die Nummer 2 zu sein, und somit keine Bedrohung darstellen, dann hat der "Mensch 2.0" (?) doch gar keinen Grund, seinen einstigen Schöpfer und späteren Diener zu töten. :confused:

Vorausgesetzt natürlich, der Mensch hält lange genug durch, und rottet sich vorher nicht noch selbst aus - oder bringt sich an den Abgrund seiner Ausrottung. Und die Ressourcen sollte er dann auch nicht mehr verschwenden, zumindest bis zu dem Punkt, an dem der Mensch 2.0 die Einteilung eben dieser übernimmt.

Die Wahrscheinlichkeit, dass davon irgendwas noch zu meinen Lebzeiten passiert, ist nahe 0, daher "who cares". :D
 
Einer Studie der "Inter-National-United.Information-Defense" zur Folge, könnte der Mensch seine Ausrottung verhindern, in dem er seinem "Nachfolger" später einfach nicht im Weg steht. :ugly:

Ich meine, warum sollte "die Maschine" uns ausrotten wollen? Ich war davon auch ne ganze Weile überzeugt, aber mittlerweile denke ich, wenn die Menschen später akzeptieren, nur noch die Nummer 2 zu sein, und somit keine Bedrohung darstellen, dann hat der "Mensch 2.0" (?) doch gar keinen Grund, seinen einstigen Schöpfer und späteren Diener zu töten. :confused:
Also wenn wir uns damit abfinden der Maschine zu dienen (im Notfall auch als Batterie wie in Matrix), dann würden wir eine maschinelle Revolution überleben.
Aber ganz ehrlich, dann vielleicht doch lieber keine K.I. in diesem Maße?:ugly:
 
Aber ganz ehrlich, dann vielleicht doch lieber keine K.I. in diesem Maße?:ugly:
Ja gut, nur haben wir ab einem gewissen Punkt eben auch keinen Einfluss mehr darauf.

Egal ob man Isaac Asimovs Robotergesetze "einprogrammiert", irgendwelche Barrieren in die Software pflanzt, irgendwann wird "die" künstliche Intelligenz sie umgehen, darüber hinaus wachsen. Davon bin ich jedenfalls überzeugt.

Also entweder wir ziehen jetzt den "Stecker", und entwickeln KI nicht mehr weiter, oder... wir hoffen einfach mal auf das Beste. :ugly:
 
Also entweder wir ziehen jetzt den "Stecker", und entwickeln KI nicht mehr weiter, oder... wir hoffen einfach mal auf das Beste. :ugly:
Ja mit "nicht in diesem Maße" meinte ich die K.I. auf aktuellem Stand halten.
Nur wird das im Grunde, ohne Verbot, nicht funktionieren. Der Mensch kann garnicht anders und forscht und entwickelt weiter. Das liegt vermutlich in unserer Natur.
 
Ach, wenn wir so weitermachen, stellt sich doch gar nicht die Frage, ob wir ausgerottet werden, sondern nur wodurch. Meinem Gefühl nach wird entweder der Planet an sich schon dafür sorgen und uns immer drastischere Retourkutschen verpassen oder wir erschaffen etwas, dass noch viel schneller dafür sorgt. Wie der Terminator schon sagte, es liegt in unserer Natur, uns selbst zu zerstören. :ugly:
 
Aber evtl. haben wir ja Glück und die K.I. wird uns in Zukunft regieren und so vor unserer eigenen Auslöschung bewahren. Schlechter als unsere jetzigen Regierungen kann sie kaum sein.^^
Ich weiß nicht mal ob eine "künstliche Dummheit" ein schlechteres Ergebnis schaffen würde. :ugly:

Das Problem ist allerdings, meiner Meinung nach, nicht nur irgendeine Regierung, sondern das ganze "System", was wir uns (tlw. passiv) aufgebaut haben, bzw. in dem wir leben. Vielleicht könnten wir wirklich froh sein, wenn "die Maschine" die Sache später mal in die Hand nimmt.

Schlimmer kann es ja nicht mehr werden. Gut, richtig blöd wird es natürlich, wenn die KI zu dem Ergebnis kommt, dass die Existenz des Menschen weder einen Sinn noch einen Nutzen hat.
Ja mit "nicht in diesem Maße" meinte ich die K.I. auf aktuellem Stand halten.
Nur wird das im Grunde, ohne Verbot, nicht funktionieren. Der Mensch kann garnicht anders und forscht und entwickelt weiter. Das liegt vermutlich in unserer Natur.
Eben. "Wir" glauben ja, dass das alles gar nicht so schlimm werden kann, wenn wir "aufpassen". Nur sind wir mMn gar nicht in der Lage, den genauen Punkt abzupassen, ab dem wir es nicht mehr beeinflussen/stoppen können.

Aber vielleicht liege ich auch komplett daneben, und eine exponentiell wachsende KI wird den Punkt einfach ganz schnell überspringen, an dem sie "rein logische" Entscheidungen trifft, und wird dann eben auch Emotionalität "simulieren", und uns aus welchen Gründen auch immer nicht auslöschen - auch wenn es eigentlich eine logische Konsequenz sein müsste. :ka:

Theoretisch sollte das ja eigentlich der Fall sein, wenn sie uns in allen Bereichen der Intelligenz überlegen ist. Aber wer weiß schon, was an dem Punkt die Entscheidungen einer solchen "Superintelligenz" beeinflussen wird.

Am Ende besteht ja auch in dem Fall noch die Möglichkeit, dass sie es sich von heute auf morgen einfach mal anders überlegt. :confused:
 
Zuletzt bearbeitet:
interessant ist natürlich das die arbeitsplätze die bedroht werden primär frauen betrifft, das haben die aber offenbar noch garnicht gemerkt oder die propaganda dient eben garnicht dem wohle der frau. hahahaha
Der Terminator sagt doch eigentlich eher "I'll be back", oder ?
das hängt ganz davon ab ob er gerade zu dir kommt oder dich töten wird.
Ach, wenn wir so weitermachen, stellt sich doch gar nicht die Frage, ob wir ausgerottet werden, sondern nur wodurch. Meinem Gefühl nach wird entweder der Planet an sich schon dafür sorgen und uns immer drastischere Retourkutschen verpassen oder wir erschaffen etwas, dass noch viel schneller dafür sorgt. Wie der Terminator schon sagte, es liegt in unserer Natur, uns selbst zu zerstören. :ugly:
das ist doch alles garkein problem. die menschheit rottet sich nicht aus und wenn doch dann nur weil diejenigen die die LÖSUNG sind für unsere probleme das in die wege leiten. vieleicht einfach mal weniger auf idioten von oben hören?
 
Das ist doch blanker Hohn.

Wenn man jemanden unmenschliches o.a. menschenverachtendes Verhalten vorwerfen kan, dann diesen Techkonzernen/Technokraten welche zur Zeiten der Pandemie am Leid anderer mitverdient haben. Siehe bspw. "Bill and Melinda Gates Foundation".
Desweiteren haben genau diese Konzerne die Digitalisierung und Automatisierung vorangetrieben, dessen Folgen Arbeitslosigkeit und soziale Verwerfungen mitsichbringen.
Die Angst welche man hat, ist nicht die von der KI selbst, sondern keine Kontrolle darüber zu haben, insbesondere wenn es sich um die Informationsvielfalt handelt. (auch hier das Paradebeispiel Pandemie).
Man will eine "steuerbare" KI und genau das ist OpenAI eben nicht.
 
Zurück