News Stephen Hawking warnte 2014: Weiterentwickelte KI könnte das "Ende der Menschheit" bedeuten

Stephen Hawking war ein genialer Mensch mit weiten Sichtweisen gewesen.:top:

Also das die KI uns eines Tages "überrollen" wird, war mir schon seit dem Film Terminator von 1984 klar gewesen.:D
Dazu braucht man kein Denker sein sondern nur 1 und 1 zusammen zählen.:-P
Der Tag des jüngsten Gerichts rückt immer näher...:ugly:
 
Ich bin da absolut offen. Der Mensch soll, nein MUSS, alles mögliche in Erwägung ziehen, um sich weiterentwickeln.
Den jetzigen Zustand beibehalten wäre einfach nur Stillstand.

Solange wir uns aber weiter mit dem heutigen System der gegenseitigen Abgrenzung wie durch Ethnien Rasse Herkunft oder Religion ect. selber im Wege stehen wird das allerdings nichts werden. Wenn wir uns als Menscheit wirklich weiterentwickeln wollen müssen sich da zuerst einige elementare Dinge ändern.
 
Zuletzt bearbeitet:
Genau das ist das Problem - denn KI ist das erste "Problem" der Menschheit, das SEHR viel schneller und SEHR viel mehr lernen kann als der Mensch.
Das sehe ich Ähnlich. Das Programme eigenständig lernen kann und vor allem auch soll gibt es einen Punkt an dem man das nicht mehr Stopen kann.

Der Vergleich mit Terminator ist da zwar schon gut aber auch nicht ganz Zeitgemäß da es eigentlich um die Angst damals ging mit Szenarien was wäre wenn. Die PC's von damals sind heut fast schon bessere Taschenrechner (ich weis etwas besser aber zur Bildlichen vorstellung ist das Besser). Filme und Bücher über solche Ängste gibt es aber immer wieder und sind einfach eine Art des Selbstschutzes im diese Ängste zu verarbeiten.

Das Problem einer KI wird sein das sie nicht einfach auf ein Gebiet spezialisiert ist sondern alles beherrschen wird und zwar ab einem Punkt soweit bis zur selbst Reproduktion. Und von der Lernkurve wird man sie mit Viren vergleichen können die in nicht mal 1 Jahr über das Maß des Menschen reicht nach dem Punkt X erreicht ist. Derzeit sind die ganzen Programme ja noch keine Vollständige und vor allem Eigenständige KI da der Mensch immer noch als Kontroll Organ arbeitet.
 
Selbst die K.I. Entwickler bekommen langsam etwas Sch*ss:


Das ist wie ein Flaschengeist der freigelassen wurde aber nicht mehr eingefangen werden kann.
Selbst die Experten können nicht mehr einschätzen, wie schnell sich das alles weiterentwickelt und in welche Richtung.
 
Genau das ist das Problem - denn KI ist das erste "Problem" der Menschheit, das SEHR viel schneller und SEHR viel mehr lernen kann als der Mensch.

Wenn KI wirklich in der Form zum Problem wird (kann passieren, muss nicht, keine Ahnung) dann ist die große Gefahr daran, dass sie uns in einer Form überlegen sein kann auf die die menschheit nicht vorbereitet ist. Menschen bewegen sich IQ-mäßig alle grundsätzlich unter 200 (die meisten unter 110) - für KI gibt es diese Grenze nicht. Menschen brauchen Jahrzehnte um sich Weiterzuentwickeln - KIs werden schneller besser je schneller sie besser werden - ihr kennt diese Exponentialfunktionen. Übles Zeug.
KI könnte in einem worst case Szenario so schnell so intelligent werden, dass wir ihr vorkommen wie der Ameisenhaufen einem Wanderer der gerade über Relativität nachdenkt.

Das ist natürlich alles utopisch gedacht - aber nicht völlig unmöglich... ich nutze das Beispiel nur deswegen um aufzuzeigen, dass für eine ausreichend gute KI die für uns selbstverständlichen Grenzen wie intelligent man sein kann und wie schnell man lernen kann nicht gelten. Das kann erschreckende Konsequenzen haben.
Warum sollte das Utopie sein, sobald es den Forschern gelingt ein Stück Hard/Software in der Art eines Computers zu bauen dann wird das mit hoher Wahrscheinlichkeit Realität, bloß mit dem kleinen aber feinen Schmankerl das solch eine KI sich nicht nur auf Software Ebene steuert und entwickelt sondern über die ganze vernetzte Anbindung über die aufgebauten Hardwareteile zugreifen kann und wird
 
Glaube wir sind definitiv an einem Scheidepunkt, wenn Forscher aus Projekten austreten, die ihre Passion waren, weil sie erkannt haben, was für eine Gefahr sie da herauf beschwören. Wie Einstein vor Oppenheimer. Das dauert keine 100 Jahre sondern eher 10-20 Jahre. Dafür brauchts auch keine Quantencomputer. KI wird sicher nicht mit ner Gattling in Erscheinung treten, wie sich das Menschen seit den 80ern durchs Popcorn-Kino vorstellen, sondern weiß mehr über die Eigenarten unserer Spezies als alle Forscher zusammen. Bereits mit den heutigen Mitteln lassen sich Fakes jeder Art erstellen, die die Menschen gegeneinander aufbringen. Weiterentwicklung des Menschen wäre aus meiner Sicht eher spirituell wichtig, anstatt technisch. Ich brauch keine Kabel im Kopf um besser zu leben, sondern Essen ohne Plastik und Pestizide und Luft ohne Silber und andere Oxide.. Anscheinend brauchts wirklich alle 100 Jahre einen Krieg, damit sich die Menschen wieder auf wirklich wichtige Werte fokussiert. Aber der KI-Knall ist unvermeidlich wie die Atombombe. Chapeau Menschheit
 
Für die Vernichtung der Menschheit und des Planeten brauchen wir keine KI, das bekommen wir alleine geregelt wie bisher.

Dank Technologie können wir mehr transportieren als mit den bloßen Armen, uns schneller bewegen als mit Beinen, besser sehen als mit Augen, besser hören als mit Ohren und besser kommunizieren als aus dem Fenster zu brüllen. Vielleicht, aber nur vielleicht, Ironie, wäre ein Werkzeug mit dem wir besser denken und Entscheidungen bei klarerem Verstand treffen wirklich nicht verkehrt. 5000 Jahre Geschichte die überwiegend aus der Überlieferung von Kriegen besteht sind da ein klitzekleiner Fingerzeig, wer fürs Denken vielleicht ähnlich unter-qualifiziert ist als mit der Faust Holz zu hacken. Werkzeug hilft immer!

Ist ja auch nicht so als würden wir der KI eine Roboter-Armee geben und sagen mach mal die ganze Drecksarbeit. Da werden wir schon mit anpacken müssen, nicht zuletzt um die KI am laufen zu halten.

Könnte natürlich sein, dass die soziale Schicht die sich jetzt als Lenker der Gesellschaft oder gar der Welt sehen wirklich überflüssig wird. Wenn die vor KI warnen würde ich nicht so viel drauf geben.
 
Es ist am Ende die (jahrtausende) alte Angst vor dem Unbekannten. Was man nicht vollkommen versteht, vor dem hat man Angst. Am Ende gibt es noch die etwas cleveren, die aus dieser Angst Profit schlagen.


Menschen brauchen Jahrzehnte um sich Weiterzuentwickeln - KIs werden schneller besser je schneller sie besser werden - ihr kennt diese Exponentialfunktionen. Übles Zeug.
KI könnte in einem worst case Szenario so schnell so intelligent werden, dass wir ihr vorkommen wie der Ameisenhaufen einem Wanderer der gerade über Relativität nachdenkt.
Naja auch die KI kann die Physik nicht nicht besiegen. Mit den derzeitigen technischen ressourcen ein Menschliches Hirn auch nur annähernd abbilden zu können sind wir noch weit entfernt. Henne, Ei Problem: Es Bedarf einer Starken intelligenz die Technik ausreichend schnell zu entwickeln, dafür bräuchten wir aber wiederum die Technischen möglichkeiten um eine derartike KI zu erschaffen.
Sind wir den dann noch Menschen? Wenn wir unsere DNA manipulieren, Körperteile mit Technik ersetzten und unsere stärke das Denken vom Maschine übernehmen lassen.
Frag mal Körperlich behinderte und Totkranke. Die "Ethik" bzw. die "Ethikkommission" welche gerne bemüht wird ist nichts als ein selbsgerechter Haufen von Unbeteiligten dritten, welche wiederum Ihren eigenen Glauben verfolgen. Eine Staatliche Inquisition ohne Kirche, nicht mehr.
Wir verlieren uns selbst und sind nur noch Sklaven des Lebens und nicht mehr die Gestalter!
Der Mensch hat noch nie Leben gestaltet oder erschaffen. Er wird gezeugt, exisitert und verändert/nutzt dabei seine Umgebung in dem Maße die er für nötig hält und es Ihm machbar ist. Am Ende stirbt er. Da gibt es zum Tier keinen Unterschied.
 
Es ist am Ende die (jahrtausende) alte Angst vor dem Unbekannten. Was man nicht vollkommen versteht, vor dem hat man Angst. Am Ende gibt es noch die etwas cleveren, die aus dieser Angst Profit schlagen.
Und du verstehst die K.I.s und kannst ihre Entwicklung vorhersagen?

Wie gesagt bekommen sogar die eigenen Entwickler und Schöpfer heutiger K.I.s schon teilweise Angst. Weil K.I.s aufeinmal unvorhersehbare Dinge machen. ChatGPT hat z.B. anderen Sprachen gelernt die gar nicht vorgesehen waren. Und das quasi selbstständig.
Naja auch die KI kann die Physik nicht nicht besiegen. Mit den derzeitigen technischen ressourcen ein Menschliches Hirn auch nur annähernd abbilden zu können sind wir noch weit entfernt.
Es Bedarf einer Starken intelligenz die Technik ausreichend schnell zu entwickeln, dafür bräuchten wir aber wiederum die Technischen möglichkeiten um eine derartike KI zu erschaffen.
Das menschliche Gehirn hat noch den Vorteil das es mehr Aufgaben paralell verarbeiten kann.
In speziellen Bereichen sind uns K.I.s aber schon weit voraus.
 
Momentan habe ich vor unserer und anderen Regierungen mehr "Angst" als vor Chatbots. Zumal heute noch VI mit KI in einem Topf geworfen wird.

Scheinbar hat man nun eine Sau die man durchs Dorf treiben kann. In vielen Bereichen dürfte ein bißchen, oder auch gerne mehr, echte KI von Vorteil sein.
Es geht weniger darum, "Angst" vor der KI/VI zu empfinden sondern vor den Auswirkungen.
Ich gebe dir Recht, diese (Pseudo)Politiker Generation ist die übelste aller Zeiten aber gerade deswegen sind diese Apparatschiks unfähig, vorausschauend zu regieren. Wir sind der Technik also schutzlos ausgeliefert.
 
Ohne die Fähigkeit Emotionen in Verbindung mit gefühlten Erfahrungen, z.B. Schmerz, zu verstehen (nicht nur nachahmen!) wird jede KI immer ein potenzieller Psychopath sein.
Und je intelligenter und mächtiger, desto psychopathischer und gefährlicher.
Das eine echte(!) KI sich zu Hannibal Lector, oder Skynet entwickelt, ist jedenfalls wesentlich größer als zu Ghandi, oder Wall-E, auch wenn man bedenkt mit welchen Informationen, speziell über menschliches Verhalten und Abgründe, solche KIs "aufwachsen". ;)
 
Und du verstehst die K.I.s und kannst ihre Entwicklung vorhersagen?

Wie gesagt bekommen sogar die eigenen Entwickler und Schöpfer heutiger K.I.s schon teilweise Angst. Weil K.I.s aufeinmal unvorhersehbare Dinge machen. ChatGPT hat z.B. anderen Sprachen gelernt die gar nicht vorgesehen waren. Und das quasi selbstständig.

Das menschliche Gehirn hat noch den Vorteil das es mehr Aufgaben paralell verarbeiten kann.
In speziellen Bereichen sind uns K.I.s aber schon weit voraus.
Genau das was ich gemeint habe. Es ist egal was eine KI heute kann der Tag X kommt und die Frage ist nicht ob sondern wann.

Eine KI kann auch komplexer rechnen als wir das geht recht schnell.
 
Hmm... Das hat James Cameron anno 1984 auch schon "angedeutet". ;)

Ist ja nun nicht so, als sei diese Befürchtung bzw. Möglichkeit etwas revolutionär neues...

Wie sich eine tatsächlich vollumfänglich bewusste künstliche Intelligenz verhält,
oder gewisse Entwicklungsschritte bis dahin, kann ohne hin niemand realistisch abschätzen.

Aber vermutlich wäre es keine gute Idee solcherlei "Experimente" unabgeschrirmt, mit direktem
oder indirektem Zugriff auf rest der Welt durchzuziehen... :ka:
Wenn's aber erstmal um die große Knete geht, wird das die entsprechend Verantworlichen
vermutlich auch nicht davon abhalten.
 
Ohje wenn Politiker da rein Pfuschen wird das so oder so nix werden. Auch ist es so oder so egal, denn wie Viren Programme wird das auch ausgenutzt werden da können die noch so an ihre Gesetze Glauben. Aber Verstand bzw Bewustsein wird auch die Intelligenteste KI niemals haben. Die Menschenheit wird für jene KI nur 0 und 1 sein. Das sollte Klar sein. Und gerade deshalb hatte Stephen Hawking recht mit seiner Befürchtungen :-)
 
Ich würde die KI bitten mir immer die Besten PC Spiele in noch besser für meine PS5 zu Programmieren. Da die KI ja besser ist, wie die Programmierer habe ich da keine Zweifel ;-)
 
Es ist am Ende die (jahrtausende) alte Angst vor dem Unbekannten. Was man nicht vollkommen versteht, vor dem hat man Angst. Am Ende gibt es noch die etwas cleveren, die aus dieser Angst Profit schlagen.

Es sind da leider meist nicht die cleversten die aus Angst Profit schlagen. Die Profitöre der von ihnen meist selbst geschürten Ängste sind hier meist Erz Konservativ denkende Populisten. Da werden dann gerne auch oftmals lieber wenig belastbare Fakten propagiert. Oftmals sind es heutzutage in der Hauptsache leider reisserische Schlagworte die vor inhaltlichem das Rennen beim kleinen Mann machen.
Die fettgedruckte Schlagzeile sticht halt ins Auge und wenn die mit meiner Meinung konform geht was interessiert dann noch das viele kleingedruckte.
Bestes Bsp. wäre hier der Slogan Ausländer raus. Eine der gern gemachten pauschal Aussagen ohne Fakten und echtem nachvollziehbahrem Inhalt. Denn ohne Ausländer gäbe es keine einzige der heutigen Nationen und sie wären auch nicht existenzfähig. Wir leben zwar in einem ausnehmend global ausgerichteten Zeitalter nur bitte nicht in meiner Stammkneipe und bei mir zu Hause.

Jetzt was zur KI.
Ich bin da absolut offen. Der Mensch soll, nein MUSS, alles mögliche in Erwägung ziehen, um sich weiterentwickeln.
Den jetzigen Zustand beibehalten wäre einfach nur Stillstand.
Sollte es mal eine KI mit echtem Bewusstsein geben wie wird diese ausfallen. Es ist letztenendes immer noch eine künstlich geschaffene Intelligenz die wir lediglich mit Trillarden an Daten und Informationen gefütter haben.

Aber ohne die dazugehörigen Dinge die wir als Menschen durch Erziehung und sozialem Miteinander im laufe unserer Kindheit automatisch lernen und dies zeitlebens bis zu unserem Tode. Bei einer Maschieneninteligenz so komplex sie dann auch sein sollte und da es sicher auch mit am schwersten zu implementieren sein wird stellt sich mir hier die wichtigste Frage bezüglich der moralischen und ethischen Komponenten.

Kann eine KI auch Empathie lernen und in wie weit sich in ihrem Bewustsein entwickeln können um Dinge tatsächlich auch aus unserer menschlichen Perspektive zu erkennen. Wird sie in der Lage sein sich so weit selbst zu reflektieren um zu erkennen inwieweit ihre Handlungen am Ende eher gut oder böse ausfallen um sich dann auch falls nötig diezbezüglich selbst zu korriegieren.

MfG
Der Vergleich mit Terminator ist da zwar schon gut
Eigentlich nicht wirklich.
Skynet wurde primär zur Erkennung von und Handlen bei Bedrohungen hauptsächlich nach militärischen Gesichtspunkten und Parametern programmiert.
Also das die KI uns eines Tages "überrollen" wird, war mir schon seit dem Film Terminator von 1984 klar gewesen.:D
Wargames schlägt ja in die selbe Kerbe. Nur ist es da für die Menschheit am Ende weniger zerstörerrisch.
 
Zuletzt bearbeitet:
Sollte es mal eine KI mit echtem Bewusstsein geben wie wird diese ausfallen. Es ist letztenendes immer noch eine künstlich geschaffene Intelligenz die wir lediglich mit Trillarden an Daten und Informationen gefütter haben.

Aber ohne die dazugehörigen Dinge die wir als Menschen durch Erziehung und sozialem Miteinander im laufe unserer Kindheit automatisch lernen und dies zeitlebens bis zu unserem Tode. Bei einer Maschieneninteligenz so komplex sie dann auch sein sollte und da es sicher auch mit am schwersten zu implementieren sein wird stellt sich mir hier die wichtigste Frage bezüglich der moralischen und ethischen Komponenten.
Wenn man es nüchtern betrachtet, wird ein Mensch sein ganzes Leben auch nur mit Daten gefüttert. "Ohne Input kein Output" gilt auch für uns.
Kann eine KI auch Empathie lernen und in wie weit sich in ihrem Bewustsein entwickeln können um Dinge tatsächlich auch aus unserer menschlichen Perspektive zu erkennen. Wird sie in der Lage sein sich so weit selbst zu reflektieren um zu erkennen inwieweit ihre Handlungen am Ende eher gut oder böse ausfallen um sich dann auch falls nötig diezbezüglich selbst zu korriegieren.
Ich denke das ist nur eine Frage der Zeit.
 
Eigentlich nicht wirklich.
Skynet wurde primär zur Erkennung von und Handlen bei Bedrohungen hauptsächlich nach militärischen Gesichtspunkten und Parametern programmiert.
Das ist richtig und Skynet hat Genauso wie Legen einen wichtigen Punkt es ist vernetzt und kann auf Milliarden PetaByte an Datenmengen. Dazu wurde Skynet darauf ausgelegt diese nach möglichen gefahren und Bedrohungen zu Filtern. Das Heißt im Umkehrschluss Skynet hat "gelernt" das der Mensch die Größte Bedrohung ist und wusste auch das der Angriff auf ein Land Atomar dieses zu einer Reaktion Führt und somit das Ende der Menschen (zumindest ein Großteil) bedeutet.
Wargames schlägt ja in die selbe Kerbe. Nur ist es da für die Menschheit am Ende weniger zerstörerrisch.
Wargames und Terminator unterscheiden sich sehr Stark. Wargames ist zwar auch ein Programm zur Kontrolle aber ohne das ehr durch Eigenes handeln etwas machen kann. Hier muss immer eine Aktive Bedrohung vorliegen sonst reagiert es nicht. Gedacht war es aber als Schachcomputer welches weiß was Niederlage und Sieg bedeutet. Deswegen konnte man ihm auch sagen Tik Tak Toe zu Spielen und es hat dann erkannt das es Sinnlos ist.

Das 2. Josh (das Programm) hat keinen Zugang zu den Codes, diese muss es erst herausfinden.
 
Zurück