Es ist am Ende die (jahrtausende) alte Angst vor dem Unbekannten. Was man nicht vollkommen versteht, vor dem hat man Angst. Am Ende gibt es noch die etwas cleveren, die aus dieser Angst Profit schlagen.
Es sind da leider meist nicht die cleversten
die aus Angst Profit schlagen. Die Profitöre der von ihnen meist selbst geschürten Ängste sind hier meist Erz Konservativ denkende Populisten. Da werden dann gerne auch oftmals lieber wenig belastbare Fakten propagiert. Oftmals sind es heutzutage in der Hauptsache leider reisserische Schlagworte die vor inhaltlichem das Rennen beim kleinen Mann machen.
Die fettgedruckte Schlagzeile sticht halt ins Auge und wenn die mit meiner Meinung konform geht was interessiert dann noch das viele kleingedruckte.
Bestes Bsp. wäre hier der Slogan Ausländer raus. Eine der gern gemachten pauschal Aussagen ohne Fakten und echtem nachvollziehbahrem Inhalt. Denn ohne Ausländer gäbe es keine einzige der heutigen Nationen und sie wären auch nicht existenzfähig. Wir leben zwar in einem ausnehmend global ausgerichteten Zeitalter nur bitte nicht in meiner Stammkneipe und bei mir zu Hause.
Jetzt was zur KI.
Ich bin da absolut offen. Der Mensch soll, nein MUSS, alles mögliche in Erwägung ziehen, um sich weiterentwickeln.
Den jetzigen Zustand beibehalten wäre einfach nur Stillstand.
Sollte es mal eine KI mit echtem Bewusstsein geben wie wird diese ausfallen. Es ist letztenendes immer noch eine künstlich geschaffene Intelligenz die wir lediglich mit Trillarden an Daten und Informationen gefütter haben.
Aber ohne die dazugehörigen Dinge die wir als Menschen durch Erziehung und sozialem Miteinander im laufe unserer Kindheit automatisch lernen und dies zeitlebens bis zu unserem Tode. Bei einer Maschieneninteligenz so komplex sie dann auch sein sollte und da es sicher auch mit am schwersten zu implementieren sein wird stellt sich mir hier die wichtigste Frage bezüglich der moralischen und ethischen Komponenten.
Kann eine KI auch Empathie lernen und in wie weit sich in ihrem Bewustsein entwickeln können um Dinge tatsächlich auch aus unserer menschlichen Perspektive zu erkennen. Wird sie in der Lage sein sich so weit selbst zu reflektieren um zu erkennen inwieweit ihre Handlungen am Ende eher gut oder böse ausfallen um sich dann auch falls nötig diezbezüglich selbst zu korriegieren.
MfG
Der Vergleich mit Terminator ist da zwar schon gut
Eigentlich nicht wirklich.
Skynet wurde primär zur Erkennung von und Handlen bei Bedrohungen hauptsächlich nach militärischen Gesichtspunkten und Parametern programmiert.
Also das die KI uns eines Tages "überrollen" wird, war mir schon seit dem Film Terminator von 1984 klar gewesen.
Wargames schlägt ja in die selbe Kerbe. Nur ist es da für die Menschheit am Ende weniger zerstörerrisch.