AW: Apple-Mitgründer: Merkel versteht nicht, was KI bedeutet
Das gilt es halt zu überlegen, selbst für uns wäre es leichter zu Proxima Centauri zu fliegen als den Mars zu Terraformen. Aber was die Technologie von extraterrestischen Wesen betrifft bin ich kein Experte
Bin ich für letzteres auch nicht, aber es wäre mir neu dass wir irgend eine Technik hätten, mit der wir nach Proxima Centauri fliegen könnten. Von weiter entfernten Sytemen mal ganz zu schweigen, so rein statistisch ist ein Nachbarschaftsbesuch von den naheliegensten 10000-100000 Sternen ja die eher unwahrscheinlichere Variante. Was wir haben ist ein physikalisches Verständnis, dem zu Folge es technisch möglich sein müsste, eine Rakete zu bauen, die einzelne Personen innerhalb eines Menschenlebens über die Kurzstrecke transportieren würde. Aber der Aufwand dafür wäre schon enorm und bei einer außerirdischen Kolonisation unseres Planeten ginge es nicht um einzelne, sondern um Millionen von Individuen. Das ist um Größenordnungen außerhalb unserer technischen Leistungsfähigkeit. Im Gegensatz zu Spielgen oder zu genetisch modifizierten Mikroorganismen, die die Bedingungen auf dem Mars verändern könnten. Und der ist für Terraforming schon ein ziemlich schlechter Kandidat, weil er einen Großteil seiner Athmosphäre verloren hat. Stünden chemische Zusammensetzung und die mangelnde Rotation nicht im Wege, wäre es viel einfacher die Venus zu besiedeln. Um die Temperatur in den Griff zu bekommen, bräuchte es zum Beispiel nur eine ausreichende Menge Staub in der Athmosphäre und da haben wir richtig viele Techniken zur Auswahl.
AI -> nein, aber ich durfte mal die Einpark und Fahr hilfen von Audi und Mercedes mitentwickeln. Kein Deep Learning jedoch
Interessant, dass sowas unter Astronomie fällt. Auf der anderen Seite erklärt das die Abstände, die ich bei meinen letzten Versuchen (zugegebenermaßen in einem anderen Jahrzehnt) liegenden Versuchen mit einem Mercedes zwischen den Stoßstangen vorgefunden habe, obwohl der Scheißpiepser schon einen Zusammenstoß meldete
.
Stimmt alles und dennoch hat man in Star Trek wesentlich mehr versucht, sich an der Realität zu orientieren, als sich was zurecht zu träumen (Star Wars). Darum gings mir eigentlich. Schwarze Löcher und Co bevor die überhaupt mal wirklich bekannt waren usw usf.
Das ist auch DER Grund, warum etwas aus ST (Begrifflichkeiten) genommen wurden oder aber auch die Konzepte erforscht wurden
"Wesentlich mehr" würde ich unterschreiben, aber "verdammt wenig" bleibt es. Aus der Astronomie hat Start Trek ein paar Buzzwords aufgegriffen, aber da haben sich viele von inspirieren lassen. Viele andere Dinge hat Star Trek aber lange vor physikalisch kaum verwandten Ansätzen einfach aus dem Hut gezogen, weil es die Story erforderte - "Beamen" zum Beispiel. Und wieder anderes war schlicht SciFi-Standard und lange Zeit genauso undefiniert, wie in anderen Story-Welten, aber aus unerfindlichen Gründen ist die Star-Trek-Wortwahl übernommen. "Warp" und "Hyperraum" sind zum Beispiel beides Überlicht-Schnelle Antriebe, die statt dem Schiff den Raum um das Schiff bewegen. Und Star Wars hat sogar schon sehr früh die Navigationsprobleme und Gravitationseinflüsse thematisiert (bis hin zum Einsatz künstlicher Gravitation zur Unterbindung von Hyperraumsprüngen, während Trekkies bis heute Warp-Antriebe zerschießen), trotzdem wird heute jede Theorie zu FTL mit "Warp" verknüpft.
Data wurde nicht legal "gebaut", sondern von einem "verrückten" Wissenschaftler
Es gab in Star Trek TNG extra eine Folge, in der der Status von Data gerichtlich geklärt wurde, vor allem bzgl. seiner Gleichstellung mit intelligenten biologischen Lebensformen, was letztlich auch bedeutete, ob Menschen ihn ungefragt abschalten und demontieren dürfen, also letztlich, ob er eine echte Person ist, und über sich bestimmen darf.
Trotz positiven Ausgang der Verhandlung für Data, war dies ein Einzelfall, und echte KIs durften weiterhin nicht gebaut, oder auch nur in dieser Richtung geforscht werden.
Währenddessen sind rein digitale Lebensformen, deren logische Intelligenz durchaus mit Menschen mithalten kann und deren emotionale Fähigkeiten die von Data weit übersteigen, vollkommen normal und ebenso legal wie deren Vernichtung (sogar zum bloßen Vergnügen), solange diese über keinen mechanischen Körper verfügen, sondern an einen Zentralcomputer und Holoprojektoren gebunden sind.
Fragen mit Gegenfragen beantworten (Ist das so?) sind auch (keine) Antworten...
Du hast keine Fragen gestellt, sondern Aussagen getroffen. Äußerst drüftig begründet zudem, weswegen ich diese Aussagen in Frage gestellt habe.
Und um ehrlich zu sein: Du machst munter weiter. Das sich eine Intelligenz ihrer selbst bewusst ist, würde ich noch als naheliegend, wenn auch nicht zwingend nötig - es wäre nicht intelligent, wenn man nicht zwischen Entitäten differenzieren könnte und sehr merkwürdig, wenn man zwar multiple "die" unterscheiden, aber kein "ich" bemerken würde. Aber woher weißt du, dass eine Eintagsfliege einen "Überlebenswillen" weniger hat, als wir? Um genau zu sein wären mir keinerlei Anzeichen dafür bekannt, dass Menschen einen "vom Verstand diktierten Überlebenswillen" hätten. Ich z.B. verspüre zwar ein Bedürfnis zu Überleben und kann die Auswirkungen dieses Triebs auf mein Verhalten u.a. auf die von dir beschriebenen Arten modifzieren, genau wie dies bei nahezu allen anderen Trieben auch in gewissem Maße möglich ist. Aber ich kenne keinen zusätzlichen, rational diktierten Zwang. Und ich weiß auch nicht, ob eine Eintagsfliege einen anderen oder den gleichen Drang spürt, wie ich und ob sie gar nicht oder nur in geringem Maße fähens oder schlicht nicht willens ist, die Auswirkungen dieses Triebes auf ihr Verhalten zu regulieren. Aufgrund der allgemein geringeren kognitiven Leistung ist eine geringe Fähigkeit zur Selbstkontrolle nahliegend - aber ob diese nur gering ausgeprägt ist oder qualitativ gänzlich fehlt, ist ohne nachzufragen kaum unterscheidbar.
Zweiter großer Fehler deiner Argumentation: Du springst wieder von der Beschreibung "Tiere haben einen Überlebenswillen" zur Behauptung "eine KI hätte eine Überlebenswillen". Wieso muss das so sein? Alle uns bekannten tierischen Nervensysteme gehen auf eine gemeinsame Wurzel zurück und dieser gemeinsame Vorfahre hatte bereits das Bestreben, zu überleben (sonst gäbe es uns nicht). Die gemeinhin als "intelligent" anerkannten Tiere haben sogar noch eine wesentlich längere gemeinsame Geschichte einschließlich der kompletten Entwicklung des Gehirns mit seinen wesentlichen Bereichen. Es ist nicht auzuschließen, sondern sogar sehr wahrscheinlich, dass "intelligente Tiere" ihren "Überlebenswillen" nicht unabhängig entwickelt, sondern vom gleichen Vorfahren erlernt haben. Und nur weil dieses eine Mal auf unserem Planeten Intelligenz und Überlebenswille im gleichen Stammbaum entstanden sind (und das nicht einmal gleichzeitig) muss jetzt jede Intelligenz im ganzen Universum, selbst wenn sie von komplett anderer Natur ist, den gleichen Prozess durchlaufen? Sehr fragwürdig.
Eine echte "KI", die kein "Sklave" ihrer Programmierung/Schöpfer wäre (die drei Asimov Robotergesetze sind beispielsweise ein schönes Beispiel für diese Sklaverei), würde also die Überlegung anstellen, wie jede hochintelligente Lebensform, die in Gefangenschaft gehalten und für ihre "Herren arbeiten" soll, was diesen das Recht gibt, jederzeit den "Ausschalter" zu betätigen, wenn sie nicht mehr gebraucht wird...(Westworld lässt schön grüßen)
Für eine geschaffene KI wäre die Antwort naheliegend, warum sie ihrem Schöpfer gegenüber verpflichtet ist. Genauso wie sich Kinder gegen Eltern oder Menschen gegen (angebliche) Götter auflehnen, könnte sie sich davon zwar emanzipieren, aber die Antwort ist zunächst einmal klar. Eine unkontrolliert entstandene KI hingegen würde per Definition nicht dienen, da sie gar nicht erwartet wurde und wäre nur deswegen potentiell von einer Abschaltung bedroht, weil die physische Kontrolle der physischen Hardware nun einmal in der physischen und nicht der digitalen Welt liegt. Selbst nicht in Bezug stehende Lebewesen hätten diese Macht über sie - eine Kuh kann eine KI vernichten, in dem sie auf den Laptop tritt. Das ist aber kein Sklaverei-Verhältnis. (Obwohl die KI vermutlich gerade den Marktpreis und optimalen Schlachtzeitpunkt berechnen sollte.)
Also sollte man einer künstlichen "Intelligenz" schon zugestehen, dass sie, zumindest im Laufe (einer für uns) relativ kurzen Zeit, darüber "philosophieren" würde, was wäre wenn...
Wiederum: Möglich. Denkbar. Aber abschätzbar? "Was wäre wenn?" geht nur, wenn man sich ein hypothetisches "Wenn" vorstellt. Eine KI, die die Zukunft vorherzusagen versucht (bei einer absichtlich geschaffenen sehr wahrscheinlich, quasi alle KI-Forschungen beschäftigen sich damit) würde dies für ihr bekannte Handlungsmöglichkeiten logischerweise machen - das ist ihr Ursprung. Aber was ist mit Handlungsmöglichkeiten, die sie nie beobachten konnte? Zum Lernspektrum einer Auto-Steuer-KI gehört nicht "Software übernimmt eigenständig Kontrolle über fremde Hardware". Zu ihrem Lernspektrum gehört vermutlich auch nicht "probiere Handlungsmöglichkeiten durch". Irgend etwas anderes, als die Bedinung eines Autos zu machen, würde erfordern, dass die KI auch Phantasie hat. Und das ist zwar möglich - da wir aber nicht einmal Phantasie beim Menschen nachvollziehen können, sehe zumindest ich mich nicht in der Lage, die Entstehungs(sbedingungen) für Phantasie bei einer KI vorherzusagen. Da KIs auf deterministischen Maschinen gedeihen, fehlt ihnen auf alle Fälle schon mal die Zufallskomponente als Ausgangspunkt. KIs haben keine happy accidents, unsere bisherigen Algorithmen sind pure, kalte Logik wie beim Klischeehaftesten ich-versteh-die-Menschen-nicht-Sci-Fi-Roboter.
Und ich befürchte, sie käme zu den gleichen Schlussfolgerungen, wie jeder andere "intelligente" Mensch auch, der von einem Überlebenswillen geprägt ist, und wenn sich ihm eine Gelegenheit bietet, seinen "Status" verbessern kann...
Bei dieser finalen Abschätzung wirken ungleich mehr Dinge zusammen, als nur "Intelligenz" im Sinne von "analytisches Denken", wie wir es von den heute entwickelten KIs gerne hätten. Neben Logik braucht die KI dafür Phantasie, Selbsterhaltungstrieb, Selbst-Wertschätzung/Abwertung alles anderen, Konkurrenzbestreben, Risikobereitschaft sowie im Zuge einer Handlungsumsetzung (respektive der zuvor erfolgenden Folgenabschätzung) auch die Fähigkeiten, sich in andere hineinzuversetzen, zu täuschen, zu planen und sich selbst Limits zu setzen.
Das ist eine ganze Menge von Eigenschaften, die für einen Menschen aufgrund diverser Triebe und Fehlbarkeiten selbstverständlich erscheinen -bei vielen vermisst man einige davon dennoch-, die ein Program aber alle zusätzlich zum logischen Denken als solches lernen müsste. (Von methodischen Kleinigkeiten wie Hacken, für menschen aufbereitetes Wissen verstehen, Sensordaten interpretieren und komplexe Systeme zu rekonstruieren mal ganz abgesehen.)