M. E. "bewertet" sie diese Infos nicht.
Sie kann immer nur nach 1 und 0 oder "true" und "false" operieren, den Befehl "maybe" gibts ja nicht.
Sei bekommt die Digitalinfo über eine Kuh: dick, voluminös
Die nahezu gleiche Info steckt in Kumuluswolken: dick, voluminös, schwebend
Daraus errechnet sie quasi Schnittmengen.
Und TaTa:
Haste schwebende, dicke Kühe mit Kumuluswolke als Kopfschmuck im Clip
"Mabye" gibt es sehr wohl, genaugenommen ist das das Kernelement vieler neuronaler Netze: "53% Kuh", "10% voluminös", etc.. Die aktuell gehypten Modelle beherschen dabei auch in einem gewissen Maß Kontexte => "das ist 57% Kuh wenn Begriff X im Umkreis von Y Wörtern auch auftauchte" "aber nur wenn auch Begriff Z da stand. Wenn es stattdessen N war und A mal vorbeikam, sind es nur 43% Kuh".
Allerdings sind die KIs heute noch nicht integrativ und auch nicht alle auf dem gleichen Stand. ChatGPT dürfte oberes Kontextverständnis haben, kann aber keine Bilder und hier vermutlich nur ein Script für eine bildgebende KI geschrieben - und geschrieben hat es das nach den Maßstäben, die es für "Script" kennt, also an Menschen gerichtete. Die bildgebende KI wurde ihrerseits aber höchstwahrscheinlich nie mit Szenenbeschreibungen aus Drehbüchern und den zugehörigen Filmen trainiert, sondern mit getaggten Einzelbildern. Das Übergabeformat zwischen den beiden beteiligten KIs ist also unbrauchbar.
Und die Zuverlässigkeit von Bild auswertenden oder generierenden KIs in der Regel auch. Wenn "Kuh"-Bilder im Trainingssatz selbige zum Beispiel immer auf grüner Weide unter blauem Himmel zeigten, hat die KI nie ein Bewusstsein für die Abgrenzung zwischen den dreien entwicklen können. Der Versuch einer Fisch-Erkennungs-KI hat man mal wunderbar kleinste Unterschiede in Anglerhosen ausgewertet, die auf praktisch allen Fotos im Hintergrund waren
.
Zudem ist sowas immer nur 2D, während wir die "Fehler" im Film anhand unseres räumlichen Wissens erkennen. Die für uns schwebende Kuh ist einfach nur ein Bild, in dem die KI den grünen Bereich von "Kuh" etwas anders gemalt hat, weil ihr nie jemand die nötigen Infos gegeben hat, an der sie die grüne Fläche als !ebene! "Wiese" unter dem freistehenden Objekt "Kuh" hätte erlernen können. (Aus dem Grund dürfte Midjourney auch so gerne Tiere mit einem dicken Vorder- oder Hinterbein malen, wie sie auch zu sehen waren: Aufgrund der Schrittfolge stehen Kühe/Pferde/... auf den meisten Bildern so, dass ein Bein ein anderes verdeckt und drei Säulen zu sehen sind. Wenn eine KI mangels 3D keine Tiefeninformationen erhält und auch nicht anhand von Bewegtbildern lernt, kann sie dieses Bildartefakt nicht als solches erkenenn, sondern wird es reproduzieren.)
Ich sehe das (im Moment) sehr ähnlich.
Solche "primitiv" KI nutzen ja auch heute schon sehr viele Menschen, wenn z. B. mein Navi im PKW "lernt", wie meine Fahrtroutinen sind.
Wo dann irgendwann die grenze gezogen werden kann, dass eine KI nicht nur lernt und vorgegbene Programmroutinen ausführt, sondern lernt und versteht und ohne Programmroutinen eigenständig Entscheidungen trifft, weiss ich auch nicht so genau.
Der Unterschied kommt in dem Moment, wo die KI selbst reflektiert vorgehen kann. ChatGPT kann das vermutlich nicht und Llamda hat das auch nur der eine Entwickler unterstellt. Da niemand die innere Arbeitsweise wirklich versteht, kann man es zwar nie ausschließen, aber entsprechende Fähigkeiten wären eine Zufallsentwicklung aus der KI selbst heraus. Bard dagegen hat man wohl schon gezielt beigebracht, beispielsweise mathematische Fragestellungen als solche zu erkenenn und dann die gestellte Rechenaufgabe nicht anhand der eigenen Textgenerierung zu beantworten ("Texte mit der Frage 1 plus 1 enthielten oft auch die Antwort 3" oder so ähnlich), sondern stattdessen einen Programmcode (!) zu formulieren, der die korrekte Lösung von der CPU strikt logisch arithmetisch berechnen lässt.
Forscher arbeiten da ja dran. Es ist nur eine Frage der Zeit.
Weil unser Bewusstsein wie gesagt auf Naturgesetzen basiert.
Könnte eine lange Zeit werden. Soweit unsere schriftlichen Aufzeichnungen zurückreichen, also wenigstens so 3000-4000 Jahre, machen sich Forscher schon Gedanken über den menschlichen Geist. Ich will nicht sagen, dass es in den letzten Jahrzehnten keine Forschritte gegeben hat, aber von einem umfassenden Verständniss sind wir noch immer SEHR weit entfernt und bei ganz vielen Teilfragestellungen steht man einfach vor einem methodischen Problem: Man kann mit dem menschlichen Bewusstsein keine Experimente machen. Oft schon aus rein praktikabeln Gründen, weil es sich nicht präzise manipulieren lässt, vor allem aber aus ethischen Gründen weil ein paar hundert tote Versuchsobjekte je Versuchsreihe bei
Homo sapiens nicht ganz so akzeptiert sind wie bei z.B.
Caenorhabditis elegans (der aber kein Bewusstsein zur Schau stellt, dass man erforschen könnte).
Wo man Erkenntnisse nicht durch gezielte Überprüfung sichern kann, ist es aber schwer darauf aufzubauen. In den Naturwissenschaften kommt nur selten mal jemand vorbei und zieht unten einen Stein auf dem Erklärungsgebäude. Da hat man eine solide Struktur, die das Forschungsobjekt erklärt und jedes Jahr baut man eine weitere Lage oben auf, die neue Erkenntnisse erschließt. In den Humanwissenschaften im weitesten Sinne ist es dagegen vollkommen normal, dass es zu jeder Fragestellung dutzend einander widerprechende Erklärungsversuche gibt und jeder sich nach seinem eigenen Gutdünken und ohne empirische Grundlage eine rauspickt, auf deren Basis er weiter zu denken versucht. Steter Fortschritt? Fehlanzeige. Wer sich mit Geisteswissenschaften beschäftigt kann oft nicht einmal EINE Antwort auf die Frage geben, was ein bestimmter Begriff überhaupt bedeutet, weil es zehn konkurriernde Antworten gibt. Man stelle sich Astronmen vor, wenn Urknalltheorie, Heliozentrisches, Ptolemäisches und Turtles-all-the-way-Weltbilder parallel und gleichberechtigt nebeneinander existieren würden. Fortschritt? Kaum möglich.
Entscheidungen sollten auf Fakten basieren und nicht auf Glauben.
Sag das AFD-Wählern!
(Und damit zurück zum Thema "Dinge mit Intelligenz")
Sehe ich auch so. Es gibt ja auch Menschen, die keine Gefühle/Empathie haben.
Das sind ohne Frage oft/manchmal Soziopathen und tickende Zeitbomben, aber manche schaffen es auch damit klarzukommen, ohne "durchzudrehen".
Aber man kann diesen Menschen mit Sicherheit nicht absprechen, das sie intelligent sind, oder?
Man kann sogar noch weiter stellen und eine perfide Fragen stellen: Kann es sein, dass diese Menschen einfach nur bewusster und selbstkritischer/-analytischer sind? Es gibt genug Menschen, die einen Ball präzise werfen können, die aber nicht erklären können, wie sie das machen, obwohl die zugrunde liegende Physik für einen Wissenden sehr simpel ist. Vielleicht geht es der Mehrheit der Menschen genauso mit Emotionen? Sie arbeiten ständig damit, verstehen/sehen aber nicht, wo sie herkommen. Einige wenige verstehen dagegen ihre inneren Prozesse und können sie entweder laufen lassen, was dann zu scheinbar normalen Emotionen führt oder in diese "Simulation" eingreifen. (Oder sie ganz sein lassen, was dann psychopathisch wird.)
Diese Fragen meine ich übrigens nicht rhetorisch, sondern als überlengeswertes Gedankenexperiment: Wir wissen zum Beispiel aus historischen Beispielen, wie extrem leicht es ist die eigentlich universelle Emotion "Empathie gegenüber Mitmenschen" durch Prozesse des Bewusstseins auszuhebeln. Massenmedien wirken zum Beispiel ausschließlich über das Bewusstsein, denn
Homo sapiens hat keine angeborenen Routinen, die Inhalte von gelesenem Text direkt in den Hypothalamus weiterleiten würden. Ebenso wenig ist
Homo sapiens instinktiv in der Lage, z.B. "Juden" und "Nichtjuden" zu differnzieren und besagte Empathie nur auf eine von beiden Gruppen anzuwenden. Millionen von Nazi-Deutschen haben nach dem Konsum besagter Medien aber genau das gemacht. Ihre Emotionsentwicklung muss durch Bewusstseinsprozesse maßgeblich umgestaltet worden sein. Dies bewusst bei anderen zu machen ist also offensichtmöglich, es bewusst bei sich nachvollziehen zu können entspräche bereits deinem "Empathie Simulanten".
Und nach genau dieser Vorlage könnte auch eine KI menschliche Emotionen entwicklen. Oder simulieren.
Oder manipulieren...
Die Logik, den biologischen Datensatz von tausenden anderen Spezies erhalten zu können, wenn dafür nur eine übern Jordan gehen muss, dürfte sonnenklar sein.
Insofern viel Freude bei der Weiterentwicklung von nur intelligenter KI.
Und diese Dystopie baut noch darauf auf, dass die KI das logisch beste für die Mehrheit der Spezies erreichen will oder gar für die Mehrheit der Menschen und ihr nur der Respekt für das Leben von ein paar Individuen fehlt. (Letzteres ist, ehrlich gesagt, bei einem System dass aus der Kollektivität des Internets gebildet wurde, nicht nur denkbar, sondern sogar ziemlich wahrscheinlich. Ich liste jetzt mal nicht die einschlägigen Webseiten auf, auf denen man nachlesen kann, wie Menschen tief drin drauf sind.)
Was wohl so alles passieren kann, wenn die KI zu dem Schluss kommt, dass biologische Arten ihr eigentlich am Afterburner vorbeigehen und sie das Beste für KIs anstreben sollte?