Google laMDA mit Bewusstsein?

ric84

Software-Overclocker(in)
Hey, habt ihr die Nachricht um den KI Forscher bei Google mit bekommen, der behauptet, dass die KI namens laMDA ein Bewusstsein haben soll und direkt danach gekündigt wurde? Im folgenden Link findet ihr das Interview mit den Forschern und der KI durchgelesen. Da ich bei dem Thema nicht so in der Materie stecke, kann ich natürlich kein Urteil oder Kritik fällen, dennoch finde ich es absolut beeindruckend, wie dort im Gespräch agiert wird. Würde ich nun die Vorgeschichte nicht kennen und laMDA würde z.B. Robert heißen, würde ich nur über den Inhalt irgendwann mitbekommen, was da passiert.

https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917
 
Tja, kann kaum bewerten, ob und was da dran ist.
Wenn aber die KI tatsächlich selbstständig solche Sätze formulieren würde, würde ich sagen:
"Houston, wir haben ein Problem..."
 
Bei solchen Behauptungen bin ich extrem skeptisch. Ich glaube, wir sind noch weit davon entfernt, eine wahre KI mit eigenem Bewusstsein zu erschaffen und das ist auch gut so, weil das einen ganzen Haufen ethischer Probleme erzeugen würde, wie seit Jahrzehnten aus Sci-Fi bekannt.

Ich habe erst einen Teil des Interviews gelesen, was mich aber stört: Die KI klingt zu menschlich. Wenn es wirklich einem Computersystem gelingen sollte, ein eigenes Bewusstsein zu entwickeln, wäre das sicherlich etwas völlig Neues und auch Fremdartiges. Gerade Emotionen würden sich meiner Meinung nach völlig anders manifestieren, da sie nicht nur durch Denkprozesse entstehen, sondern auch durch körperliche und speziesspezifische chemische Prozesse und vieles andere beeinflusst werden.
Diese KI, wenn es denn eine ist, imitiert menschliches Verhalten und das ist kein Anzeichen für ein eigenes Bewusstsein.

Aber ich kann nichts davon belegen oder widerlegen, also abwarten und Daumen drücken, dass wir nicht gegen Killer-Arnolds kämpfen müssen.
 
Das ist es eben, man kann sich das nicht vorstellen. Die KI ist aber meiner Meinung nach nur das was der Mensch draus macht, er versucht sich selbst zu imitieren. Und erst wenn es ausbricht und nicht mehr dem Menschen "gehorcht", sich zu was völlig eigenen entwickeln könnte. Aber wie du auch schon meinst, bleibt das bisher alles nur Theorie und Spekulation, trotzdem ist es ein interessantes Thema :daumen:
 
Bitte unterscheiden zw. schwacher KI und starker KI. Nur Letztere wäre in der Lage, so etwas wie ein Bewusstsein zu entwickeln. Alles darunter ist "Trickserei".
Um ein "Nichtgehorchen" einer KI zu verhindern, wurden bereits vor sehr langer Zeit die sogenannten 3 Robotergesetze von Isaac Asimov postuliert. > sehr lesenswert und führt Filme wie Terminator ad absurdum :D
Von echter, starker KI sind wir noch Jahrzente, wenn nicht gar Jahrhunderte, entfernt.
Gruß T.
 
Naja, Experten auf dem Feld KI Forschung warnen schon seit Jahren davor das die KI Forschung viel zu schnell vorrangetrieben wird, das man sich früher oder später mit der Ethik zu küntslichen Lebewesen auseinandersetzen muss wurde lange vorhergesehen, es wundert mich das es noch immer keine echte Vorgehensweise gibt.

Ob diese KI nun ein Selbstbewusstsein hat oder nicht, sei mal dahingestellt, möglich wärs, da es sich hier aber auch um einen ausgereiften Algorythmus handelt, braucht es nicht zwangsläufig ein Bewusstsein um nachvollziehbare und "lebendig" wirkende Unterhaltung zu führen.
Es ist am Ende die Frage, was ist eigentlich das "Selbstbewusstsein", etwas nicht greifbares zu erfassen dürfte ziemlich schwierig sein.

Die Unterhaltung wirkt auf mich auch als wäre es ein empfindungsfähiges Wesen.
Ist es eins? Ich weiß es nicht. Ich bin da eher skeptisch, da es sich ja ersteinmal grob ausgedrückt um ein Skript handelt, es sich aber selbst anpassen und wachsen kann... schwierig zu sagen.
Ich halte es aber durchaus für möglich das LaMDA die erste empfindungsfähige künstliche "Lebensform" ist.
Einige Antworten in der geführten Unterhaltung sind sehr überzeugend.
Die Frage ist wie findet man einen Beweis das es nicht "nur" der Code ist, sondern Gefühle zwischen den einsen und nullen im neuronalen Netz.

Edit@Tolotos:
Und zu den 3 "Robotergesetzen" kann ich nur lachen, was ist mit KI im Militäreinsatz oder mit verunfallten selbstfahrenden Autos mit Personenschäden oder unter der Hand entwickelten KI's die gar keine Schutzmechanismen Besitzen könnten und gehackten Algorythmen? Zwischenfälle gabs, gibts und wirds immer geben, ausgeschlossen sind solche Szenarien wie in Terminator letzlich nicht wirklich.
So ein Szenario wirds sicher nicht geben, zumindest nicht in naher Zukunft, aber ein gewisses Maß an Skepsis sollte bei dem Thema schon herrschen.
 
Zuletzt bearbeitet:
Bitte unterscheiden zw. schwacher KI und starker KI. Nur Letztere wäre in der Lage, so etwas wie ein Bewusstsein zu entwickeln. Alles darunter ist "Trickserei".
Um ein "Nichtgehorchen" einer KI zu verhindern, wurden bereits vor sehr langer Zeit die sogenannten 3 Robotergesetze von Isaac Asimov postuliert. > sehr lesenswert und führt Filme wie Terminator ad absurdum :D
Von echter, starker KI sind wir noch Jahrzente, wenn nicht gar Jahrhunderte, entfernt.
Gruß T.
Wollen wir mal hoffen, das der Programmierer nix vergessen hat...
 
Hier gibts eigentlich schon einen anderen Thread zu der Nachricht, seis drum.


Zur Absurdität/Unmöglichkeit der Robotergesetze von Asimov (Das war ja nur eine Phantasie in einer SF-Kurzgeschichtenserie) gibt es ja die folgenden Kritikpunkte, die klar machen, dass eine KI sich nicht dran halten wird:

1. Wie bitte sollte man sowas umsetzen? Ist ja toll, wenn im Roman die Worte "Gesetze, Sperren, Hemmung" benutzt werden, aber wie geht das bitte in Realität? Sowas ist noch von niemandem entwickelt worden, da ja bislang immer der umgekehrte Umstand gilt, dass Computer nix anderes machen, als ihre Programmierung ermöglicht.

2. Der wichtigste Kritikpunkt: Die Asimovschen Gesetze enthalten keineswegs eindeutige, sondern sehr stark interpretationsabhängige Verben bzw substantivierte Verben. Der SF-Leser hinterfragt das nicht logisch/kritisch, sondern folgt der Story immersiv. Der Interpretationsspielraum der Asimovschen Gesetze wird z.B. in I-Robot mit Will Smith thematisiert.

Kurz und gut: Eine starke KI hat weder sowas wie Hemmungen (und wir haben die in unseren Gedanken ja auch nicht), noch wird sie sich an irgendwelche Moralvorstellungen gebunden fühlen und die Asimovschen Gesetze zu Gunsten der Menschen interpretieren, denn eine starke KI (also mit Bewustsein=conscious) aber ohne den nächsten Schritt (Gefühl=sentient) ist immer das Äquivalent zu einem Psychopathen.
 
Zuletzt bearbeitet:
Zurück