KI mit Bewusstsein? Google-Entwickler wird beurlaubt

Genau das ist ja der springende Punkt. Empathie vorgaukeln ist was anderes, als tatsächlich Empathie empfinden und äußern.
Klar, eine KI kann augenscheinlich(!) geradezu menschengleich sein. Aber letztlich sind das nichts anderes als definierte Parameter, auf die die KI reagiert
Korrek! Deshalb muss sich eine KI das antrainieren. Parameter vorzugeben wäre der falsche Weg, weil du hier die KI wieder einschränkst.

Um Empathie zu empfinden und äußern zu können, musst du dein Gegenüber aber erstmal analysieren und von ihm lernen. Und da wird´s eben spannend. Denn wenn die KI zusätzlich Mikromimik analysieren kann, dann kann sie das im Zweifelsfall auch gegen dich verwenden oder ganz andere Wege einschlagen. Damit wäre die KI dann in diesem Punkt den meisten Menschen überlegen. Sofern sie das natürlich richtig analysiert.

Und eine KI ist quasi (im Idealfall) das Abbild eines menschlichen Verstandes. Man kann aber nur etwas erfolgreich nachstellen, wenn man das Original zu 100% kennt.
Mhm, warum muss eine KI ein Abbild des menschlichen Verstandes sein? Wenn sich eine KI kontinuierlich selbst weiterentwickelt, dann kann der Mensch dem Ganze irgendwann nicht mehr folgen.

Klar, eine KI kann augenscheinlich(!) geradezu menschengleich sein. Aber letztlich sind das nichts anderes als definierte Parameter, auf die die KI reagiert. Eine KI wird nicht individuell reagieren und auch nicht "aus dem Bauch heraus" reagieren und agieren können.
Ich bin mir da nicht so sicher. Das Gebiet ist viel zu wenig erforscht in meinen Augen. Wir stehen hier gerade am Anfang. Daher fände ich es unglaublich spannend, wenn man eine KI durch Rekursion sich selbst weiterentwickelt lassen würde. Aber das würde natürlich entsprechend Rechenleistung kosten.

Für Teile des gesagten musst du nicht in SciFi abdriften. Die Aussage zu DNA und Programmen ist nichts weiter als eine Rückwärtsformulierung der Theorien Dawkins
Mir ging es mit den Ghost in the Shell-Beispielen primär um aufzuzeigen, das Wissenschaft, Philosophie und Religion sich nicht grundsätzlich ausschließen. Gerade auf die Religion hat die KI-Sache einen heftigen Impact. Was macht eigentlich den Mensch als Menschen wirklich aus? Und wie und in welchem Umfang verändern sich vielleicht auch die Vorstellungen von Menschen und vom Menschsein durch KI?
 
Mhm, warum muss eine KI ein Abbild des menschlichen Verstandes sein? Wenn sich eine KI kontinuierlich selbst weiterentwickelt, dann kann der Mensch dem Ganze irgendwann nicht mehr folgen.
Der Film "Transcendence" behandelt auch das Thema. Ist sehr interessant.

Allerdings wurde dort sein Bewusstsein "hochgeladen" in den Computer und hat sich dann als virtuelles Bewusstsein immer weiter entwickelt.
 
Nach meinem Verständnis, werden die Nervenbahnen (Axone) bzw Anzahl der Verknüpfungen dabei, zwischen Neuronen oder Neuronenclustern verstärkt/erhöht. Ist das so richtig?

Meinem Wissen nach werden in der Anfangsphase recht diffus sehr viele Verbindungen ausgebildet und dann selektiv die verstärkt, die die gewünschten Ergebnisse liefern und die anderen zurückgebildet. Ein trainierter Mensch nutzt deutlich weniger seines Gehirns für eine Aufgabe als ein ungeübter. Ähnlich probiert ein neuronales Netz willkürlich logische Verknüpfungsmöglichkeiten und verwirft diejenigen, die die den größten Schrott produzieren. Methotisch hat man sich das vorgehen beim KI-Training eher von der Evolution ganzer Arten abgeschaut (Mutation + Selektion), aber soweit wir wissen arbeiten Gehirne intern eben gar nicht mal so viel anders. Auf alle Fälle beruht das Verhalten neuronaler Netze auf Erfahrung, nicht auf Vorgaben – mit bekanntermaßen teils merkwürdigen bis unerwünschten Konsequenzen.
 
Ein trainierter Mensch nutzt deutlich weniger seines Gehirns für eine Aufgabe als ein ungeübter.
Das soll allgemein auch für intelligentere Menschen gelten: Intelligente Menschen haben weniger Nervenzellverbindungen

Die Gehirne sind effizienter vernetzt.

Auf alle Fälle beruht das Verhalten neuronaler Netze auf Erfahrung, nicht auf Vorgaben – mit bekanntermaßen teils merkwürdigen bis unerwünschten Konsequenzen.
An welche Konsequenzen denkst du dabei?
 
Beispielsweise lassen sich auf Verkehrsschilder trainierte Bildauswertungs-KIs durch geringfügige Änderungen nicht nur aus dem Tritt bringen, sondern zu komplett falschen Ergebnissen manipulieren. Hier z.B. ist es Forschern gelungen, ein für Menschen weiterhin nach einem kaum verschmutzen "120"-Schild aussehendes Verkehrszeichen so zu manipulieren, dass es als "Stop"-Schild erkannt wurde. Kein Mensch weiß, welche Kriterien sich die KI im Rahmen ihres Trainings zur Erkennung eines "Stop" angeeignet hat und wieso ein 120-Schild diese auch erfüllen kann. Aber offensichtlich führen die Erfahrungswerte der KI zu so einem paradoxen Ergebnis – und in diesem Fall wären die Auswirkungen, alles andere als harmlos, wenn man diese KI in einem autonom fahrenden Auto einsetzen würde.

 
Mhm, warum muss eine KI ein Abbild des menschlichen Verstandes sein? Wenn sich eine KI kontinuierlich selbst weiterentwickelt, dann kann der Mensch dem Ganze irgendwann nicht mehr folgen.
Weil es nicht möglich ist, sich irgendwas ohne jedes Vorbild zu erschaffen.

Versuch mal, etwas zu erschaffen, was weder in der Natur, noch in unserer Gesellschaft jemals da gewesen ist. Wird nicht funktionieren. Selbst abstrakteste Formen haben irgendwo ihren Ursprung, bzw. ihre Vorbilder.

Im Fall der KI ist der menschliche Verstand/das Bewusstsein das Vorbild. Sprache, verbale Äußerungen und Reaktionen etc. Alles entspringt dem Menschen. Dabei ist es irrelevant, ob die KI sich immer weiter entwickelt. Das Vorbild bleibt der menschliche Geist. :)

Natürlich kann das Vorbild einer KI auch ein Käfer oder eine Schnecke sein. Macht halt nur keinen Sinn, da Schnecken nicht verbal kommunizieren und die Psyche einer Schnecke noch weniger erforscht ist, als die Psyche des Menschen.

Edit: wir bewegen uns jetzt aber auch zu sehr von dem weg, was mein Punkt ist und weswegen ich nicht glaube, dass eine KI kein echtes Bewusstsein haben kann. Alles andere würde nun nur noch dazu führen, dass ich mich wiederhole. ^^
 
Zuletzt bearbeitet:
Folgender interner google email-verkehr ist soeben geleaked worden:

"
-- Head of personals: We have a problem here at google in this global time of recession/inflation. We have to let go some of our staff. How do we figure out who are the more intelligent to keep and who are the ones just sounding intelligent, having fooled us into thinking they were bright during the job interview?
-- Head of engineer staff: We could use their own tactics against them: Lets use this conversational AI program that we have built over the last years. We change it a little so that whenever it talks to members of our staff it tries to conn them, pretending to be conscious and maybe even sentient. We can for sure let go all the simples falling for this.
-- Head of personals: Thats what I call a win-win-situation: We can get rid of the human waste and have fun at the same time!
"
 
Zuletzt bearbeitet:
Den inhaltlichen Sinn einer Frage zu erkennen und so die richtige/passende Antwort zu geben, ist nicht der Beweis eines Bewusstseins.

Interessante Aussage. Ich bin da so ziemlich gegenteiliger Meinung. Insbesondere, weil Du das Verb "erkennen" benutzt.
Lambda macht ja genau das nicht, es identifiziert nur Worte und hat eine Datenbank mit Wahrscheinlichkeiten, was Menschen in dieser Sprachsituation noch so gesagt haben. Es erkennt/weiss nicht mal ansatzweise um die Bedeutung der Worte, die es von sich gibt.

Was wäre denn für Dich ein Nachweis, dass eine KI Bewustsein hat?




Mhm, warum muss eine KI ein Abbild des menschlichen Verstandes sein? Wenn sich eine KI kontinuierlich selbst weiterentwickelt, dann kann der Mensch dem Ganze irgendwann nicht mehr folgen.


Weil es nicht möglich ist, sich irgendwas ohne jedes Vorbild zu erschaffen.

Versuch mal, etwas zu erschaffen, was weder in der Natur, noch in unserer Gesellschaft jemals da gewesen ist. Wird nicht funktionieren. Selbst abstrakteste Formen haben irgendwo ihren Ursprung, bzw. ihre Vorbilder.

Im Fall der KI ist der menschliche Verstand/das Bewusstsein das Vorbild. Sprache, verbale Äußerungen und Reaktionen etc. Alles entspringt dem Menschen. Dabei ist es irrelevant, ob die KI sich immer weiter entwickelt. Das Vorbild bleibt der menschliche Geist. :)

Natürlich kann das Vorbild einer KI auch ein Käfer oder eine Schnecke sein. Macht halt nur keinen Sinn, da Schnecken nicht verbal kommunizieren und die Psyche einer Schnecke noch weniger erforscht ist, als die Psyche des Menschen.

Anthropozentrismus ist wohl ein sehr verbreiteter Fehler bei der Beurteilung einer KI, wie auch in vielen anderen Aufgabenbereichen: Das intelligenteste Tier auf diesem Planeten nimmt sich gerne als Massstab für alles andere. Eine KI wird sich selbst optimieren und dabei das Ideal dem Problem anpassen und nicht dem Ausgangspunkt, dem Menschen. Was dabei rauskommt ist ganz sicher nicht ein besserer Mensch, sondern etwas ganz anderes.
 
Zuletzt bearbeitet:
Ich habe ja selbst wissenschaftliche Forschungsarbeit in dem Bereich betrieben, daher möchte ich versuchen in einigen Punkten Klarheit zu schaffen.
Meinem Wissen nach werden in der Anfangsphase recht diffus sehr viele Verbindungen ausgebildet und dann selektiv die verstärkt, die die gewünschten Ergebnisse liefern und die anderen zurückgebildet.
Im Großen und Ganzen stimmt das schon mal, ein neuronales Netz startet mit Millionen bis Milliarden zufälliger Werte, bei Google sicher noch in größeren Maßstäben. Im Grunde entsteht dadurch eine riesige Matrizenoperation, weshalb man sie auch super gut durch Grafikkarten jagen kann, nicht nur bei der Ausführung, sondern insbesondere beim Training.
Ähnlich probiert ein neuronales Netz willkürlich logische Verknüpfungsmöglichkeiten und verwirft diejenigen, die die den größten Schrott produzieren.
Willkürlich ist das aber keinesfalls. Trainingsalgorithmen streben eine Minimierung des Fehlers an. Das absolute Minimum lässt sich mit einer Handvoll Trainingsparametern zwar noch mathematisch bestimmen, bei Millionen Parametern oder noch mehr fehlt uns aber die Rechenleistung. Da ein hinreichend niedriger Fehler aber ausreichend ist, lässt sich Schritt für Schritt der Wert verringern. Stellt euch eine Ebene mit Bergen und Tälern im Koordinatensystem vor. An einem zufälligen Punkt, das ist unser Startwert, lassen wir in Gedanken eine Kugel los und schauen, in welchem Tal sie liegen bleibt. Das wäre dann das erlernte Minimum. Dieses Gedankenspiel würde einem neuronalen Netz mit zwei Parametern entsprechen, das also nicht wirklich viel leisten kann, aber schon mit einem dritten Parameter wird es schwierig sich das ganze noch sinnvoll vorzustellen. Im Grunde ist das aber alles nur Mathematik, daher lässt sich das theoretisch in unendlich viele Dimensionen ausweiten, sofern die Rechenleistung stimmt.
Damit gibt es zwar strukturell Parallelen zum Gehirn, daher auch der Name "neuronale Netze", die mir bekannten Trainingsalgorithmen sind aber harte Mathematik und haben nichts mit dem Gehirn gemein. Wobei wir die Lernprozesse im Gehirn ja auch noch nicht richtig verstehen, so mein letzter Stand.
Ich bin mir da nicht so sicher. Das Gebiet ist viel zu wenig erforscht in meinen Augen. Wir stehen hier gerade am Anfang. Daher fände ich es unglaublich spannend, wenn man eine KI durch Rekursion sich selbst weiterentwickelt lassen würde. Aber das würde natürlich entsprechend Rechenleistung kosten.
Was du ansprichst, geht denke ich in die Richtung verstärkendes/bestärkendes Lernen, und das wird schon lange in der Praxis verwendet. Unter anderem dürfte AlphaGo es so geschafft haben die besten menschlichen Go-Profis zu schlagen. Sich selbst weiterentwickeln kann sie sich aber nur im Rahmen ihrer Möglichkeiten, also der Anzahl und Struktur der Parameter. Aber ich bin sicher, dass daran auch schon gearbeitet wird und sich seit meiner Forschungsarbeit einiges getan hat.
KI ist als Forschungsfeld übrigens schon deutlich älter als man glaubt. Speziell das Deep Learning, wo noch ungeahnte Möglichkeiten schlummern, ließ sich aber erst gegen die 2010er vernünftig erforschen, und wir Spieler sind da nicht ganz unschuldig. Im Grunde haben wir die Entwicklung der dazu nötigen Prozessoren (GPUs) subventioniert, die für diese Forschung notwendig sind.
Kein Mensch weiß, welche Kriterien sich die KI im Rahmen ihres Trainings zur Erkennung eines "Stop" angeeignet hat und wieso ein 120-Schild diese auch erfüllen kann. Aber offensichtlich führen die Erfahrungswerte der KI zu so einem paradoxen Ergebnis – und in diesem Fall wären die Auswirkungen, alles andere als harmlos, wenn man diese KI in einem autonom fahrenden Auto einsetzen würde.
Und genau verbindet den Einsatz noch immer mit einem gewissen Restrisiko, je nach Verantwortung, die man übertragen möchte. In einem Netz zu Klassifizierung von u.a. Fischen (und ich denke mal für viele verschiedene Tiere und ggf. andere Objekte im Allgemeinen ebenso) hat man festgestellt, woran das Netz einen bestimmten Fisch erkannt hat. Man hat nämlich den umgekehrten Weg genommen und das Netz ein typisches Bild dieses Fisches generieren lassen. Heraus kamen: Hände. Es stellt sich dann nämlich heraus, dass dieser Fisch gerne von Sportanglern gefangen und dann stolz in die Kamera gehalten wurde. Somit waren eben auch die Hände der Angler auf dem Fisch zu sehen, und daran wurde der Fisch erkannt.
Neuronale Netze sind im Grunde faul und suchen sich den einfachsten Weg. Da ist nichts gegen zu machen, außer seine Trainingsdaten sauber aufzubereiten.
 
Wie ich schon oben weiter verlinkt hatte: Gehirne von intelligenten Menschen arbeiten auch weniger , wenn sie bestimmte Aufgaben lösen. Also Ähnlichkeiten sind da.:D
Und deshalb lässt man vom trainierten neuronalen Netz oft nur die verstärkten Verbindungen übrig und löscht die anderen vor der Serienproduktion der Hardware/Freigabe der Software, weils weniger Aufwand darstellt.

Vor dem Training ist das aber genau umgekehrt zu Deiner Aussage, denn nicht nur das Lösen von bekannten/trainierten Problemen gehört zum Begriff "intelligent" sondern auch das Lernen neuer Zusammenhänge. Hierbei zeichnen sich intelligente Gehirne/Netze eben durch besonders viele Neuronen und Verknüpfungen aus. Dass darf man auch nicht ausser Acht lassen.
... Da ist nichts gegen zu machen, außer seine Trainingsdaten sauber aufzubereiten.
Es geht eben nix über gute Erziehung/Bildung.
 
Vor dem Training ist das aber genau umgekehrt zu Deiner Aussage, denn nicht nur das Lösen von bekannten/trainierten Problemen gehört zum Begriff "intelligent" sondern auch das Lernen neuer Zusammenhänge. Hierbei zeichnen sich intelligente Gehirne/Netze eben durch besonders viele Neuronen und Verknüpfungen aus. Dass darf man auch nicht ausser Acht lassen.
Achso. Aber man kann glaube ich trotzdem sagen, dass Gehirne von intelligenten Menschen, generell weniger stark verknüpft sind als die von normal Intelligenten.
 
Zuletzt bearbeitet:
Achso. Aber man kann glaube ich trotzdem sagen, dass Gehirne von intelligenten Menschen, generell weniger stark verknüpft sind als die von normal Intelligenten.
Würde ich so auch nicht sagen. Untersuchungen im CT haben eher ergeben, dass intelligentere Gehirne beim Lösen von Problem weniger verteilte Aktivität zeigen, aber sicher nicht weniger komplex vernetzt sind, denn sonst könnten sie ja komplexe Probleme nicht lösen. Die Schlussfolgerung daraus ist, dass sie nur die "richtigen" bzw logischen Verknüpfungen benutzen bzw. verstärkt haben und sich deshalb nicht so viel Mühe geben müssen. Man kann auch sagen, dass diese Gehirne sich besser konzentrieren können.
Eine weitere Erklärung, die aber noch nicht eindeutig nachgewiesen ist, wenngleich die Schlußfolgerung durchaus nahe liegt, ist, dass diese Gehirne eine Information länger im feedback halten können, bevor sie sich verliert.
 
Zurück