Künstliche Intelligenz - Fluch oder Segen?

Und das ist keine KI.
Dann haben wir derzeit keine KI, weil die Programme grundsätzlich nur nach menschlichen Vorgaben arbeiten, im Falle ChatGPT sogar massive Korrekturen einführen, weil es ansonsten die Antworten komischer Weise schnell ins rassistische abgleiten, wie vor Wochen ja durch die Presse ging.


Doch die können lernen.

Der link ist gut, weil dieser Textabschnitt ist für mich der interessanteste darin:
1689157431637.png
 
Zuletzt bearbeitet:
Und was ist wenn deine Erfahrung auch auf Fehl oder Fake-Informationen basiert?
Wie im Film "Truman Show" z.B.? Oder Matrix wo eine Realität vorgegaukelt wird?

Das ist doch 1 zu 1 auf KI auch übertragbar.
Wir reden nicht von Fake oder Fehlern?
Wenn ein Mensch alt und dement oder manipuliert wird kann man das doch nicht als Grundlage für "normale " Vorraussetzungen nehmen?

Stell Dir vor KI wird gehackt und der sagt ohne murren und zu Knurren der Mensch hat Kiemen, um jetzt mal an dem Beispiel zu bleiben.
Doch die können lernen.

Wenn Du das so meinst, ok!
Ich sehe es aus technischer Sicht, die können Datenbanken erweitern und kombinieren.
Mehr nicht.



Der @Olstyle kennt sich damit besser aus. Der kann vielleicht noch was dazu schreiben wenn er Zeit und Lust hat. :daumen:
Naja immer ein offenes Ohr!
 
Dann haben wir derzeit keine KI, weil die Programme grundsätzlich nur nach menschlichen Vorgaben arbeiten, im Falle ChatGPT sogar massive Korrekturen einführen, weil es ansonsten die Antworten komischer Weise schnell ins rassistische abgleiten, wie vor Wochen ja durch die Presse ging.
Ich habe jetzt nicht alles gelesen, vielleicht gab es das Thema ja schon...

Ich finde das Thema mit dem "lernen" auch schwierig, weil sich ja die (meisten) KIs nur auf ein Thema spezialisiert/programmiert sind.
Ist dann immer die Frage, ist das wirklich eine KI?
Aber im Gegensatz kann man auch fragen:
Mal angenommen ich hänge ein Kleinkind an einen Tropf und wechsele immer die Windeln und das einzige was ich ihm vorsetze sind Informationen zu Schach, dann wird es wahrscheinlich im Grunde auch hinterher nur Schach spielen können.
Und ich würde sagen so ähnliches gilt halt auch für KI.
Wenn man einen heutigen Großrechner 19 Jahre lang mit Programmen und Informationen füttert und Zeit zum lernen/beobachten gibt, könnte er vermutlich auch ein Abi bestehen, Schach spielen, etc.
Wir können ja nicht so tun als hätten wir alles gelernt, ohne das uns jemand was beigebracht hat (quasi haben uns ja unsere Eltern/Lehrer/etc unseren Basiscode beigebracht).
Denn auch der Mensch macht ja eigentlich nichts anderes als von anderen Menschen zu lernen und wenn er schlau ist, eigene Verknüpfungen zu bilden.
Und das macht die KI ja auch. Die GO KI z.B. hat ja auch anders gespielt, als menschliche Spieler das gewohnt waren, wenn ich mich recht entsinne.
 
Und das macht die KI ja auch. Die GO KI z.B. hat ja auch anders gespielt, als menschliche Spieler das gewohnt waren, wenn ich mich recht entsinne.
Chat GPT hatte vor einigen Wochen (oder schon Monaten) aufeinmal Sprachen gelernt welche nicht vorgesehen waren. Da waren sogar die Entwickler von überrascht. :D
 
Ich habe jetzt nicht alles gelesen, vielleicht gab es das Thema ja schon...

Ich finde das Thema mit dem "lernen" auch schwierig, weil sich ja die (meisten) KIs nur auf ein Thema spezialisiert/programmiert sind.
Ist dann immer die Frage, ist das wirklich eine KI?
Aber im Gegensatz kann man auch fragen:
Mal angenommen ich hänge ein Kleinkind an einen Tropf und wechsele immer die Windeln und das einzige was ich ihm vorsetze sind Informationen zu Schach, dann wird es wahrscheinlich im Grunde auch hinterher nur Schach spielen können.
Und ich würde sagen so ähnliches gilt halt auch für KI.
Wenn man einen heutigen Großrechner 19 Jahre lang mit Programmen und Informationen füttert und Zeit zum lernen/beobachten gibt, könnte er vermutlich auch ein Abi bestehen, Schach spielen, etc.
Wir können ja nicht so tun als hätten wir alles gelernt, ohne das uns jemand was beigebracht hat (quasi haben uns ja unsere Eltern/Lehrer/etc unseren Basiscode beigebracht).
Denn auch der Mensch macht ja eigentlich nichts anderes als von anderen Menschen zu lernen und wenn er schlau ist, eigene Verknüpfungen zu bilden.
Und das macht die KI ja auch. Die GO KI z.B. hat ja auch anders gespielt, als menschliche Spieler das gewohnt waren, wenn ich mich recht entsinne.
Ich sehe das (im Moment) sehr ähnlich.
Solche "primitiv" KI nutzen ja auch heute schon sehr viele Menschen, wenn z. B. mein Navi im PKW "lernt", wie meine Fahrtroutinen sind.
Wo dann irgendwann die grenze gezogen werden kann, dass eine KI nicht nur lernt und vorgegbene Programmroutinen ausführt, sondern lernt und versteht und ohne Programmroutinen eigenständig Entscheidungen trifft, weiss ich auch nicht so genau.

ChatGPT enttäuscht mich z. B. gewaltig.
Zuerst habe ich mich gefragt, woher dieser Wortschwall kommt.
Wenn man dann aber Absätze wieder zurück ins Netz spiegelt, stellt man ganz schnell fest, dass GPT sehr oft inhaltliche passende Texte schlichtweg abpinnt, diese dann gleich mehrfach in dem eigene Text wieder verwendet (vermixt und Wörter umstellt) und dadurch umfangreiche, ausschweifende Antworten kommen.

Yo, mei, erweiterte schnellere Internetrecherche, thats all.
Für Doktorarbeiten nur bedingt geeignet.
 
Wir entscheiden ja nicht nur durch Fakten, da ist noch das Bauchgefühl da, Emphatie, Erfahrung, politische Lage, persönliche Situation und Nutzen, Glaubensausrichtung, Mitleid, Hass, Frust, was wird von der Entscheidung erwartet,Vorbildfunktion, VErbundenheit, Verantwortlichkeit, Haftbarkeit, Risiko Leib und Leben, und vieles mehr.

Hat eine KI garnicht!
 
Dann haben wir derzeit keine KI, weil die Programme grundsätzlich nur nach menschlichen Vorgaben arbeiten, im Falle ChatGPT sogar massive Korrekturen einführen, weil es ansonsten die Antworten komischer Weise schnell ins rassistische abgleiten, wie vor Wochen ja durch die Presse ging.
Sag ich doch seit Jahren.
KI gibt es nicht, nur Algorithmen, die ablaufen.
Wir entscheiden ja nicht nur durch Fakten, da ist noch das Bauchgefühl da, Emphatie, Erfahrung, politische Lage, persönliche Situation und Nutzen, Glaubensausrichtung, mitleid, Hass, Frust, was wird von der Entscheidung erwartet,Vorbildfunktion und vieles mehr.

Hat eine KI garnicht!
Emotionale Intelligenz. Sowas kann eine Maschine nicht besitzen.
 
Naja, unser Bewusstsein und Denken basiert eigentlich auch auf Schaltzuständen. Und zwar denen im Gehirn.
Wie die Neuronen verküpft sind. Und darüber werden per chemischen Botenstoffen elektrische Impulse übertragen.
Man kann das doch künstlich nachbilden. Mit neuronalen Netzen.

Hier wird immer so getan als wäre der menschliche Geist ein Mysterium was unerklärbar und nicht erreichbar ist.
Klar das Gehirn ist megakomplex aber basiert auch auf Naturgesetzen.
 
@soulstyle hat oben eigentlich schöne Beispiele gebracht.
U. A. Religion
Über Sinn und Unsinn kann man an anderer Stelle streiten.

Fakt ist, dass Religionen DEN maßgeblichen Einfluss auf die menschliche Kultur gehabt haben oder noch haben werden.
Eine KI kann mit Sicherheit viel schneller Koran oder Bibel lesen und zitieren als ein Mensch.

Sie wird aber m. E. nie in der Lage sein zu verstehen, warum Menschen glauben.

Weil Themen wie Seelenfrieden, Geborgenheit, Dazugehörigkeit bzw. die dabei entstehenden Gefühle bei jedem einzelnen Menschen nie in Bits and Bytes ausgedrückt werden können.
 
Religion und Glauben ist kein Kriterium für Intelligenz.
Es gibt auch viele Menschen die nicht religiös sind.
 
Fakt ist, dass Religionen DEN maßgeblichen Einfluss auf die menschliche Kultur gehabt haben oder noch haben werden.
Eine KI kann mit Sicherheit viel schneller Koran oder Bibel lesen und zitieren als ein Mensch.
der Homo Sapiens ist rund 300.000 Jahre alt., Hochkulturen gab es auch schon vor 4000 Jahren.
Wieso sollten monotheistische Religionen, die vielleicht 2000 Jahre alt sind, einen so großen Einfluss haben?
Schließlich hat die monotheistische Religion in Europa die Entwicklung maßgeblich blockiert.
Sie wird aber m. E. nie in der Lage sein zu verstehen, warum Menschen glauben.
Niemand versteht, warm jemand glaubt.
Weil Themen wie Seelenfrieden, Geborgenheit, Dazugehörigkeit bzw. die dabei entstehenden Gefühle bei jedem einzelnen Menschen nie in Bits and Bytes ausgedrückt werden können.
Gefühle sind chemische Abläufe. Das kann man messen und man kann so erklären, wieso Geschwister sch nicht sexuell anziehen,
 
der Homo Sapiens ist rund 300.000 Jahre alt., Hochkulturen gab es auch schon vor 4000 Jahren.
Wieso sollten monotheistische Religionen, die vielleicht 2000 Jahre alt sind, einen so großen Einfluss haben?
Schließlich hat die monotheistische Religion in Europa die Entwicklung maßgeblich blockiert.
Wer sagt was von monotheistischen Religionen?
Ich habe allgemein über Religionen als Kulturbringer geschrieben.
Das Beispiel des Zitierens von Bibel oder Koran war doch nachgestellt als Beispiel... :huh:
Ich kann auch mal ChatGPT nach Manito befragen.
Da gibts praktisch nix außer mündliche Überlieferungen und wenn dann die KI ein Bildchen von einem Totempfahl zeigt, ist sie zu 110% falsch.
Niemand versteht, warm jemand glaubt.
Genau
Gefühle sind chemische Abläufe. Das kann man messen und man kann so erklären, wieso Geschwister sch nicht sexuell anziehen,
Bei Gefühlen werden Endorphine usw. ausgestoßen.
Sie sind ein Indikator, dass Gefühle im Kopf entstehen, erklären aber nicht den Grund, warum wir lieben, hassen oder sonst was.
Der klassische Serienmörder hat das Problem, dass er zwangsweise seinen chemischen Botenstoffen folgen muss, sprich seine Gefühle nicht mehr unter Kontrolle hat.
 
Der klassische Serienmörder hat das Problem, dass er zwangsweise seinen chemischen Botenstoffen folgen muss, sprich seine Gefühle nicht mehr unter Kontrolle hat.
Der Serienmörder hat das Problem, dass er kein Mitgefühl besitzt.
Wieso Menschen zu Serientätern werden, ist völlig ungeklärt. Da haben 3 Psychologen 6 Meinungen.
Nicht jeder, der als Kind eine Katze ertränkt, wird als Erwachsener zum Serienmörder, aber die Wahrscheinlichkeit, dass er es wird, ist größer.
 
Der Serienmörder hat das Problem, dass er kein Mitgefühl besitzt.
Wieso Menschen zu Serientätern werden, ist völlig ungeklärt. Da haben 3 Psychologen 6 Meinungen.
Nicht jeder, der als Kind eine Katze ertränkt, wird als Erwachsener zum Serienmörder, aber die Wahrscheinlichkeit, dass er es wird, ist größer.
Den Kontext mit Chemie kam von dir :D
Erklär also obiges von dir einer KI und wir schauen mal, wie viele Jahr esie braucht, um die Thematik überhaupt errechnen zu können...
 
Zurück