Künstliche Intelligenz - Fluch oder Segen?

Entscheidungen sollten auf Fakten basieren und nicht auf Glauben.
Entscheidest DU und der Rest der Welt immer ehrlich und auf Fakten?
Mit Sicherheit nicht!

Es ist immer mit einer Interesse verknüpft, eine KI hat keine Interesse :P
Beispiel Reperatur eine witrschaftlichen Totalschaden eines historischen Autos.
Fakt, Auto ist wertlos.
Interesse und Denkmalschutz, Auto ist unbezahlbar.
Mann müsste es programmieren aber so individuell wird schwierig.
 
Meine Meinung nach nicht notwendig für eine K.I.
Sehe ich auch so. Es gibt ja auch Menschen, die keine Gefühle/Empathie haben.
Das sind ohne Frage oft/manchmal Soziopathen und tickende Zeitbomben, aber manche schaffen es auch damit klarzukommen, ohne "durchzudrehen".
Aber man kann diesen Menschen mit Sicherheit nicht absprechen, das sie intelligent sind, oder?
 
@compisucher wie Du bereits erahnt hast es wird bizarr, KI´s mit Soziophaten und tickenden Zeitpomben zu vergleichen.
Genau mein Humor, und dann einem KI Inteligenz zu zusprechen und voll vertrauen?
Ich mache es einfach nicht, ich vertraue dem KI bis zu gewissen Grenzen und solange ich eingreifen
kann, nicht mehr nicht weniger.
 
Im Prizip ist das was ich meine, der Mensch wird immer eingreifen müssen.
Es wird den Menschen mit Sicherheit sehr stark nutzen.
Daran zweifle ich nicht aber die werden nie vollumfänglich autark sein.
Da hast du mich aber falsch Verstanden.

Ich meinte das die Systeme schon völlig Autark arbeiten können und auch das es auf Dauer nicht ein System sondern mehrere Systeme gibt die wie wir als Personen völlig eigenständig denken und ihrer selbst geschriebenen Programmierung folgen können.

Von außen halte ich es aber für unwahrscheinlich das ein Computer dir die Kontrolle über deine Gedanken diktieren oder steuern kann. Dementsprechend würde ein Datentransfer (wie immer der aussehen sollte) über ein Biologisches Gehirn eine Absicherung gegen schädlichen Code bedeuten. Sofern man der Person wirklich trauen kann, aber ich glaube wenn ein Computer eine komplette Kopie von einem Gedächtnis abscannen kann. Kann er dich auch einschätzen ob du Loyal oder nicht handelst.

Demensprechend greift der Mensch gar nicht ein, die Systeme entscheiden wo der Mensch eingreifen soll bzw. darf.
Im Groben und ganzen wird eine KI aber den Menschen abschütteln und völlig autark Eigentständig arbeiten können - sobald es Roboter Körper gibt die ähnlich gleich viele oder umfangreichere Funktionen aufweisen wie der Menschliche Körper. (siehe Boston Robotics)
Entscheidungen sollten auf Fakten basieren und nicht auf Glauben.
Religion - Gott kann man immer über die Existenz stülpen. Selbst ein computerisiert denkendes System kommt an dem Punkt das Fakten für die Existenz fehlen - an dem Punkt ist Gott und Glaube auch für ein KI System nicht mehr weit.
 
Sehe ich auch so. Es gibt ja auch Menschen, die keine Gefühle/Empathie haben.
Ahhh... denke ich nicht.
Es gibt welche die haben kein Mitgefühl für andere, aber sind total selbstverliebt oder mögen andere Dinge...äh...ja.
Das Thema Gefühl/Empathie ist bei jedem drinnen, nur sind mache so extrem, das der Rest der Menschheit es nicht versteht.
Das sind ohne Frage oft/manchmal Soziopathen und tickende Zeitbomben, aber manche schaffen es auch damit klarzukommen, ohne "durchzudrehen".
Aber man kann diesen Menschen mit Sicherheit nicht absprechen, das sie intelligent sind, oder?
Jeder Mensch hat auf die eine oder andere Art einen Schuss weg, ist so.
Bei den meisten fällts nicht auf oder das dünne zivilisatorische Deckmäntelchen bewahrt den Rest von Schlimmeren.


Ich sehe eben eine primäre Gefahr bei KI darin, dass winzige Informationshäppchen aus jenem Bereich, der landläufig als abnormal tituliert wird, irgendwo in der Tiefe der Speicher abgelegt sind und je Intelligenter so ne KI wird, sie aus dieser Information ihre ganz eigene Weltanschauung zusammenbastelt.
Wenn man so mag, evolutionäres Lernen.

Fiktives Beispiel.
Vor Monaten kursierten Clips von durchgeknallten Last Gen Aktivisten aus USA im Netz, die sich in einer kleinen Halle (200 Leute?) gegenseitig derart aufgehetzt hatten, dass am Schluss einige Damen sinngemäß riefen:
Wir müssen unser Kinder töten und aufessen, damit wir das CO2 senken und die Welt retten.

Yo, mei, vermutlich denken jetzt 101% der Mitleser, na die haben aber gewaltig einen an der Waffel.

Jetzt stellen wir uns also eine hochentwickelte KI im Jahre 2050 vor, die uns Menschen von zentraler Stelle hilft, die Unbillen der Welt in den Griff zu bekommen.
Und per Zufall verarbeitet sie bei der Problemlösung genau diesen Infofetzen aus dem Jahre 2023.

GENAU genommen hat die irre Dame von damals insofern recht, als dass das größte Problem der Menschheit die Menschheit selbst ist.
WENN nun die KI, wie oben diskutiert, total intelligent ist, aber keinerlei Empathie/Gefühl zu ihrem Erschaffer hat, dann wird aus logischen und nachvollziehbaren Gründen der Erschaffer eliminiert.

Die Logik, den biologischen Datensatz von tausenden anderen Spezies erhalten zu können, wenn dafür nur eine übern Jordan gehen muss, dürfte sonnenklar sein.

Insofern viel Freude bei der Weiterentwicklung von nur intelligenter KI. :D
 
Ahhh... denke ich nicht.
Es gibt welche die haben kein Mitgefühl für andere, aber sind total selbstverliebt oder mögen andere Dinge...äh...ja.
Das Thema Gefühl/Empathie ist bei jedem drinnen, nur sind mache so extrem, das der Rest der Menschheit es nicht versteht.
Da wäre ich mir nicht so sicher:
Psychopathie bezeichnet heute eine schwere Persönlichkeitsstörung, die bei den Betroffenen mit dem weitgehenden oder völligen Fehlen von Empathie, sozialer Verantwortung und Gewissen einhergeht.
 
Es dauert noch lange bis es eine echte KI geben wird.
Und ja, die wird viel wissen und können.
Die Entwicklung geht halt deutlich schneller als bei einer "normalen" Intelligenz.
Alleine die Lernkurve ist deutlich höher als bei Menschen bzw Tieren.
Wie lange braucht ein Mensch nochmal um eine Sprache perfekt zu beherrschen?
 
Den Kontext mit Chemie kam von dir :D
Erklär also obiges von dir einer KI und wir schauen mal, wie viele Jahr esie braucht, um die Thematik überhaupt errechnen zu können...
Chemie ist das ja immer. Botenstoffe, Pheromone, Hormone. Alles ist letztendlich Chemie und wenn ich meine Frau anschaue, dann kann ich nicht sagen, dass ich jemals verliebt war oder so, weil ich gar nicht weiß, wie ich das definieren soll. Heute ist das wohl Bequemlichkeit.
Vielleicht gibt es woanders die perfekte Frau, aber ich habe keine Lust zu suchen. :ugly:
Klingt nach einem perfekten Lebensabschnittspartner mit einer KI...
Die Frage wird irgendwann sein, ob man eine Beziehung mit einer KI eingehen kann und ob man Gesetze anpassen muss?
 
wenn ich meine Frau anschaue, dann kann ich nicht sagen, dass ich jemals verliebt war oder so, weil ich gar nicht weiß, wie ich das definieren soll. Heute ist das wohl Bequemlichkeit.
Vielleicht gibt es woanders die perfekte Frau, aber ich habe keine Lust zu suchen. :ugly:

Die Frage wird irgendwann sein, ob man eine Beziehung mit einer KI eingehen kann und ob man Gesetze anpassen muss?
Also wenn ich das alles so lese, erweckt sich der Verdacht, das Du vieleicht eine KI bist? :ugly: :lol:
 
M. E. "bewertet" sie diese Infos nicht.
Sie kann immer nur nach 1 und 0 oder "true" und "false" operieren, den Befehl "maybe" gibts ja nicht.
Sei bekommt die Digitalinfo über eine Kuh: dick, voluminös
Die nahezu gleiche Info steckt in Kumuluswolken: dick, voluminös, schwebend
Daraus errechnet sie quasi Schnittmengen.
Und TaTa:
Haste schwebende, dicke Kühe mit Kumuluswolke als Kopfschmuck im Clip

"Mabye" gibt es sehr wohl, genaugenommen ist das das Kernelement vieler neuronaler Netze: "53% Kuh", "10% voluminös", etc.. Die aktuell gehypten Modelle beherschen dabei auch in einem gewissen Maß Kontexte => "das ist 57% Kuh wenn Begriff X im Umkreis von Y Wörtern auch auftauchte" "aber nur wenn auch Begriff Z da stand. Wenn es stattdessen N war und A mal vorbeikam, sind es nur 43% Kuh".

Allerdings sind die KIs heute noch nicht integrativ und auch nicht alle auf dem gleichen Stand. ChatGPT dürfte oberes Kontextverständnis haben, kann aber keine Bilder und hier vermutlich nur ein Script für eine bildgebende KI geschrieben - und geschrieben hat es das nach den Maßstäben, die es für "Script" kennt, also an Menschen gerichtete. Die bildgebende KI wurde ihrerseits aber höchstwahrscheinlich nie mit Szenenbeschreibungen aus Drehbüchern und den zugehörigen Filmen trainiert, sondern mit getaggten Einzelbildern. Das Übergabeformat zwischen den beiden beteiligten KIs ist also unbrauchbar.

Und die Zuverlässigkeit von Bild auswertenden oder generierenden KIs in der Regel auch. Wenn "Kuh"-Bilder im Trainingssatz selbige zum Beispiel immer auf grüner Weide unter blauem Himmel zeigten, hat die KI nie ein Bewusstsein für die Abgrenzung zwischen den dreien entwicklen können. Der Versuch einer Fisch-Erkennungs-KI hat man mal wunderbar kleinste Unterschiede in Anglerhosen ausgewertet, die auf praktisch allen Fotos im Hintergrund waren :ugly: .

Zudem ist sowas immer nur 2D, während wir die "Fehler" im Film anhand unseres räumlichen Wissens erkennen. Die für uns schwebende Kuh ist einfach nur ein Bild, in dem die KI den grünen Bereich von "Kuh" etwas anders gemalt hat, weil ihr nie jemand die nötigen Infos gegeben hat, an der sie die grüne Fläche als !ebene! "Wiese" unter dem freistehenden Objekt "Kuh" hätte erlernen können. (Aus dem Grund dürfte Midjourney auch so gerne Tiere mit einem dicken Vorder- oder Hinterbein malen, wie sie auch zu sehen waren: Aufgrund der Schrittfolge stehen Kühe/Pferde/... auf den meisten Bildern so, dass ein Bein ein anderes verdeckt und drei Säulen zu sehen sind. Wenn eine KI mangels 3D keine Tiefeninformationen erhält und auch nicht anhand von Bewegtbildern lernt, kann sie dieses Bildartefakt nicht als solches erkenenn, sondern wird es reproduzieren.)
Ich sehe das (im Moment) sehr ähnlich.
Solche "primitiv" KI nutzen ja auch heute schon sehr viele Menschen, wenn z. B. mein Navi im PKW "lernt", wie meine Fahrtroutinen sind.
Wo dann irgendwann die grenze gezogen werden kann, dass eine KI nicht nur lernt und vorgegbene Programmroutinen ausführt, sondern lernt und versteht und ohne Programmroutinen eigenständig Entscheidungen trifft, weiss ich auch nicht so genau.

Der Unterschied kommt in dem Moment, wo die KI selbst reflektiert vorgehen kann. ChatGPT kann das vermutlich nicht und Llamda hat das auch nur der eine Entwickler unterstellt. Da niemand die innere Arbeitsweise wirklich versteht, kann man es zwar nie ausschließen, aber entsprechende Fähigkeiten wären eine Zufallsentwicklung aus der KI selbst heraus. Bard dagegen hat man wohl schon gezielt beigebracht, beispielsweise mathematische Fragestellungen als solche zu erkenenn und dann die gestellte Rechenaufgabe nicht anhand der eigenen Textgenerierung zu beantworten ("Texte mit der Frage 1 plus 1 enthielten oft auch die Antwort 3" oder so ähnlich), sondern stattdessen einen Programmcode (!) zu formulieren, der die korrekte Lösung von der CPU strikt logisch arithmetisch berechnen lässt.


Forscher arbeiten da ja dran. Es ist nur eine Frage der Zeit.
Weil unser Bewusstsein wie gesagt auf Naturgesetzen basiert.

Könnte eine lange Zeit werden. Soweit unsere schriftlichen Aufzeichnungen zurückreichen, also wenigstens so 3000-4000 Jahre, machen sich Forscher schon Gedanken über den menschlichen Geist. Ich will nicht sagen, dass es in den letzten Jahrzehnten keine Forschritte gegeben hat, aber von einem umfassenden Verständniss sind wir noch immer SEHR weit entfernt und bei ganz vielen Teilfragestellungen steht man einfach vor einem methodischen Problem: Man kann mit dem menschlichen Bewusstsein keine Experimente machen. Oft schon aus rein praktikabeln Gründen, weil es sich nicht präzise manipulieren lässt, vor allem aber aus ethischen Gründen weil ein paar hundert tote Versuchsobjekte je Versuchsreihe bei Homo sapiens nicht ganz so akzeptiert sind wie bei z.B. Caenorhabditis elegans (der aber kein Bewusstsein zur Schau stellt, dass man erforschen könnte).

Wo man Erkenntnisse nicht durch gezielte Überprüfung sichern kann, ist es aber schwer darauf aufzubauen. In den Naturwissenschaften kommt nur selten mal jemand vorbei und zieht unten einen Stein auf dem Erklärungsgebäude. Da hat man eine solide Struktur, die das Forschungsobjekt erklärt und jedes Jahr baut man eine weitere Lage oben auf, die neue Erkenntnisse erschließt. In den Humanwissenschaften im weitesten Sinne ist es dagegen vollkommen normal, dass es zu jeder Fragestellung dutzend einander widerprechende Erklärungsversuche gibt und jeder sich nach seinem eigenen Gutdünken und ohne empirische Grundlage eine rauspickt, auf deren Basis er weiter zu denken versucht. Steter Fortschritt? Fehlanzeige. Wer sich mit Geisteswissenschaften beschäftigt kann oft nicht einmal EINE Antwort auf die Frage geben, was ein bestimmter Begriff überhaupt bedeutet, weil es zehn konkurriernde Antworten gibt. Man stelle sich Astronmen vor, wenn Urknalltheorie, Heliozentrisches, Ptolemäisches und Turtles-all-the-way-Weltbilder parallel und gleichberechtigt nebeneinander existieren würden. Fortschritt? Kaum möglich.


Entscheidungen sollten auf Fakten basieren und nicht auf Glauben.

Sag das AFD-Wählern!
(Und damit zurück zum Thema "Dinge mit Intelligenz")


Sehe ich auch so. Es gibt ja auch Menschen, die keine Gefühle/Empathie haben.
Das sind ohne Frage oft/manchmal Soziopathen und tickende Zeitbomben, aber manche schaffen es auch damit klarzukommen, ohne "durchzudrehen".
Aber man kann diesen Menschen mit Sicherheit nicht absprechen, das sie intelligent sind, oder?

Man kann sogar noch weiter stellen und eine perfide Fragen stellen: Kann es sein, dass diese Menschen einfach nur bewusster und selbstkritischer/-analytischer sind? Es gibt genug Menschen, die einen Ball präzise werfen können, die aber nicht erklären können, wie sie das machen, obwohl die zugrunde liegende Physik für einen Wissenden sehr simpel ist. Vielleicht geht es der Mehrheit der Menschen genauso mit Emotionen? Sie arbeiten ständig damit, verstehen/sehen aber nicht, wo sie herkommen. Einige wenige verstehen dagegen ihre inneren Prozesse und können sie entweder laufen lassen, was dann zu scheinbar normalen Emotionen führt oder in diese "Simulation" eingreifen. (Oder sie ganz sein lassen, was dann psychopathisch wird.)

Diese Fragen meine ich übrigens nicht rhetorisch, sondern als überlengeswertes Gedankenexperiment: Wir wissen zum Beispiel aus historischen Beispielen, wie extrem leicht es ist die eigentlich universelle Emotion "Empathie gegenüber Mitmenschen" durch Prozesse des Bewusstseins auszuhebeln. Massenmedien wirken zum Beispiel ausschließlich über das Bewusstsein, denn Homo sapiens hat keine angeborenen Routinen, die Inhalte von gelesenem Text direkt in den Hypothalamus weiterleiten würden. Ebenso wenig ist Homo sapiens instinktiv in der Lage, z.B. "Juden" und "Nichtjuden" zu differnzieren und besagte Empathie nur auf eine von beiden Gruppen anzuwenden. Millionen von Nazi-Deutschen haben nach dem Konsum besagter Medien aber genau das gemacht. Ihre Emotionsentwicklung muss durch Bewusstseinsprozesse maßgeblich umgestaltet worden sein. Dies bewusst bei anderen zu machen ist also offensichtmöglich, es bewusst bei sich nachvollziehen zu können entspräche bereits deinem "Empathie Simulanten".

Und nach genau dieser Vorlage könnte auch eine KI menschliche Emotionen entwicklen. Oder simulieren.
Oder manipulieren...


Die Logik, den biologischen Datensatz von tausenden anderen Spezies erhalten zu können, wenn dafür nur eine übern Jordan gehen muss, dürfte sonnenklar sein.

Insofern viel Freude bei der Weiterentwicklung von nur intelligenter KI. :D

Und diese Dystopie baut noch darauf auf, dass die KI das logisch beste für die Mehrheit der Spezies erreichen will oder gar für die Mehrheit der Menschen und ihr nur der Respekt für das Leben von ein paar Individuen fehlt. (Letzteres ist, ehrlich gesagt, bei einem System dass aus der Kollektivität des Internets gebildet wurde, nicht nur denkbar, sondern sogar ziemlich wahrscheinlich. Ich liste jetzt mal nicht die einschlägigen Webseiten auf, auf denen man nachlesen kann, wie Menschen tief drin drauf sind.)
Was wohl so alles passieren kann, wenn die KI zu dem Schluss kommt, dass biologische Arten ihr eigentlich am Afterburner vorbeigehen und sie das Beste für KIs anstreben sollte?
 
Zuletzt bearbeitet:
Vielleicht liegt das daran, wer mit dem Chatbot arbeitet? :D
Während des Trainierens und Testens haben das nur Leute benutzt, die mit dem Thema vertraut waren und einen hohen Bildungsstand haben.
Danach ging er an die Öffentlichkeit und zunächst haben sich auch hier erstmal hauptsächlich Leute, die sich für das Thema interessieren (Tekkis, Journalisten, etc) draufgestürzt.
Und jetzt, wo er im der Durchschnitt der Bevölkerung angekommen ist, verdummt er?
*scnr* ;)
 
Zumindest offiziell wird ChatGPT afaik nicht mit den eingegebenen Daten trainiert, sonder verharrt auf seinem alten Wissensstand plus ein Bisschen bugfixing. Eigentlich sollten also auch die Ergebnisse konstant sein. Aber was definitiv sinkt, ist das journalistische Niveau:
"niemand weiß ..." steht neuerdings für "wir waren zu faul, die Firma dahinter zu fragen, die alle Fäden in der Hand hält und regelmäßig daran herumzieht" :wall: :wall:
 
Ich stehe KIs nach vie vor skeptisch gegenüber.
Vieleicht auch nur weil ich der Meinung bin das ohne eigenem Bewußtsein und Emotionen der Begriff Inteligenz nicht ganz zutreffend ist bzw. daraus keine Inteligenz hervorgehen kann. Eine Inteligenz stützt sich schließlich nicht nur allein auf Wissen, sondern auch auf Erfahrungen (welche auch Emotionen beinhalten bzw. hervorgerufen werden können), vieleicht auch Glauben, wodurch sich eine eigene Meinung erst entwickeln kann. KIs scheinen derzeit nur sehr spezifisch entwickelt zu werden, was mit dem denken und erlernen o.a. entdecken so wie wir Menschen das tun nur im weitesten Sinne eine Gemeinsammkeit finden.

Vieleicht sollten KIs mehr über den Alltag von Menschen erfahren, sie begleiten, um vieleicht auch emotionale Eindrücke erfahren und auch einordnen zu können. Ich denke das dies ein wichtiger Aspekt ist, so oder so wenn wir diese in der Zukunft mehr und mehr in unseren Alltag integrieren möchten.
Dazu gehört für mich auch, das eine KI nicht nur lernt was Menschen denken, sondern auch wie sie denken.

Soviel zu meiner Meinung. Wie sieht ihr das?
 
Zurück