News ChatGPT zu "politisch korrekt": Elon Musk fährt TruthGPT als Konkurrenz auf

Olle Elon hat die Angewohnheit, die Tweets zu löschen, mit denen er Verschwörungstheorien verbreitet... nachdem er genug Gegenwind und Zustimmung bekommen hat.
Siehe beim Angriff auf Paul Pelosi.
 
Ich Rede nicht von Quellen, sondern davon dass wenn man dem System eine Geschichte erzählt und dann die Geschichte abfragt Falsche antworten kommen. oder anders ausgedrückt es ist nicht mal in der Lage eine Zeile drüber korrekt wiederzugeben.
Das ist wirklich hart.
Ich hab auch ein bisschen rumgespielt und bspw. Code für eine Mod von X4 prüfen lassen.

Erst erzählt mir ChatGPT es wäre eine Mod für Elite Dangerous. Rauszubekommen, warum ChatGPT es dafür hält war schon mal ein Krampf. Aber ok, war ja auch keine übliche Frage.

Viel schlimmer fand ich, dass ich noch so oft mitteilen konnte: "Ja, ich verstehe warum du glaubst es sei eine Mod für ED, aber nein, es ist eine für X4."
Und trotzdem hat es ChatGPT nicht einmal geschafft mir direkt danach die Frage zu beantworten, für welches Spiel die Mod ist.

Also dieses inkonsistente Verhalten innerhalb einer Unterhaltung find ich auch übel.

Ansonsten aber schonmal recht beeindruckend.

Um den Bogen zum Thema zu kriegen: TruthGPT wird nichts besser machen, es wird wie alle LLM mehr oder weniger gleich funktionieren. Nur mit ganz klarer politischer Färbung.
 
Warum man immer die politische Agenda mitspielen lassen muss, verstehe ich nicht. Wir wissen ja nun dass Musk ein kapitalistischer Verschwörungstheoretiker ist der ganz klar am rechten Rand wählen würde
Du bist doch selber nicht besser. Wer anders als du denkt, findet sich laut deinen Worten im rechten Lager wieder. Scheinst getreu nach dem Motto "Wird der Bürger unbequem, ist er ganz schnell rechtsextrem" zu leben. Diese Denkweise ist noch viel schlimmer, gefährlicher und abstoßender als ein einzelner Musk.
 
Zuletzt bearbeitet:
Naja, wäre schon nett wenn Musk das machen würde.
Der grösste Nachteil dieser (NICHT!) KIs ist nunmal, dass sie nicht kritisch denken können. Wer die Quellen kontrolliert, kontrolliert die ganze Story. Im Grunde kaum anders als mit dem Kreuz des Journalismus (aka von Milliardären angestellte Berufslügner).
Eine sachlicher, neutraler Bot würde uns bei unseren Problemen durchaus behilflich sein.
Gerade deshalb wird so was natürlich torpediert, wie immer unter dem Gejubel der ewiggestrigen SPCDGRÜHN-Wähler.
 
Eine sachlicher, neutraler Bot würde uns bei unseren Problemen durchaus behilflich sein.
Gerade deshalb wird so was natürlich torpediert, wie immer unter dem Gejubel der ewiggestrigen SPCDGRÜHN-Wähler.
Ein sachlich neutraler Bot würde entscheiden können, ob du oder wer anderes wertvoller ist und somit zum Überleben bestimmt sein soll. Er würde nach rein rationalen Gesichtspunkten ohne jede Emotion oder Parteilichkeit entscheiden. Er würde keine Gefühl und auch kein Mitleid empfinden oder zeigen. Eins oder Null. Du lebst oder du wirst entsorgt. Sachlich, neutral, hilfreich. Super Mittel gegen die Überbevölkerung. Der einzige Haken dabei: Es gäbe Menschen, die diesem Diktat nicht unterliegen würden. ;)
 
Ich warte auf die Meldung : Musk for President wo er doch es dem grossem Donald mit Truth Social nachmacht.

Ich hoffe die Landung wird Bret Hard (WWF Joke) ....
 
Naja, wäre schon nett wenn Musk das machen würde.
Der grösste Nachteil dieser (NICHT!) KIs ist nunmal, dass sie nicht kritisch denken können. Wer die Quellen kontrolliert, kontrolliert die ganze Story. Im Grunde kaum anders als mit dem Kreuz des Journalismus (aka von Milliardären angestellte Berufslügner).
Eine sachlicher, neutraler Bot würde uns bei unseren Problemen durchaus behilflich sein.
Gerade deshalb wird so was natürlich torpediert, wie immer unter dem Gejubel der ewiggestrigen SPCDGRÜHN-Wähler.
einen neutralen bot wird es so nie geben. wenn du solch ein system ohne einschränkungen freigibst, tut das internet was es am besten kann und versucht alles mögliche um den bot kaputt zu spielen. genau wie es mit chat GPT und dem MS twitter account passiert ist. es geht gar nichts anders als einen weg vorzugeben und andere dafür zu sperren. in welche richtung auch immer.
 
Das ist wirklich hart.
Ich hab auch ein bisschen rumgespielt und bspw. Code für eine Mod von X4 prüfen lassen.

Erst erzählt mir ChatGPT es wäre eine Mod für Elite Dangerous. Rauszubekommen, warum ChatGPT es dafür hält war schon mal ein Krampf. Aber ok, war ja auch keine übliche Frage.

Viel schlimmer fand ich, dass ich noch so oft mitteilen konnte: "Ja, ich verstehe warum du glaubst es sei eine Mod für ED, aber nein, es ist eine für X4."
Und trotzdem hat es ChatGPT nicht einmal geschafft mir direkt danach die Frage zu beantworten, für welches Spiel die Mod ist.

Also dieses inkonsistente Verhalten innerhalb einer Unterhaltung find ich auch übel.

Ansonsten aber schonmal recht beeindruckend.

Um den Bogen zum Thema zu kriegen: TruthGPT wird nichts besser machen, es wird wie alle LLM mehr oder weniger gleich funktionieren. Nur mit ganz klarer politischer Färbung.
Die politische färbung ist doch jetzt gegeben. Frag das ding mal nach einem blondinnenwitz...
 
Ich Rede nicht von Quellen, sondern davon dass wenn man dem System eine Geschichte erzählt und dann die Geschichte abfragt Falsche antworten kommen. oder anders ausgedrückt es ist nicht mal in der Lage eine Zeile drüber korrekt wiederzugeben.
Echt? Das hab ich so noch gar nicht wahrgenommen. ABer hey...solche Systeme stecken noch in den Kinderschuhen. Würde ich jetzt nicht so kritisch sehen.
 
Ein sachlich neutraler Bot würde entscheiden können, ob du oder wer anderes wertvoller ist und somit zum Überleben bestimmt sein soll. Er würde nach rein rationalen Gesichtspunkten ohne jede Emotion oder Parteilichkeit entscheiden. Er würde keine Gefühl und auch kein Mitleid empfinden oder zeigen. Eins oder Null. Du lebst oder du wirst entsorgt. Sachlich, neutral, hilfreich. Super Mittel gegen die Überbevölkerung. Der einzige Haken dabei: Es gäbe Menschen, die diesem Diktat nicht unterliegen würden. ;)
Selten so einen unkritischen Systemstuss gelesen. :haha:
Wusste gar nicht, dass es neben den Russischen, Amerikanischen, Pakistanischen, Israelischen und Türkischen jetzt auch Deutsche Trollfarmen gibt.
 
Ich verstehe diese Terminator-Sorgen überhaupt nicht. Im Moment entscheiden die erstmal gar nichts. Denken tun diese angeblichen KIs genausowenig.

Was ist hier also anders als bei jeder anderen automatisierten Entscheidung, wenn sie denn mal was zu entscheiden kriegen?

Kredite, Krankenversicherungen, Jobs, all das wird ja De-Facto schon von Algorithmen entschieden, da tippt jemand Zahlen ein und bekommt Zahlen zurück. Der Mensch ist dann nur noch dafür da, einem das Ergebnis mitzuteilen.
Die politische färbung ist doch jetzt gegeben. Frag das ding mal nach einem blondinnenwitz...
Blondinenwitze sind genau wie politisch?
 
einen neutralen bot wird es so nie geben. wenn du solch ein system ohne einschränkungen freigibst, tut das internet was es am besten kann und versucht alles mögliche um den bot kaputt zu spielen. genau wie es mit chat GPT und dem MS twitter account passiert ist. es geht gar nichts anders als einen weg vorzugeben und andere dafür zu sperren. in welche richtung auch immer.
Es gibt genügend Themen, die sachlich aufbereitet werden könn(t)en. Dies geschieht aber nicht. Bots ermöglichen uns frische Perspektiven hinsichtlich zentraler organisatorischer Dimensionen wie Ökologie, Wirtschaft usw.
Das Potential ist jedenfalls da aber die Gefahren wachsen exponentiell mit.

Konkret bedeutet das, dass so eine Bot-Shell auf einer Pay-2-law Seite ein Juristenheer ersetzte...und das Amt den komplexen Antrag innerhalb von Sekunden beantwortet - da dort ebenso Bots arbeiten.
Das klingt wie ein Segen und zunächst ist es das auch.
Jetzt kommt der Haken:
Sobald wir den Bots das Feld räumen explodieren die Gesetze weil die (erst recht ) niemand mehr lesen "muss". Das garantiert aber auch eine legale Aufrüstspirale die der Bürger nicht gewinnt, die Konzerne und Eliten aber schon.

Die Spiegelleser hingegen wefen sich einfach schon mal in den Staub, wie immer und murmeln etwas von Rassismus.
Ich verstehe diese Terminator-Sorgen überhaupt nicht.
Richtig, damit hat das wenig zu tun, generall sind Sorgen aber berechtigt.
 
"TruthGPT" ? :haeh:

Woran erinnert mich das bloß? Hmm... :hmm:



Ahhhhhh Jaaa! "Truth Social"!!!!
Die vertrauenswürdigste Social Media Plattform, des vertrauenswürdigsten
Menschen des Planeten. quasi von dem Mann, der die "FakeNews" erfunden hat! :lol:


Den Amis brennt doch der Helm... Zu viel Geld muss echt zur Verblödung führen...
Da gönn' ich mir erstmal n' paar Freedom Fries! :kotz:
 
Zuletzt bearbeitet:
Blondinenwitze sind genau wie politisch?
Blondinenwitz = vermeintlicher Sexismus, da Grundlage dieser Witze Geschlecht und Haarfarbe der Zentralfigur sind = kurzer Blick auf Opferpyramide: Frau -> Opfer = ruft cancelnde Feminist *hicks* innen auf den Plan = politisch

Nichts zu danken.


Zum Thema: Würde ChatGPT stets meine politischen Ansichten verbreiten und als Fakt verkaufen, fände ich Musks Vorhaben schlimm und würde versuchen, sämtliche Zusammenhänge zu negieren und es auf unsachlicher Ebene lächerlich zu machen.
 
Blondinenwitz = vermeintlicher Sexismus, da Grundlage dieser Witze Geschlecht und Haarfarbe der Zentralfigur sind = kurzer Blick auf Opferpyramide: Frau -> Opfer = ruft cancelnde Feminist *hicks* innen auf den Plan = politisch
Klar, ist ja naheliegend. Opferpyramide ... Ich fass es nicht.
Das Blondinen sich dabei einfach blöd fühlen kann nicht sein.
Nichts zu danken.
(...)
Wirklich nicht.
 
Zurück
Oben Unten