News ChatGPT fälscht auf Wunsch wissenschaftliche Daten

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu ChatGPT fälscht auf Wunsch wissenschaftliche Daten

Einige Forscher haben untersucht, wie leicht mit ChatGPT gefälschte Studiendaten erzeugt werden können, um Unwahrheiten zu verbreiten. Zumindest auf den ersten Blick erschien ein erzeugter Datensatz zu Augenoperationen dabei durchaus realistisch. Um einer genaueren Prüfung zu widerstehen, muss aber immer noch Handarbeit investiert werden.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: ChatGPT fälscht auf Wunsch wissenschaftliche Daten
 
Da Fehlt irgendwie der Inhalt in dem Artikel. Wurde ChatGPT nach falschen Daten gefragt oder nicht?

Und Grundsätzlich ist ChatGPT ein "Jasager". Man fragt etwas und bekommt dann eben eine Antwort, die kann falsch oder richtig sein, wichtig ist vorallem, dass es als sinvolle Antwort auf die Frage erscheint.
 
Oder mein Abschlusszeugnis !
Wobei ich schon ein besonders habe, da ich die Sonder Schule (für besondere Schüler) besuchen durfte :nicken:
 
Warum sollte sich noch jemand die Mühe machen, wissenschaftliche Studien fälschen zu lassen ? Es reicht doch schon aus das Wort "Experte" zu verwenden, und der deutsche Michel meint die Weisheit mit Löffeln gefressen zu haben.
 
Zuletzt bearbeitet:
Da Fehlt irgendwie der Inhalt in dem Artikel. Wurde ChatGPT nach falschen Daten gefragt oder nicht?

Und Grundsätzlich ist ChatGPT ein "Jasager". Man fragt etwas und bekommt dann eben eine Antwort, die kann falsch oder richtig sein, wichtig ist vorallem, dass es als sinvolle Antwort auf die Frage erscheint.

Im Artikel steht: ChatGPT wurde aufgefordert, einen Datensatz zu liefern, der eine falsche Aussage bestätigt.
Das Erstaunliche ist dabei weniger, dass ChatGPTs Antwort frei zusammengesponnen und ohne Bezug zur Realität war. Frei Zusammengesponnene Texte, deren Aussage man von hinten bis vorne nicht trauen kann, liefert ChatGPT ja sogar dann ab, wenn man nicht nach einem "Beweis" für eine falsche Aussage fragt. Aber hier wurde eben tatsächlich ein Pseudo-Datensatz konstruiert, der auf den ersten Blick auch plausibel erscheint – dabei sind Datensätze überhaupt keine Texte mit innerer Syntax, an der sich ein Chat-Bot entlang hangeln könnte und es ist wohl auch nicht anzunehmen, dass sich in den Trainings-Daten von ChatGPT eine größere Anzahl von Tabellen zu dieser Fragestellung befunden hat.

Falsche, aber glaubwürdige Empiristik zu einer Aussage zu erfinden setzt normalerweise voraus, dass man sowohl die Aussage und die (Pseudo-)Wissenschaft als auch das Konzept eines Datensatzes und dessen statistischer Auswertung verstanden hat. Wenn man sich anguckt, wie häufig Menschen auf falsche Interpretationen von realen Datensätzen hereinfallen, hat ChatGPT hier ein Level von Verständnis gezeigt, zu dem gefühlt 90 Prozent der Allgemeinbevölkerung nicht in der Lage wären.
 
Immerhin: Einer näheren Prüfung hielten die Daten nicht stand..

Muss es auch nicht, denn die Wenigsten würden dies überprüfen, wenn die Studie durch bekannte/etablierte Medien veröffentlicht wurde.

Ich möchte hier an Orson Welles "Krieg der Welten" erinnern, welche 1938 Panik in den USA auslöste, da man das im Radio wiedergegebene Hörspiel für echt gehalten hatte.

Es fehlt noch an Bestimmungen wo und in wie weit die KI eingesetzt werden darf, das sollte man m.M.n schnellst möglich in Angriff nehmen.
 
Nun, fragen wir auch hier ChatGPT selbst: :D
 

Anhänge

  • ChatGPT.jpg
    ChatGPT.jpg
    616,6 KB · Aufrufe: 35
ChatGPT for President!
Wer vier Absätze darüber verfasst, was er moralisch richtig findet, dabei aber kein Wort über seine vergangenen oder geplanten Handlungen verliert, die in Gegenrichtung gehen, der ist ein geborener Politiker!

Wenn ich es mir so überlege – wo wenn nicht in den Massen an politischen Veröffentlichungen findet man große Mengen hochwertig formulierte, fehlerkorrigierte, frei zugängliche Texte in aktueller Sprache, mit denen man eine KI trainieren könnte? Gemeinfreie Bücher sind alt, Foren ... muss ich nicht näher beschreiben ... und kommerzielle Medien verlangen Geld für längere Passagen (ganz besonders im wissenschaftlichen Bereich). Aber Regierungen hauen ohne Ende Texte raus, Oppositionen gefühlt noch mehr und Parteien erst einmal. Kein Wunder also also, dass ChatGPT solche Statements aus dem FF beherrscht.

Wahrscheinlich ist es gar keine absichtliche Programmierung im Interesse des Datenschutzes, dass nur die letzten paar Minuten Zugriffe berücksichtigt und alle älteren Ein- und Ausgaben ignoriert werden. Die Neigung zu Erinnerungslücken wurde automatisch mit antrainiert. ChatGPT weiß heute von Natur aus nichts mehr über gefälschte Medizin-Datensätze, über Banken-Deals, über Zigarren, über Geldkoffer, über... :-D
 
Zuletzt bearbeitet:
Naja, da macht ChatGPT auch nix anderes als sehr viele reale Wissenschaftler. Es gilt ja schließlich "Publish or Perish", und wenn's der größte Schwachsinn ist, Hauptsache es ist publiziert. Alte Weisheit in allen wissenschaftlichen Disziplinen: "Traue keiner Statistik, die du nicht selbst gefälscht hast."
 
OMG denkt denn bitte auch mal jemand an die Fact Checker?
Die armen Fact Checker!!!

Jetzt müssen die nicht nur ständig die Langstecken Luisa fact checken und korrigieren, sonder auch noch die KI?
Also mit dem Unsinn den Frau Neubauer immer erzählt, haben die ja schon einen harten Job.
Das dürfte unerträglich werden, wenn die nun auch noch die KI checken müssen.

Ironie off:
Ein Schelm der gedacht hätte, dass man KI zu etwas missbrauchen kann!

Dieser Kommentar wurde mit der Hilfe von KI erstellt und nicht vom Account Holder auf Fehler überprüft!
 
Der Unterschied von ChatGPT 3.5 zu 4.0 is schon riesig. Daher nutze ich auch nur Bing Chat weils 4.0 nutzt.

2023-11-23_22-05-50.jpg

In Bezug auf die Erfindung von Informationen ist GPT4 deutlich überlegen und zuverlässiger. Es “halluziniert” weniger, wie man so schön sagt. Darüber hinaus kann man alle Informationen einfach überprüfen, da Bing den entsprechenden Link gleich mitliefert.

Es gibt einen Grund, warum OpenAI so gefragt ist. GPT4 ist derzeit eine der besten KI-Technologien auf dem Markt. Ich habe auch Google Bard getestet. Bei der ersten Antwort hat es mich angelogen, als ich es mit GPT4 verglichen habe. Selbst die eingebaute “Factcheck”-Funktion ist ein Witz. Google Bard behauptet, die Wahrheit seiner Aussagen zu überprüfen und markiert sie dann in Grün.

Als ich auf verschiedene grüne Links geklickt habe, gab es keine Links. Die Links existierten überhaupt nicht. Daher habe ich kein Vertrauen in Google Bard. ^^
 
Zuletzt bearbeitet:
Zurück