News ChatGPT: US-Anwalt blamiert sich mit erfundenen Gerichtsurteilen

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu ChatGPT: US-Anwalt blamiert sich mit erfundenen Gerichtsurteilen

Anwälte werden in absehbarer Zeit schon mal nicht von ChatGPT ersetzt: Während einer Klage in den USA setzte ein Rechtsanwalt auf die Künstliche Intelligenz, die ihm mit angeblichen Präzedenzfällen unter die Arme griff - alles frei erfunden, wie sich im Anschluss herausstellt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: ChatGPT: US-Anwalt blamiert sich mit erfundenen Gerichtsurteilen
 
indem ChatGPT befragt wurde, ob die Fälle tatsächlich real seien.

na immerhin etwas. :ugly:

Sollte einem eher lehren nicht blind jedes Schreiben was von einem Anwalt kommt als gottgegeben anzunehmen.

Aber abseits dessen.
Ich kenne Servierwagen eigendlich nur als die kleinen Wägelchen wo das Essen aus der Küche zu einem Tisch gebracht wird. Die Klage wird wohl auf mehrere Millionen rauslaufen. :ugly:
 
Es ist schon erstaunlich und erschreckend zugleich wie eine technische Errungenschaft jemanden glauben lässt, jeden Sinn für Integrität und Sorgfaltspflicht (Ich meine, wir sprechen hier von einem Anwalt.) außer Acht zu lassen.

Ein Paradebeispiel dafür, das der Glaube an die KI größer ist, als das was es wirklich ist.
 
Was KI betrifft, es gibt ein tolles Buch von Nikolai von Michalewsky: Salomon 76. Liest sich heutzutage natürlich etwas altertümlich, da das ein oder andere physikalische Gesetz ignoriert wird, jedoch ist die Grundthematik aktueller denn je.
 
Im oberen Absatz schreibt ihr, dass das KI-Tool die Urteile frei erfunden hätte. Später steht dann dass sie die erfundenen Urteile nicht als "Fäschung" erkannt hat. Würde Ersteres zutreffen, hieße das Skynet wäre quasi schon unter uns hehe. Ich denke nicht, dass ChatGPT etwas erfindet. Zumindest noch nicht. :P Das Ding sammelt ja nur Daten und gibt diese je nach Frage wieder.
 
Im oberen Absatz schreibt ihr, dass das KI-Tool die Urteile frei erfunden hätte. Später steht dann dass sie die erfundenen Urteile nicht als "Fäschung" erkannt hat. Würde Ersteres zutreffen, hieße das Skynet wäre quasi schon unter uns hehe. Ich denke nicht, dass ChatGPT etwas erfindet. Zumindest noch nicht. :P Das Ding sammelt ja nur Daten und gibt diese je nach Frage wieder.
Nee, ChatGPT "denkt" sich tatsächlich im rechtlichen Bereich viel aus. Das basiert darauf, das es den Kontext nicht versteht und einfach nur das nächstwahrscheinliche Wort berechnet. Deswegen wird es hinter eine Behauptung einfach ein § setzen, und nach dem § müssen ein paar Zahlen folgen, und dann irgendeine kryptische Abkürzung.
Dementsprechend sind die Urteile tatsächlich frei erfunden - sie sehen täuschend echt aus, aber sie sind einfach nur die wahrscheinlichste Antwort, die das kollektive Internet auf die Frage gegeben hätte - ein Wort nach dem anderen. Da steckt absolut null Überprüfung der Sachlage hinter, wenn OpenAI da nichts hinzugefügt hat.
 
Einen Präzendenzfall zu erfinden dürfte aber für ChatGPT eine leichte Aufgabe sein. Textkompositionsaufgaben kann das Tool sehr gut und ein Gerichtsfall ist da auch nicht anders.

Eigentlich sind aber diese Probleme erwartbar. Seit man Googeln kann und es Wikipedia gibt wird Information aus diesen beiden Quellen schon kaum mehr hinterfragt in der breiten Bevölkerung (bis in Bildungsinstitutionen hinein). ChatGPT ist da nur die nächste Stufe der freiwilligen Kompetenzabgabe.
Und, dass hier blind vertraut wird ist doch nur selbstverständlich. Das blinde Vertrauen in die Technik hat man doch schon bei Navigationsgeräten gesehen, denen Fahrer wirklich überallhin folgen - Hausverstand egal.
 
Tja. Da hätte der Anwalt wohl mal selber recherchieren sollen. Was man eigentlich erwarten würde.
 
Hmm, anscheinend passiert da noch mehr. Aus den vorhandenen Daten werden weitere Daten abgeleitet. Sehr gefährlich, vermute ich mal. Eine KI mit eigener subjektiver Realität kann sich zum Alptraum für fie Menscheit entwickeln.
Es ist doch nichtmal eine KI. Es ist ein Sprachmodell, das einfach mit enorm großen Datenmengen gefüttert wurde. Mehr kann das Ding nicht. Abseits davon, sich mit anderen Leuten zu unterhalten, kann es genau nichts. Ich kann nicht genau sagen, wie ChatGPT implementiert ist, aber das Grundlegende Konzept ist die Markovkette.
Das Ding hat keine Vorstellung, keine echte kreativität, es sagt einfach nur, was ( wenn es auf dem gleichen Datensatz beruht wie GPT1) Reddit auf eine Person komprimiert gesagt hätte - mit Filtern, die OpenAI einprogrammiert hat, weil es nicht so gut aussieht, wenn ChatGPT anfängt Hitler zum Thema Juden zu zitieren.
 
Es ist doch nichtmal eine KI. Es ist ein Sprachmodell, das einfach mit enorm großen Datenmengen gefüttert wurde. Mehr kann das Ding nicht. Abseits davon, sich mit anderen Leuten zu unterhalten, kann es genau nichts. Ich kann nicht genau sagen, wie ChatGPT implementiert ist, aber das Grundlegende Konzept ist die Markovkette.
Naja, ChatGPT kann trainiert werden und dazu lernen. Was schon mal ein Merkmal für Intelligenz ist.
Das Ding hat keine Vorstellung, keine echte kreativität, es sagt einfach nur, was ( wenn es auf dem gleichen Datensatz beruht wie GPT1) Reddit auf eine Person komprimiert gesagt hätte - mit Filtern, die OpenAI einprogrammiert hat, weil es nicht so gut aussieht, wenn ChatGPT anfängt Hitler zum Thema Juden zu zitieren.
Sie ist in der Lage etwas völlig Neues zu erschaffen. Also schon kreativ.
Genauso andere K.I.s welche Musik komponieren oder Bilder erschaffen können.

Vor einigen Wochen hat ChatGPT auch "autonom" Sprachen erlernt die gar nicht vorgesehen waren. Das war selbst für die Entwickler überraschend.
 
Es ist doch nichtmal eine KI. Es ist ein Sprachmodell, das einfach mit enorm großen Datenmengen gefüttert wurde.
[..]
Das Ding hat keine Vorstellung, keine echte kreativität, es sagt einfach nur, was ( wenn es auf dem gleichen Datensatz beruht wie GPT1) Reddit auf eine Person komprimiert gesagt hätte - mit Filtern, die OpenAI einprogrammiert hat, weil es nicht so gut aussieht, wenn ChatGPT anfängt Hitler zum Thema Juden zu zitieren.
Das wird aber als KI bezeichnet, genauer, als schwache KI.

Bis jetzt fand ich das alles noch recht witzig, vor allem die ganzen Erfahrunsberichte, v.a. mit dem neuen Bing. Das Ding halluziniert ja nicht nur, das ist auch beleidigt. Zumindest war das anfangs so, hat Microsoft inzwischen entschärft, afaik.
 
Klarer Fall: Der Anwalt war seiner Zeit weit voraus.
Bislang entscheiden KIs nur über Kreditvergabe, Versicherungsprämien, Polizeieinsätze, Bewegungen von Flugzeugen (und ggf. rollenden Wägelchen darin) und der Platzierung mehr oder minder kompetenter Anwaltskanzleien in Suchergebnissen. Aber noch entscheiden sie nicht über Gerichtsprozesse.
 
Klarer Fall: Der Anwalt war seiner Zeit weit voraus.
Bislang entscheiden KIs nur über Kreditvergabe, Versicherungsprämien, Polizeieinsätze, Bewegungen von Flugzeugen (und ggf. rollenden Wägelchen darin) und der Platzierung mehr oder minder kompetenter Anwaltskanzleien in Suchergebnissen. Aber noch entscheiden sie nicht über Gerichtsprozesse.
Wird sicher spannend.
AnwaltGPT 3.8 vs. StaatsanwaltGPT 5.4.
Bei sehr sehr guter Versicherung kann man auch AnwaltGPT 6.2 vs. StaatsanwaltGPT 4.4 aushandeln.
 
Klarer Fall: Der Anwalt war seiner Zeit weit voraus.
Bislang entscheiden KIs nur über Kreditvergabe, Versicherungsprämien, Polizeieinsätze, Bewegungen von Flugzeugen (und ggf. rollenden Wägelchen darin) und der Platzierung mehr oder minder kompetenter Anwaltskanzleien in Suchergebnissen. Aber noch entscheiden sie nicht über Gerichtsprozesse.
K.I.s entscheiden über Polizeieinsätze? Oder liefern die benötigten Daten welche für Entscheidungen "notwendig" sind?
 
Sie übernehmen relevante Teile der Datenauswertung, ziehen also Schlussfolgerungen welche Polizeieinsätze veranlassen. Insbesondere vorbeugende (oder in Augen von Kritikern: vorverurteilende) Einsätze setzen intensiv auf automatisierte Datenauswertung, die nicht mehr von Menschen nachvollzogen wird respektive vollständig nachvollzogen werden kann.

Wird in den USA wohl sehr intensiv genutzt, ist aber auch bei uns im kommen. Da bei uns nur eingeschränkt mit nicht-polizeilichen Daten gearbeitet werden darf, kommt es dabei beinahe zur eine Umkehrung des Prinzips: Die benötigten Daten werden zwar von Menschen geliefert, aber ein Algorithmus entscheidet über ihre Wichtigkeit und leitet Aussagen ab.
 
Sie übernehmen relevante Teile der Datenauswertung, ziehen also Schlussfolgerungen welche Polizeieinsätze veranlassen. Insbesondere vorbeugende (oder in Augen von Kritikern: vorverurteilende) Einsätze setzen intensiv auf automatisierte Datenauswertung, die nicht mehr von Menschen nachvollzogen wird respektive vollständig nachvollzogen werden kann.

Wird in den USA wohl sehr intensiv genutzt, ist aber auch bei uns im kommen. Da bei uns nur eingeschränkt mit nicht-polizeilichen Daten gearbeitet werden darf, kommt es dabei beinahe zur eine Umkehrung des Prinzips: Die benötigten Daten werden zwar von Menschen geliefert, aber ein Algorithmus entscheidet über ihre Wichtigkeit und leitet Aussagen ab.
Das erinnert mich irgendwie an SciFi Filme.

Finde ich gefährlich solche Entscheidungen KI´s zu überlassen. Vor allem wenn dadurch falsche oder voreilige Verdächtigungen geschehen. Und Einsätze welche gar nicht nötig gewesen wären. Kostet dem Steuerzahler ja auch alles Geld. Schlimmstenfalls könnte welche zu Schaden kommen. Bei einer überstürzten Razzia oder so.
 
Zurück