News Weitreichende Folgen für KI-Tools? New York Times mit Milliardenklage wegen ChatGPT

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Weitreichende Folgen für KI-Tools? New York Times mit Milliardenklage wegen ChatGPT

Die New York Times hat Klage gegen Microsoft und OpenAI wegen ChatGPT eingereicht. Laut der Zeitung hätte der Chatbot während seines Trainings millionenfach Artikel ohne Erlaubnis kopiert.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Weitreichende Folgen für KI-Tools? New York Times mit Milliardenklage wegen ChatGPT
 
Ich denke da wird noch so einiges an Klagen auf die Ki Unternehmen zu kommen, einige werden auf der Strecke bleiben, aber die allgemeine Entwicklung wird keiner mehr aufhalten können. Und Europa hängt mal wieder allem hinterher.
 
Na ja, wenn irgendwann keiner mehr echte Nachrichten schreibt, weil es sich nicht mehr lohnt und nur noch von der KI kopiert wird, gibt's irgendwann nur noch ausgedachte Nachrichten, den Trend erkennt man ja in den letzten Jahren bereits, da Journalismus nicht mehr besonders lukrativ ist und investigativer Journalismus einfach Zeit und Geld kostet.
Jeder kopiert nur noch oder denkt sich selbst eine Story aus und aus jedem kleinen Twitter Drama wird eine "News" etc...

Allerdings ist die heutige New York Times auch nicht mehr unbedingt das Paradebeispiel an investigativem Journalismus, aber vermutlich noch eine der wenigen Publikationen, die sich so einen Rechtsstreit in der Größenordnung wirklich leisten können.

Ich denke, die Regularien für KI und Co. sollten lieber früher als später auf den Weg gebracht werden und so werden zumindest schonmal Präzedenzfälle geschaffen.
 
Ich denke da wird noch so einiges an Klagen auf die Ki Unternehmen zu kommen, einige werden auf der Strecke bleiben, aber die allgemeine Entwicklung wird keiner mehr aufhalten können. Und Europa hängt mal wieder allem hinterher.
Ich kann's nicht mehr hören - vielleicht hat man in Europa einfach mehr Hirn als in den USA, und überlegt *vor* dem Einsatz, was man beachten muss.
Und was die Klagen angeht: Zu Recht sollte die Frage geklärt werden, ob man ohne Beachtung des Urheberrechts einfach alles zum Training eines KI-LLMs benutzen darf oder eben nicht.
 
Na ja, wenn irgendwann keiner mehr echte Nachrichten schreibt, weil es sich nicht mehr lohnt und nur noch von der KI kopiert wird, gibt's irgendwann nur noch ausgedachte Nachrichten, den Trend erkennt man ja in den letzten Jahren bereits, da Journalismus nicht mehr besonders lukrativ ist und investigativer Journalismus einfach Zeit und Geld kostet.
Da sehe ich die Journalisten der großen deutschsprachigen Blätter(SPIEGEL et. al.) hervorragend aufgestellt, auch wenn dort statt der KI noch echte Menschen arbeiten.
Ich denke, die Regularien für KI und Co. sollten lieber früher als später auf den Weg gebracht werden und so werden zumindest schonmal Präzedenzfälle geschaffen.
Zu Recht sollte die Frage geklärt werden, ob man ohne Beachtung des Urheberrechts einfach alles zum Training eines KI-LLMs benutzen darf oder eben nicht.
Die praktikabelste Lösung wäre ja eine Abgabe für potentielle Urheberrechtsverletzungen, wie sie hierzulande schon seit Jahrzehnten für Drucker, Brenner, Rohlinge, Videorecorder Festplatten und andere zur Aufzeichnung geeignete Geräte existiert. Damit könnten sich die betreffenden Unternehmen dann vom Generalverdacht quasi freikaufen und nur bei schweren nicht Fällen, die keine Bagatellen sind(ähnlich der Gatekeeper-Regelung für Internetunternehmen) wird dann nachgehakt. Die Pauschale rechnet man dann wie beim Streaming pro Aufruf ab und lässt das den potentiell Geschädigten zukommen.
Am Ende zahlts der Kunde, aber man hat das ganze rechtlich "sauber" verpackt.
PS: Das spiegelt nicht meine Rechtsauffassung wieder, liegt ja nach wie vor ein Generalverdacht im Wortsinne zugrunde, aber da die Methode bereits in anderen Fällen legislativ abgesegnet wurde, wird es wohl auf ein ähnliches Konstrukt hinauslaufen.
 
Die träumen doch. KI muss mit irgendwas trainiert werden. Da können die noch so klagen.
Die Realität is doch schon, dass es kaum noch Daten zum trainieren gibt weil quasi alles an Daten was existiert bereits verwendet wurde, also das gesamte Internet.

 
Jetzt ist Ihre Meinung gefragt zu Weitreichende Folgen für KI-Tools? New York Times mit Milliardenklage wegen ChatGPT
Schwierig. Wenn ich eine Zeitung kaufe, kaufe ich auch die Rechte, den Inhalt zu lesen und zu verstehen. Ich selber beeinflusse mein Handeln auch auf Basis des Gelesenen. Eine KI macht das auch.

Auf das Urteil bin ich wirklich gespannt.

Die Realität is doch schon, dass es kaum noch Daten zum trainieren gibt weil quasi alles an Daten was existiert bereits verwendet wurde, also das gesamte Internet.
Das macht mir auch so Angst, steht doch im Internet zu 95% Grütze, Lügen, Blödsinn und Humbug. Wie soll die arme KI Sinnvolles von Irrelevantem unterscheiden? Muss ich doch gleich mal DeppGPT fragen, wie das mit den Mondlandungen war.

Nachtrag: Wusste ich es doch! Die arme KI.

1703808521566.png
 
Zuletzt bearbeitet:
Die träumen doch. KI muss mit irgendwas trainiert werden. Da können die noch so klagen.
Die Realität is doch schon, dass es kaum noch Daten zum trainieren gibt weil quasi alles an Daten was existiert bereits verwendet wurde, also das gesamte Internet.

Gibt es ein Gesetz, dass besagt, dass KI trainiert werden *muss*? Oder ist das einfach eine Annahme der KI-Unternehmen?
 
Die träumen doch. KI muss mit irgendwas trainiert werden.
Das können sie ja, aber sie sollen dafür bezahlen und es nicht einfach nehmen, wie es seit der Sozialen Medien einfach gemacht wird.
Gibt es ein Gesetz, dass besagt, dass KI trainiert werden *muss*? Oder ist das einfach eine Annahme der KI-Unternehmen?
Das ist doch ein Grundrecht. Ich bilde mein Kind auch gerade als ordentliche Diebin aus, und da muss sie auch Erfahrung sammeln. Da kann man sie doch nicht gleich einsperren, nur weil es anfangs noch auffällt. Die wird schon noch besser, dann bemerkt das auch keiner mehr!
 
Wenn die K.I. erstmal nur die Texte der Artikel "liest" ist es ja nicht so schlimm.
Nur sollte sie diese nicht als Antwort kopieren.
Wenn sie die Texte zitiert und Quellen nennt, dürfte das juristisch kein Problem sein.
 
Wenn die K.I. erstmal nur die Texte der Artikel "liest" ist es ja nicht so schlimm.
Nur sollte sie diese nicht als Antwort kopieren.
Wenn sie die Texte zitiert und Quellen nennt, dürfte das juristisch kein Problem sein.
So macht das Windows Copilot (ehemals Bing Chat) mit GPT4 Nutzung. Daher verwende ich das nur noch. Kannste immer alles nachprüfen und es ist kostenfrei. Und in Windows11 kannste die Sidebar immer aktivieren, dass die da ist und wenn nötig die AI fragen.

Musste Verknüpfung auf Desktop machen, die "Copilot" nennen und das eintragen:
"microsoft-edge:///?ux=copilot&tcp=1&source=taskbar"
 
So macht das Windows Copilot (ehemals Bing Chat) mit GPT4 Nutzung. Daher verwende ich das nur noch. Kannste immer alles nachprüfen und es ist kostenfrei. Und in Windows11 kannste die Sidebar immer aktivieren, dass die da ist und wenn nötig die AI fragen.

Musste Verknüpfung auf Desktop machen, die "Copilot" nennen und das eintragen:
"microsoft-edge:///?ux=copilot&tcp=1&source=taskbar"
Ich nutze noch kein Windows 11. ;)
 
Ich nutze Win11 seit Release und hab das Problem mit der Taskbar und anderen Dingen mit dem behoben:

So hab ich meine seitliche Taskbar wieder wie in Win10 und auch sonst alles gefühlt so.
 
Gibt es ein Gesetz, dass besagt, dass KI trainiert werden *muss*? Oder ist das einfach eine Annahme der KI-Unternehmen?

Training ist das Grundprinzip von maschinellem Lernen. Ohne Training gibt es nur zwei Möglichkeiten:
A) Die Algorithmen werden händisch geschrieben. Dann bezeichnet man das als klassisches Programm.
B) Das Ding macht einfach zufällig irgendwas und erreicht damit nie das gewünschte. Das nennt man dann Schrott.

Offen ist die Frage, was man als Trainingsgrundlage verwenden darf und in wie weit sich das überhaupt nachweisen lässt. Medienpublikationen werden zum Beispiel in aller Regel nur für die private Nutzung veröffentlicht. Wer eine PCGH kauft, darf sie selber lesen, aber er darf damit kein Geld verdienen. Weder in dem er sie vermietet, noch in dem er die Inhalte öffentlich ein breiter Massen vorträgt und auch eine Verwendung für KI-Training dürfte klar gegen das Urheberrecht verstoßen und müsste getrennt lizensiert werden. Aber das große Problem bei Sprach-Modellen ist allgemein, dass dem Ergebnis nicht mehr anzusehen ist, auf welche Quellen es zurückgeht. Somit wird es spannend, in wie weit die NYT hier in der Praxis auf einen definierten Umfang von Urheberrechtsverstößen klagen kann.
 
Training ist das Grundprinzip von maschinellem Lernen. Ohne Training gibt es nur zwei Möglichkeiten:
A) Die Algorithmen werden händisch geschrieben. Dann bezeichnet man das als klassisches Programm.
B) Das Ding macht einfach zufällig irgendwas und erreicht damit nie das gewünschte. Das nennt man dann Schrott.

Offen ist die Frage, was man als Trainingsgrundlage verwenden darf und in wie weit sich das überhaupt nachweisen lässt. Medienpublikationen werden zum Beispiel in aller Regel nur für die private Nutzung veröffentlicht. Wer eine PCGH kauft, darf sie selber lesen, aber er darf damit kein Geld verdienen. Weder in dem er sie vermietet, noch in dem er die Inhalte öffentlich ein breiter Massen vorträgt und auch eine Verwendung für KI-Training dürfte klar gegen das Urheberrecht verstoßen und müsste getrennt lizensiert werden. Aber das große Problem bei Sprach-Modellen ist allgemein, dass dem Ergebnis nicht mehr anzusehen ist, auf welche Quellen es zurückgeht. Somit wird es spannend, in wie weit die NYT hier in der Praxis auf einen definierten Umfang von Urheberrechtsverstößen klagen kann.
Das ist die technische Anforderung. Ich habe von der gesetzlichen Anforderung gesprochen. Die existiert nicht. KI muss nicht mir *irgendwas* trainiert werden, weil KI nicht trainiert werden muss. Jemand möchte KI trainieren. Darf er das und in welchem Rahmen? Das muss erst ausgelotet werden.
 
Gut, kann man juristisch so formulieren, aber wird dann halt eher wir. Es gibt (vermutlich?) auch kein Gesetz, dem zu Folge Brillen durchsichtig sein müssen. Aber die Firmen machen das trotzdem irgendwie alle so und die KIler arbeiten halt irgendwie alle mit Training. ;-)
 
Offen ist die Frage, was man als Trainingsgrundlage verwenden darf und in wie weit sich das überhaupt nachweisen lässt. Medienpublikationen werden zum Beispiel in aller Regel nur für die private Nutzung veröffentlicht. Wer eine PCGH kauft, darf sie selber lesen, aber er darf damit kein Geld verdienen. Weder in dem er sie vermietet, noch in dem er die Inhalte öffentlich ein breiter Massen vorträgt und auch eine Verwendung für KI-Training dürfte klar gegen das Urheberrecht verstoßen und müsste getrennt lizensiert werden. Aber das große Problem bei Sprach-Modellen ist allgemein, dass dem Ergebnis nicht mehr anzusehen ist, auf welche Quellen es zurückgeht. Somit wird es spannend, in wie weit die NYT hier in der Praxis auf einen definierten Umfang von Urheberrechtsverstößen klagen kann.
Zitate sind aber erlaubt, oder?
 
Zitatrecht ist davon unabhängig, ja. Das ist ja eine explizite Ausnahme vom Urheberschutz. (Wenn auch eine in der Praxis manchmal recht komplexe.)
 
Zurück