News ChatGPT und Google Bard verraten Windows-Aktivierungsschlüssel

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu ChatGPT und Google Bard verraten Windows-Aktivierungsschlüssel

Eigentlich dürfen Sprachmodelle wie Google Bard und ChatGPT keine Windows-Lizenzschlüssel weitergeben. Mit einem Trick kann man sie aber trotzdem dazu bringen. Das zeigt, dass die Datensperren der Programme noch keineswegs perfekt sind.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: ChatGPT und Google Bard verraten Windows-Aktivierungsschlüssel
 
..generische Schlüssel. Weil die sehr schwachen KI's also sonst nix zu lesen bekamen.

Kurz eine herkömmliche Suchmaschine genutzt, und oha.. Jackpot! Sind ja auch nützlich die Dinger, also sollten die auch gefunden werden.

Ich schlage also eine zusätzliche Meldung mit folgender Schlagzeile vor:
"Google, Bing, DuckDuckGo und deren Mütter verraten Windows-Aktivierungsschlüssel"
 
..generische Schlüssel. Weil die sehr schwachen KI's also sonst nix zu lesen bekamen.

Kurz eine herkömmliche Suchmaschine genutzt, und oha.. Jackpot! Sind ja auch nützlich die Dinger, also sollten die auch gefunden werden.

Ich schlage also eine zusätzliche Meldung mit folgender Schlagzeile vor:
"Google, Bing, DuckDuckGo und deren Mütter verraten Windows-Aktivierungsschlüssel"

Man mag die Meldung an sich unbedeutend finden, da echte Aktivierungsschlüssel kaum in Trainingsdaten einfließen sollten. Wer bedenkt, dass sämtliche großen KI-Entwickler sich weigern, ihre Trainingsdaten offen zu legen und auch unklar ist, was sie mit Nutzereingaben machen, sollte aber sofort die Tragweite des Problems erkennen: Die vermeintlich tief im System verankerten Sperren sind auf lächerlich einfachem Wege zu umgehen, also von ihrem Prinzip her wirkungslos/auf Spezialfälle beschränkt. Grundsätzlich können diese Sprachmodelle aber alles ausgeben, mit dem sie gefüttert wurden, auch wenn Texte mit einem Weitergabeverbot getaggt sind. Also z.B.
- Programmcode, der mit den praktischen KI-Routinen auf Bugs geprüft werden sollte
- Persönlichste Informationen auf einem vertraulichen Brief, der mit KI-Hilfe übersetzt oder fehlerkorrigiert wurde
- Beliebig E-Mail-Inhalte (inkl. Lizenzschlüsseln^^), für die möglicherweise in naher Zukunft eine KI die passende Webmail-Werbeeinblendung ermittelt
- Komplette Bewegungsprofile, welche die KI-Fitnessapp erstellt hat
etc.
 
Der Key, der da ausgespuckt wurde steht auch auf den MS Support Seiten. Es ist kein Aktivierungsschlüssel.

Wieso sich nicht gleich den Code für einen KeyGen geben lassen?
Wenn du sehr genau beschreibst wie der funktionieren soll, könnte das sogar klappen. Aber wenn man das sowieso schon weiß, ist es vermutlich einfacher direkt den Code zu schreiben.
 
Zurück