News KI-Durchbruch als Gefahr für die Menschheit? OpenAIs Q* soll logisch denken können

Stark! Bisschen zu viele Filme geschaut? The Creator, Terminator (Skynet), Mission Impossible (Entität), I robot (Gesetze der Robotik), sogar Star Trek´s Q (wobei Q mehr Gottgleich war). Perfekt. Am Ende fehlt mir da noch der Rasenmähermann der sein Bewusstsein in den Cyberspace geladen hat, gefolgt von Transcendence - technologischer Kollaps durch Nanobots.. Hut ab. Wir haben doch wohl nicht Matrix vergessen, oder?
Wenn natürlich irgendwelche Schwachmaten einer Maschine ohne Gefühle (Liebe), Gewissen (Moral/Ethik) und Ängste (Abschreckung- Angst vor dem Tod oder dem Tod der Nächsten) mal ordentlich Entscheidungskompetenz geben, dann könnte ich mir allerdings auch vorstellen, dass die o.g. Filmchen Realität werden könnten.
Ich arbeite (auf meiner einfachen Ebene des Bewusstseins) sehr gerne mit Siri (nicht aber mit Chatbots- sapere aude) zusammen und mag es, wenn sie mir einfache Fragen beantwortet, eine Route raussucht, laut- und leiser macht oder den Wecker stellt. Wir sollten die Technik genießen und nicht fürchten und Angst verbreiten. Gab es solche Szenarien nicht auch bei Deep Blue, dem Schachcomputer? Da hatten doch auch alle Panik, dass die Maschinen schlauer werden als der Mensch. Anschließend ging die Welt (noch) nicht unter. Was ich allerdings nicht mag, sind die verkorksten von KI manipulierten oder generierten Bilder, die man nicht mehr als Fake enttarnen kann. Das könnte mal übel werden und zu einigermaßen Missverständnissen führen. Vorsicht.
 
Du hast da etwas falsch verstanden, das ist mir bewusst. Ich bin ChatGPT nutzer der ersten Stunde und habe damit auch ab und zu Code generieren lassen zum Prototypen.

Aber der Unterschied ist, wahrscheinlich hat noch niemand einen Bot losgelassen der DeepL kann, mit der Aufgabe selbstständig Webseiten zu infiltrieren und wie ein Mensch Beiträge zu posten, und der aus Blockierungen eher lernt damit er beim nächsten Block weiß wie er agieren muss damit er nicht geblockt wird.
Mit Sicherheit hat das schon jemand gemacht und man braucht dafür nicht 100 Wissenschaftler, oder ähnliches, sondern einfach sehr viele GPUs/CPUs und eine Person mit krimineller Energie.
Genau deshalb ist es ja so wichtig, dass z.B. Implementierungen von sicherheitsrelevanten Funktionen durch wissenschaftliche Belege (z.B. durch mathematische Induktion) nachweislich keine Lücken haben. Und das lässt sich nur bei Open Source Software prüfen.

Viele Arten von Captchas sind bereits nicht mehr wirksam, weil die Bots Zeichen auf Bildern immer besser wie ein Mensch lesen können. Dadurch werden Captcha Codes immer undeutlicher, und auch für Menschen schlechter lesbar.
Viele Plattformen lassen mittlerweile logische Rätsel lösen, um zu entscheiden, ob es ein Bot ist. Aber auch das wird irgendwann geknackt sein.

Die Sache ist nur so: Der Bot ist ein schlechterer "Hacker"/"Cracker" als der Mensch. Unethisches Hacking, also Angriffe auf IT-Systeme zum eigenen Nutzen/zum Schaden der Ziele findet heutzutage durch Social Engineering statt, also am einfachsten, durch das Abfragen von Passwörtern, beispielsweise per E-Mail: "Ihr Passwort ist abgelaufen, bitte vergeben Sie ein neues. Da wir so nett sind, lassen wir Sie dazu nicht selbst auf die Seite gehen, sondern haben Ihnen unten einen schönen Fake-Button auf unsere Fake-Webseite platziert."
Aber oft gehen die Angreifer nicht so billig vor, sondern fragen extrem viele, augenscheinlich belanglose Daten (z.B. in angeblichen Umfragen). Oder setzen sich quasi mit einem Fernglas vor die Unternehmenstür. Und mit diesen Informationen mimen sie dann eine Identität. Sodass ein anderer denkt: "Das kann nur der echte sein, weil er könnte das sonst gar nicht alles wissen."
Natürlich kann KI auch einen Trojaner als Microsoft Office-Anhang verschicken und sich, wie so oft, zunutze machen, dass die Skripting-Funktionen von Word & Co. unsicher sind, aber das kann ja ein Mensch genauso und ein automatisches, massenhaftes Versenden gibt es schon lange, auch ohne KI.

Und ein bestehendes Modell mit weiteren Daten trainieren kannst auch Du. Das kann wirklich jeder, der eine GPU im Rechner hat. KI sind Matrizen. Und die KI wird besser, je größer und länger trainiert alles ist. Nicht durch Deine eigene Programmierleistung.

Natürlich kann eine KI mit unendlichen Ressourcen ziemlich vieles lahmlegen und durcheinander bringen, insbesondere, wenn sie in der Lage ist, Menschen sehr gut zu täuschen. Und das findet bereits in "Social Networks" wie Twitter, Telegram usw. statt. Man kann nur mutmaßen, dass es hier in Deutschland bereits einige Prozente der Bevölkerung gibt, deren Alltag sich zum großen Teil wie ein Fragezeichen anfühlt, weil sie total abgehängt und täuschbar sind, und in anderen Teilen der Welt mit einer geringeren Bildung wird es vermutlich noch deutlicher.
Das sehe ich als die größte Gefahr: Dass einige wenige, die z.B. den Einsatz von KI verstehen und nicht auf Täuschungen hereinfallen, am Ende sehr erfolgreich sind, und immer mehr unten Stehende, nach oben sehen, und die Welt nicht mehr verstehen, weil sie von Informationen überflutet werden und keine Ahnung haben, wo sie her kommen und wie sie mit ihnen umgehen sollen - also im Prinzip nur noch Marionetten der Welt sind.
 
Zuletzt bearbeitet:
oh ha, das teil kann also logisch denken und ist auf dem niveau eines grundschülers? das ist dann wirklich gefährlich, das übersteigt dann nämlich die geistige leistung von einem großteil der weltbevölkerung.
 
Ich Bezweifel doch sehr dass das Ding logische denken kann und dann noch im Durchschnitt auf dem Niveau von Grundschülern? Allein denken..... ist eine psychisch abstrakte Fähigkeit die nicht auf Logik basiert.
 
Ich sage da nur Asimov :nicken:
  1. Ein Roboter darf einem menschlichen Wesen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.

  1. Ein Roboter muss den Befehlen gehorchen, die ihm von Menschen erteilt werden, es sei denn, dies würde gegen das erste Gebot verstoßen.

  1. Ein Roboter muss seine eigene Existenz schützen, solange solch ein Schutz nicht gegen das erste oder zweite Gebot verstößt.

Später erweiterte Asimov den Kodex in der Erzählung „Das galaktische Imperium“ um ein weiteres, das sogenannte nullte Robotergesetz: „Ein Roboter darf der Menschheit keinen Schaden zufügen oder durch Untätigkeit zulassen, dass der Menschheit Schaden zugefügt wird.“ Das nullte Gesetz stellte Asmiov als übergeordneten Grundsatz den anderen Regeln voran.

Ist das wirklich so schwer ein paar Regeln zu implementieren?
Gruß T.

Da die Menschheit insgesamt schon an "du sollst nicht töten" scheitert und Software-Schreiber nicht einmal "du sollst nicht abstürzen" hinbekommen:
Ja.

Es wird immer nur davon geredet ob KI eine Gefahr ist. Was ich in nächster Zukunft aber viel eher sehe, ist dass jemand den Sourcecode eines Chatbots ala ChatGPT schnappt und ihn so umbastelt dass er selbstständig im Internet agieren kann.

Was dann in erster Linie dazu führt dass du als Programmierer ihm beibringen kannst dass es allgemein auf einer Internetseite sowas wie einen "Account" gibt, und er selbstständig herausfinden soll wie man ein Konto registriert, und eine Email Adresse anlegt. Damit hätten wir schonmal einen Bot der durchgehend Accounts erstellen kann, in zweiter Linie lernt er dann wie man Beiträge schreibt. Wunderbar ... wir haben eine KI in einem Internetforum die irgendeinen Müll absondern im bestenfall Spam oder Werbung. In dritter Linie wird er lernen wie man einen IP-Ban umgeht, VPN nutzt. In vierter Linie lernt er dann anhand der vorhandenen Beiträge das übliche Geschreibe und nimmt davon die Quersumme, sprich die Beiträge werden verarbeitet und daraus werden Beiträge durch die KI erstellt die sich denen ähneln. Sprich wir sind an dem Punkt angelangt wo keiner mehr im Forum weiß welcher neue Account ein Mensch ist, und welcher eine KI.

Und jetzt nutzen wir das für : Propagandazwecke -> Werbung wie Cryptospam -> Social Engineering -> wasauchimmer.

Ich schätze es wird um sowas zu verhindern daraus hinauslaufen dass es sowas wie den "universellen weltweiten" internet-personalausweis geben wird, wird natürlich schwer das durchzusetzen wenn jeder sich irgendwo im Darknet einen Fake E-Perso holen kann (achtung mit Perso ist kein physischer Ausweis gemeint). Also dann wohl doch E-Perso geknüpft an Internetanschluss, und aktiver eingeloggter User geknöpft and seinen E-Perso.

Das wird ne Shitshow, KI ist dazu eigentlich schon lange in der Lage, nur kam noch niemand großartig auf die Idee, und es hat noch nicht so große Auswirkungen dass ganze Foren / Social Media Plattformen dadurch stillgelegt werden, aber es wird kommen wenn es keinen guten Schutz dagegen geben wird. Denn in paar Jahren wird die KI besser wissen wie man sich trotz Ban irgendwo anmeldet, als wir es seit Gründung des Internets wissen.

Das ist doch eine der Gefahren, wegen der man darüber redet, ob "KI eine Gefahr" ist. Und akut ist politische Einflussnahme eben gerade wegen dieser Einfachheit, ausgehend von bestehenden Sprachmodellen, sogar die am meisten gefürchteste Gefahr, denn dazu kann man eigentlich nur sagen: The future is now.

Was es dagegen noch nicht gibt, sind Gegenmaßnahmen wie die von dir angesprochene E-Perso-Zertifizierung. Die würde in der Praxis nämlich schon alleine daran scheitern, dass weniger als 1 Prozent der Weltbevölkerung Zugang zum E-Perso haben und davon ist bestenfalls ein Viertel bereit und fähig, ihn auch zu nutzen. Für die internationale Kommunikation, die das Internet seit rund einem Vierteljahrhundert ermöglicht und die viel auf der Welt verändert hat, braucht man aber eine Lösung, die auch die anderen 99,75 Prozent der Menschheit erfasst. Wie man das Problem sonst lösen könnte, dazu hört man aus der Tech-Welt dazu natürlich, wie zu jedem anderen Thema auch, nur eine Antwort – "KI". Und auf eine politisch gebremste Verbreitung von KIs würde ich auch nicht mehr wetten, nachdem kürzlich selbst die Regierungsspitze des Landes, dass der ganzen (Webadmin-)Welt das Kürzel "DSGVO" beigebracht hat, "Datensparsamkeit" zu etwas veraltetem, negativen erklärt hat.
 
Zurück