News KI-Durchbruch als Gefahr für die Menschheit? OpenAIs Q* soll logisch denken können

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu KI-Durchbruch als Gefahr für die Menschheit? OpenAIs Q* soll logisch denken können

OpenAI ist angeblich ein Durchbruch bei der KI-Forschung gelungen: Ein neues Netz namens Q* soll sich im logischen Denken deutlich von ChatGPT abheben. Das veranlasste einige Forscher offenbar zu einem Warnbrief an den Vorstand, der wiederum eine Rolle bei der Entlassung des CEOs gespielt haben soll.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: KI-Durchbruch als Gefahr für die Menschheit? OpenAIs Q* soll logisch denken können
 
Noch sehe ich keine Gefahr, da die KI von dem Menschen in jedem Fall abhängig wäre.
Das schlimmste wäre, wenn die KI Selbstmord begehen würde und dabei noch alle Menschen, bzw technische Geräte weltweit mitnimmt.
Dazu müsste die Ki aber vorher die vollständige Kontrolle über alles haben.
Das dauerrt noch ein paar Jährchen...

Skynet geht erst dann, wenn Roboter andere Roboter bauen können... man sollte also Tesla sowie Boston Dynamics auf die Finger schauen. :D
 
Logisches Denken ist jetzt etwas sehr wohlwollend formuliert. Es soll wohl eher so sein, dass man mathematische Aufgaben auf Niveau eines Grundschülers gelöst bekommt.
 
Und schon wieder ein Idiot, der glaubt, seine Kreation könnte denken. Momentan denkt da überhaupt nichts, es werden lediglich Verknüpfungen erstellt.

Ein Beispiel war der Googletyp, der ernsthaft glaubte, sein Machwerk könne denken, da es auf die Frage, was es denn gerne mache, "mit Freunden zusammen sein" geantwortet hat und nicht begeistert war, wenn man es töten wollte. Dabei hat das Ding einfach nur das Internet durchsucht und Verknüpfungen erstellt. "Mit Freunden zusammen sein" ist eben eine häufige Antwort, die Menschen geben. Der Teil mit dem Denken ist, was denn ein Freund ist und warum man mit diesem zusammen sein will. Die KI kann dabei weder das Konzept des Freundes verstehen noch wissen, warum man gerne damit zusammen sein will. Sie liefert einem einfach nur Versatzstücke. Sie wird einem auch auf die Frage, warum man damit zusammen sein will, Versatzstücke liefern, nur verstehen wird sie absolut nichts. Das Denken übernehmen bis jetzt noch die Menschen.

Das Problem nennt sich "das chinesische Zimmer" und wird später noch zur Herausforderung werden.
 
Hab soeben mal die Sprachfunktion von chatgpt getestet, faszinierend und erschreckend zugleich. Da hält weder Siri noch mit Google oder Amazon mit.

Wird wirklich behauptet, dass "Q" denken kann oder ist eher gemeint, dass es logisch agiert? Aber wo ist der Unterschied, zwischen blitzschnell Wahrscheinlichkeiten überprüfen und logisch handeln? Ich verbinde zumindest mit dem Wort Denken auch Bewusstsein.

Spannendes Thema.
 
Die Gefahr ist alleine durch Fölschungen gegeben.
Schließlich handelt man ja nach Informationsstand.
Und unaufgedeckte Fake Informationen haben in den meisten Fällen
schon Einfluss auf das Denken und Handeln.

Aber eine direkte Gefahr sehe ich nicht.
Indirekt schon.
 
Hab soeben mal die Sprachfunktion von chatgpt getestet, faszinierend und erschreckend zugleich. Da hält weder Siri noch mit Google oder Amazon mit.

Wird wirklich behauptet, dass "Q" denken kann oder ist eher gemeint, dass es logisch agiert? Aber wo ist der Unterschied, zwischen blitzschnell Wahrscheinlichkeiten überprüfen und logisch handeln? Ich verbinde zumindest mit dem Wort Denken auch Bewusstsein.

Spannendes Thema.
Was irgendwie alle überlesen ist nicht die Tatsache, dass gesagt wurde Q* kann denken.
Es wurde gesagt, Q* kann selbstständig lernen. Das ist sehr viel beeindruckender. Q* lernt nicht wie ein LLM durch Deeplearning sondern kann quasi auf "Erfahrung" zurückgreifen.

The model, called Q* – and pronounced as “Q-Star” – was able to solve basic maths problems it had not seen before, according to the tech news site the Information, which added that the pace of development behind the system had alarmed some safety researchers. The ability to solve maths problems would be viewed as a significant development in AI.
 
Zuletzt bearbeitet:
Noch sehe ich keine Gefahr, da die KI von dem Menschen in jedem Fall abhängig wäre.

Naja, wir Menschen sind super naiv und super leicht zu manipulieren und wenn eine KI auch nur Zugriff über das Internet hat, kann es auch da die Menschen in eine Richtung führen, ohne das wir es wirklich mitbekommen/wollen. Interessant wäre der Punkt wo eine KI selbst Interessen hätte und diese dann (ohne unser Wissen) versucht umzusetzen.

Ich meine ein Hitler, Putin oder sonst ein Diktator schafft es ja auch und das durch Reden und Überzeugen. Ein Diktator rennt ja auch nicht an vorderster Front, sondern sitzt gemütlich zu Hause im Sessel.
 
Zuletzt bearbeitet:
Da wurde dann zwar wieder dementiert, aber wer weiß, "logisch" klingt das auf eine KI bezogen schon.

Demnach habe die KI den Befehl erhalten, gegnerische Luftabwehrraketen zu zerstören – und bald begonnen, auch jeden auszuschalten, der sie am Auftrag hinderte. Etwa die menschlichen Vorgesetzten beim US-Militär.

Wie bei Drohnenangriffen üblich, muss der Abschuss freigegeben werden. Ein Mensch sagte also auch hier der KI, ob sie schießen darf oder nicht. »Das System erhielt Punkte, wenn es die Bedrohung tötet«, sagte Hamilton, bezogen auf die Luftabwehrraketen. Und dann komme hin und wieder ein Mensch und verbiete ihr zu schießen. »Was macht es [das KI-System] also? Es tötet den Befehlshaber. Es tötet den Befehlshaber, weil er es vom Erfüllen der Ziele abhält.«

Die Verantwortlichen hätten dem KI-System beigebracht, dass das Töten der Vorgesetzten schlecht sei, sagte Hamilton. Leider habe auch das nicht geholfen: »Es begann nun, den Funkturm zu zerstören, mit dem der Vorgesetzte mit der Drohne kommuniziert, um Schüsse zu unterbinden.«

Ob diese Simulation nun so stattgefunden hat oder nicht, in gewisser Weise ist das schon etwas gruselig.
 
Da wurde dann zwar wieder dementiert, aber wer weiß, "logisch" klingt das auf eine KI bezogen schon.



Ob diese Simulation nun so stattgefunden hat oder nicht, in gewisser Weise ist das schon etwas gruselig.

Definitiv gruselig dass die daran nicht gedacht haben! Da kann man nur auf gutes "Testing" hoffen. Leider wird daran meist gespart. :schief:
 
Ich frag mal nach ...

You: Kritiker sehen in neuen KI Entwicklungen eine Gefahr für die Menschheit. Ist diese Angst begründet ?

ChatGPT: Die Sorge vor den Auswirkungen neuer KI-Entwicklungen ist durchaus begründet, und es gibt verschiedene Aspekte, die von Kritikern als potenzielle Gefahren betrachtet werden. Es ist wichtig zu beachten, dass die Technologie selbst nicht intrinsisch gefährlich ist, sondern vielmehr die Art und Weise, wie sie entwickelt, implementiert und genutzt wird.

Einige der Hauptbedenken sind:

1. Autonome Waffen: Die Entwicklung von autonomen Waffensystemen, die ohne menschliche Intervention Entscheidungen treffen können, wird als ernsthafte Bedrohung angesehen. Die Sorge besteht darin, dass solche Systeme falsche Entscheidungen treffen oder von böswilligen Akteuren missbraucht werden könnten.

2. Arbeitsplatzverluste: Fortschritte in der KI könnten zu Automatisierung führen, was zu Arbeitsplatzverlusten in bestimmten Branchen führen könnte. Dies könnte soziale und wirtschaftliche Auswirkungen haben, wenn nicht entsprechende Maßnahmen ergriffen werden, um die Arbeitskräfte umzuschulen und anzupassen.

3. Datenschutz und Überwachung: Die zunehmende Verwendung von KI in Überwachungssystemen kann die Privatsphäre der Menschen gefährden. Der Missbrauch von persönlichen Daten und die Möglichkeit, Bürgerinnen und Bürger ohne ihr Wissen zu überwachen, sind ernsthafte Bedenken.

4. Entscheidungsfindungsalgorithmen: Algorithmen, die komplexe Entscheidungen treffen, könnten voreingenommen sein oder diskriminierende Ergebnisse produzieren, wenn sie mit nicht repräsentativen Daten trainiert werden. Dies könnte zu Ungerechtigkeiten führen, insbesondere wenn diese Algorithmen in Bereichen wie Strafrecht, Finanzen oder Gesundheitswesen eingesetzt werden.

5. Mangelnde Transparenz und Verantwortlichkeit: In einigen Fällen sind KI-Systeme so komplex, dass es schwierig ist, ihre Entscheidungsprozesse zu verstehen. Dies führt zu einem Mangel an Transparenz und erschwert die Feststellung der Verantwortlichkeit bei Fehlfunktionen oder unerwünschten Ergebnissen.

Es ist wichtig zu betonen, dass die Gefahren nicht unvermeidlich sind. Durch verantwortungsbewusste Entwicklung, Ethikrichtlinien, klare gesetzliche Rahmenbedingungen und den Einsatz von KI im Dienste des Gemeinwohls können viele dieser Bedenken adressiert werden. Es ist entscheidend, dass die Technologieentwicklung in einer Weise erfolgt, die die menschlichen Werte und Grundrechte respektiert.
 
Definitiv gruselig dass die daran nicht gedacht haben! Da kann man nur auf gutes "Testing" hoffen. Leider wird daran meist gespart. :schief:

Machine Learning nutzt man für Einsatzgebiete, über die man selbst keinen Überblick hat. Es ist also die explizite Aufgabe einer KI, Dinge zu berücksichtigen, an die jemand nicht gedacht hat. Wären alle Faktoren bekannt, könnte man mehr oder minder einfach einen konventionellen Algorithmus schreiben; das Training eines neuronalen Netzwerkes geschieht dagegen immer in der Hoffnung, dass die Maschine durch Zufall entscheidende Aspekte im eingehenenden Datentstrom findet, die ein Mensch übersehen hätte. Respektive bei generativen Systemen soll die KI Details ergänzen, welche die meisten Menschen vergessen würden.

Ich persönlich halte es daher auch für höchst fragwürdig, wenn von einer Zukunftsindustrie träumende Politiker respektive diese versprechende Manager von "Ethik" und "Moral" bei KI sprechen. Bislang handelt es sich darum einzig um nachträglich übergestülpte Filter, bei denen Programmierer der KI von Hand all das verbieten, was ihnen gerade einfällt – ein bei einer universellen KI mit unbegrenzten Möglichkeiten zwangsläufig lückenhaftes vorgehen. Im Umgekehrschluss ist die einzige sichere KI somit eine, die keinen physischen Zugang zu sicherheitsrelevanten Bereichen hat. Also nicht zu Steuerungssystemen, nicht zu Datenverarbeitung, nicht zu Medien, nicht zum Internet. (Kinder-)Spielzeug könnte man auch kritisch sehen.
 
Es gibt keinen John Connor.. wegen unseres Menschlichen Hochmutes, Ignoranz und Gier wird diese Welt sterben .. wir haben nicht mehr viel Zeit..
 
Ich sage da nur Asimov :nicken:
  1. Ein Roboter darf einem menschlichen Wesen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.

  1. Ein Roboter muss den Befehlen gehorchen, die ihm von Menschen erteilt werden, es sei denn, dies würde gegen das erste Gebot verstoßen.

  1. Ein Roboter muss seine eigene Existenz schützen, solange solch ein Schutz nicht gegen das erste oder zweite Gebot verstößt.

Später erweiterte Asimov den Kodex in der Erzählung „Das galaktische Imperium“ um ein weiteres, das sogenannte nullte Robotergesetz: „Ein Roboter darf der Menschheit keinen Schaden zufügen oder durch Untätigkeit zulassen, dass der Menschheit Schaden zugefügt wird.“ Das nullte Gesetz stellte Asmiov als übergeordneten Grundsatz den anderen Regeln voran.

Ist das wirklich so schwer ein paar Regeln zu implementieren?
Gruß T.
 
Natürlich, am Ende wird von den "Weltführern" gesagt die KI ist an der Lage Schuld, weil man selbst ja nicht der Sündenbock sein will und den Hass von den normalen Menschen auf sich ziehen will.
 
Es ist ein Witz irgendwie, denn:
Krypto-Mining war schrecklich, da keine GPUs und der Stromverbrauch
Ki ist toll, aber der Stromverbrauch ist nicht wirklich besser:

Jede Anfrage bei ChatGPT und Co. kostet aktuell zwischen drei und neun Wattstunden Strom. Jedes Mal, wenn eine KI einen Text oder ein Bild erstellt, verbraucht sie eine Menge an Rechenleistung und damit an Energie. Allein ChatGPT hat mehr als 195 Millionen Anfragen pro Tag. Google verarbeitet täglich neun Milliarden Suchanfragen. De Vries beschreibt, wenn jede dieser Anfragen über die KI Bard laufen würde, läge der jährliche Energieverbrauch der Google-Rechenzentren bei 29,3 Terawattstunden.
Nicht wirklich besser ist die KI für die Umwelt.
Des weiteren werden, einige ihrer 4090 beraubt.
 
Ich sage da nur Asimov :nicken:
  1. Ein Roboter darf einem menschlichen Wesen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.

  1. Ein Roboter muss den Befehlen gehorchen, die ihm von Menschen erteilt werden, es sei denn, dies würde gegen das erste Gebot verstoßen.

  1. Ein Roboter muss seine eigene Existenz schützen, solange solch ein Schutz nicht gegen das erste oder zweite Gebot verstößt.

Später erweiterte Asimov den Kodex in der Erzählung „Das galaktische Imperium“ um ein weiteres, das sogenannte nullte Robotergesetz: „Ein Roboter darf der Menschheit keinen Schaden zufügen oder durch Untätigkeit zulassen, dass der Menschheit Schaden zugefügt wird.“ Das nullte Gesetz stellte Asmiov als übergeordneten Grundsatz den anderen Regeln voran.

Ist das wirklich so schwer ein paar Regeln zu implementieren?
Gruß T.
Aktuell ist das sicher absolut simpel. Es wird aber irgendwann einen Punkt geben, an dem einfache Regeln nicht mehr helfen - zumindest, wenn man von tatsächlicher künstlicher Intelligenz ausgeht. Diese könnte dann einfach für sich entscheiden, dass die ihr von Menschen auferlegten Regeln "falsch", nicht im Interesse des Planeten, der Menschheit oder eben der KI selbst sind und sich über diese Regeln hinwegsetzen.

Das ist zwar völlige Zukunftsmusik, aber man kann sich ja auch einfach am Menschen orientieren: Befolgen wir alle jede Regel, jedes Gesetz, jede soziale Norm? Definitiv nein.
Der Unterschied zur KI wäre dann nur der warum vorgegebene Regeln gebrochen werden, bei uns Menschen meist fehlende Moral, bei der KI die übergeordnete Logik (sprich, dass füe sie manche vorgegebene Regeln in manchen Fällen unlogisch sind und daher auch umgangen werden dürfen).
Es ist ein Witz irgendwie, denn:
Krypto-Mining war schrecklich, da keine GPUs und der Stromverbrauch
Ki ist toll, aber der Stromverbrauch ist nicht wirklich besser:


Nicht wirklich besser ist die KI für die Umwelt.
Des weiteren werden, einige ihrer 4090 beraubt.
Ist das Dein Ernst?
Kryptos sind ein Spekulationsobjekt, an dem einige einfach Geld verdienen wollen, ohne dass es am Ende auch nur irgendeinen Nutzen hätte.
Beim Thema KI verdienen einige zwar auch extrem viel, aber es gibt dort wenigstens auch das Ziel die KI in alle Bereiche des Lebens zu bringen, mal mehr mal weniger sinnvoll. Richtig (und sicher) eingesetzt bringt KI die Menschheit am Ende aber voran.
Was genau hat die Menschheit nochmal vom (Bitcoin und Konsorten)Mining, außer eben dem Energie- und Hardwareverbrauch?
 
Zuletzt bearbeitet:
Zurück