Nvidia: GPU-basierte KI kann Next-Gen-Chips entwickeln

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Nvidia: GPU-basierte KI kann Next-Gen-Chips entwickeln

Nvidia ist eines der führenden Unternehmen im Bereich Künstliche Intelligenz (KI). Wichtige Technologien, die darauf basieren und viele Spieler betreffen, sind Deep Learning Super Sampling (DLSS) sowie KI-beschleunigtes Denoising. Nvidia hat allerdings auch anderweitige Verwendung für KI-Techniken gefunden und möchte diese nach Aussage des eigenen Chief Scientists auch für weitere Chipentwicklung nutzen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Nvidia: GPU-basierte KI kann Next-Gen-Chips entwickeln
 
Respekt, in Sachen KI und Software hat´s "Team Green" einfach voll drauf ... :daumen:

MfG Föhn.

Ich bin mir gerade unsicher wofür es genau KI braucht bei dem beschriebenen Anwendungsfall, für mich ist das nichts weiter als eine Simulation, wie man sie in der Welt des Ingenieurswesen schon seit Jahrzehnten nutzt.

Auch sonst habe ich bei Nvidia sehr oft das Gefühl, dass der Begriff AI/KI sehr inflationär genutzt wird und bemerke schon fast Ähnlichkeiten zur beliebten NANO Industrie. Aber wenn man sich Mal diverse Techniken, bspw. DLSS anschaut, bleibt eigentlich erstaunlich wenig übrig, dass den Begriff KI rechtfertigt, auch wenn es keine genaue Definition gibt (wenn es diese geben würde, bin ich mir nahezu sicher, dass alle heutigen Ansätze die Bedingungen noch nicht erfüllen würden, denn selbstständig ist keiner der Ansätze) so empfinde ich (bei wirklicher Wertschätzung der aktuellen DLSS Inkarnation), vieles als puren Marketinghype, KI lässt sich gerade gut verkaufen.
 
Jetzt wissen wir also, wer den Mist mit den 600Watt Grafikkarten verzapft hat ?! ;-P

Wenn man einer Intelligenz einen 600W Stromstecker zur Verfügung stellt, so wird diese die Möglichkeiten damit auch möglichst ausreizen wollen, um keine ungenutzten Ressourcen zu verschwenden.
 
AI sells.
So ganz kann ich den Vorteilen nicht glauben. Schon lange werden Chipdesigns durch Algorithmen analysiert und optimiert. AI kann schneller sein, keine Frage. Sie ist aber nicht deterministisch, und das halte ich in der Entwicklung für gefährlich.

Aber was weiß ich schon. Ich habe ja nur einen Bachelor in dem Themenbereich und bin kein multinationales Unternehmen, dessen Kerngeschäft sich genau damit befasst.
 
Keine Sorge, im schlimmsten Fall schicken Sie Arnie in die Vergangenheit um eine Lederjacke zu Terminieren. :fresse:
Also ich sehe da eher Parallelen zur akteullen Star Trek Picard Serie. Der Angriff der grünen Borg. Übrigens Stichtag ist das Jahr 2024. Wenn man dann seine neue KArte in den Slot steck tudn den REchner aktiviert, schimmert plötzlich auch alles grünlich und dank dem vorher erstellten Benutzeraccounts für die NVidia Software wird alles sofort sauber isn System integriert udn das Botnetz steigert seine Leistung. ^^ ;-P
Ich bin mir gerade unsicher wofür es genau KI braucht bei dem beschriebenen Anwendungsfall, für mich ist das nichts weiter als eine Simulation, wie man sie in der Welt des Ingenieurswesen schon seit Jahrzehnten nutzt.

Auch sonst habe ich bei Nvidia sehr oft das Gefühl, dass der Begriff AI/KI sehr inflationär genutzt wird und bemerke schon fast Ähnlichkeiten zur beliebten NANO Industrie. Aber wenn man sich Mal diverse Techniken, bspw. DLSS anschaut, bleibt eigentlich erstaunlich wenig übrig, dass den Begriff KI rechtfertigt, auch wenn es keine genaue Definition gibt (wenn es diese geben würde, bin ich mir nahezu sicher, dass alle heutigen Ansätze die Bedingungen noch nicht erfüllen würden, denn selbstständig ist keiner der Ansätze) so empfinde ich (bei wirklicher Wertschätzung der aktuellen DLSS Inkarnation), vieles als puren Marketinghype, KI lässt sich gerade gut verkaufen.

Mein Taschenrechner ist auch eine künstliche Intelligenz, der kann tatsächlich wie ein Mensch selbstständig eingegebene mathematische Rechnungen kalkulieren und kommt zudem unnatürlich exakt zu immer dem richtigen Ergebnis. Das Ding funktioniert also noch viel besser als das "Brain" bei DLSS. ^^ ;-P
 
KI gestütztes Chipdesign ist eigentlich der logische nächste Schritt. Da ist bislang schon vieles automatisiert geschehen. Das läuft ganz bestimmt nicht nur bei Nvidia so ab
 
Solange der Mensch noch versteht wie und was die KI macht ist noch alles in Ordnung aber sobald er es nicht mehr versteht und keine Kontrolle mehr ausüben kann (schleichender Prozess) kommen wir irgendwann zum point of no return.
Und dann ist mMn das ende der derzeitigen Zivilisation schon vorprogrammiert (nicht negativ gemeint)
Wenn man sich die Menschheitsgeschichte anschaut ist es nicht das schlechteste was passieren kann
 
Sie ist aber nicht deterministisch, und das halte ich in der Entwicklung für gefährlich.
Moment, genau das ist doch der Vorteil fakultativer KIs; denn damit sind sie deutlich näher am nicht-deterministischen Entscheiden eines Menschen. Und hier geht es ja genau darum, nicht deterministisch auf ein Ziel kreativ und möglichst effizient hin zu arbeiten.

Ist Deine Bachelor Arbeit veröffentlicht?
 
Ich bin mir gerade unsicher wofür es genau KI braucht bei dem beschriebenen Anwendungsfall, für mich ist das nichts weiter als eine Simulation, wie man sie in der Welt des Ingenieurswesen schon seit Jahrzehnten nutzt.

Auch sonst habe ich bei Nvidia sehr oft das Gefühl, dass der Begriff AI/KI sehr inflationär genutzt wird und bemerke schon fast Ähnlichkeiten zur beliebten NANO Industrie. Aber wenn man sich Mal diverse Techniken, bspw. DLSS anschaut, bleibt eigentlich erstaunlich wenig übrig, dass den Begriff KI rechtfertigt, auch wenn es keine genaue Definition gibt (wenn es diese geben würde, bin ich mir nahezu sicher, dass alle heutigen Ansätze die Bedingungen noch nicht erfüllen würden, denn selbstständig ist keiner der Ansätze) so empfinde ich (bei wirklicher Wertschätzung der aktuellen DLSS Inkarnation), vieles als puren Marketinghype, KI lässt sich gerade gut verkaufen.
ja, mich wundert es langsam auch, dass sich nvidia noch nicht in aividia umgetauft hat. wenn man sich presentationen ansieht, ai hier ki da,... dann warten wir mal, bis das gpu team irgendwann gefeuert wird :lol:
 
Die Gefahr bei einer KI besteht darin das sie irgendwann selbstständig andere Wege gehen kann und somit den Menschen dominiert. Filme wie Terminator werden dann Realität und sind dann nicht mehr nur ein Filmgenuss aus dem TV Sessel zu betrachten. Und den Stecker kann man dann auch nicht mehr so einfach ziehen.:hmm:
 
Künstliche Intelligenz ist etwas grundlegend anderes.
Wenn ich gewisse Abläufe und Wahrscheinlichkeiten in endliche Algorithmen verpackte kann von Intelligenz nicht die Rede sein.
Der Begriff ki wird gerne dafür missbraucht, ist sie aber noch lange nicht.
Von klassischen Terminator oder dem Androiden "Data" aus startrek sind wir noch meilenweit entfernt.
boston dynamics ist da derzeit stand der dinge was robotertechnik angeht...
 
Ich bin mir gerade unsicher wofür es genau KI braucht bei dem beschriebenen Anwendungsfall, für mich ist das nichts weiter als eine Simulation, wie man sie in der Welt des Ingenieurswesen schon seit Jahrzehnten nutzt.
Meine Vermutung wäre in dem Fall der folgende Unterschied:

Simulation:
Der Bediener gibt sämtliche Parameter für die durchzuführende Installation selbst ein. Interpretiert anschließend die Ergebnisse und passt auf Basis dieser die Parameter für einen erneuten Simulationslauf bis zu einem gewünschtem oder potenziell optimalem Ergebnis an. Je größer das Wissen/die Erfahrung des Bedieners desto schneller/besser kann er die Ergebnisse interpretieren und die neuen Ausgangsparamter anpassen.

AI/KI:
Die Notwendigkeit nach jedem Simulationsdurchlauf einen menschlichen Operator die Simulationsparameter interpretieren und die neuen Ausgangsparamter anpassen zu lassen entfällt. Zusätzlich ist der Erfahrungs- und Wissensschatz, den eine AI/KI aufbauen kann wesentlich größer, dauerhaft verfügbar (solange die Daten sicher abgelegt werden) und schneller Abfragbar als es bei einem menschlichen Operator jemals der Fall wäre (deshalb arbeitet man aktuell auch sehr stark daran medizinische Aufnahmen, usw. AI/KI-Unterstützt zu interpretieren, da dort ein möglichst breites immer vorhandenes Wissen von Vorteil ist). Zusätzlich kann die selbe AI/KI die selbe Simulation mit unterschiedlichen Paramtern parallel durchführen und interpretieren und beide Ergebnisse miteinander in Verbindung bringen und das kann man solange steigern wie die Rechenleistung ausreicht. Ein menschlicher Operator hätte da ziemlich schnell ein Zeitproblem ;)
Je mehr Simulationen die AI/KI durchführt, desto besser kann sie entsprechende Ergebnisse vorhersagen, ihren Wissens- und Erfahrungsschatz ausbauen und so schneller zu gewünschten Ergebnissen kommen. Effektiv könnte man sagen, dass eine solche "AI/KI" ein Spezialist mit einem extrem kleinen Aktivitätsbereich ist in dem sie sich aber kontinuierlich verbessert und dem Optimum annähert. Bei allem was darüber hinausgeht ist sie unbrauchbar, da es keine "allgemeine Intelligenz" ist. Diese "AI/KI" ist viel mehr ein selbstoptimierender Algorithmus als eine AI/KI, da diese die Fähigkeit voraussetzen würde alle möglichen Problemstellungen egal welcher Art verarbeiten und aus ihnen lernen zu können (Minimalbasis, vergleichbar mit Instinkten beim Menschen und anschließender "Erziehung" und Beibringen höherer Fähigkeiten, wie Sprechen/Schreiben, Rechnen, Bewegen, Probleme lösen, usw.), was hier aber nicht der Fall ist.
 
Und hier geht es ja genau darum, nicht deterministisch auf ein Ziel kreativ und möglichst effizient hin zu arbeiten.
Lesen wir aus dem Artikel etwas anderes heraus? Es geht um eine Analyse des Chipdesigns auf mögliche Probleme und Inkompatibilitäten. Das sollte sich deterministisch berechnen lassen, ab wann das ein kritischer Faktor ist. AI kann diesen Schritt beschleunigen, indem es solch kritische Muster erlernt und in Designs erkennen kann. Jedoch immer mit einer gewissen nicht bestimmbaren Fehlerquote, die aber hinreichend klein für den Zweck ist.
Letzten Endes muss die AI aber mit dem aktuellen Stand der Dinge trainiert werden, sie kann nicht von sich aus Probleme erkennen, die es zuvor nie gegeben hat. So funktioniert das nicht.
Aber wer weiß, was in den letzten Jahres so alles hinter verschlossenen Türen bei NVIDIA passiert ist.
Ist Deine Bachelor Arbeit veröffentlicht?
Ja, aber weil mein Real-Name drunter steht werde ich die hier nicht öffentlich stellen, sorry.
 
Aber was weiß ich schon. Ich habe ja nur einen Bachelor in dem Themenbereich und bin kein multinationales Unternehmen, dessen Kerngeschäft sich genau damit befasst.
Finds immer belustigend wenn sich hier im Forum User melden mit dem und dem Abschluss und meinen es besser zu können als die Ingenieure/Entwickler bei Nvidia, welche mit Sicherheit einen gleichwertigen oder besseren Abschluss und definitiv mehr Praxiswissen in der Richtung besitzen.
 
Zuletzt bearbeitet:
Lesen wir aus dem Artikel etwas anderes heraus? Es geht um eine Analyse des Chipdesigns auf mögliche Probleme und Inkompatibilitäten. Das sollte sich deterministisch berechnen lassen, ab wann das ein kritischer Faktor ist. AI kann diesen Schritt beschleunigen, indem es solch kritische Muster erlernt und in Designs erkennen kann. Jedoch immer mit einer gewissen nicht bestimmbaren Fehlerquote, die aber hinreichend klein für den Zweck ist.
Letzten Endes muss die AI aber mit dem aktuellen Stand der Dinge trainiert werden, sie kann nicht von sich aus Probleme erkennen, die es zuvor nie gegeben hat. So funktioniert das nicht.
Aber wer weiß, was in den letzten Jahres so alles hinter verschlossenen Türen bei NVIDIA passiert ist.

Ja, aber weil mein Real-Name drunter steht werde ich die hier nicht öffentlich stellen, sorry.
Ok schade, hätte ich gerne gelesen, aber absolut verständlich.

Die Analyse auf Probleme und Inkompatibilitäten ist ja nur ein Aspekt. Der ist natürlich deterministisch, da abgegrenzt. Die trainierte KI wird hier vor allem schneller als eine reine Simulation sein, und darum geht es ja auch.

Aber die Punkte Node Shrink Adaptation und vor allem das Entwickeln komplett neuer Architekturen oder deren Teilaspekte ist, fließend betrachtet, nur non-deterministisch umzusetzen. Das ist 'das hat gut funktioniert, 'das hat nicht gut funktioniert' und jetzt lass das n=extrem hoch in in extrem vielen Permutationen aus 'hat funktioniert' und 'hat nicht funktioniert' laufen um dann die nächste Runde aus A ist 'hat funktioniert' und B ist 'hat funktioniert', jetzt 'A mit B hat funktioniert' mit 'A und C hat nicht funktioniert' laufen zu lassen. Ich hoffe es wird verständlich, was ich meine: open end trial and error mit Lernen und einer Zielrichtung aber keiner festen Determinante über den Anfangszustand oder gewissen Constraints wie TDP und Strukturbreite hinaus.
 
Ich bin mir gerade unsicher wofür es genau KI braucht bei dem beschriebenen Anwendungsfall, für mich ist das nichts weiter als eine Simulation, wie man sie in der Welt des Ingenieurswesen schon seit Jahrzehnten nutzt.

Auch sonst habe ich bei Nvidia sehr oft das Gefühl, dass der Begriff AI/KI sehr inflationär genutzt wird und bemerke schon fast Ähnlichkeiten zur beliebten NANO Industrie. Aber wenn man sich Mal diverse Techniken, bspw. DLSS anschaut, bleibt eigentlich erstaunlich wenig übrig, dass den Begriff KI rechtfertigt, auch wenn es keine genaue Definition gibt (wenn es diese geben würde, bin ich mir nahezu sicher, dass alle heutigen Ansätze die Bedingungen noch nicht erfüllen würden, denn selbstständig ist keiner der Ansätze) so empfinde ich (bei wirklicher Wertschätzung der aktuellen DLSS Inkarnation), vieles als puren Marketinghype, KI lässt sich gerade gut verkaufen.

Wenn ich den Artikel richtig verstehe, dann geht es darum eben keine vollständige Simulation mehr durchzuführen, sondern mit [Black Box] in viel kürzerer Zeit abzuschätzen, was bei einer aufwendigen Berechnung der gesamten Funktionalität am Ende heraus käme. In dieser Hinsicht passt die Begriffsverwendung auch zu DLSS. Das versucht auch ein hochauflösendes Bild zu zeichnen, ohne die dafür nötigen Renderprozesse durchzuführen, in dem Lücken einfach "nach Gefühl" ausgemalt werden. Der "Intelligenz"-Teil besteht dabei, wie für alle aktuell gehypten Deep-Learning-Prozesse darin, dass das neuronale Netz mit besagtem "Gefühl" nicht programmiert/konstruiert wird, sondern sich die Regeln in einem Trial-&-Error-Verfahren aneignet. Die Intelligenz "lernt" also aus sich selbst heraus, während der Mensch ihre Arbeitsweise nicht einmal nachvollziehen kann.

Dass das vorläufige Endergebnis solcher Machine-Learning-Prozesse dabei oft dümmer als ein Silberfischchen ist sollte man nicht zu eng sehen. (Zumindest solange man nicht im Straßenverkehr damit konfrontiert wird.) Die Begriffe werden halt von Software-entwicklern geprägt, also der gleichen Fraktion die schon den Sammlern in C & C 2 eine "Intelligenz" zugesprochen hat. Im Vergleich dazu kann DLSS die Frage zu 42 finden. :-)
 
Zurück