Nvidia-CEO: Grafikprozessoren werden Hauptprozessoren ersetzen

Die Erklärung ist gar nicht so kompliziert:
Die Kerne einer CPU sind voneinander unabhängig und getrennt. Jeder Kern kann eine ganz andere Aufgabe erfüllen bzw berechnen.
Sprich: Kern 1 kann sich um das OS kümmern, Kern 2 berechnet Primzahlen, Kern 3 berechnet Pi, Kern 4 macht .....

Bei einer Grafikkarte hingegen sind alle Kerne aneinander "gebunden". Sie können alle gemeinsam den gleichen Rechenschritt ausführen, oder gar nicht.
Oder anders formuliert: wenn du versuchst, auf den ersten 300 Kernen der Grafikkarte Pi zu berechnen, und auf den anderen 300 Primzahlen, dann sind nur die einen 300 Kerne ausgelastet, während die anderen 300 Kerne Zwangspause halten müssen. Es ist schlicht nicht möglich, die Kerne unterschiedliche Aufgaben berechnen zu lassen.

Das stimmt so nicht ganz. Auch auf einer GPU hast du Mehrere Cluster die tatsächlich auch Aufgaben unabhängig voneinander bearbeiten können. Umgekehrt haben auch Prozessoren SIMD Einheiten, die letztlich dazu verdammt sind parallel die gleich Instruktion abzuarbeiten.

Der wesentliche Unterschied zwischen beiden Architekturen liegt in der Art der sequentiellen Instruktionsabarbeitung, weniger in der Art der Verteilung.
GPUs sind prinzipiell relativ "dumme" Architekturen. Vereinfacht gesagt nehmen die einen Befehl nach dem anderen aus dem Programstrom raus und arbeiten den ab. Wenn ein Befehl jetzt nicht gut parallelisierbar ist, verliert man zwar einiges an theoretisch möglicher Rechenleistung, doch das ist auch bei einer CPU nicht anders.

Was aber passiert zB wenn ich in mein Programm eine if Abfrage rein mache, oder ein Schleife? Für ein herkömmliches sequentielles Programm ist das nicht unüblich. Die CPU ist für so eine Situation mit einem Haufen von Schaltkreisen ausgestattet, die genau diese Art von Probleme behandeln. Sprungvorhersage, Out of Order Execution, Forwarding, Schattenregister nach Schema Tomasulo Architektur etc.
Bedeutet bei der CPU wird ein nicht unerheblicher Teil an Transistoren dafür ausgegeben den sequentiellen Befehlsfluss möglichst perfekt vorherzusagen/zu sortieren, sodass die Pipeline ständig gefüllt ist und man zB nicht bei einer if-Abfrage erst auf das Ergebnis warten muss, um zu wissen was als nächstes gemacht werden soll, sondern zb in der Zwischenzeit andere Befehle vorzieht. Kurz gesagt. Jeder CPU Kern ist perfekt darauf optimiert einen sequentiellen Befehlsstrom so aufzulösen, dass die CPU möglichst permanent Arbeit hat.

Eine GPU verfolgt hingegen ein anderes Konzept. Damit man sich den Spaß von einer riesigen Anzahl an ALUs (also Rechenwerken) auf einem Chip leisten kann, muss man eben an anderer Stelle Abstriche machen und das betrifft maßgeblich den Teil, der die sequentielle Befehlsausführung bei der CPU optimiert. Deswegen ist es notwendig einer GPU schön forgefertigte Instruktionshäppchen zu geben, die sich möglichst gut parallel verarbeiten lassen, am besten keine Sprünge mehr enthalten und am aller besten noch optimale Speicherzugriffsmuster haben, weil man sonst schnell in Gefahr läuft bedeutend langsamer zu sein, als auf einer CPU.

Daher denke ich auch nicht, dass Huang sich in seiner Aussage auf normale General Purpose Systeme bezog, sondern tatsächlich auf Spezialfälle wie Deep Learning, wo auch heute schon die CPU eigentlich nicht mehr zu tun hat, als Daten zwischen Hauptspeicher und GPU-Speicher hin und her zu schaufeln (bzw. bei HSA Systemen in Zukunft nicht mal mehr das). Hier könnte eine GPU-ähnliche Architektur tatsächlich als Haupt-Prozessor Sinn machen.
 
Aber genau die gibt es doch.
Immerhin kommen noch dieses Jahr die ersten ARM Windows 10 Notebooks die volle Kompatibilität zu 32 Bit X86 Software haben.
Intel hat da außer ein wenig bellen nichts gemacht und Microsoft und Quallcom ziehen das weiterhin durch.

Das 32 Bit x86 Patent dürfte ja auch bald auslaufen, vielleicht ist es sogar schon ausgelaufen.

Dann fehlen ja nur noch alle Erweiterungen (FMA & Co.) sowie der 64 Bit Befehlssatz - nicht schlecht. Software von vor 10 Jahren sollte also laufen....
 
Es ist schon ein paar Jahre her, aber ich kann mich gut daran erinnern das der Herr Lederjacke das schon einmal gesagt hatte. Heißt der wiederholt sich :nene:
 
Grade den Artikel gelesen und noch nicht alle Posts..

Strukturverkleinerungen mögen noch ein bisschen gehen, aber wir gelangen auch dort langsam an eine Grenze. Hier werden also in Zukunft andere Materialien zu verwenden sein. Silizium ist doch bald am Ende. Und dann? Man sieht doch schon wie schwer man sich bei den letzten Fertigungen getan hat und immer wieder neue Fertigungen verschiebt oder weiter optimiert. Ich frage mich wo wir in 10 Jahren sind, überhaupt nicht absehbar. An 1nm CPUs mit 100 Kernen und Software die damit umgehen kann glaube nicht. ^^
 
Warum sollten Sie klagen wenn noch kein Produkt auf dem Markt ist, dass das Patent verletzt. 1-2 Wochen nach Release wird die Patentklage kommen.

Wegen welchem Patent ?
X86 selbst ist als Patent meines Wissens nach schon abgelaufen (korrigiert mich wen ich falsch liege).

@Mephisto_xD

Inwiefern ?
Nenne mir mal Anwendungen die ohne Befehlssatzerweiterungen nicht laufen.
Dazu kommt das für viele Sachen eh zügig eine ARM Anwendung kommen dürfte.
Wen Apple dann komplett auf ARM im Mac lineup umstellt wird die meiste Software eh auch für ARM kommen.
 
Ich wage mal zu behaupten: In Zukunft wäre es doch sinnvoller mal die Software (flächendeckend) an die Hardware (Möglichkeiten) optimal anzupassen...
 
Wegen welchem Patent ?
X86 selbst ist als Patent meines Wissens nach schon abgelaufen (korrigiert mich wen ich falsch liege).

x86 fällt eher unter sowas wie Copyright. AMD muss x86 immer noch von Intel lizensieren, sonst dürfen sie keine RYZEN mehr verkaufen. Und bevor du fragst: Intel darf AMD die Lizenz nicht so einfach entziehen weil das Kartellamt das so entschieden hat.
 
Was für eine Schwachsinnige Aussage von Huang. Er sollte es als Studierter Elektriker wissen das sich eben nicht alle Prozesse paralleisieren lassen.
 
Ach, jetzt wird mir alles klar. Im Moore'schen Gesetzt ist geregelt, wer x86-Prozessoren herstellen darf und wer nicht. Wie konnte ich das nur jahrelang übersehen. *doh*

Wie süß. Hat da Nuallan Dein Idol beleidigt? Pöser Pursche!
Der Hinweis auf CPU-IP bezog sich offensichtlich auf Jäckchens Späßchen zur Zukunft von CPUs und nicht auf die 20te Feststellung, dass die Zeiten des Moore'schen Gesetzes abgelaufen sind :wall:
 
Jede Technik hat ihre Vor- und Nachteile.

Aber ich denke das mehr Speed bei Computern eher mehr mit beseitigen von Flaschenhälsen erreicht wird. Eine besser Anpassung der Software an die Hardware. Oder das aus heutiger Sicht eher unwahrscheinliche. Man schafft es Computer zu entwickeln die auf ganz anderen Technologen aufsetzen. Es ist ja auch die Frage was macht man wenn man 1nm erreicht hat ( wenn das überhaupt möglich ist)? Die Art wie heute Computer gebaut werden wird auch nicht der Weisheit letzter Schluss sein und nicht die Grenzen des Universums darstellen.

Das wird alles auch viel davon habhängen was unterstützen die Softwarenentwickler und was kauft der Kunde und was nicht. Daher finde ich seine Aussage auch ein wenig gewagt. Heute ist das alles schwer zu sagen. Und wenn morgen AMD bei Grafikkarten das Zepter in der Hand halten sollte redet er auch gleich wieder anderes.
 
Warum eigen sich GPUs weniger als CPUs für den ganz normalen Rechenbetrieb?

Einfache Antwort:
sie wurden so gebaut.

Bescheuerter Vergleich:
CPUs sind wie Taschenmesser. GPUs sind wie Hämmer. (Macht später Sinn :ugly:)
Mit Taschenmessern man Schneiden, Schnitzen, Sägen, Dosen öffnen, usw. Vieles davon nicht super-gut, aber man kommt zurecht.
Mit einem Hammer kann man richtig gut hämmern (als wäre er dafür gemacht ;)), sonst aber nicht viel.

Technisch gesagt:
GPUs sind stark spezialisiert auf paralleles Rechnen (Matrizen).
CPUs sollen ein breites Feld von Anwendungen abdecken (und sind einfacher zu programmieren).
 
x86 fällt eher unter sowas wie Copyright. AMD muss x86 immer noch von Intel lizensieren, sonst dürfen sie keine RYZEN mehr verkaufen. Und bevor du fragst: Intel darf AMD die Lizenz nicht so einfach entziehen weil das Kartellamt das so entschieden hat.

Microsoft,Quallcom,Lenovo,HP,.... scheinen anderer Meinung zu sein.
 
Grade den Artikel gelesen und noch nicht alle Posts..

Strukturverkleinerungen mögen noch ein bisschen gehen, aber wir gelangen auch dort langsam an eine Grenze. Hier werden also in Zukunft andere Materialien zu verwenden sein. Silizium ist doch bald am Ende. Und dann? Man sieht doch schon wie schwer man sich bei den letzten Fertigungen getan hat und immer wieder neue Fertigungen verschiebt oder weiter optimiert. Ich frage mich wo wir in 10 Jahren sind, überhaupt nicht absehbar. An 1nm CPUs mit 100 Kernen und Software die damit umgehen kann glaube nicht. ^^

Jetzt glaubst du vielleicht noch nicht daran, genau wie vor 15 Jahren niemand an 14Nm CPUs mit 18 Kernen gerechnet hat. Ich glaube, dass wir eine großartige Zeit vor uns haben, und uns jetzt noch gar nicht vorstellen können, was da kommen wird. Ich setze mir eine Kanne Tee auf, und würde vorschlagen, dass wir einfach mal warten, was da kommt :)
 
Zitat aus dem Artikel:
"Die Gesetzmäßigkeit von Gordon Moore besagt, dass sich die Komplexität integrierter Schaltkreise mit minimalen Komponentenkosten regelmäßig verdoppelt. Wer das Mooresche Gesetzt nicht kennt, muss sich aber laut Nvidia-CEO Jensen Huang keine Sorgen machen, denn er hält es für nicht länger relevant."
Zumindest in dieser Formulierung ist von "minimalen Komponentenkosten" die Rede. Klar hält der Nvidia-CEO das nicht mehr für relevant, wo doch die Mittelklasse-Grafikkarten bei mindestens 300 € anfangen und bis 900 € oder so für's Topmodell ausufern :D
Ja-nee, is schon klar, 2% Inflation pro Jahr und die ganzen Miner im Moment...
Ich fand nur, dass es gerade passt mit der Formulierung. Vielleicht muss man das Moorsche Gesetz nicht mehr auf die Anzahl der verbauten Transistoren, sondern auf die Anzahl der verbrauchten Euronen für eine Grafikkarte beziehen.
 
Ich glaube nicht, dass CPUs irgendwann komplett durch GPUs ersetzt werden, schließlich gibt es auch Anwendungsfälle, wo mehr Kerne einfach nicht mehr Leistung bringen, da sie schlecht oder nur sehr schwer aufgeteilt werden können. Prominentes Beispiel dafür wäre etwa die Genseqenzierung, wo hoch getaktete 4 Kern Xeons mit nem Haufen ECC RAM immer noch die beste Option sind.

@Atent123:

Hauptproblem am Windows on ARM ist, dass x86 nur emuliert wird und somit jeglicher x64 Code nicht ausgeführt werden kann. AVX usw. wird ebenfalls nicht unterstützt, was Programme, im Zweifelsfall, noch langsamer laufen lässt als sowieso schon durch die Emulation oder einfach nicht praktikabel (soll heißen viel zulangsam ausgeführt werden und/oder zur Instabiltät des ganzen Systems führen) zum Laufen gebracht werden können. Zudem soll es nur auf dem Snapdragon 835 laufen. Und das Mircosoft das Windows on ARM für Smartphones quasi gesperrt hat, legt es in der Ultrabook- bzw. Ultrathinnische fest, wo es sich gegen ähnlich leistungsfähigen Intel Y Prozis mit "richtigen" Windows 10 behaupten muss. Wer 1000€+ für ein schlankes Laptop oder Convertible ausgeben will, dem ist wohl schwer ein Teil zu verkaufen, dass bei etwa gleichen Preis, gleicher Leistung, gleicher Laufzeit nur gut die Hälfte der heute für Laptops und Desktops erhältlichen Software ausführen kann. Somit ist es quasi Windows RT 2.0 und damit, aus meiner Sicht, wahrscheinlich einem Riesenflop. Daher wirst du ARM Anwendung so schnell auf dem Desktop nicht finden. Und das Gerücht, dass Apple die Macs auf ARM umstellt geistert schon ewig durchs Netz, wird aber, meiner Meinung nach, wenn überhaupt erst in ferner Zukunft passieren. Denn nach der RISC-Pleite mit den PowerPC Prozessoren und der momentanen Ausrichtung auf x86 und x64, glaube ich nicht, dass Apple in naher Zukunft eine Rolle rückwärts hinlegen wird und viel Geld in die Hand nehmen wird, um MacOS X (MacOS 11 ist momentan ebenfalls nicht in Sicht) und alle Anwendung dafür auf ARM umzustellen. Der A11 6 Kerner ist denen wohl momentan Revolution genug.
 
Zuletzt bearbeitet:
"Gewagt bleibt indes Huangs Aussage, dass parallele Recheneinheiten serielle Recheneinheiten ersetzen werden."
Warum nicht!
So schnell vielleicht nicht als ablöse, aber als Option durchaus denkbar
 
Das hat er schon zur GeForce 8 gesagt. Damals hat Nvidia versucht Intel mit Cuda zu vernichten und Intel hat versucht mit Larrabee in den Grakamarkt einzusteigen. Intel war da erfolgreicher und das obwohl Larrabee ein Flop war, immerhin lebt das Ding im Xeon Phi weiter.

Am Ende wird es auf Spezialprozessoren hinauslaufen, so wie heute bei guten Smartphones üblich. Da wird man dann wieder, wie früher, einen bunten Haufen an Beschleunigerkarten im PC haben, eine für die Videokopression, eine für Verschlüsselungen, eine für Kompression usw..
 
Zurück