Neue Gerüchte um Nvidia Hopper: Dreimal so schnell wie GA100 mit Ampere-Technik?

gerX7a

BIOS-Overclocker(in)
Hier kommen drei Faktoren zum Tragen, die in Kombination viel Spielraum lassen:
a) architektonische Verbessertungen/Erweiterungen
b) ein neuer Node, der effizienter ist und daher bspw. voraussichtlich mehr Takt erlaubt
c) die grundlegende Skalierung, denn hier kann nun mittels MCM ein sehr großes Design abgeliefert werden

An Ende kann dabei problemlos etwas im Bereich von 2x bis 3x herauskommen, denn alleine schon der Skalierungsfaktor bietet hier viel Potential. Letzten Endes wird man jedoch einfach abwarten müssen, denn eine 10.000 €-Karte wird keinen Spieler interessieren und absehbar wird dieses Design auf HPC und AI hin ausgerichtet sein, d. h. erneut HBM und einen großen Cache und viel FP64-Durchsatz. Was da später in den Consumer-Produkten ankommen wird, wird man abwarten müssen; sicher ist nur dass es schneller wird. ;-)

@Swasilon: Navi 10 im N7P war relativ gesehen vergleichsweise ineffizient ... die Steigerungen mit RDNA2 waren nicht wirklich ein Kunststück ... ließen sich aber zumindest gut bewerben. ;-)
IPC-Steigerungen haben eher weniger mit dem Node sondern vorrangig mit der Architektur zu tun.
Und beim Stromverbrauch lässt sich per se nichts abschätzen, da es sich hier um ein Datacenterdesign handelt. Der GA100 liegt bei um die 400 W, ein Nachfolgemodell könnte, wenn es entsprechend mehr Leistung bietet auch deutlich mehr ziehen. Beispielsweise Intel''s Xe-HPC scheint auf 600 W pro Package ausgelegt zu sein ... in einem Server mit entsprechender Kühlung oder gleich flüssigkeitsgekühlt lässt sich so etwas durchaus wegschaffen.
Schlussendlich wird man abwarten müssen, was bzgl. Consumer-Produkten kommt. Die News hier hat für dieses Forum hier nur einen sehr geringen Nutzen und dass der GA100-Nachfolger deutlich schneller werden wird, war auch ohne jedweden Leak vollkommen absehbar, denn der Marktdruck auf nVidia steigt signifikant an.
 
Zuletzt bearbeitet:

Acgira

Software-Overclocker(in)
Klingt gut... kann ich dann entlich mein 4K 120HZ Monitor brauchen, wie er eigentlich Gedacht ist
Die Spieleentwickler wissen aber ebenso wieviel Leistung die nächsten Grafikkarten haben und passen die Grafikqualität entsprechend an und die neusesten AAA-Spiele Laufen dann wieder bei 4k mit max Details mit 50 bis 89fps.

Ganz besonders die Spiele die von Nvidia supportet werden - denn wenn kein aktuelles Spiel mit 120Hz und maximalen Details läuft gibt es permanent den Wunsch nach schnelleren Grafikkarten.
 

Atma

PCGH-Community-Veteran(in)
Einfach nur mehr Shader funktioniert nicht, bei der Architektur bzw. dem grundsätzlichen Aufbau muss sich auch was ändern. Die Hauptursache für die hohe Leistungsaufnahme beim GA102 sind die massiv vielen Shader, schon der GA104 ist deutlich genügsamer.

Ähnlich wie bei CPUs sehe ich auch bei GPUs klassische monolithische Designs am Ende des machbaren angekommen. Die DIEs sind inzwischen dermaßen riesig, schlucken Unmengen an Strom und sind gepaart mit GDDR6X per Luft kaum noch zu bändigen. So kann das nicht weiter gehen, es wird dringend Zeit für MCM Designs.
 

Phobos001

Freizeitschrauber(in)
Navi 10 im N7P war relativ gesehen vergleichsweise ineffizient ... die Steigerungen mit RDNA2 waren nicht wirklich ein Kunststück ... ließen sich aber zumindest gut bewerben. ;-)
Verdoppelung der CUs inkl. massiver Taktsteigerung und damit rund 100%+ Performance im gleichen Node, bei etwa 33% erhöhter Leistungsaufnahme findest du "kein Kunststück" ?

Also manchmal frag ich mich wirklich....
 
Zuletzt bearbeitet:

Swasilon

Schraubenverwechsler(in)
Kommt halt noch darauf an, was man nun genau unter "IPC Steigerung" mit einbezieht.

Bei Spielen die die neuen Features von RDNA2 nutzen hat Navi 21 ne dicke IPC Steigerung.
https://www.computerbase.de/2021-03/amd-radeon-rdna2-rdna-gcn-ipc-cu-vergleich/
Sind immerhin 15 relativ aktuelle Spiele in denen das getestet wurde. Als IPC würde ich in dem Zusammenhang die Leistung pro SM bei gleichem Takt usw. bezeichnen.
IPC-Steigerungen haben eher weniger mit dem Node sondern vorrangig mit der Architektur zu tun.
Und beim Stromverbrauch lässt sich per se nichts abschätzen, da es sich hier um ein Datacenterdesign handelt. Der GA100 liegt bei um die 400 W, ein Nachfolgemodell könnte, wenn es entsprechend mehr Leistung bietet auch deutlich mehr ziehen. Beispielsweise Intel''s Xe-HPC scheint auf 600 W pro Package ausgelegt zu sein ... in einem Server mit entsprechender Kühlung oder gleich flüssigkeitsgekühlt lässt sich so etwas durchaus wegschaffen.
Schlussendlich wird man abwarten müssen, was bzgl. Consumer-Produkten kommt. Die News hier hat für dieses Forum hier nur einen sehr geringen Nutzen und dass der GA100-Nachfolger deutlich schneller werden wird, war auch ohne jedweden Leak vollkommen absehbar, denn der Marktdruck auf nVidia steigt signifikant an.
Das habe ich ja aber auch nirgends geschrieben, dass der Node mit IPC zu tun hat?
Ich hatte den geringen Mehrverbrauch in Relation zum Node gesetzt. Und da ist es schon ziemlich ordentlich, dass man ein Design entworfen hat, mit dem man in der Lage war, ohne IPC-Steigerungen die doppelte Leistung mit einem nur geringen Mehrverbrauch zu erreichen mit Verdpopplung der SM.
Aber das ist halt der Punkt:
Das geänderte Design mit den verlängerten Bahnen für die höheren Taktraten wirkt sich negativ auf die IPC aus.
Bei Taktgleichheit erreicht man auch nur schwer die doppelte Performance, trotz doppelter SM. Hat dafür aber eben die doppelte SM-Zahl ohne TDP-Explosion unterbringen können.

Und klar, im Serverbereich gelten nachmals andere Regeln, aber auch da wird man schauen müsse, wie man das Ganze kühlt. Flüssigkühlung, wie von die angesprochen ist mit Sicherheit eine Möglichkeit, birgt aber wieder deutlich mehr Aufwand/Ausfallrisiko usw. auch im Profisegment.
Bei angenommener 3-facher Performance mit doppelter SM-Zahl wären das immerhin 1,5-fache Leistung durch IPC oder Takt (2*1,5=3).
Bisher haben wir immer (in den letzten 6 Jahren) 1,2-1,3-fache Sprünge zwischen den Generationen erlebt (bei gleicher SM-Zahl) und diese 30% kamen bereits aus Takt UND IPC und zumeist geleichzeitig auch mit einem neuen Node.
ist also schon merkwürdig, wo plötzlich weitere 1,15-1,25 herkommen sollen (1,15*1,3=ca. 1,5=1,2*1,25)
Insbesondere wenn sich (wie wir von RNA2 gelernt haben) Taktsteigerungen, die nicht aus dem Node kommen, mit der IPC beißen.

Aber ja: am Ende muss man schauen/abwarten, was wirklich kommt, und was nicht. Wenn es tatsächlich 3-fache Performance wird, dann wird es zumindest interessant, wie sie das geschafft haben:)

Edit: gut, es sind 2,25 mal so viele Shader und nicht 2 mal soviele. Trotzdem wird die 3-fache Performance eine ziemliche Nuss sein.....
 

gerX7a

BIOS-Overclocker(in)
Verdoppelung der CUs inkl. massiver Taktsteigerung und damit rund 100%+ Performance im gleichen Node, bei etwa 33% erhöhter Leistungsaufnahme findest du "kein Kunststück" ?

Also manchmal frag ich mich wirklich....
Nein, war es tatsächlich nicht. Navi 10 leistet in einer Perf/Watt-Betrachtung so ziemlich das Gleiche wie Turing mit dem beträchtlichem Unterschied, dass RDNA den deutlich moderneren Fertigungsprozess nutzt (gar anderthalb bis zwei Full-Node-Sprünge weiter), denn AMD verwendete hier den N7P, der zudem noch ggü. dem N7 optional weitere Power Savings geboten hätte, nVidia dagegen verwendete gerade mal einen 16/12nm-Prozess, konkret den 12FFC von Anfang 2017. Hätte man das Potential von Navi10 vollumfänglich gehoben, hätte der deutlich besser abschneiden müssen.
Vermutlich hatte man daran aber kein Interesse und vermutlich war Navi10 auch nur ein SpinOff der RDNA2-Entwicklung um zwischenzeitlich etwas Geld zu verdienen, denn mit RDNA2 durfte man offensichtlich nicht frühzeitig in den Markt kommen, jedoch war das schlussendlich die eigentliche Entwicklungslinie, an der AMD seit etwa 2016 für Sony und Microsoft saß.
Navi10 war vorranging innerhalb des AMD-eigenen Portfolios ein guter Wurf, schlicht weil es mehr bot als das angestaubte Vega. Im Vergleich zur Konkurrenz wer das jedoch immer noch zu wenig und entsprechend schlecht *) verkauften sich die GPUs auch, obwohl AMD hier mit ordentlichem Speicherausbau und niedrigeren Preisen recht aggressiv vorging.

*) Relativ gesehen. Ob AMD mit den Umsätzen zufrieden war, wird man wohl nur in einer intimen Kneipen-Session unter vorgehaltener Hand erfahren. Darüber hinaus hat AMD in 2020 jedoch sukzessive Marktanteile von Quartal zu Quartal auf dem Desktop verloren ... das würde ich zumindest nicht unbedingt als zufriedenstellend bezeichnen. ;-)
 
Zuletzt bearbeitet:

Krawallschachtel

PC-Selbstbauer(in)
Da stellt sich mir wieder die Frage, wie hoch der Strombedarf sein wird. Schon Ampere ist da für mich kein großer Wurf. Schnelligkeit auf Kosten des Verbrauchs, ist weder wirtschaftlich, noch fortschrittlich.
 

gerX7a

BIOS-Overclocker(in)
Wird man abwarten müssen. Für die Consumer-Chips würde ich annehmen, dass nVidia mit sehr hoher Wahrscheinlichkeit bei Samsung bleiben wird. Der 5LPE *) dürfte ggü. dem aktuell genutzten 8LPP knapp über 45 % Power Savings bei maximaler Ausnutzung bieten können.
Schlussendlich darf man jedoch wieder annehmen, dass die HighEnd-Modelle weiterhin im Bereich von 300 - 350 W rangieren werden. (Zumindest habe ich nicht den Eindruck, dass AMD und nVidia wieder zurück zu den 400+ W-Modellen wollen, bzw. dass der Markt das honorieren würde. ;-))

*) Sofern er denn zum Einsatz kommen sollte. nVidia könnte sich aber auch zwecks kostengünstigerer Fertigung auf den 7LPP beschränken, der bereits etwa um die 35 % Power Savings ggü. dem 8LPP ermöglichen sollte.
Randnotiz: In 2022 wird bei Samsung absehbar auch der 4LPE zur Verfügung stehen, dass nVidia den jedoch für die Consumer-Produkte verwendet, dürfte für die kommende Generation eher unwahrscheinlich sein.
 
Zuletzt bearbeitet:

XXTREME

Lötkolbengott/-göttin
Nvidia muss schauen, dass sie im Gaming Bereich besonders den Abstand von AMD hakten können. Sie haben in Sachen Gaming-GPU die Nase noch immer vorne und das soll auch so bleiben.
Warum soll das so bleiben :what: ??
Da stellt sich mir wieder die Frage, wie hoch der Strombedarf sein wird. Schon Ampere ist da für mich kein großer Wurf. Schnelligkeit auf Kosten des Verbrauchs, ist weder wirtschaftlich, noch fortschrittlich.
Hmmm....stimmt schon aber AMD ist auch nicht viel besser was das angeht. Einzig allein die 6800 gefällt mir einiger maßen was Leistung/Watt angeht.
 

DragonX1979

Freizeitschrauber(in)
Da stellt sich mir wieder die Frage, wie hoch der Strombedarf sein wird. Schon Ampere ist da für mich kein großer Wurf. Schnelligkeit auf Kosten des Verbrauchs, ist weder wirtschaftlich, noch fortschrittlich.
Kommt auf die Perspektive an. Ampere ist per se effizienter als Turing. Allerdings wirkt sich das nur "positiv" im Professionellen Sektor aus, wo "time is money" herrscht bzw. "die gestellten Aufgaben endlich sind"...

Wenn's um Gaming geht, sind solche effizienz Rechnereien aber zu 99% irrelevant. Da die Mehrleistung eben nicht in kürzeren Rechenzeiten mündet, sondern idR. direkt in Qualität investiert wird (also mehr FPS, höhere Auflösung, mehr Details). Die Spielzeit verringert sich dadurch natürlich nicht und so ist jede Steigerung beim Leistungsbedarf von Gaming GPU's direkt Verbunden mit einem Mehrbedarf an Energie und entsprechenden Auswirkungen auf die Umwelt und den Geldbeutel...

Nur wenn man den Herstellern hier die Daumenschrauben anlegen würde und sagt "GPU's für den Privatgebrauch dürfen nur noch max 250W verbrauchen" würden wir von der Effizienzsteigerung direkt profitieren...

Warum hier sowohl Nvidia, Intel und AMD die Letzten Jahre mit ihrer recht verhalten Verbrauchssteigerung gebrochen haben, ist mir immer noch ein Rätsel. Aber vermutlich ist das auch wieder eine der Auswirkungen
von Mr. T's "Klimawandel existiert nicht" Haltung der letzten Jahre...
 

stolle80

PCGHX-HWbot-Member (m/w)
Und nicht vergessen wer bei Release die nächste Grafikkarte kauft, bekommt sie noch zu normalen Preisen (nahe UVP), wer hingegen wartet und hofft zahlt das doppelte und noch später das dreifache...
Zur UVP gibt's nie wieder Karten, Und wer die nicht sofort zum doppelten Preis kauft, der bekommt später gar keine mehr.
 

Acgira

Software-Overclocker(in)
Schlussendlich darf man jedoch wieder annehmen, dass die HighEnd-Modelle weiterhin im Bereich von 300 - 350 W rangieren werden. (Zumindest habe ich nicht den Eindruck, dass AMD und nVidia wieder zurück zu den 400+ W-Modellen wollen, bzw. dass der Markt das honorieren würde. ;-))
Der Standartstromverbrauch von Highend-Modellen in Zukunft... Die Reise geht eindeutig zu Netzteilen mit noch mehr Leistung. - Wenn irgendwann 8k Gaming mit 90 fps das Ziel ist, kann dies nie mit 300-350 Watt-Grafikkraten verwirklicht werden - auch nicht mit 400W+. Für die wenigen die sie sich 8k Monitore um 10.000€ kaufen, dürfte aber der Stromverbrauch unerheblich sein.

Für 4k dürfte sich 400W+ etablieren - Das Tor ist aufgestoßen und ein Zurückrudern wird es nicht geben. Nächste Generation für High End also minimum ein 850Watt Netzteil, um gegen die Stromspitzen gefeit zu sein besser etwas mehr.

Ich bleibe ohnehin im Breitbild-Nische unter 4 k... bevor ich undervoltet hab, hat sich der PC im Laufe der ersten 2 Wochen 3x wegen der Lastspitzen bei Cyberpunk ausgeschaltet... Was heißt, würde ich stets das Maximum aus der 3090 herausholen wollen, müsste ich was stärkeres als ein Bquiet 750W Dark Power 11 einbauen und nicht erst bei der nächsten Generation. Und ich hab davor nie mit dem MSI-Afterburner irgendetwas gemacht. Doch es wurde ein Notwendigkeit; Ich sah mich vor der Wahl: Entweder ein Minimum 850 oder 1000 W Netzteil zu kaufen oder über den Afterburner den Stromhunger der Grafikkarte zu zügeln...

Dabei hab ich früher einmal immer Grafikkarten gekauft die auch im übelsten Fall immer weniger als 200Watt Verbrauch hatten... Wenn eine Grafikkarte kein Raytracing können soll, und sich nur in FullHD austoben darf, reicht das auch heute noch. - So ist das, wenn die eigenen Ansprüche steigen.
 

raPid-81

BIOS-Overclocker(in)
Dabei hab ich früher einmal immer Grafikkarten gekauft die auch im übelsten Fall immer weniger als 200Watt Verbrauch hatten... Wenn eine Grafikkarte kein Raytracing können soll, und sich nur in FullHD austoben darf, reicht das auch heute noch. - So ist das, wenn die eigenen Ansprüche steigen.
Tatsächlich sinkt der Stromverbrauch bei aktuellen RT + DLSS Titeln im Vergleich zu reinen Rasterization Games. Durch die niedrigeren FPS, gedeckelt durch die RT Performance, berechnen die Raster-Engines auch weniger und verbrauchen somit weniger Strom.
 

Gurdi

Kokü-Junkie (m/w)
Tatsächlich sinkt der Stromverbrauch bei aktuellen RT + DLSS Titeln im Vergleich zu reinen Rasterization Games. Durch die niedrigeren FPS, gedeckelt durch die RT Performance, berechnen die Raster-Engines auch weniger und verbrauchen somit weniger Strom.
Du hast einfach die geilsten Theorien parat, jetzt sparen Grafikkarten schon Strom beim Raytracing....
 

raPid-81

BIOS-Overclocker(in)
Du hast einfach die geilsten Theorien parat, jetzt sparen Grafikkarten schon Strom beim Raytracing....
Soll ich es mit Screenshots beweisen?

CP2077, WQHD, max Details, RT Off, DLSS Off: ~300W
CP2077, WQHD, max Details, RT Psycho, DLSS Off: ~290W
CP2077, WQHD, max Details, RT Psycho, DLSS Quality: ~270W

Alles in derselben Szene.

Edit: Wenn man sich mit der RT- und Raster-Materie beschäftigt dann weiss man dass die Rasterpipeline auf die RT Berechnungen "wartet". Da die RT-Performance die maximalen FPS deckelt verbraucht die Rasterpipeline weniger Strom da sie nicht voll ausgelastet wird. Eigentlich logisch...
 
Zuletzt bearbeitet:
Oben Unten