Geforce RTX 3090: Warum die 10.496 Shader-Einheiten realisierbar waren

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 3090: Warum die 10.496 Shader-Einheiten realisierbar waren

Hardware-Fans wunderten sich bei der Vorstellung der Geforce RTX 3090, dass Nvidia beim Ampere-Flaggschiff die Zahl der Shader-Einheiten "mal eben" auf 10.496 verdoppeln konnte. Nun erklärt Nvidia: Pro Shader-Cluster gibt es zwar doppelt so viele FP32-, aber nicht doppelt so viele INT32-Einheiten.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Geforce RTX 3090: Warum die 10.496 Shader-Einheiten realisierbar waren
 
Man kann sagen was man will, Nvidia hat offenbar ordentlich aufgedreht. Sowohl was die Architektur angeht als auch beim Stromverbrauch. Nochmal läßt sich das Kunststück vermutlich nicht so einfach wiederholen, da bleibt dann nur eine bessere Fertigung.
 
AMD wird es schwer haben. Big Navi wird wohl gerade so im Bereich einer 3070 antanzen.

Nein definitiv nicht! Frank Azor wird ja wohl wissen was los ist! Da kam auch so ein Spezialist und sagte das Big Navi nicht so gut sein kann und was war die Reaktion? Nur ein Smiley! Glaub also wenn die XSX GPU laut Digital Foundry auf 2080 Ti Level ist, dann sind 50 % Mehrleistung einer Big Navi mit 5120 Shader im Bereich des Möglichen! Und wer sagt denn, dass da nicht noch was Größeres kommt? Siehe Arcturus mit 8192 Shader, also wer weis es schon genau bis zur offiziellen Vorstellung?
 
AMD wird es schwer haben. Big Navi wird wohl gerade so im Bereich einer 3070 antanzen.

Die 3070 ist auf Niveau einer 2080ti eine 5700XT liegt etwa 40% unter einer 2080ti und hat 2560 Shader Einheiten und taktet bei knapp unter 2000mhz. Big Navi soll ziemlich genau die doppelte Shader Zahl haben, also etwa 5120 verwendet GDDR6X und kommt mit ca. 50% Performance/Watt Verbesserung, einer unbekannten IPC Steigerung und Taktrate irgendwo bei +2100 Mhz, wenn wir das als grobe Ausrichtung nehmen, sollte Big Navi aka RX 6900XT ca. Doppelte RX 5700XT Leistung haben, also irgendwo bei RTX 3080 +-.
 
Die 3070 ist auf Niveau einer 2080ti eine 5700XT liegt etwa 40% unter einer 2080ti und hat 2560 Shader Einheiten und taktet bei knapp unter 2000mhz. Big Navi soll ziemlich genau die doppelte Shader Zahl haben, also etwa 5120 verwendet GDDR6X und kommt mit ca. 50% Performance/Watt Verbesserung, einer unbekannten IPC Steigerung und Taktrate irgendwo bei +2100 Mhz, wenn wir das als grobe Ausrichtung nehmen, sollte Big Navi aka RX 6900XT ca. Doppelte RX 5700XT Leistung haben, also irgendwo bei RTX 3080 +-.

Bis auf dem
ca. 50% Performance/Watt Verbesserung
stimme ich zu. Allein die Verdoppelung der Shader bringt schon annähernd das Niveau.
 
Hardware-Fans wunderten sich bei der Vorstellung der Geforce RTX 3090, dass Nvidia beim Ampere-Flaggschiff die Zahl der Shader-Einheiten "mal eben" auf 10.496 verdoppeln konnte.

Nicht wirklich. Das sind doch nur technische Interpretationen, die ja auch schnell die Runde machten.
(Ich seh vor meinem geistigen Auge trotzdem irgendwie die 5k+ shader, wenn ich diese Zahlen lese. ;) )

edit:

AMD wird es schwer haben. Big Navi wird wohl gerade so im Bereich einer 3070 antanzen.

Naja, im Bereich 3070-3080, je nachdem was sie rausquetschen, siehe Igor's Spekulatiussuppe.

edit2: Man darf aber den wohl größeren Speicher vs. der "Basis-Amperekarten" 70/80 nicht vergessen, der aber natürlich wiederum von Nvidia gekontert werden wird.
Also je nach Vorliebe ist da dann für jeden was dabei in rot und grün.


edit3: An die 3090 soll BigNavi aber wohl nicht ran kommen.

edit4: "Schwer haben" is da so ne Definitionssache. Was soll das heißen ? AMD Sympathisanten werden da halt ne gute Sache zum Kaufen haben. Nennen wir es doch mal so. Da wird wohl zum Start nicht mit Speicher gegeizt.
Und BigNavi wird halt auch RT beherrschen.

Ich seh da jetzt nix "schweres", zumal in jeder PS5 und neuen Xbox auch AMD vom Band läuft. Könnte man auch sagen: Nvidia wird's schwer haben. ;)
Interpretationssache.

Ich sag da weder noch zu. Jeder dieser Krähen, die der anderen kein Auge aushackt, wird sein Zeug verticken und unsere Kohle einsacken, insgesamt. :D
Die werden beide nicht am Hungertuch nagen.
Aussuchen kann man sich, was man will.

Konkurrenz könnte aufkommen, wenn Intel irgendwann mal mitmischt.
Diese 2 Firmen(AMD/Nvidia) haben sich ihre Bereiche ganz gut aufgeteilt, wie ich finde. ;)
 
Zuletzt bearbeitet:
Nicht wirklich. Das sind doch nur technische Interpretationen, die ja auch schnell die Runde machten.

edit:



Naja, im Bereich 3070-3080, je nachdem was sie rausquetschen, siehe Igor's Spekulatiussuppe.

Der Großteil der Zuschauer hat wahrscheinlich nur Hälfte in dem Video verstanden, ich sage nur IO und brauch nicht mehr soviel Vram :D
 
Der Großteil der Zuschauer hat wahrscheinlich nur Hälfte in dem Video verstanden, ich sage nur IO und brauch nicht mehr soviel Vram :D

Oder der hier: Brauche ich ein PCIe 4 System für die neuen Grafikkarten ? ;)
bzw: "Kauft besser eine neue Basis mit PCIe 4 + neuer AMD CPU und dafür eine günstigere GPU mit weniger Speicher, der nich mehr so wichtig ist." :lol:
Auch schon gelesen.

edit: Natürlich nur die schnellsten, neuesten, sauteuren PCIe 4 SSDs zu der günstigen GPU, denn das is ja jetzt wichtiger ! ;)

Lieber ne 1000€ Basis neu kaufen und ne 200€ GPU ohne Speicher dazu, jetzt. ;)

edit2: Nur noch mal um das klar zu sagen: Das da oben is alles Quark !
 
Zuletzt bearbeitet:
Ich denke das wir in ein paar Monaten mit der 3080, 3070 und RDNA 2 richtig gute P/L Karten bekommen werden, nur ist es für mich noch zu früh, meine OC'ed 5700XT reicht noch locker bis nächstes Jahr und dann gibt es Zen 4 + DDR5 und RDNA 3 oder RTX 4000 für mich :)
 
Ich würde, wenn ich doch mit der Leistung meiner GPU jetzt zufrieden bin, mir nicht einfach was Neues holen.
Nutzt eure AMD Karten und Turings doch einfach weiter, wenn ihr bisher zufrieden wart.

Und irgendwann kommt eh der Zeitpunkt, wo man dann aufrüsten möchte, oder muss.

Dann kann man auch den aktuellen Stand der Technik reinpacken, auch mit PCIe 4(hab ich ja nix gegen).
Aber jetzt alles auszuwechseln, weil's der neueste shice is, das muss nich sein, wie ich finde.

Ich hatte mir meine Pascal z.B. direkt gebraucht als Überbrückung gekauft(vor Turing), um jetzt passend zuzuschlagen, das war lang vorher klar für mich.
Und auch mein altes PCIe3 Board von 2017 werde ich noch Jahre weiter nutzen, auch mit der neuen "PCIe4 Karte".

Diese ganzen Techniken werden auch auf den alten Boards funktionieren und auch mit SSDs, die nicht zu den schnellsten gehören.
Sicher is der neueste shice insgesamt immer besser(paar % hier, paar % da). Wäre ja auch schlecht, wenn's schlechter werden würde. ;)

Aber nur weil was Neues da is, braucht man nicht sofort alles verticken, wo man gestern noch mit zufrieden war.


Nur mal so... :D
 
Alles, was wesentlich unterhalb der RTX 3080 liegt, wäre eine herbe Enttäuschung. Im wesentlichen stellt sich die Frage, wie weit AMD aufdrehen kann, 300W, 375W 425W oder noch höher? Wird die große Version von Big Navi luftgekühlt oder doch wieder mit Wasser?

Andererseits sollte man AMD spätestens seit "poor Volta" und dem "Wundertreiber" nichts mehr glauben. Selbst wenn Big Navi ein absolutes Debakel wäre, würde AMD immer noch gute Stimmung verbreiten.

Ich hoffe mal das beste, es ist durchaus möglich, dass sie 10% über der RTX 3080 liegen (mit entsprechendem Verbrauch).
 
Die 3070 ist auf Niveau einer 2080ti eine 5700XT liegt etwa 40% unter einer 2080ti und hat 2560 Shader Einheiten und taktet bei knapp unter 2000mhz. Big Navi soll ziemlich genau die doppelte Shader Zahl haben, also etwa 5120 verwendet GDDR6X und kommt mit ca. 50% Performance/Watt Verbesserung, einer unbekannten IPC Steigerung und Taktrate irgendwo bei +2100 Mhz, wenn wir das als grobe Ausrichtung nehmen, sollte Big Navi aka RX 6900XT ca. Doppelte RX 5700XT Leistung haben, also irgendwo bei RTX 3080 +-.

Vorsicht, hier sollte man die IPC nicht doppelt und dreifach anrechen, sonst wird man nachher nur enttäuscht. ;-)
Wer sich fragt, warum AMD "+50 % Perf/Watt" geteasert hat, bzw. genauer gesagt, warum AMD diese Steigerung unbedingt braucht: Ein verdoppelter Navi 10 (80 CUs, vergleichbarer Takt) mit 16 GiB würde zu einer Karte mit 430+ W TBP führen. Und nein, bevor jetzt wieder wer ums Eck kommt, das ist eine simple Skalierung aufgrund der bekannten Bestandsdaten und dazu noch unter Verwendung sehr guter Wandler. Ohne eine derartige Verbesserung könnte AMD einen derartig großen Chip gar nicht sinnvoll realisieren, denn was würden die Fans erst sagen, wenn AMD erklärt, dass sie auch den neuen 12-Pin-Stecker nutzen werden, weil sie mehrt als 400 W brauchen. ;-)
Der Großteil dieses "+50 % Perf/Watt"-Versprechens wird schlicht für das "Enabling" benötigt, damit man eine solche GPU mit einem Verbrauch von um die 210 - 220 W TDP fertigen kann, was dann in etwa zu einer 310+ W TBP Karte führen wird, wenn sie den Takt von Navi 10 beibehalten, wobei ich aber auch hier mit einem etwas niedrigeren Takt rechnen würde, denn bereits 2 GHz Boost würden deutlich über 300 W TBP bei AMD bedeuten.

Zudem sei auch angemerkt, dass die Kombination 512 Bit SI und GDDR6X bei AMD sehr unwahrscheinlich ist. Bereits mit 512 Bit wird es teuerer als bisher für AMD und man muss die Kampfpreise von nVidia dennoch unterbieten, d. h. hier kann man es sich nicht leisten das Design mit aufwändigem PCB mit noch mehr Lagen, Backdrill und den teueren Speichermodulen noch weiter zu verteuern. Bei AMD werden wohl höchstens 16 Gbps verwendet werden (was ihnen aber auch reichen sollte, nVidia kommt mit dieser Bandbreite ja schließlich auch aus).

Schlussendlich ist eine grobe Leistungsabschätzung, dass RDNA2 mit 80 CUs auf dem Niveau einer 3080 liegen kann, durchaus realistisch (wobei es auch durchaus etwas weniger sein könnte. Wenn AMD jedoch keine Hemmungen bzgl. dem Verbrauch hat, könnte man wohl gesichert auf dem Niveau einer 3080 ankommen, dann vermutlich aber auch zu etwa einem vergleichbaren Verbrauch).
 
AMD glaube ich nichts mehr.

damals 2017 wollte ich auf vega64 warten, kam ewig nicht und ich habe zur 1080Ti gegriffen.
jetzt gucke ich mir benchmarks heute an von der vega und sehe wie mies sie performt. 3 jahre später! dass die amd grakas/treiber ja 2-3 jahre reifen, wurde mir immer gesagt. man sieht davon absolut null.

zum glück habe ich die 1080Ti genommen.
 
"Geforce RTX 3090: Warum die 10.496 Shader-Einheiten realisierbar waren"

Das ist gelogen. In der "Küchenpredigt" war stets von "Cuda Cores" die Rede, nicht von Shader-Einheiten. Woraus diese "Cuda Cores" bestehen in der RTX 3000 Serie wird nirgendwo gezeigt.

Am Ende sind es garkeine 10.496 sondern bloß die Hälfte und N$ zählt hier doppelt, weil sie ja 2 Ops pro Takt durchführen können.

Diesem Blubberkopp in Lederjacke traue ich alles zu. :ugly:
 
Zuletzt bearbeitet:
Und selbst wenn Jensen sagt, dass das Leistungsplus auf das bei der Fertigung verwendete Schlangenöl zurückzuführen ist ... wen interessiert's? Ganz offensichtlich liefern die Karten ...
Dir bleibt als einziger Ausweg anzunehmen, das die Videos von DF und nVidia alle getürkt sind ... nur wie wahrscheinlich ist das, insbesondere, da in wenigen Tagen die Reviews folgen ... ;-)
 
Neue GPU´s sind schneller als alte GPU´s, was ist daran neu? :what:

Das N$ Marketing immer wieder kreativen Blödsinn von sich gibt, ist auch bekannt, allen voran der Lederjackenzwerg. :)

Das DF Video zeigt auch nix, keine Frameraten, Bildauflösungen, Gameeinstellungen, nix. Nur ein Prozentvergleich. Den hätten sie sich auch sparen können. Alles nur reine Propaganda und Gelaber. Das mit dem 8K ist ziemlich sicher auch gelogen und mit DLSS zurechtgebogen.

Hauptsache, ihr dreht alle am Rad...
 
Zuletzt bearbeitet:
Zurück