Geforce RTX 4000: Angeblich mit 100 TFLOPS FP32-Performance

RyzA

PCGH-Community-Veteran(in)

BigBoymann

Software-Overclocker(in)
Bei nVidia braucht man zu vermutenden Preissteigerungen wohl nichts explizit in den Raum zu stellen ;-) bei solch einer Leistung aber auch zu AMDs Topmodellen liest man immer wieder, dass auch die preislich signifikant zulegen sollen, was auch nicht wundern sollte, denn mit dem Chiplet-Design hat man dort den Yield zwar besser im Griff aber dafür wird das Packaging signifikant teuerer.
Erstmal danke für den informationsreichen Post :-)

Hast du schon Infos bzgl. der Preise bei TSMCs N4, N5 oder was auch immer gesehen, oder etwas zu den Yield Raten gehört? Ich meine nämlich, dass dies ein ganz entscheidender Faktor sein wird, AMD scheint ja ein Monstrum an Chip zu bauen, während Nvidia scheinbar das Ganze auf die gleiche Chipfläche wie vorher quetschen kann. Wundert mich schon extrem, dass NV hier die Chipfläche zum Vorgänger fast halten kann, ja man hat einen deutlich größeren Schritt bei der Fertigung als AMD, aber man haut ja auch ordentllich was an Cores raus, umgerechnet würde ich daher fast behaupten, dass N4 daher 50% kleinere Strukturen aufweisen müsste als Samsungs 8nm Prozess? Hälst du das für möglich? Ich nämlich eigentlich nicht.
 

RavionHD

PCGH-Community-Veteran(in)
Mittlerweile ist jeden hier bewusst dass Du großer Konsolenfan bist, ändert nichts daran dass der PC als Spieleplattform so beliebt wie noch nie ist und enorm boomt, selbst Konsolenhersteller wie Microsoft und Sony bringen mittlerweile ihre Spiele drauf.

Die Konsolen haben schon lange ihren Glanz verloren weil sie heute fast wie PC's sind, nur mit starken Einschränkungen.
 

DarkWing13

Software-Overclocker(in)
Bereits Mitte 2021 wurde bis 2030 eine Strompreiserhöhung von 50% prognostiziert, ohne Steuern und Abgaben versteht sich. ;)
Also vor Rot/Grün/Gelb und vor dem russischem "Öl/Gas-Problem".
Man kann also durchaus nun mit Steigerungen von 100% und mehr rechnen, vielleicht noch weit vor dem Jahr 2030...

GPUs, die bereits in naher Zukunft 600-900W verbrauchen, auch wenn das nicht der Regelbetriebsverbrauch sein dürfte (das Verhältnis im Mehrverbrauch zum Vorgänger wird aber bestehen bleiben), ist sowas von an der Realität vorbei, wie man sich nur denken kann...und bis 2030 wird es ja sicher noch 2 weitere Generationen geben...wo werden die dann landen?
Bei 1500-2000W?

Und ja, dieser Verbrauch ist nur in den Oberklassenmodellen zu finden, aber trotzdem gehen die Leistungssteigerungen innerhalb einer Generation, von der Oberklasse bis zur Mittel-, und Einstiegsklasse, mit auch hier steigendem Stromdurst einher.

Eine 4080, die gleichauf mit einer 3090(Ti) ist, aber nichts einspart und evtl. sogar mehr verbraucht, ist kein Fortschritt, sondern lediglich eine Bezeichnungsänderung fürs Marketing.
 
Zuletzt bearbeitet:

derneuemann

BIOS-Overclocker(in)
Laut HWLuxx Test verbrauchen manche Custommodelle der RX 6900 XT sogar fast 400W:

Effiziente Kühlung und leichtes Leistungsplus: MSI Radeon RX 6900 XT Gaming X Trio 16G im Test

Hat natürlich mit dem Powerlimit zu tun.
Custom Design mit höherem Powerlimit, oder Takt, sind OC Modelle ;)
Kostverächter, gibt es derzeit selten.

Was mich an der Gen stört ist eher, das keiner potente Mini´s baut.
AMD hat nichtmal kurze PCB´s, Nvidia schon, aber kein Hersteller baut mal mini... Einzig Zotac mit 230mm bei der RTX3070 ist noch recht mini...
 

OptimiertesSpielen

Schraubenverwechsler(in)
[COLOR=var(--textColor)]...umgerechnet würde ich daher fast behaupten, dass N4 daher 50% kleinere Strukturen aufweisen müsste als Samsungs 8nm Prozess? Hälst du das für möglich? Ich nämlich eigentlich nicht.[/COLOR]
Such es dir raus.
Theoretische maximale Transistordichte:
Samsung 8 nm ~ 60 MTr/mm²
Tsmc N7 ~ 100 MTr/mm²
Tsmc N5 ~ 170 MTr/mm²

Wie gesagt Theoretisch möglich.
In der Praxis sieht es anders aus weil komplexere Strukturen wie Test Transistoren belichtet werden und ja auch nicht der komplette DIE nur aus
Transistoren besteht.
 

derneuemann

BIOS-Overclocker(in)
Bereits Mitte 2021 wurde bis 2030 eine Strompreiserhöhung von 50% prognostiziert, ohne Steuern und Abgaben versteht sich. ;)
Also vor Rot/Grün/Gelb und vor dem russischem "Öl/Gas-Problem".
Man kann also durchaus nun mit Steigerungen von 100% und mehr rechnen, vielleicht noch weit vor dem Jahr 2030...

GPUs, die bereits in naher Zukunft 600-900W verbrauchen, auch wenn das nicht der Regelbetriebsverbrauch sein dürfte (das Verhältnis im Mehrverbrauch zum Vorgänger wird aber bestehen bleiben), ist sowas von an der Realität vorbei, wie man sich nur denken kann...und bis 2030 wird es ja sicher noch 2 weitere Generationen geben...wo werden die dann landen?
Bei 1500-2000W?

Und ja, dieser Verbrauch ist nur in den Oberklassenmodellen zu finden, aber trotzdem gehen die Leistungssteigerungen innerhalb einer Generation, von der Oberklasse bis zur Mittel-, und Einstiegsklasse, mit auch hier steigendem Stromdurst einher.

Eine 4080, die gleichauf mit einer 3090(Ti) ist, aber nichts einspart und evtl. sogar mehr verbraucht, ist kein Fortschritt, sondern lediglich eine Bezeichnungsänderung fürs Marketing.

Aktuelle Lage sieht doch eine 4070 leicht vor einer 3090, das bei 300W. Eine 40870 nochmal gute 30% vor der 4070 und damit rund 40% vor der 3090 bei selbem Verbrauch.

Das mit dem Strompreis ist so eine Sache.
Wenn es noch nicht alle mitbekommen haben, der steigt aktuell schon enorm.

Bei uns in der Region für Neukunden 47Cent. Meine Schwester zahlt jetzt 60Cent/kwh.

Dennoch gehört das alles zum leisten können. Wer eine 3090, oder später 4090 haben will und meinst sich das leisten zu wollen / können, da gehört der Strom auch zu.

Ich persönlich bin der Meinung, wer über 1300 Euro für ne GPU raushaut, hat auch die Kohle, für den Strom.

Auf Basis, das 4070 etwa 300W, 4080 etwa 350W verbrauchen sollen, würde ich bei einer 4090 von etwa 450W ausgehen. Gezockt wird sowieso, nehmen wir im Vergleich also mal 150W Minimum an. Also ein Mehrverbrauch zum Minimum von 300W. Bei 10 Stunden die Woche, was ich nicht schaffe, nicht mal ansatzweise, sind das im Monat 13kwh zusätzlich, weil man statt Einstiegsklasse, sich die Extraklasse gönnt. Das sind selbst bei 60 Cent/kwh nur knapp 8€ im Monat. Selbst wenn jetzt einer 20 Stunden die Woche schafft und darüber hinaus der Preis noch auf 90 Cent steigt, sind das nur 23 € im Monat.

Klar, 1500€ für eine GPU und dann über 23€ / Monat beschweren, kann ich nicht glauben. Das ist einmal Pizza bestellen, oder einmal Auto waschen und dabei ein Eis essen.

Viel schwerer wiegt für mich einfach mein Nagel im Kopf, bezüglich Effizienz.
Eine aktuelle GPU würde nie ohne UV betrieben, da die Hersteller auf beiden Seiten zu sehr mit der Brechstange operieren.

Eine 3090 schafft bei 240W noch 90% der Stock Leistung, bei 280-290W noch die Stock Leistung (bezogen auf die FE´s)
Eine 3090TI bei 300W noch 89% der Stock Leistung. Also 150W weniger Verbrauch und noch fast 90% der Leistung.

Ich habe kein Problem damit, wenn eine GPU viel verbraucht, wenn dafür die Leistung passt. Aber das Verhältnis der Leistungssteigerung zur Verbrauchssteigerung sollte nicht 4/1 sein. 12% mehr Leistung zu 48% mehr Verbrauch (Beispiel).
 

BigBoymann

Software-Overclocker(in)
Such es dir raus.
Theoretische maximale Transistordichte:
Samsung 8 nm ~ 60 MTr/mm²
Tsmc N7 ~ 100 MTr/mm²
Tsmc N5 ~ 170 MTr/mm²

Wie gesagt Theoretisch möglich.
In der Praxis sieht es anders aus weil komplexere Strukturen wie Test Transistoren belichtet werden und ja auch nicht der komplette DIE nur aus
Transistoren besteht.
Ach krass! Dachte nicht, dass die Unterschiede so derartig groß sein werden, hab eher mit 30% gerechnet, aber zwischen Samsung 8 und TSMC 5 ist es ja fast eine Verdreifachung der Transistoren!
 

Haxtible

PC-Selbstbauer(in)
In der News geht es um Nvidia und AMD. Es ist auch lustig, wie du mal wieder nur über Intel + Nv herziehst, obwohl AMD mindestens genau so betroffen ist ;)
Zieht keiner auf nv und intel ,die gehen mir nur am A.... vorbei da es immer dasselbe ist seit jahren
Hast du deine Karte undervoltet?
Weil laut Tests nimmt sich die Karte (Referenz) 300W in Spielen. Die Custommodelle noch deutlich mehr.
Ne hab ich noch nicht ,doch das sind die daten die ausgelesen wurden 256 watt laut hwinfo .ist ne orig. amd nix custom allerding im verbund mit ner fetten wakü
 

belle

PCGH-Community-Veteran(in)
...
Dann wurde auch die PC Spiele auch noch deutlich Benutzerfreundlicher, man braucht heute kein halbes Informatikstudium mehr, um ein Spiel zu installieren (na, wer weiß noch den IRQ und die DMA seiner Soundkarte auswendig? Noch nichtmal ein Kenntnis der Treiber ist nötig, es wird alles selbst installiert. Auf den Konsolen sind hingen heute Day One Patches Alltag und auch Neustarts, wegen Updates, kennen die Konsoleros.
...
Mir ist durchaus bewußt, dass sehr viele Leute mit Konsolen zocken. Nur das Gejammer, dass der PC am Abgrund steht, da die Konsolen doch die viel bessere Alternative sind und die Leute jetzt reihenweise weglaufen, war vor 40 Jahren Blödsinn und das ist es bis heute.
alleine in meinem bekanntenkreis sind immens viele dazu übergegangen mindestens auch auf konsole zu zocken und weit weniger, wenn überhaupt ihre pcs aufzurüsten. (in geringem maße gibt es aber natürlich auch noch die, die am pc festhalten)
Ja, das kann ich an meinem eigenen Beispiel bestätigen. Ich habe durch die allgemeine Preislage kein Geld mehr übrig für zusätzliche Handhelds, Tablets und Konsolen neben den beiden PCs. :ugly::kaffee:
Durch den Komfort, vorhandene Spielebibliotheken und Funktionsumfang gehe ich immer davon aus, dass ich einen PC sowieso benötige. Da existiert neben meinem Haupt-PC und dem Wohnzimmer-PC der Frau auch kaum noch weiterer Platz oder Zeit. Die Leistung muss auch nicht immer für Ultra-Details in 1440p bei 144 FPS reichen.
 
Zuletzt bearbeitet:

derneuemann

BIOS-Overclocker(in)
Zieht keiner auf nv und intel ,die gehen mir nur am A.... vorbei da es immer dasselbe ist seit jahren

Ne hab ich noch nicht ,doch das sind die daten die ausgelesen wurden 256 watt laut hwinfo .ist ne orig. amd nix custom allerding im verbund mit ner fetten wakü
Was er nicht so, das so nicht die ganze Karte ausgelesen wurde, sondern nur der Chip selbst (ASIC Power oder so).

Die Stock 6900XT verbraucht, wenn nicht durch die CPU begrenzt, oder ein anderes Limit 300W PUNKT. Da ist nichts dran zu rütteln.
 

facehugger

Trockeneisprofi (m/w)
[COLOR=var(--textColor)]Die Stock 6900XT verbraucht, wenn nicht durch die CPU begrenzt, oder ein anderes Limit 300W PUNKT. Da ist nichts dran zu rütteln.[/COLOR]
Soweit korrekt. SOLLTE derjenige welche aber auch ältere, genügsamere Games daddeln oder die Karte besser gekühlt werden (hat sie ja unter Wasser), dann wird seine 6900XT sicher nicht overall und durchgehend 300W nutzen.

Meine Custom RTX 3080 verheizte (bevor ich sie mit UV betrieb) ja auch nicht ständig ihre 320W;)

Gruß
 

Haxtible

PC-Selbstbauer(in)
Was er nicht so, das so nicht die ganze Karte ausgelesen wurde, sondern nur der Chip selbst (ASIC Power oder so).

Die Stock 6900XT verbraucht, wenn nicht durch die CPU begrenzt, oder ein anderes Limit 300W PUNKT. Da ist nichts dran zu rütteln.
richtig der chip und den knapp etwa 30 für mem max ,liegt trotdessen noch angenehm unter 300 ohne was dran zu drehen.Mal sehen ob sie noch underv. wird ,doch muss ich eigentlich null dran drehen leuft ja super in kombi.Doch richtig Total power liegt bei etwa 290 bis 300 etwa der chip selbt um die 256
1651683425118.jpeg

Reicht :-)
 

derneuemann

BIOS-Overclocker(in)
Soweit korrekt. SOLLTE derjenige welche aber auch ältere, genügsamere Games daddeln oder die Karte besser gekühlt werden (hat sie ja unter Wasser), dann wird seine 6900XT sicher nicht overall und durchgehend 300W nutzen.

Meine Custom RTX 3080 verheizte (bevor ich sie mit UV betrieb) ja auch nicht ständig ihre 320W;)

Gruß
Wenn durch wakü etwas Luft frei wird, taktet die Karte ja auch im kleinen Rahmen höher.
Und ob komplett ausgelastet, oder nicht sagte ich ja schon. Wenn das Game die tdp ausreizt sind es die knapp 300W.

Beste Grüße
 

gerX7a

BIOS-Overclocker(in)
Das Marketing von Nv wird schon dafür sorgen, dass sich alle wohlfühlen. [...] Da werden einfach neue Zahlen und Begriffe erfunden um eine (technisch) direkte Vergleichbarkeit zu Vorgängermodellen zu verschleiern. Schon ist der Pöbel zufrieden, solange eine spekulative 4080 "nur" 700€ kostet, auch wenn diese, von technischer Seite betrachtet, eigentlich anders heißen müsste.
Aber das ist ja bei jedem Hersteller so. ;-) Hier muss man als Konsument halt genau hinschauen und für sich bewerten was man haben will und wie viel man dafür bezahlen möchte. Bei Turing hat man halt die Einführung der Tensor und RT Cores in der ersten Gen im Consumer-Segment teuer bezahlt und nVidia konnte sich das auch leisten, weil AMD sich lieber mit Sony/Microsoft geeinigt hat und auf Nummer sicher ging und daher erst Ende 2020 mit entsprechender Technik aufwarten durfte, so zuminde bzgl. des Raytracings.
Einen entsprechenden kompetetiven Vorteil wird jede Firma versuchen in bare Münze umzuwandeln, selbstredend auch ein AMD, nur waren die noch nie in einer derart marktdominierenden Position und aktuell sind sie noch meilenweit davon entfernt, aber auch hier beobachtet man, wie ihre Produkte zunehmend teuerer werden, je weiter sie sich im Markt etablieren. Das ist ganz normales Geschäftsgebaren. Erst Konkurrenz und Vielfalt gebieten diesem Treiben Einhalt, wobei Vielfalt in einem Markt mit derart teuer zu entwickelnden und hochkomplexen Produkten natürlicherweise ein Problem ist.

Erstmal danke für den informationsreichen Post :-)

Hast du schon Infos bzgl. der Preise bei TSMCs N4, N5 oder was auch immer gesehen, oder etwas zu den Yield Raten gehört? Ich meine nämlich, dass dies ein ganz entscheidender Faktor sein wird, AMD scheint ja ein Monstrum an Chip zu bauen, während Nvidia scheinbar das Ganze auf die gleiche Chipfläche wie vorher quetschen kann. Wundert mich schon extrem, dass NV hier die Chipfläche zum Vorgänger fast halten kann, ja man hat einen deutlich größeren Schritt bei der Fertigung als AMD, aber man haut ja auch ordentllich was an Cores raus, umgerechnet würde ich daher fast behaupten, dass N4 daher 50% kleinere Strukturen aufweisen müsste als Samsungs 8nm Prozess? Hälst du das für möglich? Ich nämlich eigentlich nicht.
Herstellungs/Entwicklungskosten? - Nein, nur dir üblichen Quellen, die mit guten Schätzungen arbeiten, da sowohl die Foundries als auch deren Kunden keinen konkreten Zahlen auf den Tisch legen.
Beispielsweise IBS schätzte die Entwicklungskosten in 2018 für ein komplexeres Design folgendermaßen ein, basierend auf ...
16 nm -> 106 Mio US$
10 nm -> 174 Mio US$
7 nm -> 298 Mio US$
5 nm -> 542 Mio. US$
Die 7 nm dürften zu der Zeit noch halbwegs gut abschätzbar gewesen sein, während 5nm da noch deutlich in der Zukunft lagen und für 3 nm schätzte man mit noch größerem Fehler bis zu 1 Mrd. US$. Der Großteil der Kosten beläuft sich hierbei auf Software und die Verification des Designs.

Für die Fertigung kann man auf die an vielen Stellen zitierten Abschätzungen zu TSMC zurückgreifen, so im Sep'20 von RetiredEngineer:
16/12 nm -> 3980 US$/Wafer
10 nm -> 5990 US$/Wafer
7 nm -> 9350 US$/Wafer
5 nm -> 16990 US$/Wafer
3 nm -> noch mehr ;-)
Zu bedenken ist, dass das (irgendwelche) Mittelwerte sein werde und bspw. ein N4 absehbar noch ein wenig teuerer als bspw. ein N5P sein wird, da TSMC sich den fortschrittlicheren Node natürlich zusätzlich bezahlen lässt. Darüber hinaus wäre auch denkbar, dass die Preise zwischenzeitlich leicht asngezogen haben, da TSMC Ende 2020 die Preise anhob und, wenn ich mich recht erinnere, Mitte 2021 auch noch mal eine entsprechende, weitere Ankündigung über erneute Preisanhebungen durch TSMC die Runde machten. Um einen groben Eindruck zu bekommen, sollten die Zahlen aber ausreichen.

Zum Yield: Der soll bei TSMCs N5(P) sehr gut sein, was vielleicht auch einmal mehr erklären könnte, warum es nVidia in dieser Gen noch einmal mit einem "einfacheren", monolithischen Design angeht, zumal die mit ihrem um ein Vielfaches größerem Absatzmarkt es einfacher haben, die Yield-Problematik bei großen Chips besser zu verteilen. Beispielsweise nVidia verwendet den großen GA102 auf bis zu 10 unterschiedlichen Produkten, vier reine Consumer-Produkte (3080 [Ti] und 3090 [Ti]) und sechs weitere Produkte, die vormals unter dem Quadro- und Telsa-Brand vermarktet wurden (beide Brand-Namen hat nVidia mittlerweile aufgegeben).

Zur Fläche: Hier hat dir ja bereits OptimiertesSpielen ein paar Zahlen geliefert. Die Verwendung von 5 nm (bei nVidia möglicherweise gar dem N4 oder N4P als "4N" benannt) gehen als Full-Node-Sprung mit beträchtlichen Zugewinnen einher, die bei nVidia gar noch größer ausfallen als bei AMD, da die von Samsungs 8LPP herkommen, einer Weiterentwicklung von derem 10 nm-Prozess, knkret dem 10LPP. Und wenn sie es tatsächlich schaffen den AD102 in unter 700 mm2 zu realisieren, bleiben sie noch in einer eingermaßen beherrschbaren Größenordnung. Defekte können sie, wie oben skizziert besser als AMD verteilen und somit auch kostentechnisch im Rahmen halten.
Das Problem zur Abschätzung der absoluten Savings zum 8LPP ("8N") ist, dass man die Prozesse nicht unmittelbar vergleichen kann und bzgl. Lovelace hat man weder die Transistorzahl noch die genaue Chipgröße sondern bisher nur Spekulatius.
Vielelicht hilft dir aber für das was möglich ist folgende Zusammenstellung in der Tabelle in der Mitte:
Zu den Angaben von TSMC ist jedoch zu beachten, dass die hier Zahlen zu belichteten Testchips als Basis verwenden, d. h. eine Mischung aus SRAM und Logik-Blöcken. Konkrete Designs können andere Zusammensetzungen haben und bspw. können Entwickler auch bewusst freie/ungenutzte Siliziumfläche in das Design einplanen, so wie es AMD mit Zen+ beim Wechsel auf den 12LP von GloFo machten, da es ihnen hier nicht um die Chipgröße sondern um mehr Performance und höheren Takt ging.
Zudem beachte man, dass die Logigkdichte von HighPerf/HighPower-Designs wie GPUs immer deutlich unter dem theoretischen Maximum eines Prozesses liegt. Beispielsweise TSMCs N7(P) kann mit der High Density Lib bis zu um die 100 MTr/mm2 realisieren. RDNA2 realisiert bspw. als Navi21 jedoch nur mit einer gemittelten Dichte von 51,6 MTr/mm2. (und das trotz des vergleichbar großen L3$/SRAM).
Samsung bspw. hat für den 8LPP (die Basis von nVidia's "8N") den 10LPP um eine Ultra High Density Cell Lib erweitert, mit der bestenfalls bis zu 61 MTr/mm2 realisiert werden können sollen (die HD Lib des 10LPP kam auf bis zu 52 MTr/mm2). nVidia realisierte den GA102 mit im Mittel 45,1 MTr/mm2, also einer relativ gesehen deutlich höheren Dichte als AMD in RDNA2 in Bezug zum Prozesslimit, was auch mit eine Erklärung sein kann, warum Amepre auf einen niedrigeren Takt als RDNA2 ausgelegt ist. Hier war es nVidia anscheinend wichtiger mehr Funktionseinheiten unterzubringen.
AMD wird mit dem MCM-Ansatz bei den großen RDNA3-Chips natürlich mehr Fläche zugunsten eines höheren Taktes opfern können, da die Chipslets dennoch deutlich kleiner bleiben als nVidias großer, monolithischer Chip.

Man darf auf jeden Fall gespannt sein, wie das Rennen Ende 2022 bis im 1HJ23 ausgehen wird, wobei man hier für eine sinnvolle Betrachtung und Bewertung jedoch die unterschiedlichen Marktsegmente getrennt betrachten muss.
Nicht minder interessant wird Intel sein, die sich zwar erst mit Celestial (2024) vollends auf Augenhöhe sehen aber bereits in 2023 mit Battlemage könnte man dennoch einigermaßen konkurrenzfähige Produkte erwarten und ein nicht ganz technisch konkurrenzfägies Portfolio wird sich zwangsweise mit guten Preisen darbieten müssen.
Intel hat in 2023 TSMCs N3 in der Produktion. Man darf gespannt sein, ob der nur für die i/tGPU von MTL zum Einsatz kommt (und ggf. noch den Ponte Vecchio-Nachfolger in 2HJ23) oder möglicherweise auch für ausgewählte Battlemage-Chips genutzt werden wird. Damit könnten sie architektonische Defizite noch sehr gut ausgleichen, da es sich um einen Full-Node-Vorsprung ggü. der Konkurrenz handeln würde.
Letzten Endes könnten Kosten aber auch dazu führen, das die diskreten Battlemage-HPG-Chips vielleich eher in einem der vielen 5 nm-Nodes gefertigt werden wird, auf die Intel ebenso Zugriff haben wird.
Mit den diversen, neuen Packaging-Technologien, die schrittweise Einzug halten, verändert und entwickelt sich in den nächsten Monaten extrem viel in der Branche.
 
Oben Unten