News Nvidia Geforce RTX 5000: Hinweise auf den Fertigungsprozess von "Ada Lovelace Next"

AD102 hatte im Vollausbau 18432 Shader und war mit der Die-Size von 609mm2 gerüchteweise ziemlich am Limit von der maximalen Die-Size. Bei feineren Strukturen wird die maximale Die-Size kleiner.
Die IO-Transistoren können kaum mehr kleiner gemacht werden, darum wird ein 512-Bit Bus von GB202 einiges mehr Platz einnehmen, als der 384-Bit Bus von AD102.

Solange nicht auf eine MCM-Produkt gesetzt wird, tippe ich auf die Option 2.
Was sicher ist, beide Varianten sind keine Option für meine Geldtasche. :wall:
 
Und jetzt sagst Du "Abwarten"? Schon witzig, vorher waren die Gerüchte noch Fakten und ICH war derjenige der auf "ungelegte Eier" hingewiesen hat...

Samsung 8N ist übrigens ein 10nm Prozess, kein 8nm Prozess.

Warum gehst Du von einer 5080 mit GB203 aus? Gibt es dazu Leaks? Eine 80er mit "202" Chip gab es bei Ampere, bei Ada war es der "203". Beides ist also möglich.

Der Speicher Bus ist dieses Mal nicht so einfach vergleichbar sollte sich GDDR7 bewahrheiten.
Lies nochmal ganz genau, was ich geschrieben habe.

Ich habe nirgendwo von Fakten geschrieben. Ich habe das Wort nicht mal benutzt.
Ich habe die Frage gestellt, ob jemand diese Erwartung hegt, angesichts der vermeintlichen Zahlen aus der Gerüchteküche (die, wenn diese sich bewarheiten sollten, eine solche Erwartung begründen machen)

Dann bin ich auf Deine 3-Generationen-"Evidenz" eingegangen und habe diese als Beleg in Frage gestellt, dass die postullierten Chip-Untzerschiede trotzdem weiterhin diese Annahme rechtfertigen würden.

Du sagst doch selber, dass die 5080 noch garnicht existiert. Also abwarten. Oder nicht?
 
? Du meinst die Evidenz, dass die 5080 48 SMs und 128 bit Memory-bus weniger hat als die 4090?


Diese Evidenz?

Lies nochmal ganz genau, was ich geschrieben habe.

Ich habe nirgendwo von Fakten geschrieben. Ich habe das Wort nicht mal benutzt.
Ich habe die Frage gestellt, ob jemand diese Erwartung hegt, angesichts der vermeintlichen Zahlen aus der Gerüchteküche (die, wenn diese sich bewarheiten sollten, eine solche Erwartung begründen machen)

Dann bin ich auf Deine 3-Generationen-"Evidenz" eingegangen und habe diese als Beleg in Frage gestellt, dass die postullierten Chip-Untzerschiede trotzdem weiterhin diese Annahme rechtfertigen würden.

Du sagst doch selber, dass die 5080 noch garnicht existiert. Also abwarten. Oder nicht?

Wenn Du von der "Evidenz dass die 5080 48 SMs etc" sprichst, dann legst Du Gerüchte als Fakten aus. Vielleicht googelst Du mal was Evidenz bedeutet.

Empirische Evidenz (englisch empirical evidence) oder kurz Evidenz ist eine Bezeichnung für das Beweismaterial, das in den Wissenschaften gefordert wird, um Behauptungen, Hypothesen, Thesen oder Theorien von gesichertem Wissen unterscheiden zu können.

Also doch, Du hast von Fakten gesprochen mit der oben zitierten Aussage. Und ja, richtig, wir warten ab welchen Chip die 5080 bekommt und wie dieser Chip überhaupt aussieht. Denn beides sind, um in der zitierten Definition zu bleiben, Hypothesen und keine Evidenz.
 
Wenn Du von der "Evidenz dass die 5080 48 SMs etc" sprichst, dann legst Du Gerüchte als Fakten aus. Vielleicht googelst Du mal was Evidenz bedeutet.



Also doch, Du hast von Fakten gesprochen mit der oben zitierten Aussage. Und ja, richtig, wir warten ab welchen Chip die 5080 bekommt und wie dieser Chip überhaupt aussieht. Denn beides sind, um in der zitierten Definition zu bleiben, Hypothesen und keine Evidenz.
Meine Güte, Du bist sehr anstrengend.

Evidenz = Beweis.

Du siehst schon die Fragezeichen und die Frage dahinter?
 
Meine Güte, Du bist sehr anstrengend.

Evidenz = Beweis.

Du siehst schon die Fragezeichen und die Frage dahinter?

Meine Güte, Du kannst nicht zugeben dass Du das Wort falsch benutzt hast oder nicht wusstest was es bedeutet. Das ist auch sehr anstrengend. Das war Dein Satz:

Du meinst die Evidenz, dass die 5080 48 SMs und 128 bit Memory-bus weniger hat als die 4090?

Ich sagte darauf dass das keine Evidenz ist weil es keine 5080 gibt und jetzt schwurbelst Du rum dass das alles mein Fehler war weil Du eine Frage gestellt hast. Ist klar...

Die (empirische) Evidenz die ich vorgelegt habe sind die letzten 3 Generationen. Daraus kann man Prognosen für zukünftige Generationen erstellen, ob die zutreffen wird man dann sehen. Solche Prognosen (oder Forecasts) werden übrigens von Unternehmen genau so erstellt, man nimmt bisherige Werte und projiziert diese in die Zukunft. Das Ergebnis ist "wahrscheinlicher" als Deine These dass die 5080 die 4090 nicht überholen wird, denn das hast Du ja mit Deiner ursprünglichen Frage impliziert.
 
Natürlich kann nvidia sich die bessere Option noch in der Hinterhand behalten um später eine 5090TI oder Titan nachzulegen wenn es dann eine notwendigkeit für ein besseres Model gibt.
Möglich, hängt aber von den Details ab. Kommt die 5090 mit einem 384bit Interface, dann ist eine Titan oder 5090ti mit einem 512bit Interface quasi ausgeschlossen, das sind keine Dinge die man leicht neu aufsetzen oder ändern kann, wie andere Speicherchips oder einen vorher beschnittenen Chip dann als Vollausbau zu bringen.

Mit der Aussicht den High-End Nutzer zweimal zu melken... :devil:
Was für mich übrigens völlig legitim ist, solange der Konsument eine Wahl hat und nicht zum Kauf gezwungen wird (was bei Grafikkarten niemals der Fall ist), kann ein Anbieter seine Produktpalette gerne so oft erweitern wie er lustig ist, ich kann ja jedesmal wieder neu entscheiden ob ich mitgehe oder nicht.
Die eigene Eigenschaft nicht nein sagen zu können oder zu wollen liegt in der personlichen Verantwortung des einzelnen und nicht des Anbieters. Ich sehe das daher alles sehr entspannt.
 
AFAIR nutzt TSMC keine komplett neuen Transistoren sondern ein verbessertes "Design" des 5nm Nodes (deshalb nennen sie es ja 5nm class, sowohl N4P als auch N4X), kann mich aber natürlich irren.
Dann ist halt die Frage was ist
N4
4N
N4P
4NP bzw. die konkreten Unterschiede.
Mein ursprünglicher Gedanke ist: rein von der Fertigung wird man nicht besonders viel rausholen, da muss schon mehr kommen.
Siehe meine Tabelle hier https://extreme.pcgameshardware.de/...s-von-ada-lovelace-next.647184/#post-11568159

Es ist ja nicht klar wie viel Unterschied der 4N zum 4NP wirklich hat. Selbst wenn der Unterschied ebensogroß wäre wie N5 zu N4P sind spürbare, aber immer noch überschaubare Unterschiede, ist der vorige Prozess von Nvidia dem N4 ähnlicher als dem N5 sind die +6% eh irrelevant. Das meiste wird vom Design kommen müssen, falls sich der Prozess bestätigt (wär für mich egal, dann warte ich halt auf AMD oder die Geforce RTX 6xxx)
"Komplett neue Transistoren" gibt es bei TSMC erst mit dem N2 *). Erst der nutzt GAA, bis dahin ist alles klassisches FinFET. ;-)
Hier und da sprach ich mal von etwas wie einer "5nm-Klasse" um bspw. die Vielzahl der N5xyz- und N4xyz-Nodes von dem N3 zu differenzieren, denn erst der stellt tatsächlich wieder einen Full-Node-Sprung dar, jedoch bieten auch die davor über die Jahre eingefügten Optimierungen signifikante Verbesserungen. Beispielsweise 22 % PowerSavings beim N4P ggü. dem N5 ist schon ein beträchtlicher Sprung, auch wenn sich an der Logikdichte kaum was tut.
Am Ende bleibt es jedoch schlicht bei einem "man weiß es nicht" bzgl. der Fragestellung welcher Custom-Node welchen TSMC-Prozess als Grundlage verwendet. TSMC hat hier mittlerweile ein recht ausdifferenziertes Portfolio vom N5, N5P, N5HPC, N4, N4P und N4X, wobei bei letzterem jedoch zu vermuten bleibt, dass der erst in diesem Jahr vollumfänglich verfügbar wird (die Risk Production vom N4X sollte im 1HJ23 angelaufen sein, von den späteren Spezialisierungen hört man aber erfahrungsgemäß weniger, da sich die Berichterstattung typischerweise auf die modernsten Nodes konzentriert).

*) Der N2 wird frühestens ab der 2JH25 zur Verfügung stehen und dann voraussichtlich bestenfalls von jemandem wie Apple genutzt werden, da die bereit sind viel zu zahlen und gleichzeit die anfänglich noch überschaubaren Kapazitäten gleich komplett buchen. Beispielsweise ob eine Firma wie AMD in 2026 überhaupt schon irgendwas im N2 fertigen wird ist vollkommen unklar und eher weniger wahrscheinlich.

Und darüber hinaus, wie schon erklärt, hängt es auch von der Verwendungsart des Nodes und den Fähigkeiten des konkreten Halbleiterherstellers ab, in welche konkreten Bereiche bzgl. Zugewinnen sich ein Design verlagern lässt. Der B100 zeigt trotz anscheinend ausbleibendem Full-Node-Sprung in der Fertigung eine beträchtlich höhere Logikdichte, eine deutlich bessere Effizienz und insgesamt wesentlich mehr Leistung. Ganz offensichtlich versteht nVidia hier sein Handwerk.

Und zu guter Letzt sagt das hier alles nichts über das Consumer-Design in 8+ Monaten aus, denn hier weiß man noch gar nichts und es könnte für nVidia durchaus effizienter sein den oder ggf. die beiden oberen Top-Dies (wenn es denn monolithisch bleiben wird) im N3xzy zu fertigen, vielleicht dann "3N" genannt? Einfach mal abwarten ...

Artikel gelesen ?

"Wenngleich Nvidia-CEO Jensen Huang auf der GTC 2024 mehrfach von 4 Nanometern sprach, so basieren "4N" und "4NP" doch eher auf einem TSMC-Fertigungsprozess in 5 Nanometern."
... und du die Thematik auch wirklich verstanden? Ich rezitiere jetzt nich noch mal alles, einfach die vorausgegangenen Postings lesen. ;-)

Ich bin mal gespannt in welchen Games der größere L1 hilft, ... may be auch breitere Register, um das Bottleneck in Starfield in den Griff zu bekommen?

bei den kleineren Modellen wirds sicher wieder ne Geschmacksfrage, ob man sich mit 256/192bit ...
ne "zukunftssichere" Hardware für teure Euros zulegt
(könnte mit 3GB-Modulen nicer ausssehen als bisher)
Die Vergrößerung des Cache hilft grundsätzlich, wobei letzten Endes geht es nur darum die Shader auslasten zu können, d. h. das ist weniger was, was man als einzelne Performancemetrik herausziehen kann und will.

Darüber hinaus, was nVidia Ende 2024 bzw. in 2025 für MidRange an VRAM für sinnvoll erachtet, muss man mal abwarten. Mit den zumindest angekündigten 24 Gb-Bausteinen stehen ihnen aber (für Refreshes später) noch weitaus mehr Möglichkeiten zur Verfügung, wobei man aber auch vermuten darf, dass deren Nutzung nicht günstig wird, da sich die Speicherhersteller diese ganz neuen Bausteine erst mal gut bezahlen lassen werden.

Einerseits muss man berücksichtigen, dass den aktuellen Konsolen und anscheinend selbst dem PS5-Refresh nur 10 GB VRAM zur Verfügung stehen, mehr nicht, und die haben einen beträchtlichen Einfluss auf die Softwareentwicklung und Ausrichtung des Marktes.
Darüber hinaus kann man sich hier mit einem Blick auf die sehr umfangreichen Steam-Statistiken behelfen. Nimmt man die VRAM-Zahlen erst ab 6 GB, so wird man vielleicht noch einige wenige Gaming-Laptops in der Statistik haben, aber derartige Geräte werden bereits in vergleichsweise kleiner Zahl verkauft, sodass man hier durchaus von Desktop-Geräten ausgehen kann. *) Dann haben bereits nur noch rd. 26 % der Systeme überhaupt mehr als 8 GB VRAM und nicht einmal 6 % der Systeme haben mehr als 12 GB VRAM.

Hier muss man letzten Endes immer berücksichtigen wem man zum Thema VRAM befragt und mit welcher Intention dieser dann antwortet und man sollte sich davor hüten Einzelaussagen, wohlmöglich gar noch unter komplettem Entfall des Kontexts, einen allgemeingültigen Anstrich zu verpassen (auch wenn provokante Aussagen tendenziell mehr Klicks generieren ;-)). Letzten Endes hat das Thema jeder selbst mit seiner Kaufentscheidung in der Hand.

*) Nimmt man die Zahlen auf Basis der konkreten GPU-Modelle in der GPU-Statistik auseinander, dann deckt sich das Verhältnis auch relativ gut mit einem derart vereinfachenden VRAM-Schnitt.
Ergänzend, durch obigen Schnitt verliert man natürlich ebenso auch eine kleine Zahl an 4 GB-Desktop-Systemen in der Gesamtmenge, dürfte also zumindest für eine grobe Abschätzung ausreichend sein.
 
Zuletzt bearbeitet:
Ganz ehrlich, Jensen hat soviiiel Schotter, da kann er doch mal 2GB-->3GB-Module ordern.
16GB-->24GB
12GB-->18GB
8GB-->12GB
Als Massenproduktion wird Das auch nicht zu teuer.
(wenn die Marge dann um 2% von 70% auf 68% sinkt, wen störts)
 
Meine Güte, Du kannst nicht zugeben dass Du das Wort falsch benutzt hast oder nicht wusstest was es bedeutet. Das ist auch sehr anstrengend. Das war Dein Satz:

Ich sagte darauf dass das keine Evidenz ist weil es keine 5080 gibt und jetzt schwurbelst Du rum dass das alles mein Fehler war weil Du eine Frage gestellt hast. Ist klar...
Ja richtig, es ist keine Evidenz. Es ist ein Postulat aus einem Leak.

Ich habe den Satz evtl. etwas misverständlich zu kurz gefasst und in Bezug zu Deiner "Evidenz-Argumentation" gebracht.

Was ich eigentlich damit ausdrücken wollte ist: "Der Leak gibt ein paar Hardwarewerte an, die an der Konkorenzfähigkeit der 5080 zweifeln lassen, sollten sich diese so bewahrheiten. Das sind schon gehöriger Diskrepanzen die nicht einfach durch einen dezenten Node-Skrink und etwas mehr Takt kompensiert werden können. Was sagst Du zu diesen krassen Unterschieden? Wie kannst Du angesichts dieser weiterhin auf das empirische Gesetz der Serie (Deine Evidenz) hoffen?"

So besser?
Dazu brauchst Du mir nicht "geschwurbel", "Faktenverdrehung" oder mangelndes Sprachverständnis zu unterstellen.
Ein einfaches: "ich gebe auf den Leak und die angeblichen Werte nichts. Wir werden sehen, ob sich das bewahrheitet" hätte gereicht.
 
Zuletzt bearbeitet:
Ja richtig, es ist keine Evidenz. Es ist ein Postulat aus einem Leak.

Ich habe den Satz evtl. etwas misverständlich zu kurz gefasst und in Bezug zu Deiner "Evidenz-Argumentation" gebracht.

Was ich eigentlich damit ausdrücken wollte ist: "Der Leak gibt ein paar Hardwarewerte an, die an der Konkorenzfähigkeit der 5080 zweifeln lassen, sollten sich diese so bewahrheiten. Das sind schon gehöriger Diskrepanzen die nicht einfach durch einen dezenten Node-Skrink und etwas mehr Takt kompensiert werden können. Was sagst Du zu diesen krassen Unterschieden? Wie kannst Du angesichts dieser weiterhin auf das empirische Gesetz der Serie (Deine Evidenz) hoffen?"

Nirgends rede ich von einem "empirischen Gesetz". Nur davon dass es wahrscheinlicher ist dass ich Recht behalte (aufgrund der vorherigen Generationen) als Du.

So besser?
Dazu brauchst Du mir nicht "geschwurbel", "Faktenverdrehung" oder mangelndes Sprachverständnis zu unterstellen.
Ein einfaches: "ich gebe auf den Leak und die angeblichen Werte nichts. Wir werden sehen, ob sich das bewahrheitet" hätte gereicht.

Joah, hätte Deine provokante Fragestellung denn sein müssen? Du wolltest stänkern, so kenn ich Dich, und wenn Gegenwind kommt gefällt Dir das nicht. Verstehe ich, trotzdem hast Du mit dem Quatsch angefangen. Also erst mal an die eigene Nase fassen...

Ich gehe weiterhin davon aus dass die 5080 die 4090 schlägt. Vielleicht nicht so stark wie die 4080 die 3090, aber das ändert nichts an der Vermutung.
 
Zumindest kann man seine 4090 dann vermutlich noch recht gut auf den Markt werfen. Denke nicht, dass die 5080 die 4090 deutlich wird schlagen können, wenn ich mir die Daten ansehe. Dann wird der Aufpreis zur 5090 ja vielleicht machbar, wenn man die 4090 verkauft.
 
Nirgends rede ich von einem "empirischen Gesetz". Nur davon dass es wahrscheinlicher ist dass ich Recht behalte (aufgrund der vorherigen Generationen) als Du.
Das empirische "Gesetz der Serie", Paul Kammerer. Ich habe nicht "Empirisches Gesetz" geschrieben.

Noch habe ich geschrieben, dass Du es so nanntest. Ich habe Deinen Ansatz diesem zugeschlagen.

Joah, hätte Deine provokante Fragestellung denn sein müssen? Du wolltest stänkern, so kenn ich Dich, und wenn Gegenwind kommt gefällt Dir das nicht.
Und genau so kenne ich Dich auch. Schön provokant, immer gleich angreifend und selektiv lesend.

Ich gehe weiterhin davon aus dass die 5080 die 4090 schlägt. Vielleicht nicht so stark wie die 4080 die 3090, aber das ändert nichts an der Vermutung.
:daumen:Hätte als neutrale Antwort gereicht, ohne gleich persönlich angreifend zu werden.
 
Ja, warum auch nicht?

Anhang anzeigen 1455767

Die 4080 hat die 3090ti schon stark übertroffen.

Anhang anzeigen 1455768

Und davor hat die 3080 die 2080ti übertroffen.

Ich vermute weiterhin dass die "80er" Karte das vorherige Topmodell überflügelt. Die Evidenz spricht dafür.

Das empirische "Gesetz der Serie", Paul Kammerer. Ich habe nicht "Empirisches Gesetz" geschrieben.

Noch habe ich geschrieben, dass Du es so nanntest. Ich habe Deinen Ansatz diesem zugeschlagen.


Und genau so kenne ich Dich auch. Schön provokant, immer gleich angreifend und selektiv lesend.


:daumen:Hätte als neutrale Antwort gereicht, ohne gleich persönlich angreifend zu werden.

Und jetzt bitte noch erklären wo meine erste Antwort auf Deinen Post "provokant", "persönlich angreifend" oder "selektiv lesend" war. Ich habe meiner Meinung nach neutral geantwortet und meine Vermutung mit Daten untermauert. Ich sehe keinen persönlichen Angriff auf Dich oder eine Selektion Deiner Aussagen.

Mit Deiner "Evidenz", die keine ist, hast Du danach angefangen.
 
Zurück