News Geforce RTX 5000 mit "bisher größtem Performancesprung": Bekannter Leaker begründet gewagte Aussage

Biggest ever? Cool, ein neuer G80. Press X to doubt.

MfG
Raff

Vergiss diese Mittelmäßigkeit. Den größten Sprung zwischen den Generationen gab es bei der Geforce 2. GeForce 256 -> GeForce 256 DDR +25% -> GeForce 2 GTS +100%. Macht also ein Leistungsplus von 150% in lediglich 8 Monaten. Das war dann auch einer der Punkte, die die Voodoo 5 und damit leider auch 3dfx beerdigt haben.

Also können wir uns hier wohl locker auf 160-200% Mehrleistung, gegenüber der RTX 4090 gefasst machen oder der Typ hat Müll verzapft.
 
Ich habe zwar keinen Link parat, allerdings bin ich ziemlich sicher, dass G80 diese öde Brute-Force-Skalierung schon beim Release weit überbieten konnte. Ich erinnere mich an Benchmarks von Gothic 3 und Oblivion, wo eine 8800 GTX um Faktor 3 vor einer 7900 GTX rangierte. Das klappt natürlich nur, wenn der Vorgänger lahmt und der Nachfolger richtig gut ist. Ada um Faktor 2 zu schlagen, ist ambitioniert.

MfG
Raff
 
Ich habe zwar keinen Link parat, allerdings bin ich ziemlich sicher, dass G80 diese öde Brute-Force-Skalierung schon beim Release weit überbieten konnte.

Naja, ich wäre mal echt froh, wenn es heute mal wieder eine Brute Force Skalierung von 150% in einer Generation geben würde. Da hätte ich nichts einzuwenden, auch wenn das die RX 7900XTX bzw. RTX 4080 Super (ist nicht ganz raus, was es wird) buchstäblich alt aussehen lassen würde.

Ich erinnere mich an Benchmarks von Gothic 3 und Oblivion, wo eine 8800 GTX um Faktor 3 vor einer 7900 GTX rangierte.

Das war meines Wissens "nur" das doppelte, aaaaaaber, der Referenzpunkt ist auch nicht die 7900GTX, sondern die 7800 GTX. Die kam zuerst, dann kam die höhergetaktete, damit deutlich leistungsfähigere und mit doppeltem VRAM ausgestattete 7800 GTX 512 und danach kam erst die 7900 GTX, die um die 50% schneller war, als die 7800 GTX (damals ist in einer Generation noch viel passiert). Somit war die 8800 GTX tatsächlich 3 mal so schnell, wie die 7800 GTX, die die vorige Generation eingeleitet hat. Bei sovielen Änderungen komme auch ich manchmal durcheinander :D

Das klappt natürlich nur, wenn der Vorgänger lahmt und der Nachfolger richtig gut ist. Ada um Faktor 2 zu schlagen, ist ambitioniert.

Die GeForce 7 war natürlich auch hochgenial und hat die GeForce 6800 Ultra, mit der 7800GTX, um gut 100% übertroffen, das war damals normal. Dann nochmal zwei neue Versionen, die insgesamt nochmal die Hälfte draufgelegt haben. Die Mittelklasse war auch nicht schlecht und hat sogar die Top Karten der Vorgängergeneration, wie gewohnt, locker in die Tasche gesteckt (eine RTX 4060, die schneller ist, als die RTX 4090, was wäre schon was). In dem Bereich die Mittelklasse hat dann die GeForce 8 massiv geschwächelt, bis die 8800GT kam.

Negativ in Erinnerung bleibt eigentlich nur das Antialiasing, das (Winkelabhängigkeit sei dank) nicht gut war. Da hat dann die GeForce 8 wieder einiges draufgelegt und natürlich die Unified Shader einführt.

Was man natürlich mitnehmen kann: laut dem Leaker wird die RTX 5090 dreimal so schnell, wie die RTX 4090 (oder er hat Müll verzapft)
 
Kann nvidai nochmal so Sprünge machen wie einst 2006. Kurz nein
microsoft hat 2006 dx10 eingeführt exklusiv für vista diese api änderte die grundlegende art wie spiele designt und dargestellt wurden.
War zuvor klare hardware fix Funktionen zu nutzen sah man die gpu Klassen deutlich
Grundzüge werden noch immer genutzt sind aber deutlich flexibler als damals trotz high level api musste man als Entwickler genau die Datenwege kennen bevor man überhaupt was releasen konnte
Dafür war die maximal Darstellung und Grafik limitiert konnte aber über die Auflösung skalieren.
üblich waren damals 5:4 crt langsam aufkommend 16:10 LCD Monitore in arschlangsamen va oder tn. Diese wurden mit ccfl betrieben also die Helligkeit sank recht schnell Nen Blaustich bekommen alle monitore nach paar Jahren
Das hat sich erst mit LED geändert jetzt Dauert es deutlich länge bevor die Farben verwaschen sind
Das ist vom belang da vieles aus unserer Erinnerung besser sich darstellt als es war da lag an den monitoren die glänzend waren zwangsweise wegen crt
Heute sind alle gpu ab einer 02 chip komplett cpu limitiert man muss schon an die grenzen der rop oder Speiche Bandbreite gehen damit man mal die 90% gpu load sieht
Wenn die neuere gen schneller werden kann wär das bei den rop und bei der speicherbandbreite
erstere wäre recht teuer fürn chip daher wird das 1:1 skalieren mit den sm da 1-4 Verhältnis zur tmu muss gewahrt bleiben.
Also muss der Takt rauf das ginge mit n3e +18% perf Zuwachs vs n5 damit leider weniger als gedacht
tsmc ist bei seinen node angaben sehr konfus und bezieht manchmal nur vom geistigen Vorgänger der node Serie.
Grundlegend wäre dern3x node am sinnvollsten der aber lässt auf sich warten bis ende 2025
daher ist eine Umstrukturierung der arch am sinnigsten

16sm per gpc sind sicher damit auch 21 oder 22rop und 44 oder 88tmu
Die Bandbreite steigt auf 28gbps an kleineres Si 96-384bit wären noch drin mit sf4x etwa 50% chipfläche mit n3e wären es 70% chipfläche und einen wärmestau was den Takt drückt
Kann man die Leistung von 12 gpc auch nutzen hier wird es interessant da dass cpu limit hier extrem greift
Also wo kann man mehr herausholen bei den rop diese werden zukünftig immer wichtiger da einige engines die gpixel voll nutzen zu jeweiligen nativen Auflösungen
Dabei sei erwähnt das megapixel wie oft bei Kameras beworben eine 1000stel dessen ist Monitor Pixel sind gigapixel.
Also haben 12*21 *2,6=655gpixel durch 8 gpixel wegen 2160p =82fps vs derzeit 537,6/8 =67fps +22%
kaum ein spiel rendert aber solche mengen an pixeln die norm sind 0,9-3,6 gpixel =728fps vs597fps = +21% bis 179fps vs 146 = +22%
Dann greift die Bandbreite das hängt von den spielen ab wie diese mit dem vram agiert
Directx typisch wäre lade ein frame in den ram dann kopiere den frame in den vram daher ist immer ein frame + andere daten im ram vram
Davon wird auf der gpu die daten 2 mal kopiert=3 daher nutzen viele spiele zwischen 1gb +500mb andere daten bis 3gb + andere daten per frame was die vram Auslastung auf 4,5 bis 10,5gb prügelt
Das steigert sich mit höherer Auflösung da mehr details von den Texturen nachgeladen wird
Die fps ergeben sich aus den einen frame also die 3,5 gb durch die speicherbandbreite bei nen Riesen chip kein Thema da 384bit und 28gbps =1344gb/s oder +33% vs ad102 gddr6x 21gbps
Nun zur letzten Handbremse der gpu den shadern diese steigen maximal auf 180sm sofern amd mit rdna5 kommt zuvor sind es die 112sm des gb203 hier wird man langsamer sein als der Vorgänger daher keine chance als 90er sku
Gehen wir vom maximum aus wie bisher also 180sm beim samsung node wären das 82tf vs derzeit 63 = +30%
rechne ich das zusammen kommen da +26,5% raus und das nur bei spielen die ansatzweise nativ rendern.
Das trifft selten zu nehme ich den n3e node an was nebenbei nur mit nen 256bit Si Sinn macht sieht das so aus.
Da man auf min 3,2ghz kommt ergeben sich 50%+33%+21%/3= +31,5% also muss nvidia die rop min auf 24 erhöhen
Was aber dann mit den sm nicht mehr harmonisiert und dann 18sm per gpc wären
16sm per gpc sind schon arg am limit das wären 21 rop 22 rop wären drin würden aber beim cache Probleme machen Sauber wäre 18sm =50% mehr also 24rop
Nehmen wir diese an dann wär der Vollausbau bei 216sm 24*12=256rop und 1024tmu das wären vs ad102 dann 52% +60% +50%/3 = +54%
Wenn die alu auch ausgelastet werden was anzuzweifeln ist
Abseits pathtracing was exponentiell ansteigt je Auflösung für die alu sehe ich keine chance das diese sku annährend +20% schneller wird. was nebenbei auch mt samsung node identisch wäre bei weniger alu.

Daher macht so ne sku keinen Sinn und somit auch tsmc n3e nicht zumal die yield unterirdisch sind 490mm² chip maximal bei 40% das sind nur 41 gute chips die mit 204sm laufen und 60chips mit nur 180sm laufen
Während samsung node grob 622mm² bei 55% yield hat mit den halben kosten 44 gute chips 180sm und 36 Schlechte 169sm
Das entscheidende sind die halben kosten, mehr Kontingente da samsung nicht ausgelastet ist somit mehr wafer wie viele unklar da auch hier die Fertigung begrenzt ist (2,9 Milliarden wafer) das kann von 20% bis nur 10% gehen da samsung primär Speicher nand vram dram baut.
Das dürfte aber deutlich mehr sein als tsmc n3e das stark von apple dominiert wird etwa 80% dürften gesichert sein. Mit glück schafft nvidia hier 10% bei doppelten kosten. (tsmc 2,4 Milliarden wafer davon 30% high end nodes)
Damit bleibt nur samsung als einzige alternative bis man mit neuen Verträgen 2026 in n3 einsteigen kann wenn apple auf n2 wechselt.
Viele vergessen das die hpc sparte deutlich wichtiger ist für nvidia da giert man nach chips, dazu noch eins diese Arch hat keine rt cores ist rein auf compute ausgelegt aber leider hat diese den gleichen Namen darum die Verwirrung.

Alles spricht für samsung node. Wäre der n3 (0,2) so gut wie n7 defective 0,05 dann sähe es anders aus.
Der Grund warum, nun EUV layer laufen nicht rund soll sich aber verbessern bis n3x auf n7 level.
Und n3x kommt erst 2025 und dürfte von apple gesichert worden sein.
Darum war lange von tsmc n4x die rede in den Gerüchten, ganz raus ist das nicht aber ich vermute das samsung das bessere Angebot hatte per wafer was auch die 28gbps vram erklärt = wafer + vram chips Paket
Dennoch könnte nvidia schon n3 node Masken gemacht haben die aber strikt für HPC ai gedacht sind.
Da hat man die option 2026 mit n3x die ganze Serie zu portieren wäre zwar teuer aber vermutlich sinniger als jetzt in ne chipknappheit zu rennen.

Der Konsumentenmarkt ist klein verglichen dem was nvidia plant für HPC und Ai
Ob das aufgeht ist ne gewagte Wette außer jensen weiß was wir nicht wissen und das wäre geopolitisch von Bedeutung.


Die Fantasien von 512bit 2,0tb/s Bandbreite und 70% perf Steigerung bei einen cpu limit Szenario sind völlig Weltfremd.
Die rop Leistung wird wichtiger das steht sicher das aber erwarte ich erst von rubin (Nachfolger von blackwell) mit drastischen gpc und sm Umstrukturierung.
Denkbar wäre die sm per gpc bleiben gleich (16) das sm an Sich verdoppelt sich (256) und die rop verdoppeln sich per gpc
Das aber geht nur mit n2x node in gaa samsung sf3x dürfte ne option sein

Wieso man auf 12gpc festsitzt liegt am Treiber der kann nur 6 raster engines ansteuern eine raster engine ist 2 gpc = ein tpc
Will man ne gpu ausgelastet haben braucht es maximal 4 raster engines 8gpc mehr bringen kaum was das liegt an directx. Das ab 6 threads sich verabschiedet bei der Skalierung. Bis 3 ist es noch ein linearer anstieg
Darum nutze ich immer die, die 2 raster engines haben also die 06er chips was neben der tbp grenze von maxed 180w ideal ist.
Eine mit 4 Engines ginge auch noch nur dann wird es langsam eng mit der cpu. Da müssen die spiele extrem multicore optimiert sein.
ich sagte doch cpu limit isn Thema und nicht nur im High end.
 
Zuletzt bearbeitet:
Erstens wissen wir nicht wie viel Kontingent Nvidia für Blackwell eingekauft hat, zweitens ist die Menge an Wafern begrenzt. Nvidia konkurriert mit anderen, großen, Firmen darum. Z.B. Apple, und die haben noch mehr Geld. Es ist und bleibt also ein Abwägen: Wieviel kann ich verkaufen -> so viel kaufe ich ein. Und wenn der Vertrag dann unterschrieben ist kann man nicht einfach mal sagen "ich hätte jetzt gerne die doppelte Menge". So funktioniert das einfach nicht.
genau das, deshalb müssten sie einfach frühzeitig ordern. vor jahren war klar das sie viel verkaufen können. man muss dann halt unfähig oder berechnend sein um nicht viel zu ordern. klar wissen wir nicht wieviel die jetzt geordert haben, wenn es aber wenig ist, dann weiss man ja bescheid.
 
genau das, deshalb müssten sie einfach frühzeitig ordern. vor jahren war klar das sie viel verkaufen können. man muss dann halt unfähig oder berechnend sein um nicht viel zu ordern. klar wissen wir nicht wieviel die jetzt geordert haben, wenn es aber wenig ist, dann weiss man ja bescheid.

Noch mal, so funktioniert das nicht. Vor Jahren soll klar gewesen sein wie viel heute gekauft wird? Mehr als Prognosen gibt es da nicht. Und man bekommt auch gar nicht so viel Kontingent wie man will, außer man heißt Apple und wirft mit Geld um sich. So schätze ich Jensen aber nicht ein.

Und was meinst Du überhaupt mit "zu wenig bestellt"? Aktuell kann man doch jede Ada Karte kaufen?
 
Noch mal, so funktioniert das nicht. Vor Jahren soll klar gewesen sein wie viel heute gekauft wird? Mehr als Prognosen gibt es da nicht. Und man bekommt auch gar nicht so viel Kontingent wie man will, außer man heißt Apple und wirft mit Geld um sich. So schätze ich Jensen aber nicht ein.

Und was meinst Du überhaupt mit "zu wenig bestellt"? Aktuell kann man doch jede Ada Karte kaufen?
hast du schon mal was von marktwirtschaft gehört? wenn ein produkt nicht so sehr gekauft wird und die lagern voll sind, dann sinkt der preis. wenn aber ein produkt beliebt ist und es zu wenig gibt und nicht jeder eins haben kann, dann steigt der preis. deshalb ist es im regelfall so das produkte unterhalb der uvp zu haben sind. die firmen haben ein interesse daran alle kunden zufrieden zu stellen und produzieren schlicht ausreichende mengen. früher war das auch bei grafikkarten der fall. heute ist das nicht mehr so weil die nachfrage seit jahren erhöht ist, bzw der bedarf. dies scheint aber firmen wie nvidia nicht zu interessieren. und im grunde genommen willst du mir erzählen das nvidia nicht genug produzieren kann und das zu wenige sei ja auch ausreichend. wir sind hier nicht im sozialismus man und darauf hat hier auch keiner bock, ausser so leute wie die grünen vieleicht.
 
hast du schon mal was von marktwirtschaft gehört? wenn ein produkt nicht so sehr gekauft wird und die lagern voll sind, dann sinkt der preis. wenn aber ein produkt beliebt ist und es zu wenig gibt und nicht jeder eins haben kann, dann steigt der preis. deshalb ist es im regelfall so das produkte unterhalb der uvp zu haben sind.

Korrekt, so funktioniert der Markt. Alle Firmen haben aber ein Interesse daran ihre Produkte zu Preisen zu verkaufen die die von ihnen gewünschte Marge liefern.

Wenn Produkte unterhalb der UVP zu bekommen sind, dann ist das auf eine Überproduktion zurückzuführen und schlecht für die Firmen (aber natürlich gut für uns Kunden!). Schau mal was in den letzten Monaten im Flash-Speicher Bereich passiert ist. Samsung hat Milliarden Verluste aufgrund Überproduktion eingefahren und massiv die Herstellung verringert.

https://winfuture.de/news,138423.html
Bisher hat Samsung seine Fertigungskapazitäten für Flash-Speicher bereits um rund 40 Prozent gegenüber dem gleichen Zeitpunkt des letzten Jahre gesenkt. Bis Ende 2023 sollen weitere Kürzungen erfolgen, wodurch die Kapazitäten im Vergleich um rund 50 Prozent niedriger sein sollen.

die firmen haben ein interesse daran alle kunden zufrieden zu stellen und produzieren schlicht ausreichende mengen.

Nein, Firmen haben Interesse daran ihre Produkte für den höchstmöglichen Preis zu verkaufen um damit maximale Gewinne zu erwirtschaften. Alle Firmen.

früher war das auch bei grafikkarten der fall. heute ist das nicht mehr so weil die nachfrage seit jahren erhöht ist, bzw der bedarf. dies scheint aber firmen wie nvidia nicht zu interessieren. und im grunde genommen willst du mir erzählen das nvidia nicht genug produzieren kann und das zu wenige sei ja auch ausreichend. wir sind hier nicht im sozialismus man und darauf hat hier auch keiner bock, ausser so leute wie die grünen vieleicht.

Beides will ich Dir näher bringen. Nvidia (und AMD, und Intel...) möchte genau so viel produzieren wie der Markt bereit ist abzunehmen. Dazu wird ein Forecast berechnet und dieser wird in die Verhandlung um Wafer-Kontingente mitgenommen. Dann schaut man wie viele Wafer man zu welchem Preis bekommt. Und da kalkuliert man auf keinen Fall ein dass man zu viel produziert und dann die Produkte günstiger abgeben muss, weil man so vielleicht Verlust-Geschäft macht.
 
Nein, Firmen haben Interesse daran ihre Produkte für den höchstmöglichen Preis zu verkaufen um damit maximale Gewinne zu erwirtschaften. Alle Firmen.
Jaein
Gewinn wollen alle haben das stimmt.

Aber nicht jeder verkauft immer nur mit dem Höchsten Preis, manche versuchen auch den maximalen Gewinn per Masse zu machen.
 
Jaein
Gewinn wollen alle haben das stimmt.

Aber nicht jeder verkauft immer nur mit dem Höchsten Preis, manche versuchen auch den maximalen Gewinn per Masse zu machen.

Sie versuchen den höchstmöglichen Preis pro Einheit zu bekommen. Das trifft sowohl auf High-End als auch Budget Produkte zu.
 
Zurück