News Geforce RTX 5090: Wie hoch fällt der Leistungssprung im Vergleich zur Geforce RTX 4090 aus? [Umfrage]

Deutlich mehr als 30% in echten Spielsituationen (und im Index) würde mich überraschen. Die pure Rechenleistung lässt sich immer schwerer auf die Straße bringen, weil es immer mehr Komponenten gibt, die limitieren. Die CPU natürlich, aber auch Speicher und Bandbreiten.

Synthetische Benchmarks mögen mehr haben, da kann es auch schon mal 50% sein. Mit mehr rechne ich nicht.

Hat AMD nicht gesagt das sie bei der nächste Generation Enthusiasten nicht bedienen wollen, beziehungsweise nicht bedienen können. Wenn dies so sein sollte, wir kennen doch Nvidia, die springen ja nur so hoch wie sie müssen (siehe vor allem Vram-Menge), ich denke das der Leistungssprung daher eher geringer als größer sein wird. Nvidias Informanten (Wirtschaftsspione) bei TSMC und Co, haben dies sicher schon eruiert. Wirtschaftlich ist dies natürlich gut für sie, auch können sie bei RTX6000 dann einen noch höheren Leistungssprung vollziehen.

Wir wissen ja, im Gegensatz zu AMD ist NVidia ja grundsätzlich die Firma, die nur das schlechteste für den Kunden im Sinn hat. Gell?

Wenn der Leistungssprung zu gering ist, gibt es zu wenig Grund für die Leute neue GPUs zu kaufen. Ab einem bestimmten Punkt ist NVidia die eigene Konkurrenz. Ein echter Konkurrent wäre natürlich deutlich besser, aber pure Stagnation a la Intel vor 10 Jahren sollte sich NVidia nicht leisten und ich hoffe, das ist denen auch klar.

Ich hoffe, dass Intel ARC mittelfristig in die Presche springt, die AMD (mal wieder) hinterlässt. Dass AMD das Feld kampflos räumt ist schlicht enttäuschend. Aber offenbar rentiert sich die Investition für AMD nicht mehr. Was die Leute mal zum nachdenken bringen sollte, was ihre Vorstellung von realistischen Endkundenpreisen angeht. Ganz so dolle verdient man wohl offenbar doch nicht...
 
Wichtig ist, was bei TSMC passiert und da passiert nicht viel. Nvidia hatte bei RTX40 den Prozess 4N im Einsatz (nicht zu verwechseln mit N4) und jetzt mit Blackwell gibt es dazu den 4NP.

Zahlen und Buchstaben werden da vertauscht bei TSMC, weil es eine Nvidia Exklusive Variante ist, aber man sollte dem nicht zu viel beimessen. Die P Variante ist jetzt keine Revolution, es ist eher ein Refresh, dessen Vorteile TSMC mit zwischen 11% und 6% beziffert. Soll bedeuten wenn man die 4090 1:1 übernehmen würde, wäre man vielleicht 10% schneller oder hätte 10% weniger Verbrauch, mehr nicht.

Vom 22. Refresh der Cuda Architektur würde ich jetzt auch keine großen Sprünge erwarten.

Somit durfte die Geschwindigkeit des Speichers im Zentrum der Aufmerksamkeit stehen. Nvidia macht große HBM Karten, Nvidia macht nur für sich GDDR6X. Nvidia hat also schon immer das Interesse eine Architektur zu haben die mit RAM Speed gut skaliert und davon profitiert. Das wird die Hoffnung für Blackwell sein. Geringe Zuwächse auf Basis des neuen TSMC Prozess und viel Leistungsbonus über den RAM.

Zu guter Letzt holt man die Brechstange raus, also einfach die Anzahl der Cuda Kerne. Mehr Cudakerne bedeutet schnellerer Chip, so einfach ist das bei Nvidia. Vergleicht man die 3090 (10496 Cudas) mit der 4080S (10240 Cudas) ist letztere laut PCGH Index 32% schneller. Was ist der Unterschied hier? Ehrlich gesagt vor allem der RAM der beiden Karten der bei der 4080S doppelt so schnell ist.

Besonders am letzten Punkt sieht man, dass selbst ein riesiger Sprung von Samsung zu TSMC allein den Chip nicht schneller macht und der RAm Speed ein Faktor ist. Gute Nachrichten wenn TSMC selbst auf der Stelle tritt und man GDDR7 verbauen kann. Ich würde daher sagen, dass wenn wir mit Aussagen wie 60% schneller beworfen werden, sollten wir uns schon genau ansehenwie das zu Stande kommt und dann sind vor allem Anazhl der Cuda Kerne und der RAM im Spiel. Es wird nicht sein wie bei RTX40, dass die 4060 weniger Cudakerne hat wie die 3060 und trotzdem 25% schneller ist (laut neuestem PCGH GPU Index)
 
Wir wissen ja, im Gegensatz zu AMD ist NVidia ja grundsätzlich die Firma, die nur das schlechteste für den Kunden im Sinn hat. Gell?
Sag mal, wo willst du das bei mir herauslesen wollen, du dichtest da gewollt was hinein.
Wirtschaftliche Gründe haben nichts mit gut und böse zu tun, sie sind alle Raffgierige US Konzerne die an der Börse notiert sind, die in Südostasien ausbeuten und nur dein Geld wollen... ja, auch deine Lieblingsfirmen die du so magst.
Wenn der Leistungssprung zu gering ist, gibt es zu wenig Grund für die Leute neue GPUs zu kaufen.
Selbst wenn es so wäre, juckt Nvidia dies kaum bis gar nicht, die verdienen sich gerade dumm und dämlich, selbst wenn alle Spieler wegfallen würden.
Es gab früher schon Generationen/Karten die sehr fragwürdig gewesen sind, die vermeidbar gewesen wären, aber Nvidia sie dennoch gebracht hat weil es Wirtschaftlich opportun gewesen ist, auch bei der RTX4000 Serie hat es mehr als genug Kritik gegeben.
Erzähl das mal Intel, die immer und immer wieder mit kaum merkbaren Säuglingsschritten neue Generationen herausbringen.
Als die Preise aufgrund der KryptoscheiCe explodiert sind, haben auch gefühlt alle gesagt die kauft kein Schwein, heute sind deutlich höhere Preise "das neue normal".
 
Zuletzt bearbeitet:
Warum sollte NVIDIA den Aufwand betreiben und mehr als ~30% bringen. Die wenigen Karten werden denen sowieso aus der Hand gerissen und der Rest der Wafer geht an Datacenter & AI. Da ist die Marge viel höher. Konnte man ja schon bei der Computex sehen.

Glaube, dass das einige Leute immernoch nicht auf dem Schirm haben wie unwichtig Gaming für NVIDIA geworden ist. Da lebt man noch in 2016.
 
Ich hoffe, dass Intel ARC mittelfristig in die Presche springt, die AMD (mal wieder) hinterlässt.
AMD hat nach aktuellen Zahlen nur noch 12% Marktanteil bei dGPUs, da scheint die Super Serie voll eingeschlagen zu haben.
Was die Leute mal zum nachdenken bringen sollte, was ihre Vorstellung von realistischen Endkundenpreisen angeht. Ganz so dolle verdient man wohl offenbar doch nicht...
Es ist schon seit Jahren so, dass AMD nicht viel verdient, aber die Kunden wollen immer weiter die Preise drücken, da ja vor X Jahren das so und so viel gekostet hat.

Es wird so sein, dass wenn nicht mehr viel gekauft wird, nicht der Preis fällt, sondern das Angebot reduziert wird.
 
448Bit mit 28Gbps sind ja schonmal 55% mehr Bandbreite.

Mit vllt auf 172SM beschnitten, 10% besserer "IPC" und vllt 5% mehr Takt wäre das 55% mehr Rechenleistung.
 
Hmmm. Die letzte Karte, welche so brutal beschnitten war, hieß Titan V und war "zum Ausgleich" extra teuer. Um +50 Prozent wäre aber immer noch mehr als von GTX 1080 Ti auf RTX 2080 Ti (in zeitgenössischen Spielen).

MfG
Raff
 
Du hast nicht geschrieben "wir kennen doch die Industrie"
Ja genau, weil es hier um Nvidia geht, könnte man durchaus verstehen, aber nur wenn man will.
Aber ich schrieb auch, dass alle Wirtschaftlich opportun handeln.
Das war eindeutig genug.
Aber nur das was du herauslesen möchtest, lies dir doch meine anderen Beiträge hier durch, es hat eindeutig Wirtschaftlich nachvollziehbare Gründe, auch wenn sie uns nicht gefallen, nirgends habe ich geschrieben das Nvidia (wie du unterstellen willst) und was schlechtes tun möchte.
Dein Pro/Contra Firmendenken schadet dir nur... Schau mal in meine Signatur, nein ich sag dir nicht warum, mal sehen ob dus so herausfinden kannst :schief: :P
 
Ich hoffe >80% schneller, dann lohnt sich das Upgrade aber so richtig.
Bei ~50% überlege ich es mir ob ich wechsel.
Bei <35% definitiv nicht.

Realistisch tippe ich auf 35% mehr Leistung als die 4090. Man springt nur so hoch wie man muss, nicht wie man kann.

Da passen 35% recht gut. Es ist genug um einige zum Aufrüsten zu bewegen, aber nicht zu viel, sodass man den blöden Gamern das gute Zeug verkauft und kann stattdessen schön weiter im HPC Bereich Geld scheffeln.
 
Die Verbesserungen werden schwerpunktmäßig eh auf der Raytracing Performance liegen und da rechne ich mit mindestens 50-60%.
Was mir persönlich voll am Hintern vorbeigeht, da ich das nicht nutze und solange es geht nicht nutzen möchte, solange ich auch nur einen Watt mehr durch Raytracing verbrauche als ohne 😆
 
Zurück