News Geforce RTX 5090 und 5080: Welche Blackwell-Grafikkarte macht den Anfang? [Gerücht]

Früher(tm) war das ganz normal. Kepler, Maxwell und Pascal starteten mit dem zweitgrößten Chip, das Dickschiff kam später. Nur war der Markt früher auch völlig anders. Schauen wir mal, was passiert.

MfG
Raff

ach Früher(tm) TM 2 .....
Wieviel generationen gab es da wenn man nur den Zeitraum RTX 2080 bis zur RTX 5080 nimmt.... :ugly::-)
 
Da ich bekennender Speichertöter und -fan bin, das aber basierend auf Tausenden von Benchmarks nicht sehe: Hast du Beispiele für sterbende 16 GiB? :-) Ich gehe gerne jedem Verdacht nach.
Äh ja ich kann es versuchen :)

Grundsätzlich spiele ich nach Möglichkeit nicht nativ in UWQHD sondern mit DLDSR 1.78 in 4587x1920 (und natürlich anschließender Verwendung von DLSS in benötigter Stufe). Das Ganze ist natürlich schon ein klein bisschen konstruiert, ist aber mein normaler Anwendungsfall, sofern die Leistung ausreicht.

Meine auffälligsten Problemspiele sind Diablo 4 und Ratchet & Clank mit höchsten Texturdetails. Diablo 4 allokiert dann um die 15 GB VRAM und braucht bei häufigen Gebietswechseln gerne ein paar Sekunden, um VRAM zu leeren, was in geringerer Auflösung oder geringeren Texturdetails nicht der Fall ist.

Werden nun FG oder Raytracing aktiviert, steigt der allokierte Speicher auf über 15 GB und die Frametimes werden spürbar unrunder. Bei gleichzeitiger Aktivierung von FG und Raytracing drohen Abstürze.

Ratchet & Clank ist gefühlt minimal besser, etwas längeres Spielen oder das Ändern von Settings bewirken aber sofortigen, massiven Leistungseinbruch.

Das Ganze ist natürlich meckern auf hohem Niveau, stellt für mich aber durchaus "realistische" Anwendungsfälle dar, in denen eine 3090 dank VRAM trotz geringerer Rohleistung im Vorteil wäre.

Edit: Am liebsten würde ich mit DLDSR 2.25 spielen. Dann geht aber in genannten Spielen selbst ohne FG oder Raytracing mit hohen Texturdetails bereits der Speicher aus. Die Frametimes in Diablo 4 sind recht unrund und Texturen laden teils nicht ordentlich. Eine 3090 (steht mir neben der 4080 mit etwas Überzeugungsarbeit der besseren Hälfte gegenüber auch zur Verfügung) zeigt dieses Verhalten definitiv nicht.
 
Zuletzt bearbeitet:
All I'm saying is:
Es ist quatsch sich immer nur an dem Speicherbedarf des einzelnen Spielprozesses aufzuhängen. Der Rest des Systems mit Windows im Hintergrund will auch immer was haben. Daher sind es immer in der Regel 1-2 GB mehr die du dann wirklich overall brauchst. Und die sind ausschlaggebend. Nicht was das Spiel alleine braucht.

Jetzt grade mit Chrome und Discord im Hintergrund offen sind bei mir alleine 2.1 GB VRAM belegt. So sieht das eben aus.
 
Na wenn du die Mehrleistung nicht brauchst musst du natürlich nicht aufrüsten :ka:

Ich nehme jedes bisschen Mehrleistung gerne mit. Außerdem habe ich nach 2 Jahren einfach Bock auf neue Hardware.
Natürlich!
Dennoch muss aber auch sinnvoll sein.
Es sei denn man hat das Geld dafür und gibt es an erster Stelle gerne für Hardware aus.
 
Ich habe mal über die Gerüchte nachgedacht und da kam mir eine Idee wie den 256alu per sm umgesetzt werden wenn nur der cache vereint (L0-L1) und dual issue kommen soll.
ist das vielleicht die Vorbereitung auf ein mcm design?
Den dann würde das Sinn machen womit nvidia wie amd auf ne ipc Steigerung aus ist
Das kann man per hardware erreichen indem man 3 Operationen per alu ausführt sehr Speicherlastig und da der cache nicht steigt eher unwahrscheinlich.
oder durch simples nenn zweite operation anfangen quasi cache zeit nutzen damit die alu ausgelastet wird
Das bedeutete 25% von zusätzlichen 2 Operationen zu den 2 Operationen =2,5
Um dann bei der nächsten gen 2 chips zu verbinden die dann am ende 2,25 Operationen per clock rechnen
Für blackwel bedeutet das die alu die fp32 rechnen kaum steigen wird.

Folglich folgender Vorteil gleicher Takt und mehr ipc
bsp chip da dieser relevant ist für die meisten gb206 64sm Vollausbau den es nicht geben wird da 2 render engines =4sm Deaktiv 60sm als rtx5070
60*2,5*88*2,25ghz =29,7tf oder +7% zur rtx4070 super oder +31% vs rtx4070 600€
Damit dürfte aber die dxr perf Steigerung relativ gering sein maximal gehe ich von +30% aus vs rtx4070
Da müsste der Rt core ordentlich perf zulegen woran ich nicht glaube ich gehe sogar davon aus das man verstärkt dlss4 exklusiv für rtx50 macht und die dxr perf etwa auf dem level von ada bleibt per rt core.

Folglich wird die rtx5060 den gb207 mit 32sm vorhanden aktiv 28sm haben und bei gleicher dxr perf vs der rtx4060ti haben in raster minimal langsamer mit 12gb gddr7 28gbps 336gb/s

Die echte sku für mich die rtx5060ti mit 16gb 448gb/s etwa rtx4070 level +-20tf
Die spannende frage bei welcher tbp den dieser Ansatz ist schwer einzuschätzen theoretisch dürfte die tbp nicht beeinflusst sein von der geänderten ipc Ansatz aber faktisch wird der sram gestresst da mehr daten transportiert werden und somit die wärme steigt folglich auch der verbrauch.
Die rtx5060ti könnte mit 42sm kommen 2 render engines =tpc (a21sm) grob könnte da vermutlich 185w tbp herauskommen das aber ist stark von samsung sf4x node abhängig
Ich nahm an das durch die dual issue etwa 12% Energie zusätzlich erfordern wird. von Samsung 8nm auf sf7 und sf4 = -40% Energie bei +30% Takt 1,8*1,3 =2,34ghz maximum eher 2,25ghz
Das passt soweit die frage ist nur wann.

Diese idee würde Sinn machen wen nvidia bei rtx60 auf mcm gehen wird. Was sie auf lange Sicht müssen .
Die alu Lösung wäre perf Steigerung Sinnvoller (192 oder256alu per sm).
Die Lösung hardware Operationen per clock zu erhöhen auf 3 Operationen bräuchte viel cache etwa 50% mehr sram.
Diese Lösung braucht nur mehr vcore auf den sram.
Flächen technisch wäre es ideal perf technisch ernüchternd und erst bei den mcm Lösungen deutlich schneller.
Am ende kommt es auf die P/L an für mich relevant die tbp nicht über 175w +-10w
 
So gesehen: Wer ausschließlich Early Access mit Bleeding-Edge-Tech spielt (unoptimierte Software), sollte besser nichts unter 24 GiB kaufen. Aber wollen wir diese schon immer verfügbaren Vorschauspiele jetzt zur Norm machen, obwohl sich das mit der Zeit erledigt? ;)

Alan Wake 2 ist nicht early access und ein Vorbote kommender Anforderungen, stripped alles down to the bone inkl. 4090. Gray Zone mag early access sein, als Indikator für weitere (UE5-)Grafikbomben aber sicher nicht verkehrt. Ich halte 16GB zwar auch nicht für tot, aber ein next-gen-Produkt (5080) für nicht unwahrscheinliche 1500€ ist mit 16GB mager ausgestattet und verbreitet last-gen Flair auf Steroiden (DLSS4). Blöd nur, dass Nvidia sowas durchaus zuzutrauen ist.
 
All I'm saying is:
Es ist quatsch sich immer nur an dem Speicherbedarf des einzelnen Spielprozesses aufzuhängen. Der Rest des Systems mit Windows im Hintergrund will auch immer was haben. Daher sind es immer in der Regel 1-2 GB mehr die du dann wirklich overall brauchst. Und die sind ausschlaggebend. Nicht was das Spiel alleine braucht.
Der Vollständigkeit halber: Selbstverständlich beziehen sich PCGH-Aussagen und auch meine immer auf die Gesamt-VRAM-Belegung, nicht isoliert auf Prozesse (Letzteres wäre ja Quatsch, da man die nicht ohne Windows etc. laufen lassen kann ;)). Allerdings erfolgen alle Messungen, auch auf meiner eigenen Kiste, stets mit "cleanen" Bedingungen.

Ich frage euch so direkt nach weiteren Beispielen, weil ich Gray Zone Warfare und die anderen offensichtlichen Speicherkiller natürlich kenne (gerüchteweise mache ich das beruflich, aber eigentlich 24/7). :-) Spätestens seit dem jüngsten Beitrag zum Thema Multi-Monitoring denke ich über Extratests mit einem "zugemüllten" System nach, als Bonus. Also zwei Displays, Youtube-UHD-Video offen, Discord etc., um den (V)RAM ordentlich vollzurümpeln. Mal sehen, wie reproduzierbar das ist.

Da müssen wir dann übrigens nicht diskutieren. Wer (unnötig) viele Prozesse aktiv hat, UHD und FG nutzt und auch sonst auf der Technologiekante surft, kriegt mit 16 GiB sicher Schluckauf, aber das würde ich nicht als Regel definieren.

MfG
Raff
 
Ich frage euch so direkt nach weiteren Beispielen, weil ich Gray Zone und die anderen offensichtlichen Speicherkiller natürlich kenne. :-)

MfG
Raff
Es sind natürlich alles Grenzfälle. Dennoch ist es doch irgendwo absurd, wenn man diese bereits mit der zweitbesten Karte in Nvidias Lineup teilweise nur eingeschränkt spielen kann.
 
Ich kann mir vorstellen, dass die nächste Generation in die Spähren von 240HZ bei 8k mit Raytracing vorstoßen wird. Aktuell zocke ich mit einer 4080 Super auf WQHD mit Raytracing die Spiele bei ca. 50% Last - sowohl Speicher als auch GPU. 4K Monitor kommt deswegen gegen Ende des Jahres. Die 40er sind 4K Karten, die auch mit Raytracing keinen großen Stress haben. Bei den 50ern kann ich mir deswegen gut vorstellen, dass dort 8K in Angriff genommen wird.
 
Ich kann mir vorstellen, dass die nächste Generation in die Spähren von 240HZ bei 8k mit Raytracing vorstoßen wird. Aktuell zocke ich mit einer 4080 Super auf WQHD mit Raytracing die Spiele bei ca. 50% Last - sowohl Speicher als auch GPU. 4K Monitor kommt deswegen gegen Ende des Jahres. Die 40er sind 4K Karten, die auch mit Raytracing keinen großen Stress haben. Bei den 50ern kann ich mir deswegen gut vorstellen, dass dort 8K in Angriff genommen wird.
Halte ich für völlig ausgeschlossen. Sie wird sicherlich als 8K beworben, aber 240 HZ wird sie nicht schaffen. Noch nichtmal mit sämtlichen Upscalern. 240HZ mit 4 K ohne das die Karte aus dem letzten Loch pfeift wäre für mich schon schön.
 
Die 5090 wird ohne DLSS Frame Generation jenseits von 160-180 FPS in 4k & DLSS Quality nicht weit kommen. Zumindest nicht in modernen Games. In last bis last last gen Titeln schafft auch die 4090 ordentliche FPS Werte in 8k.
 
Halte ich für völlig ausgeschlossen. Sie wird sicherlich als 8K beworben, aber 240 HZ wird sie nicht schaffen. Noch nichtmal mit sämtlichen Upscalern. 240HZ mit 4 K ohne das die Karte aus dem letzten Loch pfeift wäre für mich schon schön.
Mich würde es nicht wundern, wenn sie ein paar ausgewählte, viel gespielte Titel aussuchen, mit denen sie 240HZ bei 8K bewerben - Fortnite, CS und Helldivers würde mir da einfallen. Call of Duty habe ich schon seit über zehn Jahren nicht mehr gespielt, deswegen weiß ich nicht, wie es aktuell mit der Optimierung aussieht.
 
Ich kann mir vorstellen, dass die nächste Generation in die Spähren von 240HZ bei 8k mit Raytracing vorstoßen wird. Aktuell zocke ich mit einer 4080 Super auf WQHD mit Raytracing die Spiele bei ca. 50% Last
8K ist die 9-fache Pixelmenge wie WQHD. Eine 4080 schafft was bei neuen Spielen mit RT und ohne upscaling in WQHD? 60fps?
Du erwartest also 4-fache fps bei 9-facher Pixelmenge = 3600% theoretische Mehrleistung von 4080 zu 5080.
Seems legit. :ugly:

Im Ernst, ne 4090 ist froh wenn die Grafikbomber mit RT und allem Bremborium in 4K spoielbar laufen selbst mit Upscaler. 8K/240Hz ist SO weit weg das wird auch gefühlt ne 7090 das nicht schaffen.
 
Da müssen wir dann übrigens nicht diskutieren. Wer (unnötig) viele Prozesse aktiv hat, UHD und FG nutzt und auch sonst auf der Technologiekante surft, kriegt mit 16 GiB sicher Schluckauf, aber das würde ich nicht als Regel definieren.
Naja, ich denke aber auch, dass das schon realitätsnäher ist, wenn man das mal miteinbezieht. Wer macht denn bitte alles aus im Hintergrund, wenn er nen Spiel startet? :D Und selbst wenn ich alles schließe, was ich heute mal gemacht hab, also all die kleinen Tools wie Snagit, Afterburner, Signal, Ditto, Soundblaster etc. Dann bin ich noch immer bei 1.1 GB VRAM usage in Windows. Ob nun 1 oder 2 GB mit meinen Programmen offen.. Das machts dann auch nicht mehr Fett ^^
8K ist die 9-fache Pixelmenge wie WQHD.
Yep, und 8K ist die 4x fache Pixelmenge von 4K. ^^ Ich kann nur über diese 8K videos schmunzeln bei Youtube.. ^^ Cyberpunk Pathtracing 8K, sure. xD
 
Ich kann mir vorstellen, dass die nächste Generation in die Spähren von 240HZ bei 8k mit Raytracing vorstoßen wird. Aktuell zocke ich mit einer 4080 Super auf WQHD mit Raytracing die Spiele bei ca. 50% Last - sowohl Speicher als auch GPU. 4K Monitor kommt deswegen gegen Ende des Jahres. Die 40er sind 4K Karten, die auch mit Raytracing keinen großen Stress haben. Bei den 50ern kann ich mir deswegen gut vorstellen, dass dort 8K in Angriff genommen wird.
Vergiss es. :-) 8K ist utopisch, denn es handelt sich um viermal so viele Pixel wie 4K-UHD, sodass man realistisch nur ~1/3 der UHD-Fps herausbekommt (skaliert idR nicht linear, aber heftig).

Naja, ich denke aber auch, dass das schon realitätsnäher ist, wenn man das mal miteinbezieht. Wer macht denn bitte alles aus im Hintergrund, wenn er nen Spiel startet?
:D
Und selbst wenn ich alles schließe, was ich heute mal gemacht hab, also all die kleinen Tools wie Snagit, Afterburner, Signal, Ditto, Soundblaster etc. Dann bin ich noch immer bei 1.1 GB VRAM usage in Windows. Ob nun 1 oder 2 GB mit meinen Programmen offen.. Das machts dann auch nicht mehr Fett ^^
Ich finde dein Feedback toll, denn es lässt mich zur Abwechslung mal wieder in die andere Richtung denken und forschen. Denn normalerweise führe ich Diskussionen mit Leuten, die meinen, dass sie locker mit 12 GiB auskommen und PCGH ständig und maßlos übertreibt. :D Die Wahrheit liegt wohl, wie immer, in der Mitte. Am Ende liefern wir euch gerne alle Daten und Extreme, sodass ihr selbst entscheiden könnt.

MfG
Raff
 
Denn normalerweise führe ich Diskussionen mit Leuten, die meinen, dass sie locker mit 12 GiB auskommen und PCGH ständig übertreibt.
Ich denke eher die realisieren nicht, dass sie eben nicht damit auskommen. Die sehen nur die Zeichen nicht. Wie besagte Streamer wo die Texturen bei Grayzone nur eine braune masse sind, aber yay "60 fps!!!!". :D
 
So etwas erschreckt mich nach ca. 1337 Artikeln und Videos zum Thema auch immer wieder, aber wir machen einfach weiter mit der Aufklärung. Btw, das neueste Werk zum Thema kommt von @PCGH_Phil:


Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

MfG
Raff
 
Wäre schön wenn die 5080 zuerst kommt.
Warum? NVidia wird sehr wahrscheinlich nicht ein neues erstes 5000er Modell bringen das langsamer ist als das bisherige Topmodell. Wenn also die 5080 als erstes errscheint ist eine 5080 (mit mutmaßlich 96 SM) schneller als eine 4090 (mit 128SM) - was bedeuten würde dass Blackwell pro Ausführungseinheit (also rein durch Takt und IPC) mehr als 30% zulegen könnte was sehr viel ist.

Schlecht daran: Wenn Blackwell wirklich derart gut ist dann braucht NVidia GAR KEINE 5090 zu bringen. Denn eine 5080 würde dann genau wie die 4090 die letzte Zeit wieder unangreifbar da stehen... und die großen Chips können für den 10-fachen Preis im Profisegment unterkommen. Eine 5090 gäbe es in dem Falle erst dann, wenn AMD irgendwas in der Richtung machen kann. Und das ist noch weit weg.
Alles deutet doch auf einen Release der 5090 hin? Der potenzielle Käufer der 5090 ist der 4090er Kunde. Der kauft keine 5080. Und der potenzielle 5080er Kunde ist schwer einzuschätzen. Der würde warten, was die 5090 kann und kostet und was AMD macht. Hat man doch gesehen, das die 4080er sich anfangs auch sehr schwer getan hat obwohl sie nach der 4090 kam. Ein Release vor der 4090 wäre noch schwieriger gewesen.
Wir reden von NVidia. Mauer Speicherausbau ist da Programm.
Wenn die 5090 32 GB hat, was schon kolportiert wird, müsste die 5080 mit
24 GB daherkommen. Alles andere macht auch keinen wirklichen Sinn. Ich hab 2 Kisten. Eine mit 3090 und eine mit 4090. Eine 4080 mit 16 GB wäre aus meiner Sicht ein Rückschritt zur 3090er gewesen. Eine 5080 mit weniger Speicher als eine 3090? Schwer vorstellbar. Eine 5080 mit 16 GB wäre eine Katastrohe.

Ja, scheint realistisch.
5080 nur minimal schneller als 4090, dafür bei 300-350 statt 450W und 16 statt 24 GiB.

Später dann wenn nötig (als next-RDNA-Bigchip-Konter) ein 5090er Monstrum mit irgendwas zwischen 168 und 192 SM und 32-48 GiB, das dann mit 500-600W Leistungsaufnahme alles vernichtet was die Spielewelt (und Geldbeutel der Spieler) je gesehen hat.
Ich weiss nie wo diese Zahlen herkommen? Klar gibt es 4090er die man maximal mit 600 Watt takten kann, aber die meisten haben nur einen 450 Watt anschluss. Und die laufen bei den Kunden meist noch gedrosselt. Meine läuft ohne merkbaren Frameverlust mit max knapp über 300 Watt.

Viel spannender ist die Preisfrage. Bei allem über 2.500 Euro bin ich ich raus. Und selbst dann muss sie eine ähnlich überragende Kühlleistung wie die 4090 besitzen und mindestens Nativ 50% schneller sein. Ansonsten leb ich ganz gut mit der 4090er und selbst die 3090 schlägt sich bei reduzierten Details mit DLSS noch ganz wacker bei 4K.
 
Zuletzt bearbeitet:
Ich hatte eben gerade gestern erst wieder so ne Erfahrung. :D Star Citizen streamer, 3080 10 GB in Star Citizen. Ich sehe game nimmt sich 8 GB im ingame overlay was man aktivieren kann. Streamlabs, discord, browser, 2 monitore hat die an beim Streamen. Da biste locker bei 10 GB VRAM direkt beim Start auf den Server. Kein Wunder dass die 3080 da da nur mit den Schultern zuckt. Dem Großteil der Leute ist sowas gar nicht bewusst.

Und dann meinte sie sie könne das kaum verstehen. Grayzone laufe ja auch mit 60 fps und sehe fantastisch aus. Well, ich hab ihre Streams gesehen und eben auch die besagten braunen Boden"texturen" bei Grayzone mit ihrer 3080 10 GB. :ugly:

Ich würde sagen, dass heute 16 GB schon öfters genutzt werden, also so mancher wahrhaben will, wenn er mal auf die Zahlen schaut und die Zeichen zu deuten weiß woran man Speichermangel erkennt etc.. Die meisten neuen Games, die ich zocke, sind eigentlich immer bei über 12 GB VRAM, wenn man es mal gesamt betrachtet und nicht nur das Spiel.

Last of Us, Avatar, Cyberpunk.. Für mich sind 12 GB heute absolut indiskutabel. Effektiv haste für games dann ja auch nur in 90% der normalen Endnutzerszenarien 10-11 GB maximal fürs Spiel zur Verfügung. Jeder hat doch heute nen Browser und vor allem Discord offen im Hintergrund. Wenn du streamst noch Streamlabs etc.. Das is doch normal.
 
Zurück