News Geforce RTX 5090 und 5080: Welche Blackwell-Grafikkarte macht den Anfang? [Gerücht]

16 GB VRAM wären m.E. für eine Karte jenseits der 1000€ völlig überholt.

Die Situationen, in denen der 4080 in hohen Auflösungen der VRAM ausgeht, lassen sich zwar noch an zwei Händen abzählen, sind aber keines Wegs konstruiert.
Da ich bekennender Speichertöter und -fan bin, das aber basierend auf Tausenden von Benchmarks nicht sehe: Hast du Beispiele für sterbende 16 GiB? :-) Ich gehe gerne jedem Verdacht nach.

Nicht falsch verstehen: Mehr ist besser, für Enthusiasten sowieso. Aber ich sehe hier in der aktuellen Spielelandschaft keine Notwendigkeit. Allokation ungleich Bedarf. Ich konstruiere gerne aus dem Stegreif Grenzfälle, aber diese muss man nicht überbewerten. Bei 12 GiB sieht das anders aus:



Grayzone zeigt doch, das auch mit UE5 mehr Vram genutzt werden kann/darf!?
hoffentlich kein Einzelfall
So gesehen: Wer ausschließlich Early Access mit Bleeding-Edge-Tech spielt (unoptimierte Software), sollte besser nichts unter 24 GiB kaufen. Aber wollen wir diese schon immer verfügbaren Vorschauspiele jetzt zur Norm machen, obwohl sich das mit der Zeit erledigt? ;)

MfG
Raff
 
Wenn AMD wirklich nichts bringt in der Leistungsregion, wäre es für Nvidia sinnlos eine 5090 zu machen. Diese Chips kann man viel profitabler im KI-Bereich verkaufen. Vielleicht als Paper-Launch mit ganz wenig Verfügbarkeit. Die werden ihnen dann von den einigen wenigen Gamern sogar noch offiziell zu Scalper-Preisen abgenommen.

Meine Prognose:
  • 5080 für 1200$ (1300-1400€) am Ende des Jahres mit GB203 im Vollausbau
  • Ca. 10% mehr Rohleistung als 4090 (mit DLSS 4 oder anderen Tricks bestimmt mehr fürs Marketing)
  • 5090 entweder als Paper-Launch oder 5080 Ti irgendwann 2025 mit GB202
  • 5070 Ti mit teildeaktiviertem GB203 für 999$
  • 5070 für 699$
 
OK aber du kaufst doch keine 2000€+ GPU nur um etwas mehr FPS zu haben? Wenn die denn überhaupt einen 240Hz 4k Monitor ausreizen wird mit Hilfe von DLSS Q.

Nein, das wird auch die 5090 nicht schaffen, da mach ich mir keine Hoffnungen. Für 20-30% wechsel ich auch nicht, das kann ich heute schon mit einem Klick von DLSS-Q auf DLSS-B regeln. Da muss schon mehr kommen.
 
Da ich bekennender Speichertöter und -fan bin, das aber basierend auf Tausenden von Benchmarks nicht sehe: Hast du Beispiele für sterbenden Speicher? :-) Ich gehe gerne jedem Verdacht nach.
Ich hoffe, mit "sterbend Speicher" meinst du voll ausgelastet. Mir fällt nur Diablo 4 ein, das, in QHD, die vollen 16 GB meiner Karte nimmt. Ja, AMD braucht etwas mehr Speicher als NV und man könnte D4 sicher noch optimieren. Aber denke auch, wenn man 1.000 € + für eine Grafikkarte ausgibt, sollte man sich nicht direkt fragen müssen, ob der Speicher reicht.
 
(außer es passiert ein Wunder beim max.Takt trotz fast unverändertem Process)
Ein Wunder eher nicht, die Gerüchte sprechen aber von rund 3 GHz, also alleine 10-12% mehr durch den Takt. Dann 92 statt 80SM sind nochmal +15%. Wenn NVidia dann noch irgendwo 10% IPC findet haste die 40% zusammen dies braucht um mit ner 5080 die 4090 knapp zu schlagen (1,11 x 1,15 x 1,1).
Wenns nicht reicht wird NV entweder den Beschnitt reduzieren oder die TDP anheben bis es reicht. Eine 5080 die laangsamer als eine 4090 ist wird es mit sehr hoher Wahrscheinlichkeit nicht geben. Den marketingstunt nur mit DLSS4 oder sowas schneller zu sein wäre ein ziemlich hartes Shitstormrisiko^^
 
Oder man verkauft halt erstmal das Modell mit geringstem Performance-Zuwachs, ... mit Absicht.(x)

Nach m.E. ist der Erfolg der 4090 ggü. der 4080 ja auch nicht grundlos gewesen.
(siehe PCGH-User mit 4090 > 4080-Anteil)

aufgrund der geringen Herstellungskosten will man sicher mit dem neuen Volumenmodell mehr Kasse machen
als Das mit der 4080 gelungen ist
 
So wie ich das inzwischen sehe, kann man Nvidia nicht mehr als klassischen Grafikkartenhersteller betrachten. Von daher erwarte ich einfach weitere Innovationen und Verbesserungen in Sachen KI und Bildgeneration, was dann natürlich seinen Preis für den Kunden hat.

Zu den größten Abnehmern von KI-Chips gehören Meta, Microsoft, Amazon und Alphabet
 
Die Frage ist ja nicht wann die Karten kommen, sondern was sie kosten. :-) Ich könnte mir vorstellen das eine RTX 5080 nicht unter 1500 Euro zu haben ist.:-)
Halte ich tatsächlich für denkbar, wenn AMD keine Konkurrenz plant und eine 5080 in benchmarks schon minimal vor einer 4090 landet.

Dann haben wir weitere zwei Jahre nahezu Stagnation beim PLV. Traurig, aber erstmal abwarten.
 
Man kriegt in diversen Spielen mehr als 16 GiByte Allokation hin, wirklich notwendig sind mehr als 16 GiB aber nur bei konstruierten Extremfällen mit Pathtracing, Frame Gen und extremen Auflösungen.
Falsch. Du schaust nur auf das Spiel oder?
Grayzone braucht sicher selber auch nur 12 GB. Aber ist völlig nebensächlich, wenn der rest des Systems eben auch noch seinen Teil will. Wenn man nicht gleich alles und jedes im Hintergrund schließen will, dann brauchst du einfach deutlich mehr. Bei Grayzone kratze ich dann eben an fast 16 GB VRAM mit Browser und Discord und Windows selber offen im Hintergrund. Und selbst wenn ich das ausschalte, macht das keinen großen Unterschied. Und Windows kann ich nicht ausschalten. ^^

Die gesamte VRAM Menge die belegt wird vom System is eben doch wichtig.
 
Die Frage ist ja nicht wann die Karten kommen, sondern was sie kosten. :-) Ich könnte mir vorstellen das eine RTX 5080 nicht unter 1500 Euro zu haben ist.:-)

Kaufpreis spielt keine Rolle. Einzig die Differenz zwischen Kaufpreis und späteren Verkaufspreis ist entscheidend. Bei meiner 4090 sieht es derzeit so aus: Kaufpreis 1690€, derzeitiger Wert ca. 1450€. Nutzungskosten über knapp 20 Monate also ca. 250€. Da ich als selbständiger aber die Mehrwertsteuer wieder bekomme, hat mich die 4090 effektiv nur 1420€ gekostet, ich bin also derzeit noch 30€ im Plus.
 
Ich denke Nvidia wird bei den 5000ern DLSS noch ordentlich weiter ausbauen und endlich damit 1:1 bzw noch besser als die Native Auflösung sein. Wäre zumindest dann definitiv eine zeitgemäße Weiterentwicklung.
Und dann muss die 5090 nicht mal so viel leistungsfähiger werden als eine 4090.
 
Da ich bekennender Speichertöter und -fan bin, das aber basierend auf Tausenden von Benchmarks nicht sehe: Hast du Beispiele für sterbende 16 GiB? :-) Ich gehe gerne jedem Verdacht nach.

Nicht falsch verstehen: Mehr ist besser, für Enthusiasten sowieso. Aber ich sehe hier in der aktuellen Spielelandschaft keine Notwendigkeit. Allokation ungleich Bedarf.
Was Bedarf ist, sehen wir eh nicht. Das kann nen OSD gar nicht anzeigen. Das kann dir nur nen richtiges ingame overlay anzeigen oder so. Daher halte ich von dem "ist ja nur allocated aber eigentlich braucht das Spiel gar nich so viel." nicht wirklich viel. ^^

Und ein Beispiel meinerseits ist da Grayzone Warfare. Riesige Landschaft, super texturen und Beleuchtung. Kratzt in 4K DLSS Quality und FG an den 16 GB. Braucht vermutlich sogar mehr, aber ich hab eben nur 16 GB. Daher sehe ich ne 5080 mit nur 16 GB als eher schwach an und würde ich mir nicht holen.
 
Zuletzt bearbeitet:
Falsch. Du schaust nur auf das Spiel oder?
Grayzone braucht sicher selber auch nur 12 GB. Aber ist völlig nebensächlich, wenn der rest des Systems eben auch noch seinen Teil will. Wenn man nicht gleich alles und jedes im Hintergrund schließen will, dann brauchst du einfach deutlich mehr. Bei Grayzone kratze ich dann eben an fast 16 GB VRAM mit Browser und Discord und Windows selber offen im Hintergrund. Und selbst wenn ich das ausschalte, macht das keinen großen Unterschied. Und Windows kann ich nicht ausschalten. ^^

Die gesamte VRAM Menge die belegt wird vom System is eben doch wichtig.
Dann kommen zuerst nochmal kurz zum Brauchen und zum Reservieren.
Dazu dann was Raff gerade schon einmal schrieb. Man muss überlegen welche Extreme man betrachten will.

Will man Early Acces Spiele zur Basis nehmen, oder will man jetzt Leute zur Basis nehmen, die ständig drei unterschiedliche Dinge gleichzeitig machen müssen?

Ich persönlich gehöre noch zu der Generation, bei der im Hintergrund fast nichts läuft und damit eindeutig zu den sparsameren ;)

Mir hilft es dann wenig, wenn jetzt durch extreme 16GB kaputt geredet werden, aber für mich durchaus noch eine Zukunft hätten.


PS:Mir persönlich fehlt aber dennoch auch die Motivation ein wenig, für wieder 16GB Geld auf den Tisch zu legen. Egal ob 4090 Niveau, oder nicht.
 
Ja klar, das ist schon richtig. Aber ich sehe 16 GB nicht mehr als so super "zukunftssicher" an wie ich das noch vor kurzem getan hab. Und ich bin sicher, da kommen noch andere Beispiele in Frage mit viel Openworld und Raytracing. Ark is doch auch so nen Beispiel, das nutzt UE5. Wie läuft das?
 
Zurück