News Geforce RTX 5090: Blackwell-GPU soll ein riesiger Monolith der Superlative werden [Gerücht]

Riesiger Monolith der Superlative? Markige Worte. Das sind gerade mal ein paar Shader mehr als auf dem Vollausbau von Ada Lovelace. Rein von den Daten sind das höchstens 34% mehr Performance, wie sich auch etwas zwischen 7800XT und 8800XT zur Debatte stehen.

Langweilig. Jeder der eine 4090 hat dürfte kaum Sinn darin sehen aufzurüsten, außer neue Garantie abzugreifen. Schaut man sich an, dass eine 4090 aus 60% mehr Shadern nur 30 bis 35% mehr Leistung gegenüber der 4080 herausbekommt, könnte die Karte auch nur 20% drauflegen, aber bitte wieder deutlich unter 400 Watt, besser maximal 300.
Eine GPU besteht aber nicht nur aus Shadern. GDDR7 + 512-Bit + 128 MiB L2 könnte da sicher nochmal einen ordentlichen Extra-Boost geben.
 
Wenn die Leistung tatsächlich so viel mehr (min 50%) steigen würde, könnte ich mir vorstellen von der 4090 upzugraden, vor allem auch deshalb um für die 4090 noch ca 1400€ - 1500€ zurück zu bekommen. Allerdings hätte ich absolut kein Bock auf ein Plattform Upgrade, da ich mit AM4 und dem 5800X3D noch viel zu zufrieden bin, was aber für die 5090 ein gewaltiger Flaschenhals wäre (ist ja der 5800X3D jetzt schon) und außerdem werde ich erst eine stärkere GPU benötige, wenn ich mir MINDESTENS einen 55 Zoll OLED 4k@240Hz kaufen kann. Bevor das nicht passiert ist, gibt's eigentlich überhaupt keinen Mehrwert auf eine 5090 zu schielen und diese zu besitzen. Zumindest für mich nicht. Da kann ich auch gechillt lange warten, bis sich das so richtig lohnt.
 
Zuletzt bearbeitet:
Das Problem daran ist, dass eine GTX470 ein teildeaktivierter Highend Chip war. Das, was heute eine 4090 ist.

Preis pro Namen mag mit der Inflation passend sein (weil die Bezeichnung genauso inflationiert wurde...), Preis pro Technik ganz sicher nicht ;-)
Das interessiert aber die Masse nicht. Das interessiert nur uns.

Ich fänd es auch super, wenn eine 4070 einen deutlich größeren Chip hätte. Aber wie soll das funktionieren, ohne Konkurrenz die einen dazu zwingt.

Der Endkunde kann das nicht ausbaden.

Ist AMD Preispolitik besser, nur weil größere Chips nötig sind.
Ist eine 7800XT überhaupt ein deutlich größerer Chip?

Oder ist es viel eher so, das die Hersteller uns alle zwei Jahre mit einem Haufen Produkte zuschmeißen und für den Endkunden nur relevant ist, wie viel bekomme ich für mein Geld, für meine Anforderungen.

Letztendlich könnte man jetzt vieles auch mit rein werfen.
Zum Beispiel, kommt man meine ich heute viel länger mit seiner Hardware aus, als früher.

Ich war bei der Entwicklung der GTX400, sowie RTX4000 nicht dabei und kann nicht neutral beurteilen, ob und wie viel Mehraufwand eine RTX4000 ist/war.
 
Wird eh nicht als Vollausbau in den Gamingbereich kommen, sondern da dürfte wohl wieder primär Resteverwertung betrieben werden. Das ist aber auch nicht schlimm, da selbst die beschnittene 4090 in verschiedensten Szenarien kaum von irgendeiner CPU ausgelastet werden kann... In der Leistungsklasse macht es daher Sinn, primär den Fokus auf extrem teure Grafikfeatures wie PT zu setzen, da Raster eh schon genug Power unter der Haube hat.

Ich gehe davon aus, das wird NV auch verfolgen, die Rasterleistung hingegen vergleichsweise nur moderat verändern.

Davon ab, sicherlich technisch spannend und möge sich gönnen wer will, ich habe aber absolut 0 Bedarf für so ein Gerät :D
 
Viele vergessen wohl, dass große Chips eine abnormale Abwärme von sich geben von der Lautstärke will ich erst nicht anfangen.

Nvidia wird diese Karte nicht im Vollausbau bringen, da erstens kein Druck besteht seitens AMD und zweitens wegen dem, was ich vorher geschrieben habe.

Wie gesagt in der Vergangenheit hat man oft gesehen, dass Max nicht immer gleich besser ist (Geforce FX, Fermi ), manchmal ist es auch gut, wenn die Vernunft einen zügelt.

Das Teil wird bestimmt schneller als eine aktuelle 4090. Ich rechne so mit 30 %, aber dafür wird die auch einiges mehr kosten, gehe von 1900 Euro aus. Wer bereit ist, es zu zahlen, sei es ihm gegönnt, bei mir hört der Spaß bei 1000 Euro auf.

Nicht vergessen, wir sprechen von 600 Watt und das ist einfach vielabwärme und mehr Verlustleistung im Vergleich zu ADA.

Wer eine 7900XTX hat, weiß, wovon ich spreche, die Wärme im Case wird abnormal, so als hätte man zwei 7900XTX im Rechner verbaut, muss aber jeder selbst wissen.
 
Zuletzt bearbeitet:
Riesiger Monolith der Superlative? Markige Worte. Das sind gerade mal ein paar Shader mehr als auf dem Vollausbau von Ada Lovelace. Rein von den Daten sind das höchstens 34% mehr Performance, wie sich auch etwas zwischen 7800XT und 8800XT zur Debatte stehen.

Langweilig. Jeder der eine 4090 hat dürfte kaum Sinn darin sehen aufzurüsten, außer neue Garantie abzugreifen.

Oder ganz simpel, einfach die wieder schnellste Hardware zu kaufen. Wenn mir das Hobby mehr Wert wäre und ich einmal zur 4090 greife, dann aber auch wieder bei der 5090.

Warum soll ich dann zwei Jahre auf Leistung verzichten. Der Wertverlust, auf zwei, oder vier Jahre unterscheidet sich nicht so sehr.

Fiktiv:
4090 Verkauf nach zwei Jahren für 900€, oder nach vier Jahre für 450€...

Macht theoretisch auch nur 30€/ Monat zu 24€/Monat.

Dann gleich alle zwei Jahre zur größten greifen.
Schaut man sich an, dass eine 4090 aus 60% mehr Shadern nur 30 bis 35% mehr Leistung gegenüber der 4080 herausbekommt, könnte die Karte auch nur 20% drauflegen, aber bitte wieder deutlich unter 400 Watt, besser maximal 300.

Das liegt ja aber auch an der TDP.
Ist ja kein Zufall, das eine 4090 bei fast 40% mehr Verbrauch im Schnitt um 35% schneller ist.
 
Die Geforce RTX 5090 soll auf dem riesigen monolithischen Grafikprozessor GB202 ("Blackwell") mit 24.567 Shader-Einheiten und 192 Streaming-Prozessoren aus 12 Grafikprozessor-Clustern basieren und so eine Grafikkarte der Superlative werden.
Ich brauche und will keine Superlative von NV, sondern endlich mal wieder eine bezahlbare (preislich angemessene) Grafikkarte mit ausreichend VRAM, die nicht 1000 Euro und mehr kostet, und / oder sich leistungstechnisch auch 5 Jahre später nicht spürbar von einer RTX 2060 Super absetzen kann (RTX 4060 16GB)!
 
Mal schauen. Je nach dem, was man dann für eine 4090 verlangen kann wäre ein Upgrade ja garnicht unrealistisch.
Frage ist eher, ob ich noch so viel am Pc spiele, dass es sich rechnet. :schief:
Also ich habe bisher im Mai gute 6-8h gezockt, also ja...lohnt sich immer ;)

Mit meiner Zock Zeit hat das für mich zu 100% nichts zu tun ;).

Wenn ich an schicker Grafik Spaß habe, dann kaufe ich auch für 1h, oder 2h im Monat so viel Hardware wie ich gerade Bock drauf habe.

Wenn ich mal ein, zwei andere Projekte wieder abgehakt habe, dann werde ich so glaube ich auch wieder mehr rein buttern ;)
 
Ich brauche und will keine Superlative, sondern endlich mal wieder eine bezahlbare (preislich angemessene) Grafikkarte mit ausreichend VRAM, die nicht 1000 Euro und mehr kostet, und / oder sich leistungstechnisch auch 5 Jahre später nicht spürbar von einer RTX 2060 Super absetzen kann (RTX 40060 16GB)!
Die Stagnation im unteren Leistungsbereich, por Euro ist schon sehr viel Älter... Das fing doch mit jeder Gen nach R9 290X schon an.... Zuletzt gab es wenigstens wieder kleine Sprünge ;)
 
Das Problem daran ist, dass eine GTX470 ein teildeaktivierter Highend Chip war. Das, was heute eine 4090 ist.

Preis pro Namen mag mit der Inflation passend sein (weil die Bezeichnung genauso inflationiert wurde...), Preis pro Technik ganz sicher nicht ;-)
Ich würde eher sagen, dass es heute Klassen nach oben gibt, die es damals nicht gab. Gleichzeitig gibt es kein Low End mehr. Außerdem altern die GPUs deutlich langsamer als vor 15 Jahren. Die 4090 kann man keinesfalls mit einer 480 vergleichen. 3090 und 4090 sind eigentlich Titans mit weniger Speicher.
 
Na ja, nix für mich. Ich könnte mir momentan jeden Monat so ne Karte leisten ohne dass der Kontostand niedriger wird, aber ich werf doch nicht Nvidia jeden Preis in den Rachen nur weil sie wollen.

Am ende zockt man eh wieder nur irgendwelche Konsolenports die dann am PC 10% besser aussehen.
120 FPS in 4K mit Upscaling und FG reichen mir auch dicke. Von daher: ich passe.

Für neue Hardware will ich auch next-gen Grafik sehen. So wie Hellblade 2. Nur in jedem Spiel. Dann seh ich auch Sinn darin, was neues zu kaufen. Aber Hellblade 2 läuft ja auch wie butter auf aktueller Hardware. also… auch wieder kein Grund..
 
Eine GPU besteht aber nicht nur aus Shadern. GDDR7 + 512-Bit + 128 MiB L2 könnte da sicher nochmal einen ordentlichen Extra-Boost geben.
Fehlt es deiner Auffassung nach der 4090 aktuell an Speichertransferrate? Ich denke nicht. Warum also sollten sie das Interface vergrößern, wenn die Transferrate durch den Wechsel auf GDDR7 eh um bis zu 50% steigt? Das wäre zwar nett uns Kunden gegenüber, aber für Nvidia gibts keinen triftigen Grund.
 
Zurück