News Geforce RTX 5000 ("Blackwell"): Gerüchte sprechen von einer Chiplet-GPU und weitreichenden Änderungen

Die 4080 kostet/e ja schon 1200 - 1500 € (je nach Custom Modell) !
Denke die 5080 wird schon um die 2000 € kosten ...
Klingt für mich nicht plausibel.


Ich denke die 5080 wird sich nach release bei 1300-1500€ einpendeln, also die Masse der Angebote. Also gu t200€ mehr als jetzt die 4080.

Welche Gründe siehst du für einen extremen Anstieg auf knapp 2000€?
 
Zuletzt bearbeitet:
Eher nicht so. Der DIY-Markt ist vom Volumen her völlig belanglos, große Mengen setzen nur OEMs ab und die zahlen sowieso andere Preise als wir Endkunden.
Da stimme ich dir zu, natürlich müssen die Preise auch für OEM's fallen. Wenn es am Ende so ist das ein PC mit einer 7900xt nur z.B. 50€ teurer als der 1:1 gleich wie mit ner Rtx4070 ist, dann verschiebt sich die Lage.
 
GDDR7 wird schneller und stromsparender, mit Chiplet kann man die Leistung theoretisch auch besser anpassen. Ich sehe eine Karte mit 30-40% mehr Leistung gegenüber der 4090 bei einem Preis von 1499€ und einer Leistungsaufnahme von 250-300W. Raytracing wird um Faktor 2 zulegen und FG+ wird verbessert. Meine 4090 wird jedoch vermutlich nicht getauscht, dafür gibt es zu wenige Spiele, die das bedingen würden.
 
Aus der marketing sicht bestimmt Korrekt dann, aber ist halt für mich fake Benchmarks. Da es so wäre als würde ich DLSS vs non DLSS vergleichen.
Zudem es ja auch nur in einer Hand voll Spielen implementiert ist.
Aber selbst wenn man das vergleich wie soll dann der neue Chip 2.5 fache leistung haben ADA kann ja FG , oder kann dann Blackwell FG FG nur jedes 3 Bild wird Komplett berechnet ?
Also ne lassmal selbst das jetzige FG ist nur sehr beschränkt sinnvoll.
Das werden in naher Zukunft ja düstere Zeiten für dich ;)

In wenigen Jahren wird kein Schwein mehr nach nicht fake Benchmarks fragen ( um bei deiner Begrifflichkeit zu bleiben).

DLSS, FSR und XeSS sind die Zukunft und das auch inkl. fmf und fg.
Es steigert in jedem Fall massiv die Performance. Was soll daran "sehr beschränkt sinnvoll" sein?
Da bedarf es auch keine Lach Smileys drunter ;).

Ich bin uneingeschränkt der selben Meinung!

Ich habe es selbst ausprobiert und war vorher skeptischer und jetzt eher einfach begeistert!
 
Das werden in naher Zukunft ja düstere Zeiten für dich ;)

In wenigen Jahren wird kein Schwein mehr nach nicht fake Benchmarks fragen ( um bei deiner Begrifflichkeit zu bleiben).

DLSS, FSR und XeSS sind die Zukunft und das auch inkl. fmf und fg.
Da bin ich echt gespannt. Weil sagen wir mal Blackwell kann dann FG+ also mit 2 Zwischen Bildern:
also Render bild FG bild FG Bild Render Bild.
Dann stelle ich mir die Frage wie fühlt sich das an ? Wie hoch ist die Latenz, wie sieht das aus?
Ich meine FG hat ja jetzt schon Problem hier und da.

Ich sags mal so du kannst nur eine Bestimmte Anzahl an Bilder berechnen ohne nicht die komplette Render pimpline durchzugehen, denn irgendwann muss ich den Input des Spieler wieder mit berechnen . (ich hoffe man versteht was ich meine).

Natürlich wäre es Super wenn wir mit nur einen teil der Rechnen Leistung der 4090 das Selbe Ergebnis erzielen können was Optik und Latenz angeht.
 
Ja , aber genau den Teil verändere ich ja mit einer erhöhten Framerate oder mit Reflex on /off.
Also ernshaft willst du mir etwa sagen das du zwischen 30 und 60 Fps keinen Unterschied merkst ?
Wo sage ich das?

Ich kann nur sagen zwischen 30 FPs und 60 FPS sind für mich Welten.
zwischen 60 und 120 merke ich auch noch was. Ab ca 130 FPS ist jedes weitere FPS auch große Sprünge kaum noch merkbar.
Korrekt, die Unterschiede in der Darstellung sind Welten. Die Input Latency dagegen eher nicht so.

Nehmen wir ein Beispiel welches von Igorslab so getestet wurde:
1695041534752.png


Die 10ms zwischen DLSS Q Reflex On FG off vs FG on wirst Du nicht merken. Dafür aber die flüssigere Darstellung aufgrund einer fast doppelten Framerate.
Da bin ich echt gespannt. Weil sagen wir mal Blackwell kann dann FG+ also mit 2 Zwischen Bildern:
also Render bild FG bild FG Bild Render Bild.
Dann stelle ich mir die Frage wie fühlt sich das an ? Wie hoch ist die Latenz, wie sieht das aus?
Ich meine FG hat ja jetzt schon Problem hier und da.

Ich sags mal so du kannst nur eine Bestimmte Anzahl an Bilder berechnen ohne nicht die komplette Render pimpline durchzugehen, denn irgendwann muss ich den Input des Spieler wieder mit berechnen . (ich hoffe man versteht was ich meine).

Natürlich wäre es Super wenn wir mit nur einen teil der Rechnen Leistung der 4090 das Selbe Ergebnis erzielen können was Optik und Latenz angeht.

Ich glaube nicht dass es mehr als 1 Zwischenframe sinnvoll generiert werden kann, aus den von Dir genannten Gründen. Aber man kann immer noch die Bildqualität steigern, Raytracing / Pathtracing Performance steigern, Denoiser weiter verbessern (was mit DLSS 3.5 ja jetzt schon gemacht wird), usw usw.
 
Wäre nicht mal dumm von Nvidia, die 5080 und 5070Ti im Bereich um die 1k ansiedeln und die 5090 dann extra teuer machen, weil die wird eh gekauft von den ganzen Nerds und wenn sie für 2K extra nur 15% mehr bringt ?

Das Problem ist eher das es genug "Nerds" geben wird um welche das mitmachen.
Da gefühlt immer weniger auf Benchmarks ala 3DMark achten frage ich mich eher nach dem warum.
(weil man es kann lasse ich mal aussen vor)
 
Wo sage ich das?


Korrekt, die Unterschiede in der Darstellung sind Welten. Die Input Latency dagegen eher nicht so.

Nehmen wir ein Beispiel welches von Igorslab so getestet wurde:


Die 10ms zwischen DLSS Q Reflex On FG off vs FG on wirst Du nicht merken. Dafür aber die flüssigere Darstellung aufgrund einer fast doppelten Framerate.
Hier: oder verstehe ich dich da falsch:
"
Die durchschnittliche Reaktionszeit eines Menschen liegt bei 200-300ms. Und Du willst mir sagen dass Du 15ms merkst? Dann musst Du ein Pro-Gamer im FPS oder Beat'em Up Bereich sein, die merken sowas.

Du sprichst da übrigens von 16,66ms pro Frame bei 60 FPS vs 33,33ms pro Frame bei 30 FPS, das ist nur ein Teil des Input Lags.
"

Ja ich merke den Unterschied zwischen 30 und 60 FPs im Spiel gefühl und damit meine ich Ausdrücklich nicht das deutlich Klatter bild sondern wirklich die Zeit die das Spiel braucht auf meinen Input zu Reagieren.
Und von 30 auf 60 FPs reduiziere ich genau eins die Renderlatenz.

Ich habe es doch gestetet in Cyberpunk 2077 non FG FPS ca 40.
Fühlt sich wie käse an und sieht auch nicht so toll aus.
mit FG fühlt sich immernoch wie käse an sieht aber Ruhiger aus (bis auf ein Paar Artefakte).

Schluss für mich:
Ruihigers Bild aber immer noch käse. Bringt also nichts.

Redfall:
Ohne FG 80 FPS fühlt sich gut an sieht auch so aus.

mit FG leicht anders Spiel Gefühl dafür aber deutlich Glatters Bild. FG bleibt an.


Und das ist genau der Punkt den ich machen will. FG Ist nicht immer Sinnvoll für mich.
 
Puh.. übernächstes Jahr wäre bitter. Wollte meine 3090 nächstes Jahr auf was effizientes umrüsten. Die 4090 ist mir deutlich zu teuer..
So kann Nvidia doch noch einige Ungeduldige abgreifen..
 
Hier: oder verstehe ich dich da falsch:
"
Die durchschnittliche Reaktionszeit eines Menschen liegt bei 200-300ms. Und Du willst mir sagen dass Du 15ms merkst? Dann musst Du ein Pro-Gamer im FPS oder Beat'em Up Bereich sein, die merken sowas.

Du sprichst da übrigens von 16,66ms pro Frame bei 60 FPS vs 33,33ms pro Frame bei 30 FPS, das ist nur ein Teil des Input Lags.
"

Ja ich merke den Unterschied zwischen 30 und 60 FPs im Spiel gefühl und damit meine ich Ausdrücklich nicht das deutlich Klatter bild sondern wirklich die Zeit die das Spiel braucht auf meinen Input zu Reagieren.
Und von 30 auf 60 FPs reduiziere ich genau eins die Renderlatenz.

Ich habe es doch gestetet in Cyberpunk 2077 non FG FPS ca 40.
Fühlt sich wie käse an und sieht auch nicht so toll aus.
mit FG fühlt sich immernoch wie käse an sieht aber Ruhiger aus (bis auf ein Paar Artefakte).

Schluss für mich:
Ruihigers Bild aber immer noch käse. Bringt also nichts.

Redfall:
Ohne FG 80 FPS fühlt sich gut an sieht auch so aus.

mit FG leicht anders Spiel Gefühl dafür aber deutlich Glatters Bild. FG bleibt an.


Und das ist genau der Punkt den ich machen will. FG Ist nicht immer Sinnvoll für mich.

Du vergleichst Äpfel mit Birnen.

1695042468056.png


Bei 40 FPS wird die Input Latency nativ bereits bei >70ms liegen. Schaltest Du nur Reflex ein hast Du vielleicht ~50ms Input Latency, dafür aber immer noch ruckelige 40 FPS. Das hilft Dir also auch nicht so richtig um ein gutes Spielerlebnis zu erhalten.

Schau noch mal oben in den Screenshot, Nativ Reflex Off FG Off hat eine DEUTLICH höhere Input Latency als Nativ Reflex On FG On. Da erhälst Du also mehr FPS UND eine bessere Input Latency.
Aha, was denn wohl die rote Fraktion bereithält? Wo sind die gerüchte der roten Fraktion?

Gibt doch bereits RDNA4 Leaks und Threads dazu? Was haben die hier zu suchen?

https://www.pcgameshardware.de/AMD-...ws/RDNA-4-ohne-High-End-GPU-Geruecht-1426020/
 
Du vergleichst Äpfel mit Birnen.

Anhang anzeigen 1437775

Bei 40 FPS wird die Input Latency nativ bereits bei >70ms liegen. Schaltest Du nur Reflex ein hast Du vielleicht ~50ms Input Latency, dafür aber immer noch ruckelige 40 FPS. Das hilft Dir also auch nicht so richtig um ein gutes Spielerlebnis zu erhalten.

Schau noch mal oben in den Screenshot, Nativ Reflex Off FG Off hat eine DEUTLICH höhere Input Latency als Nativ Reflex On FG On. Da erhälst Du also mehr FPS UND eine bessere Input Latency.
Ne ich vergleich Reflex vs Reflex mit FG . Oder im Fall von Cyberpunk (Persönliche erhfarung)
FG on vs Off rest gleich.
Ich kann doch nichts dafür das es sich z.b in Cyberpunk nicht geschmeidig anfühlt mit FG.
Zum thema Reflex allgemein es gibt auch Spiele die Zeitweise jedenfalls nur Reflex angeboten haben Ohne FG
Battlefield 2042 ist oder war so eins (lange nicht mehr angefasst haben die mittlerweile FG?)
Gleiche Gilt für Call of Duty da war auch eine zeit lange Reflex verfügbar und kein FG.

Es bleiben also als vergleich Faire vergleiche nur Games die Reflex haben und FG, weil wenn ich anfange Unterschiedliche Settings zu vergleichen dann wird es halt einfach kein Test sondern eine Moment aufnahme.

Aber schau dir doch mal:
1695043080488.png

Das hat trotz Reflex off noch eine bessere Latenz als FG mit Reflex.
Wie gesagt die ganze Reflex on /off gesichte ist Stark Spiel abhängig . Je nach Game kann ich Reflex nur nutzen mit FG oder auch Ohne. Manchmal gibt es auch garkein FG dafür aber Reflex.
Deswegen wenn man FG bewerten möchte muss man genau dieses Feature on off , stellen und nicht noch andere sachen.

Das hier ist btw ca das was ich bei mir gestestet habe weil ich so Spiele:

1695043240916.png

Und wie du siehst habe ich beides mal den Selben Intput lag. Bringt mir aber nichts weil sich diese 45ms für mich unschön anfühlen .

Und das war alles was ich gesagt habe. Für mich ist FG nicht immer Sinvoll. Wenn du das anderst sieht toll.
Versuche aber nicht meine Erfahrungen als Falsch abzustempeln.
 
@raPid-81 @Nathenhale
Ihr rechnet Leistung bei Gpu's falsch.
Nur weil meine 4080 3x so schnell ist wie meine 1080 und ~10tf gegen ~50tf fp32, was mehr als das 3 fache ist, kommen am Ende nicht die 3 fachen Bilder pro Sekunde raus.
Meist lässt es sich sehr schwer messen. Richtig auf Touren kommen neuere Karten erst mit höheren Auflösungen und neuen Rendertechniken. Damit können die erst richtig ausfahren wo die alte Karte dann schon kurz vorm Kollaps ist oder es gar nicht erst schafft.
Wie will man das am Ende vergleichen.
 
GDDR7 wird schneller und stromsparender, mit Chiplet kann man die Leistung theoretisch auch besser anpassen. Ich sehe eine Karte mit 30-40% mehr Leistung gegenüber der 4090 bei einem Preis von 1499€ und einer Leistungsaufnahme von 250-300W. Raytracing wird um Faktor 2 zulegen und FG+ wird verbessert. Meine 4090 wird jedoch vermutlich nicht getauscht, dafür gibt es zu wenige Spiele, die das bedingen würden.
Ich sehe keine 30-40% Leistungsplus.

Nvidia wird darauf achten, dass die Leistung nicht zu stark ausfällt. Da wird monetär geplant und mit kleinen Leistungsschritten von vielleicht 20% operiert. Dann werden die nächsten 20% auf die darauffolgende Generation draufgepackt. Das war von Ampere auf Ada auch so.

Nvidia steht von Seiten AMD´s nicht unter Druck. Das läuft genauso, wie damals bei den Intel CPU´s als AMD nicht hinterherkam.
 
Ich habe nochmal schnell den Taschenrechner gezogen.
3090~35tf
4090~82tf
35tf=100%
82tf=234%~2,3x
Reine fp32 Rechenleistung. Ohne Fps oder FG zu benutzen.
Und am Ende sind es halt ohne FG keine 2,5x Fps mehr. Was auch kein Beinbruch ist. Außer die Firma heißt 3dfx und alle Welt schaut nur da drauf.
Dann ist es gleich ein Genickbruch...
 
Ich ich merke keinen Unterschied. Ich würde also >100FPS mit FG anstatt 60FPS ohne FG vorziehen, da das Bild deutlich flüssiger wirkt.

Sein Beispiel ist aber 40 FPS als Startwert, da macht sich der Input Lag UND die nicht flüssige Darstellung gleichsam bemerkbar. Ich meine Nvidia empfiehlt FG auch erst ab 60 FPS aufwärts oder sowas um den Dreh.
Ich sehe keine 30-40% Leistungsplus.

Nvidia wird darauf achten, dass die Leistung nicht zu stark ausfällt. Da wird monetär geplant und mit kleinen Leistungsschritten von vielleicht 20% operiert. Dann werden die nächsten 20% auf die darauffolgende Generation draufgepackt. Das war von Ampere auf Ada auch so.

Nvidia steht von Seiten AMD´s nicht unter Druck. Das läuft genauso, wie damals bei den Intel CPU´s als AMD nicht hinterherkam.

Nein, von Ampere auf Ada war es nicht "auch so", sondern überhaupt nicht so. Die 4090 liegt 50% vor der 3090ti im PCGH GPU Leistungsindex. In 4K sogar fast 60%. Und soweit ich mich erinnere ist bei der Leistungseinordnung kein Frame Gen aktiv.
 
Ich sehe keine 30-40% Leistungsplus.

Nvidia wird darauf achten, dass die Leistung nicht zu stark ausfällt. Da wird monetär geplant und mit kleinen Leistungsschritten von vielleicht 20% operiert. Dann werden die nächsten 20% auf die darauffolgende Generation draufgepackt. Das war von Ampere auf Ada auch so.

Nvidia steht von Seiten AMD´s nicht unter Druck. Das läuft genauso, wie damals bei den Intel CPU´s als AMD nicht hinterherkam.
Ja, und dann hat AMD Intel plötzlich überholt. Die Konkurrenz schläft nicht.
 
Zurück