News Geforce RTX 5000 ("Blackwell"): Gerüchte sprechen von einer Chiplet-GPU und weitreichenden Änderungen

Du verstehst nicht, dass ich einfach nur daraus hinaus wollte, dass eine Verdopplung der Leistung nicht zwangsläufig eine Verdopplung des Preises nach sich zieht, selbst bei Nvidia nicht.

Kostete eine 4090 70% mehr als eine 3090? Nein.

3090 - 1649,-€ UVP zu Release
4090 - 1949,-€ UVP zu Release
Ok, das war dein Punkt. Verstehe. Dann habe ich dich wirklich falsch verstanden.
Ich wollte mich rein auf die 2.5 Fache Leistung Konzentrieren. Die ich für absoluten Mumpitz halte. Es gab glaube ich in den Letzten 6 Jahren keine Gen die das erreicht hat. Jedenfalls nicht wenn man Identische Settings verwendet und nicht irgenwelche Komischen anderen sachen macht.

Es gibt schon Grüne warum ich von einer 3090 auf eine 4090 geupgraded habe. (DLSS 3.0) ist z.b keins.
Es steigert in jedem Fall massiv die Performance. Was soll daran "sehr beschränkt sinnvoll" sein?
1.Nicht in jedem Spiel vorhanden.
2. Gerade im bereich von Low FPS hast du zwar ein glatteres Bild aber immer noch den gleichen bzw. sogar mehr inputlag, bietet also in diesem Szenario nur begrenzt einen vorteil.
3. Es gibt zum teil Starke Bild Artefakte (Cyberpunk 2077 z.b beim Autofahren).
4.Teils schlechte Implementierungen sie z.b Immortals of Aveum. (klar dafür kann Nvidia nichts bringt mir aber Kunde halt auch nichts.

Wie bei jedem Software Feature (ich weiß ist auch irgendwie ein Hardware Feature) muss man schauen welchen Wert es für einen Hat.
Reine Rohleistung hingehen ist halt immer nützlich.

Ich bin bis jetzt von FG noch nicht so angetan. DLSS3.5 hingehen klingt da deutlich Spannender.
 
Zuletzt bearbeitet:
Genau das, mit FG, so hatte Nvidia ja auch geworben bei der Vorstellung der Ada Gen.
Ach komm, kann man sich bei "ist so und so viel schneller" bitte hauptsächlich auf Rasterizing und mittlerweile Raytracing beziehen? Raytracing ist mittlerweile immerhin relativ weit verbreitet, aber sich dabei auf proprietäre Technologien zu beziehen, die im Grunde kaum in Spielen vorhanden sind, ist nun wirklich Quatsch (erst recht wenn darunter im Vergleich auch noch die Bildqualität und Latenz leidet).

Vergleichen wir bitte die Dinge, die auch beide wirklich können.
 
Das nVidia Pferd springt nur so hoch wie es muss. Das heißt MCM wird noch nicht benötigt. AMD und Intel liegen volle ein bis zwei Generationen zurück, da kann sich nV die Kohle für MCM in 3nm sparen.

Allerdings denke ich wird vorher noch ein Refresh kommen. Dieses LineUp hält keine 1,5 Jahre mehr durch (Vram)....
 
1.Nicht in jedem Spiel vorhanden.
2. Gerade im bereich von Low FPS hast du zwar ein glatteres Bild aber immer noch den gleichen bzw. sogar mehr inputlag, bietet also in diesem Szenario nur begrenzt einen vorteil.
3. Es gibt zum teil Starke Bild Artefakte (Cyberpunk 2077 z.b beim Autofahren).
4.Teils schlechte Implementierungen sie z.b Immortals of Aveum. (klar dafür kann Nvidia nichts bringt mir aber Kunde halt auch nichts.
1.) Nur logisch weil noch neu und nur auf Ada beschränkt. Nvidia kann die Entwickler nicht dazu zwingen kann, das macht FG aber nicht zu einer schlechten Technologie.

2.) Solange der Lag mindestens gleichwertig oder sogar besser ist (was meisten der Fall ist), ist alles in Butter. Cyberpunk hat selbst nativ ohne Reflex einen sehr hohen Lag. Mit Reflex und FG hast du am Ende einen geringeren Lag.

3.) Kann ich in Cyberpunk mit (noch) aktueller Version 1.63 nicht bestätigen.

4.) Frame Generation hat ein Feature, das auf die Bezeichnung Hud Awareness hört. Wenn die Entwickler das nicht gebacken bekommen, ist das nicht Nvidia anzulasten. Die Entwickler des Spiels schaffen es ja nicht mal FSR 2 richtig zu implementieren, Immortals of Aveum hat die schlechteste Implementierung die ich je von FSR 2 gesehen habe.

Wie jetzt, keine neuen Nvidia-Grafikkarten nächstes Jahr? Dabei sind die aktuellen "Mittelklasse" Karten von Nvidia ein Witz.
Schau dir die offizielle Roadmap in der News an ;). Ada Lovelace Next steht dort für 2025 drin.
 
Interessanter Artikel! Ist zwar noch eine ganze Weile hin, aber es dürfte wie eigentlich immer spannend werden, was Nvidia aus dem Hut zaubern wird. Mit meiner 4090FE habe ich derzeit vor, die nächsten ein, zwei Generationen auszulassen.

BTW: Die RTX 3090 Founders Edition kostete zum Verkaufsstart 1.499,- Euro. Nach Auslaufen der Corona-MwSt. kletterte der Preis im Nvidia-Shop auf 1.549,- Euro.
 
Ach komm, kann man sich bei "ist so und so viel schneller" bitte hauptsächlich auf Rasterizing und mittlerweile Raytracing beziehen? Raytracing ist mittlerweile immerhin relativ weit verbreitet, aber sich dabei auf proprietäre Technologien zu beziehen, die im Grunde kaum in Spielen vorhanden sind, ist nun wirklich Quatsch (erst recht wenn darunter im Vergleich auch noch die Bildqualität und Latenz leidet).

Vergleichen wir bitte die Dinge, die auch beide wirklich können.

Warum? Hier geht's doch um Leaks, das ist sowieso größtenteils Fantasie. Und dann kommt da ein @DoctorChandra und behauptet wildes Zeug um den NV-Hate-Train zu starten. Und jetzt soll ich doch bitte "realistisch" bleiben? :lol:

Ich hab extra noch unter meinen Beitrag geschrieben was ich von solchen Leaks halte:

Und die Leaks zur Leistungssteigerung einer neuen Gen waren SCHON IMMER maßlos überzogen, selten wurde mal weniger als 200% in Aussicht gestellt. Am Ende wurde das, wenn überhaupt, nur in ganz speziellen Szenarien erreicht.

Mit Blackwell kann ich mir eine 250% Steigerung nur in Raytracing / Pathtracing Workloads vorstellen.
 
1.) Nur logisch weil noch neu und nur auf Ada beschränkt. Nvidia kann die Entwickler nicht dazu zwingen kann, das macht FG aber nicht zu einer schlechten Technologie.

2.) Solange der Lag mindestens gleichwertig oder sogar besser ist (was meisten der Fall ist), ist alles in Butter. Cyberpunk hat selbst nativ ohne Reflex einen sehr hohen Lag. Mit Reflex und FG hast du am Ende einen geringeren Lag.

3.) Kann ich in Cyberpunk mit (noch) aktueller Version 1.63 nicht bestätigen.

4.) Frame Generation hat ein Feature, das auf die Bezeichnung Hud Awareness hört. Wenn die Entwickler das nicht gebacken bekommen, ist das nicht Nvidia anzulasten. Die Entwickler des Spiels schaffen es ja nicht mal FSR 2 richtig zu implementieren, Immortals of Aveum hat die schlechteste Implementierung die ich je von FSR 2 gesehen habe.


Schau dir die offizielle Roadmap in der News an ;). Ada Lovelace Next steht dort für 2025 drin.
Zu
1. Das ist genau das was ich meine mit "nur Beschränkt sinnvoll" . Also Kunde ist mir doch lachs warum etwas noch nicht überall vorhanden ist.

2. In der Regel ist er allein aus technisch gründen immer etwas höher ob man das merkt keine ahnung. Wollte ich nur mal anmerken , aus eigenen Test kann ich sagen in meinem Szenario bringt mir Fg halt nichts.

3. Tja ich schon, und habe das erst gestern wieder getestet mal schauen ob das mit 2.0 besser wird.

4. Deswegen habe ich ja geschriebn dafür kann Nvidia nichts. Ist mir als verbrauche aber egal. Wenn z.b AMD eine GPu hat die 900 FPS in Cyberpunk machen könnte , aber CDPR diese nicht unterstützt , ist das Ergebnis für mich als kunde das gleiche wie wenn es diese GPU nicht geben würde.

Ich finde FG von der Idee Super. Ich denke das ,es aber wie DLSS 1.0 damals noch etwas braucht bis es man es wirklich , als allgemeines Kaufargument ansehen kann.

Wenn ich z.b FG mit DLSS2.x vergleiche dann:
Bietet DLSS on meist nur Postives
1. Bild ist schöner meist
2. Mehr FPS und weniger inputlag.
3. Weiteverbreitung mittlerweile.

Hingehen FG:
1. Je nach Implementierung deutlich Schlechteres Bild oder halt nicht. (Sehr Entwickler abhängig)
2. Nur in manchen Szenarien Zielführend.
3. Nicht oft vorhanden .


Was ich damit sagen will FG steckt für mich noch in den Kinder Schuhen in 1-2 Jarhen sieht das vermutlich anders aus.
 
2. In der Regel ist er allein aus technisch gründen immer etwas höher ob man das merkt keine ahnung. Wollte ich nur mal anmerken , aus eigenen Test kann ich sagen in meinem Szenario bringt mir Fg halt nichts.

Das kommt aber sehr drauf an.

Nativ ohne Reflex hat eine schlechtere Latenz als Frame Gen mit Reflex.

1695039490503.png


Hier sieht man dass Reflex die höhere Latenz durch Frame Gen komplett bzw. fast komplett negiert.

1695039539717.png


Und hier sieht man dass Frame Generation die Latenz um ca. 10-15ms erhöht. Das ist meiner Meinung nach vernachlässigbar.
 
Wie jetzt, keine neuen Nvidia-Grafikkarten nächstes Jahr? Dabei sind die aktuellen "Mittelklasse" Karten von Nvidia ein Witz.
grade die Mittelklasse kam doch heuer erst raus, das wird 2024 nix mehr, du kannst mit etwas Glück Ende 2024 mit einem Flaggschiff Chip rechnen, aber auch das ist fragwürdig weil TSMCs 3nm Prozess grade erst im ersten Chip (A17) drin ist. Wenn msn sich due Zeitrahmen ansieht zwischen "bringt Apple erstmals einen Chip in diesem Verfahren" und "kommt für uns Gamer als Produkt auf den Markt", sinds auch manchmal 2 Jahre
 
Welcher Vorsprung seitens Nvidia? Ist alles nur eine Frage des Preises. Wenn AMD die Rx7900xt für 700€, die RX7900 gre für 550€ und die rx7800xt for 450€ verkauft es angemessen wäre, bekäme NV eine Menge Druck.
 
Das kommt aber sehr drauf an.


Anhang anzeigen 1437768

Und hier sieht man dass Frame Generation die Latenz um ca. 10-15ms erhöht. Das ist meiner Meinung nach vernachlässigbar.
Ich meinte mit meinem Beitrag hauptsächlich Reflex vs Reflex mit FG. Weil nur das für mich ein Gerechter vergleich ist.
Denn Reflex ist zwar teil von DLSS 3.0 ist aber in den meisten Spielen (ich meine dich Forza (:wall: ) auch ohne FG nutzbar.
Wie gesagt ob man das Merkt keine ahnung. Aber wenn man das mal vergleicht 30 fps zu 60 Fps sind z.b 16,66 ms Unterschied in der Latenz. Und ich würde sagen das merkt man. Also sehe ich die 10-15ms von FG genau so an.

Persönlich hat mir FG bis jetzt nur in einem Title einen vorteil gebracht in Redfall.

In allen anderen Titeln in denen ich es getestet habe war es für mich, nutzlos .

(achtung achtung Persönliche meinung )
 
Ich meinte mit meinem Beitrag hauptsächlich Reflex vs Reflex mit FG. Weil nur das für mich ein Gerechter vergleich ist.
Denn Reflex ist zwar teil von DLSS 3.0 ist aber in den meisten Spielen (ich meine dich Forza (:wall: ) auch ohne FG nutzbar.
Eher umgekehrt, die wenigsten Spiele haben Reflex. Die Verbreitung nimmt jetzt natürlich durch Frame Gen zu, aber ob Reflex einzeln zuschaltbar ist definiert immer noch der Entwickler.

Wie gesagt ob man das Merkt keine ahnung. Aber wenn man das mal vergleicht 30 fps zu 60 Fps sind z.b 16,66 ms Unterschied in der Latenz. Und ich würde sagen das merkt man. Also sehe ich die 10-15ms von FG genau so an.

Die durchschnittliche Reaktionszeit eines Menschen liegt bei 200-300ms. Und Du willst mir sagen dass Du 15ms merkst? Dann musst Du ein Pro-Gamer im FPS oder Beat'em Up Bereich sein, die merken sowas.

Du sprichst da übrigens von 16,66ms pro Frame bei 60 FPS vs 33,33ms pro Frame bei 30 FPS, das ist nur ein Teil des Input Lags.
 
Die durchschnittliche Reaktionszeit eines Menschen liegt bei 200-300ms. Und Du willst mir sagen dass Du 15ms merkst? Dann musst Du ein Pro-Gamer im FPS oder Beat'em Up Bereich sein, die merken sowas.

Du sprichst da übrigens von 16,66ms pro Frame bei 60 FPS vs 33,33ms pro Frame bei 30 FPS, das ist nur ein Teil des Input Lags.
Ja , aber genau den Teil verändere ich ja mit einer erhöhten Framerate oder mit Reflex on /off.
Also ernshaft willst du mir etwa sagen das du zwischen 30 und 60 Fps keinen Unterschied merkst ?
Na dann kannst du natürlich gerne FG nutzen .
Die Latzenz Monitore Maus sage ich jetzt mal ist immer eine Kette, von verschieden Faktoren Renderlatenz plus Darstellung plus Reaktion Zeit plus usw.

Ich kann nur sagen zwischen 30 FPs und 60 FPS sind für mich Welten.
zwischen 60 und 120 merke ich auch noch was. Ab ca 130 FPS ist jedes weitere FPS auch große Sprünge kaum noch merkbar.
 
Zurück