News Geforce RTX 5000 ("Blackwell"): Gerüchte sprechen von einer Chiplet-GPU und weitreichenden Änderungen

Die Latenzerhöhung durch FG wird fast komplett durch Reflex ausgeglichen.
Wo schreibe ich etwas anderes?

Ich schreibe, dass es keine Verbesserung gibt!

Sagen wir Du spielst ein Spiel mit nativ 60 FPS. Wenn Du jetzt FG einschaltest, dann hast Du plötzlich 100+ FPS bei fast gleicher Latenz.
Auch das schreibe ich so!

Aber was ist eben mit einem Spiel mit weniger als 30 fps? Hier habe ich dann plötzlich 50fps und gleichbleibend schlechte Latenzen!

Korrekt. Wurde auch nie so beworben wenn ich mich Recht erinnere. Ich meine sogar dass Nvidia gesagt hat dass sie FG ab 50-60 FPS aufwärts empfehlen.
Folgend mal eine Werbegrafik von NV, im Kleingedruckten steht dann was von FG. Wie gesagt, die Kritik sehe ich ebenso bei AMD, Intel und eigentlich jedem anderen Konzern, hier geht es aber nunmal gerade um NV. Hier will NV aber bewusst 5,2 fache Performance dran schreiben um dem Kunden ein "WOW" zu entlocken, welches so aber eigentlich nicht gerechtfertigt ist. (wie schon geschrieben, ich verstehe es auch nicht, weil die Karten, gerade 4080/4090 sind so unfassbar gut im Vergleich zur Konkurenz, drei Charts, absolute Leistung, Effizienz und RT Leistung hätten doch mehr als ausgereicht um die Dominanz der beiden am Markt zu zeigen)
1695126981081.png


Ist ja nur Software, man müsste also immer mit den Auslieferungs-Treibern testen?
Ich sehe schon einen immensen Unterschied zwischen Treibern, die ja im normalen Fall (es soll ja immer mal Cheattreiber gegeben haben) die Auslastung der GPU verbessern sollten und eben Einstellungen die die Auflösung beeinflussen oder aber eben "Doppelbilder schätzen".

Das Fähnchen dreht sich....
Wieso? Ich schreibe immer und überall, dass NV aktuell mit der 4080/4090 vorne liegt und ich diese beiden Karten klar empfehlen würde. Genauso schreibe ich auch, dass mir persönlich der Abstand und die Preisgestaltung mißfallen, was ich aber nicht als Machenschaft oder so abtue, sondern es als normale Folge des Marktes sehe, dennoch muss man damit doch nicht glücklich sein, oder? Die 4070 (Ti) ist mir persönlich nicht gefällig, zu teuer, zu wenig VRAM im Vergleich zur AMD Konkurenz. Dafür natürlich besseres Featureset, was zum Beispiel 4080 gegen XTX den deutlichen Ausschlag zur 4080 gibt. Aber bei der 4070 ist mir die RT Leistung schon zu gering um noch in den Ring geworfen zu werden.
Aber das ist eben alles persönliche Meinung.

und dreht sich.... Da wird natürlich sofort relativiert wenn man mit Fakten ankommt.
Hä?
Verstehe deinen Ansatz jetzt gerade nicht, bzw. bezog ich mich da auf AMD (falls du Sorge hast ich komme aus dem roten Lager), weil der Voruser zuerst den 7800X3D genannt hatte. Das gleiche gilt aktuell bei Grafikkarten und CPUs genauso. Eine 4090 würde ich preislich gar nicht angreifen, schweineteuer aber das waren die Titans auch und eben dies ist eine 4090 in meinen Augen. Auch hier, wird eben ein Regal höher gegriffen, aber der Name genutzt um in den Mainstream zu kommen. Intel macht das gleiche, ein 13900K wäre vor einiger Zeit noch eine Extreme CPU gewesen, bzw. hätte in der Form nie das Licht der Welt gesehen.

Mein Ansatz war, ja es wird alles teurer, aber gerade aktuell ist es in der Hardwarelandschaft auch so, dass vormals über dem Mainstream gelagerte Produkte in den Mainstream gelangen, bzw. Halo Produkte als "normales LineUp Mitglied" behandelt werden. Sei es AMD, NV, Intel oder sonstwer. Insofern muss man die teilweise sprunghaften Anstiege bei allen Herstellern etwas relativieren.
Aber es ist ein nicht zu ignorierender Mehrwert. Hast du Framegeneration in letzter zeit mal ausprobiert, also objektiv?
Naja, es ist ein Mehrwert, können wir uns vorerst darauf einigen?

ja aktuell habe ich im Schlepptop ne 4070 und mit Starfield habe ich den DLSS Mod inkl. FG ausprobiert, wie ich schon beschrieb ändert das leider nur was an den Durchschnitts FPS (keine Sorge, keine Messung nur Gefühl und OSD), nicht aber an den MinFPS und den damit verbundenen Stutterings. Ich muss Starfield erst in den spielbaren Bereich bringen (mit DLSS-Q und entsprechend reduzierten Details), dann bringt FG etwas und macht es eben alles ein bisßchen flüssiger. Gebe aber allerdings auch zu, dass ich in Starfield gar nicht so empfindlich auf wenig FPS reagiere, 40-45 fps ergeben für mich aktuell schon ein spielbares Gefühl ab. Insofern habe ich dann 65-70 fps mit FG und merke schon ein etwas geschmeidigeres Bild.

Ohne DLSS und FG sagen wir 29-37Fps. Dann mit DLSS Q 39-51 Fps und mit DLSS Q + FG sind es 57 - 74.
Wie gesagt, ich will den Mehrwert nicht wegdiskutieren. Siehe obiges Beispiel meinerseits, Mehrwert ja, aber eben keine echte Performance! Ist ja das einzige was ich die ganze Zeit sagen will, das Spiel muss spielbar sein, reicht die GPU nicht dafür aus, wird FG es nicht besser machen. Daher sind FG FPS für mich eben keine echten FPS. Nach aktuellem Stand (wie gesagt, meine Übersicht ist subjektiv und am Ende nur gering (Starfield und Diablo IV; wo ich aber soviele FPS habe, dass ich mit und ohne FG schon schwer konzentriert auf den Bildschirm starren muss um einen Unterschied wahrzunehmen) ist es ein Zubrot.

Doch. PCGH hat mehrfach Bildvergleiche angestellt und dabei zuletzt auch wieder festgestellt das DLSS Q nicht selten besser aussieht, als nativ. Dabei dann auch noch mehr Fps... Also verbesser es die Performance!
Wenn (was bei FG so aber eben nicht ist) die Qualität der Bildausgabe verbessert wird, was eben oftmals subjektiv ist und nur sehr schwer nachzuvollziehen ist, dann komme ich dem Begriff "Performance" schon sehr sehr nahe. Problem ist aber eben, dass es keine objektive Vergleichsbasis gibt.

Uff, ist mir Latte.
Nö, einen 7800X3D würde ich auch schon in den Bereich der Exoten packen, bis 7700X ist in meinen Augen absoluter Mainstream, den würde ich bspw. meinem 2600k damals in etwa gleich einordnen. 399 USD hat der zum Release gekostet, ein 2600k lag bei 317 USD, sind also "nur" 26% mehr. Finde ich nicht so erschreckend, wie man beim Blick auf den 600-700 EUR teuren aktuellen Flagship. Im übrigen gab es ja auch früher schon absurde Preise, man denke mal zurück an die ersten Pentium EE oder BEs der AMD AThlon Reihe.

Aber der 7800X3d ist natürlich Mainstream.
Sehe ich auch eher als Exot und nicht Mainstream, denke hier ist der 13600k und 7700X so am oberen Ende des Mainstreams, ein 7700X mit gestapeltem 3D Cache halte ich auch eher für out of Mainstreanm.

Hier nochmal ein Link, der neutraler aufzeigt, welche Spiele mit RT sind und das auch in 2023.
Wie erklärst du dann, dass doch sehr viele Triple A Titel das nicht so wichtig nehmen? Ich erkläre es damit, dass bisher nur die HighEnd Riege abseits des Mainstream wirklich genug Leistung bieten. Daher halte ich RT auch immer noch für eine Randerscheinung, bin mir aber absolut sicher, dass es sich durchsetzen wird und immer wichtiger werden wird. Ähnlich wie bspw. PhysX seinerzeit.
 
Du hast bestimmt Recht! RT ist ein Witz der sich nicht durchsetzt.

Hier nochmal ein Link, der neutraler aufzeigt, welche Spiele mit RT sind und das auch in 2023.

Du sagst RT wird immer wichtiger und ich sage dir das fast alle großen Releases 2023 RT nicht mal eingebaut haben. Keine Ahnung was an der schlichten Wahrheit nicht neutral sein soll..
Sorry aber das ist Unsinn.
Star Wars nutzt btw sehr wohl RT...

Zu den größten Releases zählt definitiv Hogwarts Legacy (nutzt RT), Star Wars Jedi Survivor (nutzt RT) und Resident Evil 4 (nutzt RT).
RT hat sich schon lange durchgesetzt und ist praktisch in fast jedem neuen Spiel dabei, Spiele wie Starfield sind dahingehend eher Ausnahmen.
Stimmt, Jedi: Survivor "nutzt" doch RT. Allerdings so erbärmlich, dass man es nicht erwähnen muss. So wie auch der RT-Patch von Elden Ring. Erbärmlich hingerotzter Alibi-RT-Müll, wie es leider sehr oft vorkommt.

"Praktisch in jedem neuen Spiel" dabei.. Was ist mit BG3? Mit TLOU? Diablo IV? Remnant 2? Cities Skylines 2? Assassin's Creed Mirage? Alles Ausnahmen, wie Starfield?
 
Stimmt, Jedi: Survivor "nutzt" doch RT. Allerdings so erbärmlich, dass man es nicht erwähnen muss. So wie auch der RT-Patch von Elden Ring. Erbärmlich hingerotzter Alibi-RT-Müll, wie es leider sehr oft vorkommt.
RT von Star Wars ist definitiv kein Alibi RT, ich mein klar es gibt Spiele deren RT Lösungen aufwändiger sind, aber auch in Star Wars sieht es sehr gut aus, hier ein Screenshot von mir:
jedisurvivor-2023-08-06-05-00-51-783.jpg

"Praktisch in jedem neuen Spiel" dabei.. Was ist mit BG3? Mit TLOU? Diablo IV? Remnant 2? Cities Skylines 2? Assassin's Creed Mirage? Alles Ausnahmen, wie Starfield?
Spiele wie BG3, Diablo IV oder Cities Skyline legen nicht gerade Wert darauf grafische Speerspitze zu sein.
Und ob Assassins Creed Mirage RT supporten wird weiß man ja noch nicht.
Das Spiel ist aber optisch ohnehin 5 Jahre hinten.

Die Grafikhighlights haben praktisch alle Raytracing, da ist Starfield eine Ausnahme bzw vermutlich hätte man das Spiel lange verschieben müssen um Raytracing in die Creation Engine zu implementieren.
 
Du sagst RT wird immer wichtiger und ich sage dir das fast alle großen Releases 2023 RT nicht mal eingebaut haben. Keine Ahnung was an der schlichten Wahrheit nicht neutral sein soll..
Er hat doch Beispiele von großen Releases gegeben die MIT RT dieses Jahr erschienen sind? Fast alle sind plötzlich nur die von dir ausgesuchten oder wie?

Stimmt, Jedi: Survivor "nutzt" doch RT. Allerdings so erbärmlich, dass man es nicht erwähnen muss. So wie auch der RT-Patch von Elden Ring. Erbärmlich hingerotzter Alibi-RT-Müll, wie es leider sehr oft vorkommt.
Aha, jetzt definierst Du also wann eine RT-Integration zählt und wann nicht. Lustig. :lol:

"Praktisch in jedem neuen Spiel" dabei.. Was ist mit BG3? Mit TLOU? Diablo IV? Remnant 2? Cities Skylines 2? Assassin's Creed Mirage? Alles Ausnahmen, wie Starfield?
Baldurs Gate 3 - Wie viele Jahre im Early Access? Läuft auf der Divinity 4.0 Engine, keine Ahnung ob die überhaupt RT kann.
AC Mirage - Finde kein offizielles Statement dazu, nur dass es bisher nicht bekannt ist ob mit oder ohne RT.
TLOU Remake - Ernsthaft? Ist nicht mal von diesem Jahr...
Diablo 4 - Stimmt.

Deine Beispiele sind irgendwie alles Indy-Entwickler, Überraschungs Hits oder "alt". Was ist mit seinen Beispielen? Sind die nicht valide?
 
Du verstehst nicht, dass ich einfach nur daraus hinaus wollte, dass eine Verdopplung der Leistung nicht zwangsläufig eine Verdopplung des Preises nach sich zieht, selbst bei Nvidia nicht.

Kostete eine 4090 70% mehr als eine 3090? Nein.

3090 - 1649,-€ UVP zu Release
4090 - 1949,-€ UVP zu Release

Edit: Und die Leaks zur Leistungssteigerung einer neuen Gen waren SCHON IMMER maßlos überzogen, selten wurde mal weniger als 200% in Aussicht gestellt. Am Ende wurde das, wenn überhaupt, nur in ganz speziellen Szenarien erreicht.

Mit Blackwell kann ich mir eine 250% Steigerung nur in Raytracing / Pathtracing Workloads vorstellen.

Preis 3090 nach 4090 -> ~Faktor 1,18
Wenns etwa gleich bleibt macht das schon 2340€ + 2 Jahre Preissteigrungen und Inflation mach summasumarum 2500€
Ich denke, das ist durchaus realistisch bis in 2 Jahren. ;)
 
Chiplets lächerlich. Dann ist 2025 durchaus realistisch, weil da ziemlich viel Knowhow bezüglich des Packaging von AMD oder Intel zugekauft werden muss, wenn man nicht bei fast 0 starten will. Mit dem Flaggschiff Grace-Hopper schafft man ja gerade mal eine Kaby Lake G ähnliche Lösung beim Packaging. Das ist ein alter Hut und gibt es seit dem Pentium Pro(Cache neben dem Chip auf der Platine). Wenn man sich dagegen Intels Ponte Vecchio oder die Entwicklung Fiji/Vega/RDNA/X3D ansieht liegen da Welten dazwischen.
Extrem integrierte Lösungen z.B. für HBM-Packaging kommen ja auch nicht aus dem eigenen Hause. Da schaut selbst Intel teilweise bei AMD ab. Fiji(R9 Fury) war schon ein absoluter Meilenstein technisch gesehen und RDNA/CDNA ist die Fortführung der Forschung in dem Bereich. Größere Chips in kleineren Belichtungsgrößen kann jeder(sic.), aber Interposer-Packaging zu entwickeln und zur Marktreife zu bringen(Massenproduktion) ist eine andere Hausnummer. Spannend wird, was Intel mit dem Glas-Interposer vor hat: Offenbar hat man mit Ponte Vecchio(und sicherlich auch Amd bei RDNA) ein Problem mit Scherkräften wegen thermischer Expansion und arbeitet da schon an der nächsten Generation.

Mit dem neuen HPWR(v2.0)Stromanschluss bezweifle ich allerdings nicht, das NVidia egal was kommen mag auch in der nächsten Generation sicher die Gamingkrone innehaben wird mit dem Spitzenmodell, selbst wenn das Verhältnis Leistung/Shader ähnlich mager sein sollte wie bei der 4090. Viel hilft tatsächlich viel, wenn man bekannte Techniken zu Tode optimiert und gute Ingenieure am Werk sind(vgl. dazu Intel 14nm++...). Zumal Amd ja angekündigt hat, keinen "Big Chip" bringen zu wollen, sondern erstmal RDNA3 "done right"(quasi wie die HD4xxx zur HD3xxx). Ob man per MCM dann eine Brechstange zusammenklebt ist natürlich offen, aber im Fokus liegt das offenbar nicht. Fokus wird wohl das Powermanagement der einzelnen Chiplets sein. Ich erwarte da ziemlich gute Effizienz bei Mittelklasseperformace(jetztiges Highend) für die nächste AMD-Generation. Den Preisen der Topmodelle tut das natürlich nicht gut, aber man braucht ja auch nicht jedes Jahr eine neue Karte.

Zu den restlichen NVidia Daten hier: 32 GB halte ich für realistisch für das Topmodell. Diesmal will man sich da vermutlich nicht vorführen lassen und stattet die ganze Linie mit x16 Anbindung und 10Gb+ aus.
Meine Prognose:
Falls 2024: Mehr Speicher/16x Lanes/bezahlbare Mittelklasse/kein MCM
2025: MCM unwahrscheinlich aber nicht ausgeschlossen/sehr teure 5090er(Chipgröße abhängig von AMDs Angebot)/Rest wie 2024
 
Er hat doch Beispiele von großen Releases gegeben die MIT RT dieses Jahr erschienen sind? Fast alle sind plötzlich nur die von dir ausgesuchten oder wie?
Ist doch egal ob es jetzt 2 von 10 AAA-Titeln dieses Jahr waren oder 4 von 10. Das ändert nichts an seiner Behauptung, in fast allen neuen Spielen sei RT implementiert. Das ist und bleibt nachweislich falsch.
Aha, jetzt definierst Du also wann eine RT-Integration zählt und wann nicht. Lustig. :lol:
Sagen wir einfach es existiert, aber ist vernachlässigbar in dem Spiel. So wie in 95% aller RT-Games. Scheinbar war es den Entwicklern wichtiger es lieblos reinzuklatschen statt das Spiel überhaupt grundlegend zu optimieren.
Baldurs Gate 3 - Wie viele Jahre im Early Access? Läuft auf der Divinity 4.0 Engine, keine Ahnung ob die überhaupt RT kann.
Achso, andere Spiele sind nicht zig Jahre in der Entwicklung? Die entstehen einfach magisch über Nacht? :ugly:

RT gibt es seit 5 Jahren. Wäre es irgendwie wichtig (oder wie laut euch angeblich heutzutage "normal") gewesen, hätte man es bei BG3 eingebaut für ein Release 2023. Es ist aber nicht wichtig, oder normal. Es ist nach wie vor Nische. Und BG3 war kein "Überraschungshit".
AC Mirage - Finde kein offizielles Statement dazu, nur dass es bisher nicht bekannt ist ob mit oder ohne RT.
Wäre RT am Start, hätten sie sicher schon damit geworben, um mehr Vorbesteller abzugrasen. Wozu sollte man das sonst einbauen? Assassins Creed ist und war aber immer ein "Grafikkracher", auch Valhalla, was dann auch bedeutet, dass Grafikkracher kein RT brauchen.
TLOU Remake - Ernsthaft? Ist nicht mal von diesem Jahr...
Doch ist es. Oder meinst du das Original? Aber das kannst du ja nicht meinen, weil dann Resident Evil 4 auch nicht zählen würde.

Ja, TLOU ist alt, aber Part 1 ist ein Zitat PCGH: "prächtiges, phasenweise fast fotorealistisches Spiel, das man gesehen haben muss." Wow, ein echter Grafikkracher, und das ganz ohne Raytracing.. :ugly:
 
Ist doch egal ob es jetzt 2 von 10 AAA-Titeln dieses Jahr waren oder 4 von 10. Das ändert nichts an seiner Behauptung, in fast allen neuen Spielen sei RT implementiert. Das ist und bleibt nachweislich falsch.
Es ändert etwas an DEINER Behauptung...

Du sagst RT wird immer wichtiger und ich sage dir das fast alle großen Releases 2023 RT nicht mal eingebaut haben. Keine Ahnung was an der schlichten Wahrheit nicht neutral sein soll..

Das ist genau so falsch wie seine Behauptung, oder etwa nicht? :schief:

Sagen wir einfach es existiert, aber ist vernachlässigbar in dem Spiel. So wie in 95% aller RT-Games. Scheinbar war es den Entwicklern wichtiger es lieblos reinzuklatschen statt das Spiel überhaupt grundlegend zu optimieren.
RT bietet in vielen Spielen einen optischen Mehrwert. Allein schon die Reflection und Shadow Tricks loszuwerden ist ein Mehrwert an optischer Qualität.

Achso, andere Spiele sind nicht zig Jahre in der Entwicklung? Die entstehen einfach magisch über Nacht? :ugly:
Ein 6 Jahre (davon 3 Early Access) Entwicklungszeit Game von einem eher kleinen Studio mit Inhouse Engine ist nicht vergleichbar mit den Grafikperlen von großen Studios und viel mehr Manpower um die eingesetzte Engine (sei es Inhouse oder eingekauft) auszuschöpfen.

RT gibt es seit 5 Jahren. Wäre es irgendwie wichtig (oder wie laut euch angeblich heutzutage "normal") gewesen, hätte man es bei BG3 eingebaut für ein Release 2023. Es ist aber nicht wichtig, oder normal. Es ist nach wie vor Nische. Und BG3 war kein "Überraschungshit".
Nein, hätte man nicht, weil man dafür die GESAMTE ENGINE erst mal fit machen muss. Das wäre eher der bankrott für Larian geworden. Nicht wichtig und Nische? Klar, deswegen unterstützt jede größere Engine Raytracing.


Wäre RT am Start, hätten sie sicher schon damit geworben, um mehr Vorbesteller abzugrasen. Wozu sollte man das sonst einbauen? Assassins Creed ist und war aber immer ein "Grafikkracher", auch Valhalla, was dann auch bedeutet, dass Grafikkracher kein RT brauchen.
Hätte wäre könnte, Du weisst es nicht, wir wissen es nicht, also streich es aus Deiner "Non-RT" Liste.

Doch ist es. Oder meinst du das Original? Aber das kannst du ja nicht meinen, weil dann Resident Evil 4 auch nicht zählen würde.

Kam letztes Jahr für die PS5 und im März 2023 für den PC. Und jetzt behauptest Du bestimmt dass man in der Zeit ja für den PC Raytracing hätte einbauen können. Ich wiederhole mich, und das nervt, aber wenn die Engine das nicht hergibt, dann baut man die nicht mal schnell um...


Ja, TLOU ist alt, aber Part 1 ist ein Zitat PCGH: "prächtiges, phasenweise fast fotorealistisches Spiel, das man gesehen haben muss." Wow, ein echter Grafikkracher, und das ganz ohne Raytracing.. :ugly:
Und Cyberpunk2077 ist das Crysis unserer Zeit. Mit Raytracing.
 
...
Mal ehrlich Leute, nach der R9 290X hat sich AMD bei der Preis / Leistung, im High End Bereich nicht mehr mit Ruhm bekleckert. Aber Nvidia erfährt ständig und überall eine Hetze, bezüglich Preise usw.
...
Ich fand die 6800XT eigtl. nicht schlecht, da gehen die Meinungen aber sicher auseinander, was Highend ist.
_____

Topic: Das einzige, was mich am Ende wirklich interessiert, ist der Preis. MCM soll günstiger zu produzieren sein? Na mal schauen .. :devil::love:
 
Das MSRP der RTX 3090 betrug 1499 bzw der RTX 4090 1599, also nur eine kleine Preiserhöhung.
Alles was bei uns teurer ist war dem schwachen Eurokurs geschuldet.
 
Ich fand die 6800XT eigtl. nicht schlecht, da gehen die Meinungen aber sicher auseinander, was Highend ist.
_____

Topic: Das einzige, was mich am Ende wirklich interessiert, ist der Preis. MCM soll günstiger zu produzieren sein? Na mal schauen .. :devil::love:
Na, die 6800XT war weit genug oben im Sortiment. Aber lediglich im Abverkauf hat die ein gutes P/L Verhältnis.

Das kann man auch mal erwähnen.

Wenigstens gibt es bei AMD einen Abverkauf.

Bei Nvidia gibt es erst einen Abverkauf, wenn die nächste Gen schon ordentlich am altern ist.

Zu diesem Zeitpunkt (Abverkauf, weil der Nachfolger schon auf dem Markt ist), bietet AMD wirklich mehr fürs Geld.

Aber bei den aktuellen GPUs. Also als auch als RX6000 frisch war, war das P/L Verhältnis eigentlich nur noch Grütze, seit etwa 2013. Natürlich mit Höhen und Tiefen.
Du sagst RT wird immer wichtiger und ich sage dir das fast alle großen Releases 2023 RT nicht mal eingebaut haben. Keine Ahnung was an der schlichten Wahrheit nicht neutral sein soll..
Weil deine schlichte Wahrheit schon falsch ist. Schau dir doch das ganze Jahr 2023 an.

Aber ja, meine zuvor getätigte Aussage bleibt im Raum. Du hast bestimmt Recht ;)
Stimmt, Jedi: Survivor "nutzt" doch RT. Allerdings so erbärmlich, dass man es nicht erwähnen muss.
Also bewertest du für andere, ok.
So wie auch der RT-Patch von Elden Ring.

Und wieder.
Erbärmlich hingerotzter Alibi-RT-Müll, wie es leider sehr oft vorkommt.

"Praktisch in jedem neuen Spiel" dabei.. Was ist mit BG3? Mit TLOU? Diablo IV? Remnant 2? Cities Skylines 2? Assassin's Creed Mirage? Alles Ausnahmen, wie Starfield?
Schau nochmal die Release Liste an.

Und ja, 2023 ist schwächer was AAA Titel angeht. Aber warte mal ab... UE5 hat gerade erst zwei neue RT Titel zum Vorschein gebracht und es kommen noch welche.

Das noch nicht jedes Spiel RT beinhaltet war doch klar.

Erst sagen es gibt keine und dann ein paar, von den mehreren die es gibt, dann pauschal durch die eigene Wertung ablehnen ist schon eine Klasse für sich.

Ich werde dir keine Aufzählen, lies dir einfach RT Release Listen durch, dann findest du schon schnell heraus das deine Aussage so nicht richtig ist.
Sorry aber das ist Unsinn.
Star Wars nutzt btw sehr wohl RT...

Zu den größten Releases zählt definitiv Hogwarts Legacy (nutzt RT), Star Wars Jedi Survivor (nutzt RT) und Resident Evil 4 (nutzt RT).
RT hat sich schon lange durchgesetzt und ist praktisch in fast jedem neuen Spiel dabei, Spiele wie Starfield sind dahingehend eher Ausnahmen.
Sind Ausnahmen und auch rückständige Ausnahmen. Nur als Ergänzung.

Vor allem darf man nicht vergessen, das die RT Release sprunghaft zunehmen werden, umso weiter die UE5 ist.
 
Zuletzt bearbeitet:
Anhang anzeigen 1437898


Ich sehe hier erstmal nur einen Balken. Einen Rückschluss auf die Spielbarkeit gibt es nicht. Aber ja, jedem muss hier klar sein, das es nur um eine rundere Bildausgabe geht.


Hier wird eine 4060ti mit Path Tracing getestet.

DLSS Q ohne FG/Reflex auf DLSS Q + FG + Reflex verbessert sich die durchschnittliche Latenz von rund 100-110ms auf rund 70ms. Nativ liegt übrigens um 180ms.
Das ist eine eindeutige Verbesserung der Spielbarkeit.
Das hatte ich selbst nicht erwartet! Das ist viel besser als ich dachte.
Die Frametimes gehen von etwa 45ms, auf etwa 25ms bei DLSS Q und auf etwa 15ms bei DLSS Q + FG +RF zurück.

Das ist in Cyberpunk.

In Hogwarts Legacy ist es etwas weniger Eindrucksvoll, aber immer noch ein Zugewinn.

Nativ etwa 75ms Latenz, DLSS etwa 50-60ms und mit FG+RF etwa 50-55.

Die Frametimes
Nativ knapp unter 20ms, DLSS etwa 12ms und FG+RF etwa 9-10ms.

Auch hier eindeutig ein Zugewinn, wenn auch weniger eindrucksvoll.


Wieso? Ich schreibe immer und überall, dass NV aktuell mit der 4080/4090 vorne liegt und ich diese beiden Karten klar empfehlen würde. Genauso schreibe ich auch, dass mir persönlich der Abstand und die Preisgestaltung mißfallen, was ich aber nicht als Machenschaft oder so abtue, sondern es als normale Folge des Marktes sehe, dennoch muss man damit doch nicht glücklich sein, oder? Die 4070 (Ti) ist mir persönlich nicht gefällig, zu teuer, zu wenig VRAM im Vergleich zur AMD Konkurenz. Dafür natürlich besseres Featureset, was zum Beispiel 4080 gegen XTX den deutlichen Ausschlag zur 4080 gibt. Aber bei der 4070 ist mir die RT Leistung schon zu gering um noch in den Ring geworfen zu werden.
Aber das ist eben alles persönliche Meinung.
Jetzt erzähle ich mal was.
Ich wollte eigentlich eine 7900XTX kaufen. Habe dann aber so lange hin und her verglichen das ich lieber eine 4070ti genommen habe.

Weil die RT Leistung, in anspruchsvollen Titeln schon höher ist, als bei der 7900XTX und das auch in der UE5.
Es bleibt ein Abwägen was jeder einzelne von uns, wie wichtig einschätzt.

Dazu dann noch ein paar Vergleiche gesucht die Neutral sind und alle verfügbaren Features nutzen. Also auch DLSS, wenn vorhanden auch inkl. FG und RF.
Die Karten werden neu gemischt, wenn AMDs FMF da ist und breiter verfügbar wird und die Qualität auf einem vergleichbaren Niveau ist. Und ja, ich bin dann gerne bereit auch mir eine 7900XTX zu kaufen, wenn es für mich sinnvoll erscheint. (Überlege auch jetzt zwischendurch, aber bisher für mich nicht sinnvoll)

In so eine Entscheidung flossen natürlich auch die VR Performance ein.

Ja, eigentlich sollte die 7900XTX die klar überlegene Karte sein. Ist die aber 1. nach meinen Kriterien nicht, 2. vor allem mit allen verfügbaren Features genutzt erst recht nicht.

Da habe ich dann lieber nochmal 100-150€ weniger ausgegeben, wohl wissend das ich dadurch Nachteile in Spielen mit überholter Technik habe. Auch das mit bei miserablen technischen Umsetzungen auch mal der Speicher knapp werden kann. Zum Glück brauche ich nur für 1440p aktuell. Aber ich sehe auch keinen Unterschied, ob ich jetzt Texturen reduzieren muss, oder ob ich RT abschalten muss.
Verstehe deinen Ansatz jetzt gerade nicht, bzw. bezog ich mich da auf AMD (falls du Sorge hast ich komme aus dem roten Lager), weil der Voruser zuerst den 7800X3D genannt hatte. Das gleiche gilt aktuell bei Grafikkarten und CPUs genauso. Eine 4090 würde ich preislich gar nicht angreifen, schweineteuer aber das waren die Titans auch und eben dies ist eine 4090 in meinen Augen. Auch hier, wird eben ein Regal höher gegriffen, aber der Name genutzt um in den Mainstream zu kommen. Intel macht das gleiche, ein 13900K wäre vor einiger Zeit noch eine Extreme CPU gewesen, bzw. hätte in der Form nie das Licht der Welt gesehen.

Mein Ansatz war, ja es wird alles teurer, aber gerade aktuell ist es in der Hardwarelandschaft auch so, dass vormals über dem Mainstream gelagerte Produkte in den Mainstream gelangen, bzw. Halo Produkte als "normales LineUp Mitglied" behandelt werden. Sei es AMD, NV, Intel oder sonstwer. Insofern muss man die teilweise sprunghaften Anstiege bei allen Herstellern etwas relativieren.
Wo will man die Linie ziehen, was eigentlich noch Mainstream wäre und was nicht.

Ein 7800X3d mit seinen 8 Kernen ist für mich in 2023 ganz sicher Mainstreamprodukt, wenn auch dafür quasi das schnellste "out of the box" Produkt. Bleibt aber Mainstream.

Und bei Intel kann ich kein nicht Mainstream akzeptieren, bei den verfügbaren Lanes ;) was auch schon bei AMD zu knapp für alles oberhalb des Mainstreams wäre.
Naja, es ist ein Mehrwert, können wir uns vorerst darauf einigen?
Bin ich ja oben schon drauf eingegangen.
Wie gesagt, ich will den Mehrwert nicht wegdiskutieren. Siehe obiges Beispiel meinerseits, Mehrwert ja, aber eben keine echte Performance! Ist ja das einzige was ich die ganze Zeit sagen will, das Spiel muss spielbar sein, reicht die GPU nicht dafür aus, wird FG es nicht besser machen. Daher sind FG FPS für mich eben keine echten FPS. Nach aktuellem Stand (wie gesagt, meine Übersicht ist subjektiv und am Ende nur gering (Starfield und Diablo IV; wo ich aber soviele FPS habe, dass ich mit und ohne FG schon schwer konzentriert auf den Bildschirm starren muss um einen Unterschied wahrzunehmen) ist es ein Zubrot.
Mein Link zeigt, das es je nach Umsetzung, oder Engine durchaus fast wie echte Frames funktionieren kann. Auch hier einfach etwas Zeit geben.

Weiterhin sehe ich bei der Latenz aber auch einfach kein Problem, solange die mir als Spieler nicht störend auffällt.
Wenn (was bei FG so aber eben nicht ist)
Hm, bin mir da bei Cyberpunk mit DLSS 3.5 und FG nicht so sicher ;). Ich kann aus Selbsttest heraus sagen, das ich bei CP77 keine optischen Einbußen bemerke.
die Qualität der Bildausgabe verbessert wird, was eben oftmals subjektiv ist und nur sehr schwer nachzuvollziehen ist, dann komme ich dem Begriff "Performance" schon sehr sehr nahe. Problem ist aber eben, dass es keine objektive Vergleichsbasis gibt.
PCGH hat jedes mal einiges an Bildmaterial online gehabt und war damit mit objektiv für jeden nachvollziehbar.

Und ja, ich kam zum selben Schluss beim betrachten der Bilder. Nicht alles am Bild wird besser, aber in Summe des Bildes überwogen die Verbesserungen.
Nö, einen 7800X3D würde ich auch schon in den Bereich der Exoten packen, bis 7700X ist in meinen Augen absoluter Mainstream,
Beides 8 Kerne.

HEDT war damals alles andere als dafür bekannt eine höhere Spieleleistung zu bieten. Es gibt also keinen Grund warum ein 7800X3d anders eingestuft werden sollte, als der 7700X. Eher sogar im Gegenteil, dadurch das Gaming die Kernkompetenz der X3d ist.
den würde ich bspw. meinem 2600k damals in etwa gleich einordnen. 399 USD hat der zum Release gekostet, ein 2600k lag bei 317 USD, sind also "nur" 26% mehr. Finde ich nicht so erschreckend, wie man beim Blick auf den 600-700 EUR teuren aktuellen Flagship. Im übrigen gab es ja auch früher schon absurde Preise, man denke mal zurück an die ersten Pentium EE oder BEs der AMD AThlon Reihe.
Ok, die Preise sind weniger stark gestiegen. Mir fehlt gerade eher eine Übersicht der Chipflächen.
Sehe ich auch eher als Exot und nicht Mainstream, denke hier ist der 13600k und 7700X so am oberen Ende des Mainstreams, ein 7700X mit gestapeltem 3D Cache halte ich auch eher für out of Mainstreanm.

Sehe ich nicht so, aus zuvor genannten Gründen.
Wie erklärst du dann, dass doch sehr viele Triple A Titel das nicht so wichtig nehmen? Ich erkläre es damit, dass bisher nur die HighEnd Riege abseits des Mainstream wirklich genug Leistung bieten. Daher halte ich RT auch immer noch für eine Randerscheinung, bin mir aber absolut sicher, dass es sich durchsetzen wird und immer wichtiger werden wird. Ähnlich wie bspw. PhysX seinerzeit.

Ich sehe eher eine Verbindung zu Konsolenumsetzungen und oder AMD Nähe. Beides ist dann selbsterklärend warum RT nicht unbedingt die höchste Prio bekommt.

Die Liste zeigt doch gut, das es einige Titel auch mit RT gibt. Das legitimiert doch schon das jemand sagt, es ist zurecht für manche ein Kaufargument.

Außerdem wie ich auch in einem anderen Post schon sagte, die Titel mit RT werden sprunghaft mehr werden, mit breiterer Verbreitung der UE5 zum Beispiel. Was das angeht haben wir aktuell einen Punkt erreicht, an dem es anscheinend gerade losgeht.

Ich meine allein in den letzten Wochen gab es mindestens zwei UE 5 Titel mit RT.


Mir geht es auch nicht darum das RT jetzt, heute in jedem Titel ist. Aber das es keine Bedeutung hat ist stumpf eine Verleumdung der Realität.
 
DLSS Q ohne FG/Reflex auf DLSS Q + FG + Reflex verbessert sich die durchschnittliche Latenz von rund 100-110ms auf rund 70ms. Nativ liegt übrigens um 180ms.
Das ist eine eindeutige Verbesserung der Spielbarkeit.
Moin,

vorab, wir diskutieren jetzt so lange, da kann es schon mal penetrant rüberkommen, ist nicht meine Absicht. Ich will hier ja am Ende auch diskutieren um zu lernen, hoffe das ist auf der Gegenseite genauso.

Bzgl. der Frametimes bin ich nun völlig verwirrt! Das rein technische hinter FG schließt einen Gewinn der Latenz ja nunmal konsequent aus und bedingt immer einen Latenzanstieg (wie hoch, ist eine andere Frage). Auch der Satz der Redaktion macht mit Blick auf die Graphen keinen Sinn:

Da Reflex die Latenz nur im Grafiklimit reduzieren kann, entsteht in Kombination mit der Frame Generation an dieser Stelle ein deutlicher Latenz-Anstieg.

Macht aber im zweiten Blick dann wieder Sinn, dadurch das Reflex eben mit DLSS Q nicht aktiviert ist, kommt man so nicht zum entsprechenden Zugewinn. Spannend wäre hier definitiv Reflex on mit DLSS Q ohne FG, die Latenz müsste rein technisch betrachtet noch unterhalb von FG & Reflex liegen.
Aber man sieht in meinen Augen auch, wie schlecht CP2077 wirklich programmiert ist, denn die Eingabelatenz ist einfach wahnsinnig hoch und korreliert (in Relation zu anderen Spielen) gar nicht erst mit der FPS Zahl. Was meine ich?
Hogwart bspw. hat nativ (nur wegen der Korrelation der Frametimes zur Latenz) eine Frametime von 20ms (ca. Durchschnitt), darauf ergibt sich eine Latenz von ca. 80ms. CP2077 hat eine Frametime von 40ms zur Latenz von 180ms? Mit der 4070 eine Frametime von 30ms zur Latenz 140 ms? Da ist eben auch das Spiel einfach nicht gut! Reflex ist (das behaupte ich ja schon lange) gerade bei CP2077 eine Wunderdroge!

Also JEIN, dein Punkt ist valide und das was ich am Ende immer sage, wenn ein Spiel "nativ" (womit ich einfach nur ohne FG meine, DLSS/FSR & Reflex dürfen gerne aktiviert sein) funktioniert, kann FG es etwas besser machen, hier würde ich aber eben FG nicht den Zugewinn an Spielbarkeit zuweisen, sondern eher Reflex, aber definitiv kann das ein Setting sein, mit dem man spielen kann und FG macht es dann eben etwas flüssiger und besser, keine Frage!

Mein Link zeigt, das es je nach Umsetzung, oder Engine durchaus fast wie echte Frames funktionieren kann. Auch hier einfach etwas Zeit geben.
Sorry, da kann es keine zwei Meinungen geben. Die Frames können niemals wie echte Frames funktionieren, sie können niemals die Latenz verbessern, da bin ich mir zu 100% sicher. Die Latenz verbessert Reflex, welches aber ein unabhängiges Feature ist, was man schon daran sieht, dass Reflex eben schon mit der 900er Serie von Nvidia läuft.

Weiterhin sehe ich bei der Latenz aber auch einfach kein Problem, solange die mir als Spieler nicht störend auffällt.
Hundertprozentig!

Mir fällt aber eben immer wieder auf, dass eben diese Latenz in vielen Fällen das eigentliche Problem ist, die schiere Anzahl an FPS ist häufig nur ein Balken. Ansonsten kann man jeden HighFPS Gamer quasi als absurd bezeichnen, der Mensch kann nunmal nur eine geringe Anzahl an Bildern wirklich verarbeiten, eine Studie an Kampfpiloten, die wohl überdurchschnittlich begabt sein müssen in dem Bereich, hat mal gesagt, dass 100-120 Bilder die Sekunde wahrgenommen werden können, aber nur 40-50 wirklich verarbeitet werden. Alles was darüber hinaus geht, wäre dann eben tatsächlicher Schwachsinn, was es aber nicht ist, da mehr FPS auch immer die Latenz senkt und wie man an deinem Link schön sieht, diese liegt mitunter drei bis viermal so hoch wie die FPS Zeiten, damit dürfte man völlig theoretisiert in den Bereich um 500 Hz kommen, was High End Gamer ja durchaus anpeilen!


Beides 8 Kerne.

HEDT war damals alles andere als dafür bekannt eine höhere Spieleleistung zu bieten. Es gibt also keinen Grund warum ein 7800X3d anders eingestuft werden sollte, als der 7700X. Eher sogar im Gegenteil, dadurch das Gaming die Kernkompetenz der X3d ist.
Ist Gaming denn Mainstream? Der 3D ist ein absoluter Exot, mit einer Technik die eigentlich den Epycs vorbehalten sein sollte, die aber eben auf Grund der Eigenschaften quasi ideal fürs Gaming sind, ähnlich bspw. der beiden Broadwells seinerzeit mit L4 Cache!

Ich sehe eher eine Verbindung zu Konsolenumsetzungen und oder AMD Nähe. Beides ist dann selbsterklärend warum RT nicht unbedingt die höchste Prio bekommt.
Guter Punkt, hat die Vergangenheit aber eben auch schon mehrmals gezeigt, dass Techniken die PC Only sind oftmals an der Umsetzung kranken, da PC Only eben ein signifikant kleinerer Markt als die Konsolen sind.

Die Liste zeigt doch gut, das es einige Titel auch mit RT gibt. Das legitimiert doch schon das jemand sagt, es ist zurecht für manche ein Kaufargument.
Moment, war das Gegenstand der Unterhaltung? Dann ziehe ich meine Aussgen zurück, das RT für manche ein Argument ist, 100% dabei! Ich verstehe aber eben auch, dass es für viele kein Argument ist und ich sehe eben nachwievor, dass dies eben der Großteil der Käufer sein sollte. Eine 4060/4070 bietet zwar mittlerweile eine ansprechende RT Leistung, aber sie kranken an anderen Dingen, wie bspw. zuwenig VRAM (wobei die 4060 Ti ja zumindest mit 16GB gelistet ist), dazu sind sie recht teuer und liegen eben deutlich hinter den AMD Angeboten (wobei ich in dem Bereich gerade die 6900/6950XT sehe, die preislich deutlich attraktiver ist, bei nahezu gleicher Rasterleistung. Wenn RT aber ein Argument ist und einem dies 200 EUR wert ist, spricht ja grds. nichts außer dem Preis und dem VRAM (wobei man eben auch sortieren sollte, die 4060/4070 sind ja eher für kleinere Auflösungen gedacht, wo VRAM dann eben auch nicht so schnell ausgeht) gegen NV.


Mir geht es auch nicht darum das RT jetzt, heute in jedem Titel ist. Aber das es keine Bedeutung hat ist stumpf eine Verleumdung der Realität.
keine Bedeutung wollte ich nie andeuten, wie gesagt, ich glaube nur, dass es noch etwas dauern wird bis die Bedeutung groß genug ist um nicht High End Usern relevant genug zu sein! Aktuell ist es nunmal so, dass unterhalb der 4080 die GPUs (bei AMD quasi jede GPU) nicht wirklich genug Leistung bieten um RT/PT wirklich gut umzusetzen. NV macht mit DLSS wirklich vieles möglich, bei sehr guter Bildqualität, aber mir macht am Ende dort der VRAM zu schaffen, der eben jetzt schon kaum ausreichend ist um in hohen Auflösungen RT sinnvoll zu nutzen. er über 1k für die GPU ausgibt, der wird RT auch jetzt schon nutzen wollen, ist schließlich ein Nerd und für den gibt es ohnehin nur zwei Lösungen, 4080/4090!

Du kannst dir aber sicher sein, dass der nächste Part RT bekommen wird, wenn die Konsolenhardware es hergibt.
Entsprechende Hardware wird es aber auf der Konsole wohl erst 2027-2028 geben! Die Ps5 Pro wird zwar kommen, aber auf RDNA 3 aufbauen (wenn wir Glück haben) und damit weiterhin nicht genug RT Leistung bieten.
 
Und Cyberpunk2077 ist das Crysis unserer Zeit. Mit Raytracing.
Pathtracing ist schon geil. Bei Minecraft RTX auch. Und mir fallen noch Metro, Control und mittlerweile Witcher 3 ein, wo RT wirklich einen spürbaren Mehrwert bietet. Aber das sind alles Titel, die auch schon wieder Jahre auf dem Buckel haben.

Wenn ich so 2023er Titel wie Hogwards angucke, muss ich wirklich lachen wenn mir jemand erzählen will RT habe irgendwelche "Fortschitte" gemacht. :lol:

1.png
2.png


Raytracing ist und bleibt ein Nischen-Gimmick. Daran wird auch der Cyberpunk-Hype die nächsten Wochen nichts ändern. Ein Showcase-Spiel reicht einfach nicht.
Außerdem wie ich auch in einem anderen Post schon sagte, die Titel mit RT werden sprunghaft mehr werden, mit breiterer Verbreitung der UE5 zum Beispiel. Was das angeht haben wir aktuell einen Punkt erreicht, an dem es anscheinend gerade losgeht.
Aber sicher doch. Bald geht es los.. Das höre ich schon seit 5 Jahren. Nur weil Engines RT beherrschen, nutzen es Entwickler nicht zwangsläufig. Weil es ******* performt, vor allem auf Konsolen, die die Basis stellen für fast alle Spiele, und die noch (mindestens) 4-5 Jahre unzureichende RT-Performance haben werden. Viel Glück beim warten.
 
Pathtracing ist schon geil. Bei Minecraft RTX auch. Und mir fallen noch Metro, Control und mittlerweile Witcher 3 ein, wo RT wirklich einen spürbaren Mehrwert bietet. Aber das sind alles Titel, die auch schon wieder Jahre auf dem Buckel haben.

Wenn ich so 2023er Titel wie Hogwards angucke, muss ich wirklich lachen wenn mir jemand erzählen will RT habe irgendwelche "Fortschitte" gemacht. :lol:
Du kirschen Pflücken kann ich auch:
1695207649775.png
 
Zurück