News AMD Radeon RX 8000: RDNA 4 soll beim Raytracing einen ganz neue Richtung einschlagen

@JackTheHero beitrag von 20:
mich interessiert raster Leistung noch immer. Ich wünschte da sogar noch mehr leistung damit kann man dann noch mehr tapet und noch mehr Pixel auf den maps erschaffen. Texturen und so. Je mehr desto schärfer ist das Bild. Aber leider wird das nicht mehr mehr. Mag sein das ich ein igronannt bin aber mich störte der überstrahlt Effekt sogar schon bei the ascent. Ich hätte das am liebsten ganz abgeschaltet aber das game gab da keine Option um das abzuschalten. Selbst wenn ich also rt nicht verwendet hatte der überstrahlt Effekt war selbst in niedriger settings noch immer da. Ich habe schon alles versucht gehabt. Zum Glück habe ich das Game nicht mehr. Mir wäre noch schärfere Pixel lieber als diese ganzen blendwerke. Darum habe ich ja auch keine rtx gpu wozu auch.
 
Also wenn das dein Argument ist, dann limitierst du die FPS auf die 0.1percentile in der forderndsten Szene des Spiels?
Okay… das ist weird.
Macht man tatsächlich so wenn ein smoothes Spielerlebnis haben will.

Aber jedem das seine. Ich finde 60 FPS auch zu knapp, aber PT lief wie gesagt mit rund 80 FPS im Schnitt gut genug, dass ich es seit 100 Stunden nicht ausgemacht habe und folglich normalem RT oder Raster mit sehr viel mehr FPS trotzdem vorziehe. Ich denke das sagt alles.
80 fps mit FG, das ist was anderes als 80 native fps.
Habe auf meiner 4090 ca mit 100 fps gespielt und das war schon relativ zäh, da die basis fps - und damit der input lag - nur bei ~60 fps lag. Das ist für Shooter schon nicht besonders viel.
Wäre es ein Anno, wäre es egal.

Ich versteh auch die Ansprüche bzw. Die Argumentation nicht. Max Settings in 4K haben schon zu Raster Zeiten jede GPU in die Knie gezwungen. Jetzt haben wir mit Upscaling, FG und PT eben eine ähnliche Situation, aber immerhin 80 FPS auf der zweitschnellsten GPU.Mir ist das bei der gebotenen Grafik schnell genug. Wenn das für dich nicht der Fall ist, lässt es eben aus. Aber den ganzen Nutzen bei 80 FPS in Frage zu stellen wie es hier gerne unterschwellig suggeriert wird ist doch komplett gaga.
Es ist nicht komplett Gaga, da es eben 80 fps mit FG sind und nicht nativ.
Nativ wären das so um die 50 fps, was für Shooter definitiv zu wenig ist, da der Input lag relativ groß ist, daran ändert FG nichts, es verschlimmert es sogar.

Ich kapier halt nicht, wie man solchen Settings den Nutzen absprechen will, nur weil sie nicht in 4K nativ mit 200 FPS laufen.
Niemand spricht es den Nutzern ab solche Settings zu fahren. Es wurde lediglich gesagt, dass es sich nicht geil spielt.
Ich habe z.B. das Spiel mit PT durchgespielt, einfach weil es ein Technik Showcase ist und man das gesehen haben muss. Gut angefühlt hat es sich aber eben nicht, die Optik hat es aber wett gemacht.

Bei AW2 welches ich aktuell spiele ist auch PT aktiv. Läuft je nach Szene besser (Stadt) bis schlechter (Wald) als CP2077. Aber hier geht es in Ordnung, ist nicht so schnell wie CP2077.

 
Das Problem bei Screens ist, dass man das alles garnicht so wiedergeben kann welchen Unterschied Raytracing/Pathtracing machen kann. Abseits von Spiegelungen gibt es da so viel mehr.
Hinterhofatmosphäre pur...
Anhang anzeigen 1459427

...es wäre auf alle Fälle zu begrüßen wenn AMD bei Raytracing richtig anzieht.
Auch bei Alan Wake2 ist der Unterschied an vielen Stellen subtiler und noch schwerer zu beschreiben. Aber dafür umso deutlicher, wenn man länger mit PT gespielt hat. Dann will man Alan Wake nicht mehr ohne spielen.

PS:
Ich glaube, wenn ich meine Spiele etwas durch habe, schmeiße ich Cyberpunk Phantom Liberty mal an.
Macht man tatsächlich so wenn ein smoothes Spielerlebnis haben will.


80 fps mit FG, das ist was anderes als 80 native fps.
Habe auf meiner 4090 ca mit 100 fps gespielt und das war schon relativ zäh, da die basis fps - und damit der input lag - nur bei ~60 fps lag. Das ist für Shooter schon nicht besonders viel.
Wäre es ein Anno, wäre es egal.


Es ist nicht komplett Gaga, da es eben 80 fps mit FG sind und nicht nativ.
Nativ wären das so um die 50 fps, was für Shooter definitiv zu wenig ist, da der Input lag relativ groß ist, daran ändert FG nichts, es verschlimmert es sogar.


Niemand spricht es den Nutzern ab solche Settings zu fahren. Es wurde lediglich gesagt, dass es sich nicht geil spielt.
Ich habe z.B. das Spiel mit PT durchgespielt, einfach weil es ein Technik Showcase ist und man das gesehen haben muss. Gut angefühlt hat es sich aber eben nicht, die Optik hat es aber wett gemacht.

Bei AW2 welches ich aktuell spiele ist auch PT aktiv. Läuft je nach Szene besser (Stadt) bis schlechter (Wald) als CP2077. Aber hier geht es in Ordnung, ist nicht so schnell wie CP2077.
Das letzte wollt eich auch gerade sagen...
Natürlich macht das Spiel einen Unterschied.

Klar merkt man den Unterschied bei der Latenz...Beispiel Alan Wake 2.
ABER bei Alan Wake kann man sich gut vorstellen, das könnte auch sich auch immer so anfühlen. Kurz, es stört einfach nicht.

Ich habe tatsächlich auch mit PT in 4k gezockt, DLSS P und FG. Fühlte sich am TV absolut ausreichend an. Auf jeden fall immer besser als an Konsolen zu zocken.

Cyberpunk werde ich denke ich nochmal mit PT in WQHD zocken. Für mehr ist die 4070 ti s einfach dann zu sehr an der Grenze.

Für mich steht aber fest, PT geht vor 4k...

[wenn ich mich so schreiben sehe, wird es eng mit einer AMD als nächstes, aber gerne lasse ich mich von AMD überraschen.
 
Zuletzt bearbeitet:
Macht man tatsächlich so wenn ein smoothes Spielerlebnis haben will.

Dann must du auf 5 FPS oder so limitieren, weil Cyberpunk immer kurz einen Ruckler hat, wenn gespeichert wird.


80 fps mit FG, das ist was anderes als 80 native fps.
Habe auf meiner 4090 ca mit 100 fps gespielt und das war schon relativ zäh, da die basis fps - und damit der input lag - nur bei ~60 fps lag. Das ist für Shooter schon nicht besonders viel.
Wäre es ein Anno, wäre es egal.

Ach, 100 FPS mit FG wären also in Anno okay, in Cyberpunk reicht dir das aber nicht.

An der Stelle solltest du dir dann einfach eingestehen, dass du sehr hohe FPS willst, selbst in einem non-competitive Singleplayer Spiel mit Pathtracing in 4K.

Du bist absolut kein Maßstab....

Einen Competitive Shooter würde ich auch mit 240 FPS oder viel mehr spielen. Den Unterschied merkt man deutlich.
Aber für ein SP Game ist das für mich trotzdem absolut NULL Kompromiss.

Wenn ich jedes Game mit dem Optimum an FPS und latenz vergleiche, was ich bisher erreicht habe, dann müsste ich grundsätzlich alles auf Low spielen.


Das ist so, als würde man ein 800 PS Supercar besitzen und dann wenn man ins 250 PS Familienauto umsteigt sich ständig und ernsthaft darüber aufregen, dass das Fahrzeug ja komplett unfahrbar und scheiße sei, weil die Lenkung nicht so direkt ist, das Fahrwerk weich und die Leistung fehlt.
Das Supercar ist halt in dem Fall sowas wie Valorant oder CS, die Familienkutsche sowas wie Cyberpunk.
Hat beides seine Daseinsberechtigung mit dem jeweiligen performanceprofil. Cyberpunk mit 150-200 FPS spielen zu wollen wäre dann in etwa so als wollte man im Supercar mit der Familie zum einkaufen fahren...

(....ist der Vergleich scheiße, aber egal.:lol: )


Die Argumente die hier Angebracht werden sind einfach völlig unverhältnissmäßig und irrational.
 
Zuletzt bearbeitet:
Diese Diskussion um die fps in solchen Spielen ist doch eh nur künstliche Aufregerei. Was machen denn die User ohne HighEnd Karte? Die warten eine oder zwei gens und spielen es dann. Das geht hier auch sehr gut. Anmachen, Einstellungen ausprobieren, entscheiden mit welchem preset man es unbedingt spielen möchte, gucken ob die fps schon ausreichen und ansonsten nächstes Jahr in Angriff nehmen. Ist ja nicht so, als würde das Spiel schlecht werden und man müsste es wegschmeißen wenn man es nicht unbedingt noch diese Woche spielt.
Wirklich Bedeutung hat das doch nur für diejenigen, die sich neue Hardware gekauft haben und nun sehen möchten was die kann. Ansonsten dient all die Streiterei eben nur der Streiterei selbst.
 
Dann must du auf 5 FPS oder so limitieren, weil Cyberpunk immer kurz einen Ruckler hat, wenn gespeichert wird.
Trollst du oder ist das dein ernst? :D

Ach, 100 FPS mit FG wären also in Anno okay, in Cyberpunk reicht dir das aber nicht.
Es geht nicht um die FPS, sondern um den Input lag, das habe ich doch ausführlich klargestellt:ka:

In einem Shooter ist der Input lag nunmal wichtiger als in einem Aufbau/Strategiespiel.
Völlig egal ob Singleplayer oder Multiplayer Shooter, wenn der inputlag (und/oder die FPS) sehr schlecht sind, spielt sich das wie ein Sack Nüsse und man trifft nix. Das ist kein schönes Spielgefühl.

An der Stelle solltest du dir dann einfach eingestehen, dass du sehr hohe FPS willst, selbst in einem non-competitive Singleplayer Spiel mit Pathtracing in 4K.
Absolut nicht. Ich spiele so gut wie alle meine Spiele mit 80-90 fps cap. Ich spiele ausschließlich Singleplayer Spiele.
Hier handelt es sich dann aber um native 80-90 fps, welche sich auch gut und flüssig anfühlen, während 80-90 FG Fps nunmal nur flüssig aussehen, sich aber spielen wie 50-60 native FPS, je nach Game sogar schlechter. Das ist dann - Game abhängig - eben nicht smooth. Selbst wenn der FPS counter auf 90 steht, spielt es sich schlecht.

Du bist absolut kein Maßstab....
Ah okay... Man liest von der PCGH Redaktion (und auch Computerbase) bei den Tests ja nur regelmäßig davon, dass man eine mindest FPS für FG benötigt, weil sich ein Game sonst mies anfühlt, weil der Inputlag steigt und sich das nur flüssig fürs Auge, aber nicht für die Hände anfühlt... :schief:

Das ist so, als würde man ein 800 PS Supercar besitzen und dann wenn man ins 250 PS Familienauto umsteigt sich ständig und ernsthaft darüber aufregen, dass das Fahrzeug ja komplett unfahrbar und scheiße sei, weil die Lenkung nicht so direkt ist, das Fahrwerk weich und die Leistung fehlt.
Das Supercar ist halt in dem Fall sowas wie Valorant oder CS, die Familienkutsche sowas wie Cyberpunk.
Hat beides seine Daseinsberechtigung mit dem jeweiligen performanceprofil. Cyberpunk mit 150-200 FPS spielen zu wollen wäre dann in etwa so als wollte man im Supercar mit der Familie zum einkaufen fahren...
ähm...
(....ist der Vergleich scheiße, aber egal.:lol: )
... ja ^^ immerhin selbst gemerkt.

Die Argumente die hier Angebracht werden sind einfach völlig unverhältnissmäßig und irrational.
Sind sie nicht. Selbst PCGH/CB sagt das regelmäßig.
Du musst deine Scheuklappen mal ablegen und dich nicht so auf die FPS versteifen. Bei Framegeneration geht es maßgeblich um den Input lag.

Mal als deutliches Beispiel 1:
Option A: Ich spiele Cyberpunk mit 60 fps nativ und inputlag von 25ms.
Option B: Ich spiele Cyberpunk mit FrameGeneration mit 100 fps und inputlag von 150ms.
Hier wäre stets Option A vorzuziehen.

Beispiel 2:
Option A: Ich spiele Anno mit 60 fps nativ und inputlag von 25ms.
Option B: Ich spiele Anno mit FrameGeneration mit 100 fps und inputlag von 150ms.
Hier würde ich Option B nehmen, da der Inputlag komplett egal ist, man bewegt sich nicht in 1st Person, man muss nicht zielen und treffen. Man klickt durch ein paar menüs, da ist der inputlag vollkommen egal (sofern er natürlich nicht astronomisch hoch ist)

In der Realität steigt der Inputlag natürlich nicht so stark.
Wenn man sich mal an Beispiel 1 orientiert, dürfte die realität bei Option B mit den 100 FPS bei FG wohl ehr so bei 60ms liegen.
Aber genau das ist der Punkt.

Native 60 fps mit 25ms inputlag wären dann bei nativen 100 fps <20ms inputlag, während mit FG eben 50-60ms inputlag vorherrschen bei ebenfalls 100 fps. Das sieht nur flüssiger aus, spielt sich aber schlechter als 60 native FPS.
 
Zuletzt bearbeitet:
Hab mir vor paar Wochen die ASUS RX 7800 XT OC geholt und bin sowas von zufrieden, perfekte WQHD Karte. Mir ist Raytracing völlig egal, ungefähr so egal wie E-Autos...
Selber Schuld. Besonders was E-Autos angeht.

Alles neue erst mal ablehnen, das gute alte Rasterizing und Fossil-Verbrennen war immer gut genug, und jetzt soll es auf einmal scheiße sein? Nicht mit mir!

Dumm nur, dass die Zeit keine Rücksicht auf ewig gestrige nimmt.

P.S.: Ich hoffe, dass Dein Username nicht auf Dein Geburtsjahr schließen lässt. So jung und doch schon so alt...
 
Zuletzt bearbeitet:
Na ich hoffe doch inständig, dass es von deiner Sorte nicht allzuviele gibt.
Von der Sorte "ich habe Hardware XY und kenne mich aus" aber kann auf Nachfrage nicht mal einen Screenshot davon machen, geschweige denn hat Cyberpunk mit PT jemals gespielt und erzählt dann irgendwelche Stories aus dem Biergarten.

Du willst mir weismachen, Grafikkarten würden nicht dafür reichen etwas mit Pathtracing zu spielen, hast aber kein Frame Generation aktiviert und argumentierst ausschließlich mit P1 in einem worst-case Szenario inkl. 4K mit DLSS.
Da sind so Dinge wo man einfach merkt, dass jemand eine Agenda fährt.
Natürlich ist mir das bewusst, aber wie vergleichst du denn sonst?
Du suchst den Vergleich ja nicht, sondern behauptest ganz keck, dass es eh nicht flüssig sei.
Hier merkt man, dass du Cyberpunk noch nie gespielt hast.
Mal ganz davon abgesehen, dass Leute wie du, die immer mit der Attitüde hier reingehen, alles müsse 4K sein und Upscaling/RT sei nicht gut und Mist, früher selbst mit niedrigeren FPS gespielt haben, Hauptsache die Grafik ballert.
Früher bekam man mit ultra Details noch viel weniger FPS, da gabs auch nicht so ein Genöle aus den Fanlagern.
 
Zuletzt bearbeitet:
Option A: Ich spiele Cyberpunk mit 60 fps nativ und inputlag von 25ms.
Option B: Ich spiele Cyberpunk mit FrameGeneration mit 100 fps und inputlag von 150ms.
Hier wäre stets Option A vorzuziehen.
Ja sicher, aber der Vergleich ist ja auch nicht realistisch. Die Framegeneration erhöht den Input Lag ja nicht, er verringert ihn nur nicht, wie man es bei einer mit nativen Mitteln erreichten höheren Framerate eigentlich erwarten würde.

Also:

Option A: Ich spiele Cyberpunk mit 60 fps nativ und Inputlag von 25ms
Option B: Ich spiele Cyberpunk mit FG und 100fps und Inputlag von 28ms
Option C: Ich spiele Cyberpunk mit niedrigeren Einstellungen nativ mit 100fps und Inputlag von 18ms.
(alles mit Reflex an).

Und dann würde ich vermutlich Option B vorziehen.

Ich finde faszinierend, wieviele Leute meinen, ihren Senf schreiben zu müssen, ohne den notwendigen Background zu haben.
 
Ich bin ja eigentlich aktuell mit den Adrenalin 23.3.1. hochzufrieden. Es laufen alle aktuellen Raytracing-Titel angenehm sanft. Ich neige sogar dazu zu behaupten, dass die Raytracing-Leistung der neuen Adrenalin Treiber etwas verbessert werden konnte - ist aber rein subjektives Empfinden und durch nix belegt.

Was mir an den GFX12 Instuktionen auffällt: Man kommt nun mit deutlich weniger Instruktionen für das Raytracing aus, was dann irgendow für eine effzientere und klügere Strahlenverfolgung spricht. Im Artikel von wccftech sind es beim gfx12 15 RT-Instruktionen, die auch ganz andere Befehle mit sich bringen wie beim GFX 10/11. Also das scheint ein komplett neuer Ansatz zu werden. Ich bin super heiß auf die Karten und gespannt.

Was die eigenartige "children" instruction bedeuten soll ist mir als Laie natürlich absolut unklar (siehe hier: https://wccftech.com/amd-rdna-4-gpus-incorporate-brand-new-ray-tracing-engine-different-than-rdna-3/)
 
Für mich steht aber fest, PT geht vor 4k...
Ernsthafte Frage:
Habe ich mit einer Nvidia, in 4k ohne RT/PT (gern auch mit DLSS) ähnliche FPS wie in 1440p mit RT/PT (dann natürlich selber DLSS Profil)?
Klar, PT ist fordernder, aber kann man das irgendwie vergleichen bezüglich der FPS?
Sagen wir mal in Cyberpunk als Beispiel.
 
Ansonsten dient all die Streiterei eben nur der Streiterei selbst.
Sagt der, der die Streiterei mit kontroversem Unfug anfängt. Gut gespielt.
Wir wissen jetzt dank dir, dass nur noch die P1 relevant sind, Frame Generation nichts bringt und überhaupt nur Vergleiche zwischen GPU A und GPU B relevant sind, wenn sie von dir abgesegnet wurden.
Ich werde dich ab jetzt immer vorwarnen. =)

Ich lasse mir aber nicht von jemanden erzählen, der keine entsprechende GPU hat, das würde nicht vernünftig laufen.
 
Zuletzt bearbeitet:
Ja sicher, aber der Vergleich ist ja auch nicht realistisch. Die Framegeneration erhöht den Input Lag ja nicht, er verringert ihn nur nicht, wie man es bei einer mit nativen Mitteln erreichten höheren Framerate eigentlich erwarten würde.
1714731765245.png

Aus dem gestern erschienenen Special zu Lossless Scaling Frame Generation, der Test war bei CP2077.
Das ist ein 56% höherer Inputlag. Nicht der gleiche Inputlag wie du behauptest.

Übrigens, falls du mal ordentlich liest, habe ich folgendes geschrieben:
In der Realität steigt der Inputlag natürlich nicht so stark.
Wenn man sich mal an Beispiel 1 orientiert, dürfte die realität bei Option B mit den 100 FPS bei FG wohl ehr so bei 60ms liegen.
Aber genau das ist der Punkt.
Wie man sieht, war das Beispiel tatsächlich nur ein Beispiel um das Problem des Inputlags näher zu erläutern.
Dass es nicht der realität entspricht sage ich sogar selbst :ka:

Und auch, dass sich native fps besser spielen als mehr fps mit FG beweist der Test von gestern.
Insofern...

Ich finde faszinierend, wieviele Leute meinen, ihren Senf schreiben zu müssen, ohne den notwendigen Background zu haben.
...Da hast du recht:schief:
 
@JackTheHero beitrag von 20:
mich interessiert raster Leistung noch immer. Ich wünschte da sogar noch mehr leistung damit kann man dann noch mehr tapet und noch mehr Pixel auf den maps erschaffen. Texturen und so. Je mehr desto schärfer ist das Bild.
Ist ja nicht so, dass es heute nicht mehr Rasterleistung als mit deiner GTX 1650 gibt....einfach kaufen.
Nur gibt es halt keine RTX 7900XTX für ~100€ wie Du wahrscheinlich gerne möchtest.
 
Wie man sieht, war das Beispiel tatsächlich nur ein Beispiel um das Problem des Inputlags näher zu erläutern.
Was nicht hilft, wenn man es mit völlig überzogen und irreführenden Werten erläutert. Denn Du willst damit eine Aussage belegen und es gibt Leute, die lesen das und glauben die Werte. Dann ist es schlicht Agitation und absichtliche Irreführung.


Ja. habe ich. Du weißt nicht, was Du da behauptest.

Zwischen 39 und 61ms ist ein Faktor von 1,56 - und der ist schon extremer Worst-Case, weil je geringer die Frametime, desto stärker machen sich schon kleine Einflüsse im absoluten Wert bemerkbar.

Und Du hast in Deinem Beispiel mal eben einen Faktor 6 (!!!!) (150 zu 25) angenommen. Das ist doch schlicht absurd und lässt sich wirklich nur mit Agitation oder totaler Unwissenheit erklären.
 
Zuletzt bearbeitet:
Also ja, um das mal aufzuklären. Ich hab die 300% auf die reine TFLOPS angabe bei Nvidia auf der Webseite zwischen Raytracing kernen 3090 Ti und 4090 genommen. In Games ist das bei Cyberpunk etc, 200%.

Also ich hab den Inputlag auch gemerkt, aber nicht als zu störend empfunden in Cyberpunk. Die Optik war es sowas von wert.
 
Zurück