News AMD Radeon RX 8000: RDNA 4 soll beim Raytracing einen ganz neue Richtung einschlagen

Totaler BS.
Ich hab mit der 4080 in Cyberpunk PT in 4K locker 100 Stunden runter und würde es nie mehr ausschalten wollen.

Mit FG und DLSS P sind es im Schnitt ca 80 FPS.
DLSS P sieht in 4K immernoch gut aus und beispielsweise besser als 1440p nativ auf einem 1440p Monitor.

Ich finds okay, dass die Karte in so nem Grafikmodus auch mal voll ausgereizt wird und DLSS und FG entsprechend pflicht sind, um das bestmögliche mit Pathtracing rauszuholen. Wenn das mit 150-200 FPS laufen würde, wäre ja wieder genug Platz für noch fordernderes RT.
Das wäre der falsche Weg für einen Grafikmodus der für eyecandy da ist und nicht für high FPS…
Moment, ich rede nicht von average fps, sondern den P1 aus der PCGH-Testszene. Also etwas untereinander vergleichbares. Denn auch eine AMD ist außerhalb dieser Testszenen deutlich flotter unterwegs, aber bei der angesetzten Kritik wird das ja ebenfalls ausgeklammert. Zurecht, denn es geht ja idR darum was die Karte im schlimmsten Fall schaffen muss um dem Spieler ein gleichbleibendes Erlebnis zu ermöglichen.
 
25-30%? ahahaha..

Sorry, aber Nvidia hat zwischen 3090 und 4090 mal eben fast 300% hingelegt. 25-30%.. Na dann gute Nacht.
Wo sehe ich das denn in den Benchs?
Bzw... Der RT Parcours bildet das so nicht ab.

Skepzis ist natürlich angebracht, aber ich finde das sich das erstmal gut anhört.

Stellt dir vor die 8800XT würde tatsächlich im RT Parcours auf 4080 Niveau agieren. Das sollte für bis nach 2027 auf jeden Fall reichen.
Und dennoch bricht eine 7900XTX völlig zusammen, sobald man an Pathtracing geht. Die Benchmarks zu Cyberpunk und Alan Wake sind ja da. Völlige Katastrophe.
Das ist richtig. Da müsste sich halt zeigen, wie sich das neue Design von AMD dort schlägt.

Wenn aber wirklich in 9 von 10 Spielen mit RT die 8800XT auf 4080 super Niveau agieren würde, wäre das dennoch top...

Du hast aber recht, denn selbst eine 4070ti super ist in Alan Wake mit PT schon doppelt so schnell, wie die XTX.

Ich bin gespannt auf die Benchmarks.
 
Zuletzt bearbeitet:
Hehe, war klar das du wieder mit deinen beiden Vorzeige-Nvidia-PT-Titeln kommst. Muss schon schmunzeln wenn ich mir vorstelle wie du die beiden ollen Kamellen auch in 5 Jahren noch zum dreihundertsten Mal spielst und über die Grafik und FPS staunst.. :ugly:
Ernstgemeinte Frage: Womit soll man es denn sonst vergleichen?
In der News ist von 30% mehr Raytracing Power die Rede und die meisten RT Games sind Hybride mit mixed Workloads, bei denen RT nur einen kleinen Teil ausmacht. Daraus werden am Ende dann nicht 30% mehr FPS.

Schau dir "Horizon: Forbidden West" an. Rasterizing ist immer noch das A und O, nur wollen es kleine Freaks, die in ihrer Raytracing-Blase anscheinend zu wenig Sauerstoff bekommen, nicht wahr haben.
Man sieht H:FW sein Alter an und gegen AW2 und CP sieht es halt altbacken aus. Abgesehen davon ist das nur ein Konsolenport, ansonsten hätte es ebenfalls RT bekommen.
Deshalb ist das eher ein schlechtes Argument ;)

Schaffen es die Grafikkarten für 500 bis 600 Taler spiele mit RT mit mindestens 60FPS wiederzugeben? Wahrscheinlich nicht.
Tun sie jetzt schon, aber nicht in 4K mit Ultra Settings.

Da will ich doch lieber erstmal 4k@ mindestens 120Hz auf einem OLED der größer ist als mein jetziger 1440p@24Zoll Monitor.
Und da sind wieder die Realitätsfremden Anforderungen.
4K mit 120 FPS + RT und Ultra settings für 500€. Gibts nicht und wird es sehr lange Zeit auch nicht geben.
Ada packt ohne RT auch keine 120 FPS in 4K und die Grakageneration davor hat nicht mal die 60 FPS gepackt. Woher kommen diese Anforderungen, die noch nie möglich waren?

Wo sehe ich das denn in den Benchs?
Bzw... Der RT Parcours bildet das so nicht ab.
Wie auch? Die meisten Titel sind Rastergames mit ein bisschen RT und die Rasterleistung wird nicht gesteigert, sondern nur die RT Leistung. Dementsprechend kannst auf den Parcour auch nicht einfach 30% draufrechnen, zumal es bis zu 30% sind, also im besten Fall.
 
Zuletzt bearbeitet:
um dem Spieler ein gleichbleibendes Erlebnis zu ermöglichen.

Also wenn das dein Argument ist, dann limitierst du die FPS auf die 0.1percentile in der forderndsten Szene des Spiels?
Okay… das ist weird. :ugly:
Hoffentlich kommt da nie ein Ruckler, sonst hast du ein Problem.:lol:

Aber jedem das seine. Ich finde 60 FPS auch zu knapp, aber PT lief wie gesagt mit rund 80 FPS im Schnitt gut genug, dass ich es seit 100 Stunden nicht ausgemacht habe und folglich normalem RT oder Raster mit sehr viel mehr FPS trotzdem vorziehe. Ich denke das sagt alles.


Ich versteh auch die Ansprüche bzw. Die Argumentation nicht. Max Settings in 4K haben schon zu Raster Zeiten jede GPU in die Knie gezwungen. Jetzt haben wir mit Upscaling, FG und PT eben eine ähnliche Situation, aber immerhin 80 FPS auf der zweitschnellsten GPU. Mir ist das bei der gebotenen Grafik schnell genug. Wenn das für dich nicht der Fall ist, lässt es eben aus. Aber den ganzen Nutzen bei 80 FPS in Frage zu stellen wie es hier gerne unterschwellig suggeriert wird ist doch komplett gaga.

Ich kapier halt nicht, wie man solchen Settings den Nutzen absprechen will, nur weil sie nicht in 4K nativ mit 200 FPS laufen. Wenn man danach geht, hätten wir immernoch die Grafik von vor 10 Jahren. Dass man sowas in einem Technikforum liest ist wieder mal an Peinlichkeit nicht zu überbieten.

Hier mal als Beispiel. Halbwegs fordernde Szene 86 FPS. Und das Bild sieht fast aus wie ein CGI Offline Render. :love:
Bin gerade auch nochmal durch die Stadt gerannt. Also 80 FPS ist schon eher der untere Bereich. Darunter geht es sehr selten. Durchschnitt ist eher so ca 85-87 FPS...
2077.jpg
 
Zuletzt bearbeitet:
Hier wird so getan als könnte eine 4060 pt flüssig wiedergeben und eine 7900XTX dabei verrecken, aber so ist es nicht.
Doch genau so ist das. Was du bei deinem kruden Vergleich nämlich nicht erwähnst sind die FPS Werte der Radeon.
Anstatt das einfach neutral gegenüber zu stellen versuchst du so zu tun, als ob es auf einer 4080 nicht spielbar wäre, was weit weg von der Praxis ist. Klassischer BS-Cleriker Move.

Du hast außerdem keine RTX 4080 in deinem Besitz, ansonsten würdest du nicht so einen Quatsch reden.

Bei dem was eine 7900XTX nicht packt, sind auch die meisten Modelle von Nvidia zu langsam. Bitte übertreibt doch nicht immer so.
Ich habe das Spiel selbst auf meiner 4070 Super Karte komplett mit Pathtracing durchgespielt, was ich auf einer 7900XTX mangels Bildqualität und Performance sicher nicht getan hätte und auf der Radeon 7700XT nicht mal hätte einschalten brauchen, da zu wenig FPS. Das sind ohne FG Unterschiede von Faktor 2-3.

Ich habe mit WQHD Balanced + FG gespielt und das Gameplay fühlte sich sehr gut an. Schöne 70-80 FPS.
Deinen Frame Generation Hate, spar dir besser, wird in Zukunft niemand mehr kritisieren außer ewig Gestrige.
Schau dir "Horizon: Forbidden West" an.
Das SSAO hat absoluten Augenkrebs Charakter, die Beleuchtung ist mäh und die Spiegelungen wischen sich störend aus dem Bild. Absoluter Müll hinsichtlich dieser Punkte. Die Gesamtgrafik ist dennoch schön.
Aber RT fehlt wie das Salz in der Suppe.
Also ist "Zukunftssicherheit" immer nur dann relevant wenn es um fett VRAM geht aber auf einmal irrelevant und "Blase" wenn es um RT geht ? Pipi Langstrumpf lässt grüßen. :daumen:
Einfach die Aussagen der üblichen Verdächtigen RT und PT Basher in Sachen V-ram anschauen.
Selbst wenn der V-ram in 99,99% der Fälle ausreicht, liegen sie dir 24/7 in den Ohren, bei RT oder PT aber dann das große Derailing. Dort muss die GeForce dann stabile drölfzig FPS liefern, weil sonst zählt das nicht.

Wenn es um V-ram geht dann aber immer 4K Ultra ohne DLSS/FSR.:ugly:
 
Zuletzt bearbeitet:
Wo sehe ich das denn in den Benchs?
Bzw... Der RT Parcours bildet das so nicht ab.
Das betrifft nur super schwere Pathtracing-Workloads, bei denen für Ada handoptimiert wird. Derzeit zu sehen in Alan Wake 2:


MfG
Raff
 
Letzten Endes gibtgs 2 Gründe, warum die größeren Navi4x nicht rausgekommen sind:
1. man hat das intern simuliert und gesehen man hätte sich maximal mit der 4090 gemessen und dann bringt ein Release eines so großen, komplierten Chips nichts
Jein, das Problem lag wohl eher daran, dass die Chiplet-Technik für GPUs einfach noch nicht die benötigte Reife hatte. Man hat ja bei AMDs CPU-Sparte gesehen, dass solch große Architekturänderungen anfangs noch nicht ganz ausgereift sind (Athon 64, Ryzen 1). Diese waren rückblickend nur so erfolgreich weil Intel es sich zu gemütlich gemacht hatte.

2. Man hat gesehen, dass man 30% mehr RT Leistung rausholt wie in der News erwähnt. Das ist im Mittelklassebereich nett, aber darüber nicht konkurrenzhfähig.
Dann passt es ja, dass es sich dabei um einen Mittelklassechip handelt. Bei einer größeren GPU hätte man natürlich mit mehr Leistung rechnen können.

Vielleicht aber sonst auch erst mit RDNA6 (ich gehe davon aus, dass RDNA5 wieder nur eine leichte Überarbeitung von RDNA 4 wird und RDNA 6 die Arch ist, die auch für Konsolen und mit mehr Budget entwickelt wird)
Ich vermute, dass die Architektur des Chiplets für RDNA5 größtenteils von RDNA4 übernommen werden wird, denn diese wurden schließlich dafür entworfen. AMDs Fokus dürfte in dieser Generation eher auf der Umsetzung des MCM liegen. Mit RDNA6 dürften dann neben weiteren Optimierungen am MCM auch Änderungen am Chiplet selbst anstehen.

Hmm, dann müsste die 8800XT auf dem Level einer 4070 Ti SUPER liegen. Diese liegt bei 850€ aktuell ca. was immer noch recht teuer ist. Kann man nur hoffen dass sie sich leistungstechnisch dort einordnet und für um die 600€ zu haben ist. Sonst seh ich hier wenig Chancen für AMD.
600€ wären mMn zu hoch, nicht unbedingt wegen dem Preis-/Leistungsverhältnis im Vergleich zu nvidia, sondern basierend auf der Chipgröße. Diese liegt zwischen der einer RX7600XT und RX7800XT was für mich eher einen Preis im Bereich von max. 500€ rechtfertigen würde.

Ich nutze zur Zeit eine RX6700XT. Sofern die neue GPU min. die doppelte Leistung bringt und max. 500€ kostet könnte ich mir einen Umstieg vorstellen.
 
Hier wird so getan als könnte eine 4060 pt flüssig wiedergeben und eine 7900XTX dabei verrecken, aber so ist es nicht.
Streng genommen verrecken beide, aber die 4060 ist trotzdem 5 FPS schneller und das ist ne Einstiegskarte. Die 7900XTX ist das Flagschiff von AMD. Ist das wirklich die Karte, an der sich AMD messen soll?

Bei dem was eine 7900XTX nicht packt, sind auch die meisten Modelle von Nvidia zu langsam. Bitte übertreibt doch nicht immer so.
Falsch. Die 4060 TI reicht bereits, um die 60 FPS Marke zu knacken. Für WQHD braucht es dann schon die 4070 TI (70 FPS), also schaffen die meisten Karten von Nvidia sogar WQHD.
In 4K reicht dann nur noch die 4090, außer du nutzt DLSS Balanced oder niedriger, dann klappt das auch noch mit einer 4080.
 
Ähm... Wie bezeichnest du das denn aktuell bei deiner 4080? In Cyberpunk packt die in 2160p mit DLSS Performance gerade mal 32fps und die 4090 46fps. Selbst mit FG, was bei 32 fps Ausgangssituation mehr als unangenehm ist, schafft es die 4080 nicht auf 60fps.
Ich glaube Du hast weder eine RTX 4080 noch Cyberpunk. Screens hat er ja schon zu Genüge hochgeladen...wie z.B. diesen hier.
Alles unter der höchsten DLSS, FSR und XESS Einstellung ist doch eine optische Zumutung und will sich doch kein Mensch freiwillig antun?!
Kann man sehen wie man will
im Netz gefunden

Als Zufall hatte ich diesen Vergleich vor einiger Zeit mit der RTX 4070Ti meiner Frau gemacht.
Ich weiß nicht warum man da Raster nativ Pathtracing/DLSS P/FG vorziehen sollte.
 
Zuletzt bearbeitet:
Schaffen es die Grafikkarten für 500 bis 600 Taler spiele mit RT mit mindestens 60FPS wiederzugeben? Wahrscheinlich nicht.
Ja, haben sie schon Ende 2018 inkl. RT Spiegelungen in Battlefield 5 geschafft.
Da will ich doch lieber erstmal 4k@ mindestens 120Hz auf einem OLED der größer ist als mein jetziger 1440p@24Zoll Monitor.
Also sinnloses BruteForce und noch niedrigere FPS als mit RT für eine vermeintlich etwas schärfere Bilddarstellung?
Das lohnt sich optisch nicht.
Also richtet sich der nächste GPU Kauf nach der Leistung in 4k. Was RT dann für mich noch weiter nach hinten schiebt.
Nicht mit den entsprechenden Upscalingmethoden.
Zumindest ist das jetzt mein Gedankengang und RT bleibt uninteressant auch wenn es z.T. echt gut aussieht. Aber Auflösung, FPS und Stromhunger sind dann doch wichtiger.
FPS in 4K Nativ? Die sind nicht besonders hoch und optisch bringts auch nichts.
Moment, ich rede nicht von average fps, sondern den P1 aus der PCGH-Testszene.
Und dir ist klar, dass die Testszenen eher worst-case sind?
Dein Versuch Nvidia Karten als nicht schnell genug für Pathtracing zu framen ist jedenfalls gescheitert.
Denn auch eine AMD ist außerhalb dieser Testszenen deutlich flotter unterwegs,(...)
Aber nur die AMD, die Nvidia nicht gell?:lol:Du bist so lost Brudi.
Deine ganze Argumentation ist komplett gaga.
 
Zuletzt bearbeitet:
Dieser Glaubenskrieg ist ja echt schlimm hier, ich habe hier mit mehr Erwachsenen gerechnet.
Mir reicht es wenn AMD wenigstens in schlagweite kommt und sie dafür günstigere Preise aufrufen und somit für gesunden Konkurrenzdruck sorgen, mehr ist gar nicht nötig auch wenn es mal schön wäre jemand anderen an der Spitze zu sehen, aber auch da kocht dann AMD nur mit Wasser und wird gierig.
Und Ja AMD neigt dazu bei den Leistungsangaben zu übertreiben, was in übrigen auch auf NVIDIA zutrifft. Wer mehr oder weniger übertreibt Interessiert mich nicht das Ergebnis bei test ist schlussendlich das einzige was zählt.
 
Das betrifft nur super schwere Pathtracing-Workloads, bei denen für Ada handoptimiert wird. Derzeit zu sehen in Alan Wake 2:


MfG
Raff
Sorry, unglücklich formuliert.
Natürlich kenne ich diese Benchmarks auswendig.
Ich meinte nur, das was in dem Post gesagt wurde, siegelt sich nicht in den RT Parcours.

Weil meine Aussage ist ja, das wenn eine theoretische 8800XT wirklich 30% auf die RT Leistung einer 7900XTX legen würde, das im Parcours für ein Kopf an Kopf Rennen mit der 4080(S) gereichen müsste.

Wohl wissend, das die Extreme mit CP77 und AW2 mit Path Tracing natürlich weiterhin reines Nvidia Land bleiben!

Aber Danke!
 
Diese Extreme werden aber zunehmen. Pathtracing ist am kommen. Die Zeiten wo Games nur hier und da bisschen Schatten und Reflektionen eingebaut haben, wie Battlefield 5 vor 6 Jahren, die sind vorbei. Games nutzen zunehmen RTGI oder gleich Pathtracing, siehe Dragons Dogma 2 mit eingebautem Pathtracing Renderer für Devs.. Und Cyberpunk 2 wird 100%ig ebenfalls wieder Pathtracing verwenden. Und jede Wette Witcher dann auch.

Selbst nen Early Access Game wie Grayzone Wardingens, nutzt HW Lumen mit RTGI etc. Und das Black Myth Wukung is auch UE5 mit Pathtracing dieses Jahr..
 
Ja, haben sie schon Ende 2018 inkl. RT Spiegelungen in Battlefield 5 geschafft.
In einem Spiel wie Battlefield will ich eher 120FPS+. Da wird alles auf HighFPS eingestellt. Was willst Du in einem Shooter mit 60FPS?

Nicht mit den entsprechenden Upscalingmethoden.
In 4k wäre der Performancemode natürlich eine Option, in 1440p nicht.
Schauen wir mal, was die neuen Karten können.

FPS in 4K Nativ? Die sind nicht besonders hoch und optisch bringts auch nichts.
Also optisch gab es einen enormen Mehrwert von 1080p auf 1440p. Und bei einem größeren Monitor will ich ungern bei 1440p bleiben. Gern auch mit DLSS/FSR. Nutze ich aktuell ja auch.
Also sinnloses BruteForce und noch niedrigere FPS als mit RT für eine vermeintlich etwas schärfere Bilddarstellung?
Keine Ahnung was Du mit BruteForce in dem Zusammenhang meinst.

Also sinnloses BruteForce und noch niedrigere FPS als mit RT für eine vermeintlich etwas schärfere Bilddarstellung?
Langfristig habe ich von einem 4k OLED mehr als wenn ich mir jetzt einen 1440p OLED hole. Denn der 4k OLED ist dennoch der logische Schritt. Aber wie gesagt will ich ungern einen größeren Monitor bei selber Auflösung.
 
Ich glaube Du hast weder eine RTX 4080 noch Cyberpunk. Screens hat er ja schon zu Genüge hochgeladen...wie z.B. diesen hier.

Kann man sehen wie man will
im Netz gefunden

Als Zufall hatte ich diesen Vergleich vor einiger Zeit mit der RTX 4070Ti meiner Frau gemacht.
Ich weiß nicht warum man da Raster nativ Pathtracing/DLSS P/FG vorziehen sollte.
Und man achte ganz genau auf die Details, nicht die offensichtlichen Spiegelungen, aber die glaubhafte Verschattung und Beleuchtung der Bäume, der Bänke... Das ist so 2010 gegen 2024...
Diese Extreme werden aber zunehmen. Pathtracing ist am kommen. Die Zeiten wo Games nur hier und da bisschen Schatten und Reflektionen eingebaut haben, wie Battlefield 5 vor 6 Jahren, die sind vorbei. Games nutzen zunehmen RTGI oder gleich Pathtracing, siehe Dragons Dogma 2 mit eingebautem Pathtracing Renderer für Devs.. Und Cyberpunk 2 wird 100%ig ebenfalls wieder Pathtracing verwenden. Und jede Wette Witcher dann auch.
Ok, bei der Optik bin ich ja voll bei dir. Aber bis Path Tracing wirklich relevant wird, also sich weiter verbreitet könnte sogar ich noch warten...

Das sind bis jetzt, wo es wirklich eingebaut ist Cyberpunk und Alan Wake oder?
Wann kommt Cyberpunk 2, wann kommen andere Spiele mit Path Tracing auf dem Niveau...

RTGI ist nicht unbedingt der Fps Killer. Das geht oft auch mit AMD gut genug.


Selbst nen Early Access Game wie Grayzone Wardingens, nutzt HW Lumen mit RTGI etc.
Avatar auch, oder? Wenn ja, da lief die XTX auf Augenhöhe zur 4070ti s und auf beiden gut genug.
Und das Black Myth Wukung is auch UE5 mit Pathtracing dieses Jahr..
Ich bin auf Benchs gespannt.
In einem Spiel wie Battlefield will ich eher 120FPS+. Da wird alles auf HighFPS eingestellt. Was willst Du in einem Shooter mit 60FPS?


In 4k wäre der Performancemode natürlich eine Option, in 1440p nicht.
Schauen wir mal, was die neuen Karten können.


Also optisch gab es einen enormen Mehrwert von 1080p auf 1440p. Und bei einem größeren Monitor will ich ungern bei 1440p bleiben. Gern auch mit DLSS/FSR. Nutze ich aktuell ja auch.

Keine Ahnung was Du mit BruteForce in dem Zusammenhang meinst.
Ich denke er meinte, das man heute schon RT sehr gut nutzen kann, sofern man Upscalin gnutzt. Siehe eine RTX4070 super zum Beispiel.
Langfristig habe ich von einem 4k OLED mehr als wenn ich mir jetzt einen 1440p OLED hole. Denn der 4k OLED ist dennoch der logische Schritt. Aber wie gesagt will ich ungern einen größeren Monitor bei selber Auflösung.
 
Zuletzt bearbeitet:
Und dir ist klar, dass die Testszenen eher worst-case sind?
Dein Versuch Nvidia Karten als nicht schnell genug für Pathtracing zu framen ist jedenfalls gescheitert.

Aber nur die AMD, die Nvidia nicht gell?:lol:Du bist so lost Brudi.
Deine ganze Argumentation ist komplett gaga.
Brudi? Na ich hoffe doch inständig, dass es von deiner Sorte nicht allzuviele gibt. Habt ihr schon große Pause? Dann such mal bitte den nächsten Lehrer auf und frag ihn, ob er dir eine anständige Ausdrucksweise beibringen könnte, du würdest nämlich gern versuchen dich mit Erwachsenen zu verständigen.

Natürlich ist mir das bewusst, aber wie vergleichst du denn sonst? Etwa während der Charakter vor eine Wand schaut, oder ausschließlich Himmel betrachtet? Du hast scheinbar nicht verstanden wie man bencht.
Raff und Kollegen haben uns die Arbeit abgenommen und für uns alle möglichen Konfigurationen getestet. Dabei kam raus, dass sowohl die 7900XTX als auch die 4080 nicht ansatzweise genug fps liefern, selbst mit Performance upsampling. Dann wird hier aber von Jack behauptet, dass eine Ada Mittelklassekarte (also 4060ti, 4070) locker könnten, mit qualitiy upsampling, was eine theoretische 8800XT nicht könnte. Das ist halt Unfug. Wie soll die 4070 etwas in höheren Qualitätseinstellungen bewerkstelligen, das eine 4080 in niedrigeren nicht schafft?

Du Flitzpiepe hast offensichtlich den gesamten Zusammenhang nicht verstanden und dich mit diesem Post quasi selbst diffamiert.
 
Und man achte ganz genau auf die Details, nicht die offensichtlichen Spiegelungen, aber die glaubhafte Verschattung und Beleuchtung der Bäume, der Bänke... Das ist so 2010 gegen 2024...
Das Problem bei Screens ist, dass man das alles garnicht so wiedergeben kann welchen Unterschied Raytracing/Pathtracing machen kann. Abseits von Spiegelungen gibt es da so viel mehr.
Hinterhofatmosphäre pur...
8.jpg

...es wäre auf alle Fälle zu begrüßen wenn AMD bei Raytracing richtig anzieht.
 
Die wollen aber scheinbar nicht. Ihre Modulbauweise würde es doch ermöglichen, aber die setzen da scheinbar keine Prioritäten.

Vielleicht hat Jensen deshalb so gegrinst, beim Gratulationsvideo zu AMD's vierzigsten. Weil er und Lisa sich schlicht einig sind. Man vergisst gerne, dass er bei AMD gelernt hat.
 
Zuletzt bearbeitet:
Das Problem bei Screens ist, dass man das alles garnicht so wiedergeben kann welchen Unterschied Raytracing/Pathtracing machen kann. Abseits von Spiegelungen gibt es da so viel mehr.
Hinterhofatmosphäre pur...
Anhang anzeigen 1459427

...es wäre auf alle Fälle zu begrüßen wenn AMD bei Raytracing richtig anzieht.
Definitiv, ich finde die beiden Screens sehr beeindruckend von mir. Das erste wenn man mal schaut das ganze Licht überall, wie realistisch das aussieht und dann auch die frau wie fein und gut ausgeleuchtet. <3
Cyberpunk2077_2024-03-30_22-52-00-1x_GainRESV3_Natural.jpg
Cyberpunk2077_2024-03-28_23-02-09-1x_GainRESV3_Natural.jpg
 
Da möchte ich zustimmen. Ich hatte damals, bei den ersten pt Bildern überlegt, dass der Unterschied ja sehr gering wäre, aber in bestimmten Szenen und vor allem in Bewegung ist das schon viel deutlicher. Da macht pt einfach eine ganz andere Figur. Hoffentlich trauen sich mehr Entwickler, darauf zu setzen, oder allgemein mal RTGI zumindest als Standard zu etablieren.
 
Zurück