Special Cyberpunk 2077 mit Pathtracing im Test: GPUs fallen bei echter Next-Gen-Grafik um wie die Fliegen

Oh man...

Sowas müsste man eigentlich CDPR schicken, damit die das genauer untersuchen können.

Kann ja nicht sein, dass durch ein einfaches umbenennen der .exe mehr FPS generiert werden bzw schlechtere lows bei Intel.
Wie ein Vorredner schon angemerkt hat, haben Hersteller in Sachen Treibern eine Datenbank, die im Hintergrund auch aufgrund einer Benennung Fixes und Optimierungen aktivieren.

Ziemlich gewagte These, wenn man dazu ein Game als Referenz heranzieht, dass absolut offensichtlich nur für die Nvidia-Architektur optimiert wurde und die andere Architekturen im Zweifel sogar deutlich! benachteiligt
Eine gewagte These ist es, hier zu unterstellen, dass hier irgendein Entwicklerstudio andere Architekturen deutlich benachteiligen würde, was ja soviel heißen würde, dass diese zum Negativen hin manipuliert würden.

Leute, setzt mal die Aluhüte ab. Solange kein Vendor Lock integriert wurde (wie es damals AMD bei Godfall verbrochen hat), besteht für alle Architekturen Chancengleichheit. Schließlich hat der Grafikkartenentwickler die Referenzsoftware, auf die er seine Grafikkarten auslegt, genauso in den Fingern, wie auch die Konkurrenz. Der Rest ist eine reine Abschätzung, wie sich eine Workload zukünftig entwickeln könnte. Da kann man Glück und Pech haben.
AMD lag mit der Prognose eben daneben, dass es zu Früh sei um auf AI und Raytracing zu setzen. Die Fehleinschätzung müssen sie jetzt eben auch ausbaden.

Wenn ich dann am Bedarf vorbeientwickle, ist es eine unverschämtheit die Schuld dafür einem Studio in die Schuhe schieben zu wollen, die absichtlich irgendwelche Marken benachteiligen würden. Grundsätzlich ist jedes Studio bedacht, eine möglichst breite Basis ansprechen zu können, um höhere Stückzahlen absetzen zu können.
 
Wie ein Vorredner schon angemerkt hat, haben Hersteller in Sachen Treibern eine Datenbank, die im Hintergrund auch aufgrund einer Benennung Fixes und Optimierungen aktivieren.


Eine gewagte These ist es, hier zu unterstellen, dass hier irgendein Entwicklerstudio andere Architekturen deutlich benachteiligen würde, was ja soviel heißen würde, dass diese zum Negativen hin manipuliert würden.

Leute, setzt mal die Aluhüte ab. Solange kein Vendor Lock integriert wurde (wie es damals AMD bei Godfall verbrochen hat, besteht für alle Architekturen Chancengleichheit. Schließlich hat der Grafikkartenentwickler die Referenzsoftware, auf die er seine Grafikkarten auslegt genauso in den Fingern, wie auch die Konkurrenz.
Wenn ich dann am Bedarf vorbeientwickle, ist es eine unverschämtheit die Schuld dafür einem Studio in die Schuhe schieben zu wollen, die absichtlich irgendwelche Marken benachteiligen würden.
Nun wir reden hier aber nicht von irgendeinem Entwickler sondern von CPR - den CP 2077 Launch haben dann aber eh alle mitgekriegt oder?!
 
@ZeroZerp
Ich erinnere hier auch gerne an den TW3 Launch und der automatisch eingestellten 64x Tesselation, die man nur üer Treiber reduzieren konnte. Hier war die Antwort von CDPR, dass sie davon nichts wussten, da sich Nvidia um die Optimierung gekümmert hat.

Aber es geht im Grunde garnicht darum, dass ein Hersteller böswillig benachteiligt wird, sondern nur darum, dass nur für einen optimiert wird. Das ist schon seit mindestens 15 Jahren so, dass Enwickler im Partnerprogram von AMD(damals noch ATi), oder eben Nvidia sind und daher die Spiele auch eher für die eine, oder anderen Seite optimiert wird.
 
Eine gewagte These ist es, hier zu unterstellen, dass hier irgendein Entwicklerstudio andere Architekturen deutlich benachteiligen würde, was ja soviel heißen würde, dass diese zum Negativen hin manipuliert würden.
Böswillig wird das kaum sein, viel besser macht es das aber auch nicht. Wenn selbst die User selbst den Fehler so einfach fixen können sollte es für CDPR doch ein leichtes sein das glatt zu ziehen. Zumal sie sich der Problematik ja grundsätzlich durchaus bewusst sind.

Die Aluhut Keule ist an der Stelle einfach unnötig.
 
Hi,

Hmm, von drei Herstellern, fegt einer alle anderen weg und zeigt ihnen die Rücklichter.
Da sollte doch eigentlich die, eine oder andere, Augenbraue hochgezogen werden, oder?

In diesem NVIDIA optimierten Spiel versagen alle Grakas anderer Hersteller, egal welches Feature gerade implementiert wird.

Ich fühle mich schon fast wie zu den unseligen 90er-Zeiten von Glide.....wo gerne für eine Graka optimiert wurde....

Gruß

Alef
 
Ist jetzt schon eine weile her aber gab es damals bei Crysis auch so viel Rumgeheule weil es nicht flüssig auf der eigenen Hardware lief und da wo es mehr oder weniger schlecht lief waren High End GPU´s ?
 
Also ich muss ehrlich gestehen, spiele ich CP2077 aktiv, fällt mir der Unterschied zwischen RT Psycho und PT Overdrive kaum auf. Da müsste ich
schon innehalten und genau schauen. Ich würde also geschmeidige 110 - 130FPS gegen 75 - 95FPS ( 3440x1440p) tauschen und alles unter 90FPS nervt mich leider sofort.
Alles @4587x1920p (anstatt nativ 3440x1440p) I9-9900KS @5.1Ghz 4090OC @3015MHz 1,025mV +750RAM, Volle Details, RT "Psycho", DLSS2 "Ausgeglichen", FG "on" und DLSS Schärfe auf hoch.
 
Ist jetzt schon eine weile her aber gab es damals bei Crysis auch so viel Rumgeheule weil es nicht flüssig auf der eigenen Hardware lief und da wo es mehr oder weniger schlecht lief waren High End GPU´s ?


Nope da wurden 4 Gpus mit Sekundenkleber zusammengschweisst und man freute sich wenn der Pc nur 1000 Watt brauchte und 27 Fps schaffte maxed out. Da war geil. :ka:

Heute: Braucht man nicht, sieht doch gleich aus, mimimimimi
 
Ist jetzt schon eine weile her aber gab es damals bei Crysis auch so viel Rumgeheule weil es nicht flüssig auf der eigenen Hardware lief und da wo es mehr oder weniger schlecht lief waren High End GPU´s ?
Nein. Aber hier wird auch nicht geheult, sondern kritisiert.

Ausserdem gab's bei Crysis 2 Punkte, die die Kritiker besänftigt haben.
Erstens lief es bei allen Herstellern gleich und zweitens sah es, der einhelligen Meinung nach, auch entsprechend aus. Heutige Kritikpunkte ja eher die Bevorteilung eines Herstellers und das Kosten/Nutzen-Verhältnis.
 
Nein. Aber hier wird auch nicht geheult, sondern kritisiert.

Ausserdem gab's bei Crysis 2 Punkte, die die Kritiker besänftigt haben.
Erstens lief es bei allen Herstellern gleich und zweitens sah es, der einhelligen Meinung nach, auch entsprechend aus. Heutige Kritikpunkte ja eher die Bevorteilung eines Herstellers und das Kosten/Nutzen-Verhältnis.
Crysis lieferte damals einen unfassbar krassen Sprung. So einen nochmals zu erreichen ist bei dem Level das man mittlerweile hat einfach kaum möglich. Irgendwie würde ich mir das wünschen nochmal ein solchen WOW Effekt zu erleben aber ich glaube das ich das nicht mehr erleben werde.
Halte aber Kritik weil das Kosten/Nutzen Verhältnis nicht stimmt für unsinnig. Fortschritt kann es nur geben, wenn man solche Techniken voran bringt auch wenn Kosten/Nutzen nicht da sind und man damit sicherstellt das eben genau daran langfristig gearbeitet wird. So etablieren sich viele Technologien mit der Zeit!
 
Crysis lieferte damals einen unfassbar krassen Sprung. So einen nochmals zu erreichen ist bei dem Level das man mittlerweile hat einfach kaum möglich. Irgendwie würde ich mir das wünschen nochmal ein solchen WOW Effekt zu erleben aber ich glaube das ich das nicht mehr erleben werde.
Mag sein. Dann darf man aber auch nicht erwarten, dass die Leute so beeindruckt sind wie damals.
Halte aber Kritik weil das Kosten/Nutzen Verhältnis nicht stimmt für unsinnig. Fortschritt kann es nur geben, wenn man solche Techniken voran bringt auch wenn Kosten/Nutzen nicht da sind und man damit sicherstellt das eben genau daran langfristig gearbeitet wird. So etablieren sich viele Technologien mit der Zeit!
Das Kosten-Nutzen-Verhältnis ist es was den Fortschritt bringt. Techniken, Verfahren, Geräte und Materialien werden nicht erfolgreich wenn sie erfunden werden, sondern wenn sie massenhaft preiswert produziert werden können.
Das wird normalerweise dann der "Durchbruch" der Technik, des Verfahrens etc. genannt.

Natürlich kann man der Meinung sein, man unterstützt die F/E Abteilungen der Unternehmen indem man die vielbeschworen Early Adopter Aufschläge zahlt.
Jedoch sehe ich nicht ein, warum ich Unternehmen unterstützen soll.
Jede grosse Branche wird eh schon subventioniert, davon ab heißt es doch immer freie Marktwirtschaft. Müssen Unternehmen nicht einfach mehr von ihren Gewinnen in die Hand nehmen, wenn's sonst für F/E nicht reicht? Und wenn sie es nicht tun, gehen sie unter. Darum geht's doch beim Wettbewerb, oder nicht? Warum sollte ich mich jetzt bemüßigt fühlen da einem Unternehmen zu helfen? Wo bleibt denn da das unternehmerische Risiko, das doch die Erklärung dafür ist, dass sie die Gewinne behalten dürfen?
 
Bessere Grafik ist ja immer geil und so. Aber ganz ehrlich, ich seh zwischen RT Psycho und Pathtracing keinen wirklichen Unterschied mehr. Auch hier auf den Vergleichsbildern. Wenn ich die Schieber hin und her schiebe, ists hier und da mal etwas heller oder dunkler, aber bessere Spiegelungen oder Schatten fallen mir da nicht wirklich auf.
 
Ich kann bei meinem 5800X3D auch was komisches in vielen Spielen beobachten wenn ich nur eine UEFI Option ändere. Und zwar:
-> High Precision Event Timer (HPET)
Bei meinem Gigabyte B550 Vision D-P ist die standardmäßig angeschaltet, aber sobald ich das ausschalte hab ich in 99% aller Spiele messbar mehr FPS.
 
Böswillig wird das kaum sein, viel besser macht es das aber auch nicht.
Bitte die entsprechenden Belege vorlegen.
Es gibt genügend Pathtracingbenchmarks - auch ohne Mitwirken von Nvidia, die klar zeigen wie AMDs Grafikpipeline Schwierigkeiten mit Strahlenbündeln und bounces hat.

Wenn selbst die User selbst den Fehler so einfach fixen können sollte es für CDPR doch ein leichtes sein das glatt zu ziehen.
Wenn AMD das nicht durch Treiber beheben kann, werden User da gar nichts machen können.
Zumal sie sich der Problematik ja grundsätzlich durchaus bewusst sind.
Sicher nicht. Sie haben mit AMD zusammen sogar FSR 2 implementiert. Da wird auch der DXR Pfad analysiert worden sein.
 
RT schaut schon besser aus. Sieht man schlecht auf Screenshots oder komprimierten Videos, aber wenn man den direkten Vergleich live sieht , also mit sozusagen zwei Monitoren gegenüber, schnalzt man schon mit der Zunge. Das Problem ist, dass es auch nur im direkten Vergleich so geil ist. Für mich, am einzelnen Rechner, macht es ehrlich keinen Unterschied und ist mir (stand jetzt) das Geld als “Early Adopter” nicht wert.

Mich würde es nicht wundern , wenn es genauso endet wie PhysX. Erst eine separate Karte von Ageia , die fast keinen Menschen interessiert hat. Dann hat Nvidia Adeia aufgekauft und die PhysX-Technik in die eigenen Grafikkarten implementiert und Spiele damit gefördert und plötzlich war es für eine gewisse Gruppe an Spielern der heißeste Scheiß, weil in Batman Arkham City , statt 10, 100 Partikel durch die Gegend geflogen sind. Letztendlich hat es aber kein Mensch gebraucht, da sich keine zwei Jahre später die Havok Physik Engine von Valve durchgesetzt hat, damit die CPU beim zocken auch was zu tun hat. Momentan haben wir die RT Cores, die man teuer bezahlen muss, und als Softwarelösung entwickelt sich Lumen in der Unreal Engine immer weiter und macht optisch, im Vergleich zu RT, fast keinen Unterschied mehr.
 
Zurück