Special Cyberpunk 2077 mit Pathtracing im Test: GPUs fallen bei echter Next-Gen-Grafik um wie die Fliegen

Wow hätte echt nicht gedacht, das die 4070 TI so gut ist mit Pathtracing und das ohne FG und DLSS Gedöns. Diese schafft laut benchmarkt 55 FPS auf einer 3440x1440 Auflösung nicht schlecht.
Was ich aber noch besser finde, ist der Prozessor benchmarkt von Dave ein i5 13600k ich echt stark und sollte nicht unterschätzt werden, nur weil er günstiger ist im Vergleich zu anderen CPUs.
Das die Radeon karten so schlecht abschneiden, ist ja kein Geheimnis, ich hoffe AMD wird dort nachlegen.
Kann mir einer erklären, warum der 7800X 3-D so schlechter ist wie ein i5 13600K? Der größere Bruder 7950X 3-D schneidet hier deutlich besser ab.
 
Mag sein. Dann darf man aber auch nicht erwarten, dass die Leute so beeindruckt sind wie damals.

Das Kosten-Nutzen-Verhältnis ist es was den Fortschritt bringt. Techniken, Verfahren, Geräte und Materialien werden nicht erfolgreich wenn sie erfunden werden, sondern wenn sie massenhaft preiswert produziert werden können.
Das wird normalerweise dann der "Durchbruch" der Technik, des Verfahrens etc. genannt.
Fortschritt heißt nicht Massentauglichkeit oder ein gutes Kosten/Nutzen Verhältnis! Fortschritt bedeutet etwas besser zu können wie vorher oder etwas überhaupt umsetzen zu können. Massentauglichkeit kann manchmal eine Bedingung dafür sein, ist aber keine Notwendigkeit!
Natürlich kann man der Meinung sein, man unterstützt die F/E Abteilungen der Unternehmen indem man die vielbeschworen Early Adopter Aufschläge zahlt.
Jedoch sehe ich nicht ein, warum ich Unternehmen unterstützen soll.
Jede grosse Branche wird eh schon subventioniert, davon ab heißt es doch immer freie Marktwirtschaft. Müssen Unternehmen nicht einfach mehr von ihren Gewinnen in die Hand nehmen, wenn's sonst für F/E nicht reicht? Und wenn sie es nicht tun, gehen sie unter. Darum geht's doch beim Wettbewerb, oder nicht? Warum sollte ich mich jetzt bemüßigt fühlen da einem Unternehmen zu helfen? Wo bleibt denn da das unternehmerische Risiko, das doch die Erklärung dafür ist, dass sie die Gewinne behalten dürfen?
Niemand zwingt dich die technologischen Entwicklungen zu bezahlen. Du kannst ja jederzeit in den Gebrauchtmarkt und alte Produkte erwerben. Sich aber zu beschweren dass neue Technologien einen geringen Kosten/Nutzen haben bringt nichts. Selten kannst du eine Technologie einführen und sie funktioniert sofort einwandfrei und liefert sofort ein super Kosten/Nutzen. Häufig sind danach noch diverse Iterationen notwendig, die Felderfahrung ist jedoch zwingend erforderlich.
 
AMD hat im Grafikkarten Bereich ein riesiges Problem und das sind sie selber. Immer wenn es anfängt zu laufen vergeigen sie es in dem sie Winterschlaf halten und sich auf ihre Lorbeeren ausruhen. Sie Reagieren immer nur anstatt zu Agieren. das hat man in der Vergangenheit so oft gesehen. Desswegen glaube sollte es diesmal Intel ernst meinen werden die Duelle nicht mehr zwischen Rot vs. Grün sondern Blau. vs. Grün entschieden.
 
RT schaut schon besser aus. Sieht man schlecht auf Screenshots oder komprimierten Videos, aber wenn man den direkten Vergleich live sieht , also mit sozusagen zwei Monitoren gegenüber, schnalzt man schon mit der Zunge. Das Problem ist, dass es auch nur im direkten Vergleich so geil ist. Für mich, am einzelnen Rechner, macht es ehrlich keinen Unterschied und ist mir (stand jetzt) das Geld als “Early Adopter” nicht wert.

Mich würde es nicht wundern , wenn es genauso endet wie PhysX. Erst eine separate Karte von Ageia , die fast keinen Menschen interessiert hat. Dann hat Nvidia Adeia aufgekauft und die PhysX-Technik in die eigenen Grafikkarten implementiert und Spiele damit gefördert und plötzlich war es für eine gewisse Gruppe an Spielern der heißeste Scheiß, weil in Batman Arkham City , statt 10, 100 Partikel durch die Gegend geflogen sind. Letztendlich hat es aber kein Mensch gebraucht, da sich keine zwei Jahre später die Havok Physik Engine von Valve durchgesetzt hat, damit die CPU beim zocken auch was zu tun hat. Momentan haben wir die RT Cores, die man teuer bezahlen muss, und als Softwarelösung entwickelt sich Lumen in der Unreal Engine immer weiter und macht optisch, im Vergleich zu RT, fast keinen Unterschied mehr.
Raytracing ist gekommen, um zu bleiben. Daran besteht gar kein Zweifel. Bessere Physik wäre aber auch mal wieder was. :D

Ich finde es überraschend einen GPU Pathtracing Test mit CPU Werten zu füllen, die wenig mit dem Test zusammenhängen.
Die Erstellung und Wartung der Bounding Volume Hierarchy (u. a.) kostet auch Prozessorleistung. Da wir das gerne immer wieder sagen, stellen wir auch Benchmarks zur Untermauerung bereit. :-)

MfG
Raff
 
AMD hat im Grafikkarten Bereich ein riesiges Problem und das sind sie selber. Immer wenn es anfängt zu laufen vergeigen sie es in dem sie Winterschlaf halten und sich auf ihre Lorbeeren ausruhen. Sie Reagieren immer nur anstatt zu Agieren. das hat man in der Vergangenheit so oft gesehen. Desswegen glaube sollte es diesmal Intel ernst meinen werden die Duelle nicht mehr zwischen Rot vs. Grün sondern Blau. vs. Grün entschieden.
Wie recht du hast, als hinken die hinter her, wie ihn einbeiniger Pirat. Nvidia legt als vor, sei es DLSS, FG, RT usw. AMD reagiert immer nur und liefert immer erst spät.
Ich erinnere mich an die Zeiten von ATI, dort wurde nicht nur reagiert, sondern gemacht. Leider führt AMD einen zwei fronten Krieg im Vergleich zu Nvidia.
Bei Intel wird es nicht anderes sein, die Problem, die AMD hat wird auch Intel haben leider.
 
@ZeroZerp
Ich erinnere hier auch gerne an den TW3 Launch und der automatisch eingestellten 64x Tesselation, die man nur üer Treiber reduzieren konnte. Hier war die Antwort von CDPR, dass sie davon nichts wussten, da sich Nvidia um die Optimierung gekümmert hat.
Das ist ein unrühmliches Kapitel, in welchem wir nie erfahren werden, wer da jetzt was gemacht hat. Ich hab das vor einiger Zeit schonmal recherchiert. Da haben sich CDPR, NVIDIA und AMD gegenseitig den schwarzen Peter zugeschoben.

Schon erstaunlich, dass erst nach dem Launch die Firmen draufkamen, dass auf ALLEN Plattformen die Performance mit eingeschalteter Tesselation einknickte. Je nach Generation und Marke mal mehr und mal weniger stark, aber durchweg deutlich spürbar.

Niemand will es bemerkt und niemand will etwas davon gewusst haben. Ich würde mich diesbezüglich nach offizieller Informationslage davor hüten, jemandem jetzt hier alleiniges Versagen oder die alleinige Schuld zuzuschieben.
Ich denke, dass das eine unrühmliche Gemeinschaftsproduktion der drei beteiligten Firmen war.

Aber es geht im Grunde garnicht darum, dass ein Hersteller böswillig benachteiligt wird, sondern nur darum, dass nur für einen optimiert wird.
Wie soll denn so eine Optimierung bei Path- Tracing aussehen? Das läuft über die einfachsten Shader und einfachsten Algorithmen der Welt.
Klar werden die neuen Specials bzw. Beschleunigungsmöglichkeiten der 4xxxer Generation genutzt. Was will man aber optimieren, wenn z.B. die Radeon Karten das nicht können? Soll der Hersteller dann absichtlich das eigene Produkt bremsen oder Beschleunigungsfunktionen ausschalten?
Durch die standardisierte Implementation und den Straight Forward Ansatz von Pathtracing kann da nicht viel gerüttelt werden. Entweder die Karte hat die Leistung oder eben nicht.
Und dass AMD derzeit nicht die hellste Kerze am Pathtracing bzw. Raytracing- Himmel ist, ist doch nun wirklich kein Geheimnis und wird in jedem Test wieder und wieder bestätigt, wenn die dafür notwendigen Einheiten mal richtig unter Dampf gesetzt werden.
Ist ja auch OK- AMD hat einfach auf ein anderes Pferd gesetzt.

Das ist schon seit mindestens 15 Jahren so, dass Enwickler im Partnerprogram von AMD(damals noch ATi), oder eben Nvidia sind und daher die Spiele auch eher für die eine, oder anderen Seite optimiert wird.
Ja- Das war wie bereits erwähnt in den Rasterspielen möglich, da deutlich Performance rauszukitzeln, weil Du eben hunderte Shader hattest/hast, die man auf die eine oder andere Weise auf die Grafikkarte optimieren konnte.
Bei Pathtracing hast Du für die Kernaufgabe aber nur mehr eine Hand voll primitivster Shader, die aktuell noch Brute- Force zwei Beschleunigungsebenen durchlaufen. Da gibts nicht viel zu tricksen....

Böswillig wird das kaum sein, viel besser macht es das aber auch nicht. Wenn selbst die User selbst den Fehler so einfach fixen können sollte es für CDPR doch ein leichtes sein das glatt zu ziehen. Zumal sie sich der Problematik ja grundsätzlich durchaus bewusst sind.

Die Aluhut Keule ist an der Stelle einfach unnötig.
Die Keule hab ich deswegen herausgeholt, weil hier haltlos mit Vermutungen und Unterstellungen um sich geworfen wird, die den Anschein erwecken sollen, dass diese "faktisch" wären.

Und wie gesagt- Es ist bei NVIDIA und AMD völlig normal, dass die den Renderpfad eben auch durch die Dateinamen "intercepten". Sprich, wenn ein Programm erkannt wird, aktivieren und deaktivieren sich in den Treibern der Hersteller allerlei Dinge. Unter Anderem eben auch Fehlerbereinigungen bei Renderfehlern.
Somit- Wer sagt, dass bei AMD durch diesen "Trick" nicht einfach Berechnungen unter den Tisch fallen bzw. sich die Grafikqualität senkt oder es an manchen Stellen Fehler gibt? Muss natürlich nicht sein, ist aber möglich.
Somit besteht da eben schon ein erheblicher Unsicherheitsfaktor.

Für mich, am einzelnen Rechner, macht es ehrlich keinen Unterschied und ist mir (stand jetzt) das Geld als “Early Adopter” nicht wert.
Gleiches kann man von so ziemlich jeder anderen Grafikeinstellung sagen. Wenn Du auf dem Einzelrechner statt Ultra- Details auf mittlere Details zurückgehst, wirst Du ohne Vergleichsmöglichkeit nicht sonderlich viel vermissen.

Und auch, wenn Du nicht genau benennen kannst, was es ist. Nach einer Zeit auf Ultra würdest Du beim direkten Siwtich auf Mittel im Normalfall eben doch bemerken, dass es irgendwie anders aussieht.

Mich würde es nicht wundern , wenn es genauso endet wie PhysX.
Das wäre hervorragend. PhysX ist mit über 700 unterstützten Spielen die erfolgreichste Physikbibliothek in der Geschichte der Computerspiele gewesen.
Erst eine separate Karte von Ageia , die fast keinen Menschen interessiert hat.
Stimmt
Dann hat Nvidia Adeia aufgekauft und die PhysX-Technik in die eigenen Grafikkarten implementiert und Spiele damit gefördert und plötzlich war es für eine gewisse Gruppe an Spielern der heißeste Scheiß, weil in Batman Arkham City , statt 10, 100 Partikel durch die Gegend geflogen sind.
Stimmt- Das sah schon ziemlich cool aus und hat dem Szenenbild deutlich mehr Dynamik verliehen.
Letztendlich hat es aber kein Mensch gebraucht,
So wie jeder Grafikeffekt letztendlich nicht gebraucht wird.
da sich keine zwei Jahre später die Havok Physik Engine von Valve durchgesetzt hat,
Siehe oben. Havok war bei weitem weniger weit verbreitet als PhysX
Momentan haben wir die RT Cores, die man teuer bezahlen muss, und als Softwarelösung entwickelt sich Lumen in der Unreal Engine immer weiter und macht optisch, im Vergleich zu RT, fast keinen Unterschied mehr.
Es sind nicht die RT Cores, die man teuer bezahlt, sondern R&D in Sachen AI/KI und Raytracing. Nebst explodierender Fertigungspreise und allgemein galoppierender Inflation.
Und ja- Auch ich finde Lumen fortschrittlich. Nur- Auch das nutzt die RT Cores und ist in Teilbereichen auch RT basiert. Nur halt etwas (nicht viel) schneller, dafür aber etwas schlechter.
Schaut Euch doch mal die Performance bzw. die Anforderungen der UE5 Demos bzw. Titel an. Auch allesamt absolute Hardwarekiller.
Die Erstellung und Wartung der Bounding Volume Hierarchy (u. a.) kostet auch Prozessorleistung. Da wir das gerne immer wieder sagen, stellen wir auch Benchmarks zur Untermauerung bereit. :-)

MfG
Raff
Erstens das und zweitens fällt bei RTRT deutlich mehr Szenengeometrie an, da Du grundsätzlich nicht nur die auf das FOV gerichtete Projektionsmatrix zu berechnen hast, sondern die gesamte umgebende Szenerie plötzlich einfluss auf das Ergebnis hat, welches sich vorne, also im Blickfeld abspielt. Du darfst sie also nicht mehr so einfach "cullen".
 
Zuletzt bearbeitet:
Bitte die entsprechenden Belege vorlegen.
Es gibt genügend Pathtracingbenchmarks - auch ohne Mitwirken von Nvidia, die klar zeigen wie AMDs Grafikpipeline Schwierigkeiten mit Strahlenbündeln und bounces hat.
So und wenn du dir Schaum vom Mund gewischt hast, liest du meinen Beitrag noch mal durch. Vllt fällt dir ja im zweiten Anlauf auf das ich die CPUs und nicht GPUs meine. Das AMD GPUs bei Pathtracing völlig wegbrechen ist doch logisch.
 
Zuletzt bearbeitet:
Auf den Screenshots sieht man deutlich, da fehlen eine Menge Schatten und Details, mit der Psycho-Einstellung und auch mit der Pathtracing Einstellung. :lol:
Über RT oder jetzt Patch-Tracing deren Impact auf die Spielegrafik in den meisten Fällen kaum bis gar nicht sichtbare Unterschiede macht, sag ich gar nix mehr.
Die Unterschiede sind echt marginal und eigentlich lachhaft - 5 min im Game und man bemerkt sie nicht mehr.
Gleiches fällt mir aber auch bei RT ständig auf

ACHTUNG: Wer 5 min lang die nächsten Screenshotvergleiche betrachtet - erkennt keine Unterschiede mehr!

(Der Vorteil: Wenn man den Unterschied nicht mehr sieht - kann man mit einer 1080TI auch in 15 Jahren noch alle Fortschritte hautnah miterleben...)
Cyb vs Cyberpunk 2077 (C) 2020 by CD Projekt RED Drink ultra off.jpg

Cyb vs Cyberpunk 2077 (C) 2020 by CD Projekt RED Drink Path on.jpg

Cyberpunk 2077 (C) 2020 by CD Projekt RED 04.05.2023 10_23_41.jpg

Cyberpunk 2077 (C) 2020 by CD Projekt RED 04.05.2023 10_24_58.jpg

noofuu:


und in meinen Augen null Optimiert ist ein paar schöne Spiegelungen die teilweise 50% der Leistung fressen.

Der Unterschied ist deutlich und es müssen gar keine Spiegelungen im Bild sein - man kann sich natürlich selbst die ganze Zeit was vorlügen...
 
Zuletzt bearbeitet:
Hübsche Möhre an der Angel.

Werde ich sicherlich auch mal eine Safari machen wenn ich mich irgendwann dazu entscheide, das Spiel durchspielen zu wollen. Vielleicht gibt es bis dahin auch mehr Inhalte und vielleicht ist das Spiel bis dahin mit Glück nicht mehr so Betaware.
 
Hübsche Möhre an der Angel.

Werde ich sicherlich auch mal eine Safari machen wenn ich mich irgendwann dazu entscheide, das Spiel durchspielen zu wollen. Vielleicht gibt es bis dahin auch mehr Inhalte und vielleicht ist das Spiel bis dahin mit Glück nicht mehr so Betaware.
Zocke es gerade und bis auf ein paar kleinere Ki aussetzer gibt es meiner meinung nach nichts zu beanstanden.
 
Zuletzt bearbeitet:
"Cyberpunk 2077 ist mit reinem Rasterizing bereits ein bildhübsches Spiel"

Dem ist von meiner Seite aus nichts hinzuzufügen !!
 
Raytracing ist gekommen, um zu bleiben. Daran besteht gar kein Zweifel. Bessere Physik wäre aber auch mal wieder was. :D



MfG
Raff
Sicher und wie man an der UE5 oder anderen Modellen eindrucksvoll sieht geht es auch wie Physik nicht nur Grün. Pathtracing ist schon eindrucksvoll. Ob der Path aber so bleiben wird oder wie man es in Zukunft umsetzt, wir bleiben gespannt.
 
Fortschritt heißt nicht Massentauglichkeit oder ein gutes Kosten/Nutzen Verhältnis! Fortschritt bedeutet etwas besser zu können wie vorher oder etwas überhaupt umsetzen zu können. Massentauglichkeit kann manchmal eine Bedingung dafür sein, ist aber keine Notwendigkeit!
Sag das Henry Ford ?.
Niemand zwingt dich die technologischen Entwicklungen zu bezahlen. Du kannst ja jederzeit in den Gebrauchtmarkt und alte Produkte erwerben.
Genau das tu ich.
Sich aber zu beschweren dass neue Technologien einen geringen Kosten/Nutzen haben bringt nichts.
Doch, seine Meinung äussern, Entwicklungen kritisieren ist ein Selbstzweck. Mehr Begründung braucht Niemand.
Selten kannst du eine Technologie einführen und sie funktioniert sofort einwandfrei und liefert sofort ein super Kosten/Nutzen. Häufig sind danach noch diverse Iterationen notwendig, die Felderfahrung ist jedoch zwingend erforderlich.
Und man kann der Meinung sein, es ist zu früh oder noch zu teuer. Oder man ist anderer Meinung. Alles legitim.
 
Sicher und wie man an der UE5 oder anderen Modellen eindrucksvoll sieht geht es auch wie Physik nicht nur Grün. Pathtracing ist schon eindrucksvoll. Ob der Path aber so bleiben wird oder wie man es in Zukunft umsetzt, wir bleiben gespannt.
Ich würde mir wünschen, dass man vom starren zwei Ebenen Konzept in Sachen Beschleunigungsstruktur weggeht.
Das würde nochmal viel helfen. Derzeit ist noch arg viel unnötiges Brute- Forcing dabei.

zudem munkelt man, dass Cyberpunk zu Release des neuen DLCs neural radiance caching for path tracing unterstützen wird, was noch einmal einen erheblichen Beschleunigungsschub geben könnte....
 
Sag das Henry Ford ?.
Er hat definitiv die Auto produktion revolutioniert. Aber das Prinzip war schon vorher in anderer Form in Verwendung. Sprich weiterentwicklung :P
Aber ich versteh worauf du hinaus willst. Und ja es gibt auch Innovationen die von heute auf morgen Dinge auf den Kopf stellen wenn diese in den Markt drängen. Nur ist das sehr selten.
Genau das tu ich.

Doch, seine Meinung äussern, Entwicklungen kritisieren ist ein Selbstzweck. Mehr Begründung braucht Niemand.

Und man kann der Meinung sein, es ist zu früh oder noch zu teuer. Oder man ist anderer Meinung. Alles legitim.
Seinem ärger luft zu verschaffen ist durchaus legitim.
 
Ich freu mich drauf Cyberpunk wieder durchzuspielen. Habe es beim Release durchgespielt und warte jetzt auf das DLC für den zweiten Durchgang. :)
 
Zurück