Cyberpunk 2077: Frische Benchmarks mit Update 1.2, Radeon und Geforce im Raytracing-Duell

Ja wir reden hier von einem SOC, der die Daten sowieso in ein und den selben Speicher packen muss.
Hast du einen SOC wo alle Spieldaten in GDDR6 lagern und genau so fix angebunden sind? Wohl kaum.

Der PC muss von der Platte in den Dram via PCI Express in den GPU Speicher. Ganz anderes Prinzip, die langsamste Verbindung ist entscheidend.
Der geteilte RAM der Konsolen ist Fluch und Segen zugleich, man darf nicht nur die positiven Aspekte betrachten. Der PC hat durch DRAM und VRAM auch ein paar entscheidende Vorteile.

Ja, alle Daten sind im extrem schnell angebundenen GDDR6 RAM, nur, System-Daten wie Audio, Game Logik etc also das was bei uns in den RAM kommt, braucht diese Geschwindigkeit gar nicht. Die brauchen eher geringe Latenzen. DRAM hat deutlich geringere Latenzen als GDDR6, demzufolge eignet sich der DRAM deutlich besser für die Systemdaten als GDDR.

Dann muss ja auch noch bedenken, dass es geteilter RAM ist. Je nachdem wie viele Systemdaten in den Speicher kommen, bleibt da logischerweise weniger als Videospeicher übrig. Microsoft hat das so kalkuliert, dass 10 GB bei der Series X als GPU-optimierter Speicher über einen schnelleren Bus angebunden sind, 6 GB an einen langsameren für Systemdateien. Von den 6 GB gehen 2.5 GB für das OS drauf, bleiben also noch 3.5GB für die CPU. Aabber, es ist nicht so, dass die CPU jetzt überhaupt keinen Zugriff mehr auf den GPU-optimierten Speicher hätte, es ist ja immer noch Shared Memory, die Systemdaten werden in vielen Fällen mehr als 3.5GB benötigen und das wird dann natürlich vom Fast-Bus, dem 10 GB GPU optimierten Speicher genommen. In der Praxis sollte die Series X eher zwischen 6 und 10 GB als Videospeicher zur Verfügung haben, je nach dem wie viel die Systemdaten belegen. Das sehen wir auch daran, dass sie bei CPU aufwendigen Titeln mit Raytracing wie Watch Dogs und Control die mittlere Texturdetailstufe nutzt, trotz dass sie ja eigentlich 16 GB RAM hat. Nur bleibt davon als Videospeicher halt nicht mehr viel übrig, nachdem man Systemdaten und OS-Reservierung abgezogen hat.
Das hast du halt auf dem PC nicht, da hast du z.B. mit einer 3080 fixe 10 GB, die exklusiv als Videospeicher genutzt werden, das sollte man als Vorteil nicht unterschätzen.
Wie bereits von anderen erwähnt, kann DirectStorage die GPU relevanten Daten nun direkt in den VRAM schießen, während sich die CPU weiterhin genüsslich mit den Systemdaten vergnügen kann.
Die Mods auf Nexus schaffen Abhilfe? Ich schaue es mir mal an. Danke... :-)
Nicht die Mods, die hab ich nur als Quellenangaben für meine Behauptungen genutzt. Der DLSS Sharpening Mod ist nicht so gut wie CAS Reshade oder NV Control Panel, wahrscheinlich isses defekt.
Ich empfehle dir, Reshade zu laden und dann AMD CAS zu aktivieren. Stelle es auf einen hohen Wert ein, wie 0.7 CAS und 0.7 Sharpening, dann sieht es ähnlich aus wie das TAA Sharpening. Wenn du dann mit Nativ vergleichst, schalte es wieder aus, denn sonst ist TAA doppelt geschärft!
 
Ich will diesen Offtopi jetzt hier nicht zu lange ziehen, ich erkenne die Vorteile der Technik und begrüße das ausdrücklich.Ich sehe dennoch auf einem PC keine Ersparnis auf dem Vram dadurch.
Ein PC ist wie du richtig sagtst,keine Konsole.
 
RT ist unnötig. alles Effekte die man auch ohne RT hinbekommt.
aber nvidia muss hier dank hype irgendwas teuer verkaufen. läuft.
Komplett siehe hitman 3. hatte mit der 3080 in allen games off ausser metro. Selbst das war nur bei 60-70fps in 1440p oft zu dunkel. Realistisch ist da gar nichts solange nicht alles darauf basiert. Abzocke aber wir ham diekohle e
 
Komplett siehe hitman 3. hatte mit der 3080 in allen games off ausser metro. Selbst das war nur bei 60-70fps in 1440p oft zu dunkel. Realistisch ist da gar nichts solange nicht alles darauf basiert. Abzocke aber wir ham diekohle e

Anständige Reflektionen bekommt zB. Battlefront 2 hin. Wer braucht da noch RT?
 
RT ist unnötig. alles Effekte die man auch ohne RT hinbekommt.
1. Nö.
Raytracing basiert auf einem völlig anderen Konzept.
Anständige Reflektionen bekommt zB. Battlefront 2 hin. Wer braucht da noch RT?
2. Battlefront 2 nutzt so genannte Stochastic Screen Space Reflections, im Prinzip bereits ein Raytracing-Ansatz.

Immer wieder lustig, wie mancher es einfach immernoch nicht schnallt, dass Raytracing nicht bloß irgend' ein Beleuchtungseffekt ist, sondern eine echte Simulation. ;)
 
Zuletzt bearbeitet:
1. Nö.
Raytracing basiert auf einem völlig anderen Konzept.

2. Battlefront 2 nutzt so genannte Stochastic Screen Space Reflections, im Prinzip bereits ein Raytracing-Ansatz.

Immer wieder lustig, wie mancher es einfach immernoch nicht schnallt, dass Raytracing nicht bloß irgend' ein Beleuchtungseffekt ist, sondern eine echte Simulation. ;)
Das RTX eine echte Simulation von Licht ist, mit all den physikalischen Effekten, würde ich klar verneinen. Es simuliert die Effekte von Licht in einem sehr begrenztem Spektrum und diese Effekte kann man sehr wohl auch anders simulieren.
 
Das RTX eine echte Simulation von Licht ist, mit all den physikalischen Effekten, würde ich klar verneinen. Es simuliert die Effekte von Licht in einem sehr begrenztem Spektrum und diese Effekte kann man sehr wohl auch anders simulieren.
RTX heißt nicht automatisch Raytracing.

RTX arbeitet eben mit den derzeit zur Verfügung stehenden Mitteln. Jeden einzelnen Lichtstrahl aus Sicht eines bewegenden Beobachters in Echtzeit zu berechnen, kostet natürlich massiv Leistung. Dass das derzeit noch nicht vollumfänglich in ein Computerspiel integriert werden kann, sollte sich von selbst verstehen.
In der professionellen 3D-Grafik aber ist Raytracing schon lange Standard und nicht mehr wegzudenken Dass das ganze irgendwann auch seinen Weg in Spiele in Form von Echtzeit-Raytracing finden wird, war schon lange abzusehen, erste Experimente gab's damit schon im letzten Jahrzehnt.
 
RTX 3060TI in Full HD schneller als das AMD Top Modell mit RT ON
:lol:
Welche Karte meinst Du genau ?!? :lol:


MfG Föhn.
und ich kaufe mir eine High End GPU und dann muss ich mit Einschränkungen leben ?

Nö !

Deshalb RTX 3090 !
Auch wenn 42 der Sinn des Lebens ist, aber für diese Anzahl an FPS 2000 € + ausgeben ohne Einschränkungen ?!?
High End ist da lediglich der Preis (und der Stromverbrauch) ... :ugly:

MfG Föhn.
 

Anhänge

  • 42 FPS.jpg
    42 FPS.jpg
    375,8 KB · Aufrufe: 66
Zuletzt bearbeitet von einem Moderator:
RT ist unnötig. alles Effekte die man auch ohne RT hinbekommt.
aber nvidia muss hier dank hype irgendwas teuer verkaufen. läuft.
Jo, bekommt man hin, ist dann aber unspielbar da die RT Berechnung über die Shader zu aufwändig ist. Sieht man ja an den RT Tests auf z.B. einer 1080ti mit emuliertem RT.

Die RT Cores sind ja nicht umsonst spezielle Einheiten auf den Chips. AMD hat die übrigens auch, heißen da nur Ray-Accelerators. Und teuer, ich weiss nicht, so viel Unterschied sehe ich nicht zwischen den UVP's der Nvidia und AMD Karten. Die Scalper-Preise sind ja bei beiden zurzeit exorbitant.

Was ist hier nur los, wenn Nvidia etwas "Neues" in den Consumer Bereich bringt (RT, DLSS, G-Sync) dann werden sie als Abzocker hingestellt, macht AMD dasselbe (SAM) dann sind sie der Heilsbringer. Diese Doppelmoral lässt sich doch nicht übersehen... Checkt doch mal dass keine der beiden Firmen der Good-Guy ist. Die wollen beide einfach nur Geld verdienen.

Innovationen fangen immer klein an. Deswegen ist die RT Leistung aktuell eben nur für ein paar Effekte zu gebrauchen. So fängt doch jeder Fortschritt an. Es gab noch nie eine Innovation die sofort perfekt war, nicht mal das Rad. Die Entwicklung benötigt immer Iterationen, absehbar ist trotzdem dass irgendwann die Spiele komplett per RT dargestellt werden. Dauert halt noch.
 
Falsch. NV verkauft z.B. die 3080 FE weiterhin für 719,-. Die Scalper Preise sollte man da nicht heranziehen, die macht der Markt und nicht Nvidia. Außerdem sind die aktuellen Scalper Preise bei AMD genauso hoch.
Also was interessiert mich eine UVP wenn ich zu diesem Preis KEINE bekomme ?!?
Und "Preise bei AMD genauso hoch" ist eine Exklusiv Meinung von Dir oder was ?!?
6800XT vs. 3080 bis zu 500 € unterschied und 6900XT vs. 3090 bis zu 1000 € (siehe Anhänge).

MfG Föhn.
 

Anhänge

  • a Preis 6800XT.jpg
    a Preis 6800XT.jpg
    558,6 KB · Aufrufe: 39
  • b Preis 3080.jpg
    b Preis 3080.jpg
    666,1 KB · Aufrufe: 16
  • c Preis 6900XT.jpg
    c Preis 6900XT.jpg
    584,3 KB · Aufrufe: 16
  • d Preis 3090.jpg
    d Preis 3090.jpg
    673,5 KB · Aufrufe: 28
Also was interessiert mich eine UVP wenn ich zu diesem Preis KEINE bekomme ?!?
Und "Preise bei AMD genauso hoch" ist eine Exklusiv Meinung von Dir oder was ?!?
6800XT vs. 3080 bis zu 500 € unterschied und 6900XT vs. 3090 bis zu 1000 € (siehe Anhänge).

MfG Föhn.
Ich bezog mich EXPLIZIT auf die Aussage von mannefix dass Nvidia seine Karten für 2500€ verkauft, das ist nunmal schlichtweg falsch. Die Scalper Preise sind einfach nicht relevant für diesen Vergleich, die wechseln täglich.

RX6800XT - UVP 650,-
RTX3080 - UVP 719,-

RX6900 - UVP 999,-
RTX3090 - UVP 1500,-

Scalper Preise:
RX6800XT - 1500,- -> Preissteigerung 230%
RTX3080 - 1800,- -> Preissteigerung 250%

RX6900 - 1800,- -> Preissteigerung 180%
RTX3090 - 2200,- -> Preissteigerung 146%

Ok, in dem oberen Beispiel ist ein Unterschied von 20%, mea culpa. Und im zweiten Beispiel, naja, da siehts anders aus. Wenn ich 2700,- für die 3090 ansetze sind beide gleichauf in der prozentualen Preissteigerung. Ob das jetzt eine "Exklusiv Meinung" von mir ist kann jeder selbst entscheiden. In absoluten Zahlen sind die Nvidia Karten immer teurer (egal ob UVP oder Scalper), kein Wunder, AMD kommt meist über den Preis.
 
Ich bezog mich EXPLIZIT auf die Aussage von mannefix dass Nvidia seine Karten für 2500€ verkauft, das ist nunmal schlichtweg falsch.

RTX3090 - 2200,- -> Preissteigerung 146%
Na ja, ich weiß dass ein JEDER Vergleich hinkt, aber bei Deinem mit den 2200 € für die 3090 trifft AUSSCHIEßLICH
für das eine günstigste Modell zu und wäre nur relevant wenn ALLE genau dieses Modell kaufen würden !!
Ab 2650 - 3900 € kosten all die anderen Custom Modelle ...
Aber lassen wir es gut sein. Du brauchst mir gegenüber Deinen kauf NICHT zu rechtfertigen.
Die 3090 ist und bleibt eine leistungsfähige Karte (nur halt mit bekacktem PL Verhältnis) :-P

MfG Föhn.
 

Anhänge

  • GPU CP 2077.jpg
    GPU CP 2077.jpg
    376,4 KB · Aufrufe: 14
  • NEUE Games.jpg
    NEUE Games.jpg
    453,6 KB · Aufrufe: 26
Wir sollten davon ausgehen, dass Nvidia das Vorgehen der Händler weitestgehend toleriert. Die 720€ die Nvidia auf dem Papier für die 3080 verlangt sind nichts wert. Nvidia liefert für den Preis an Endkunden nichts und Nvidia verlinkt auf seiner eigenen Webseite weiterhin auf Angebote von NBB, Alternate und Caseking, die jenseits von gut und böse sind.

AMD kann man zu gute halten, dass manchmal ein paar Karten über die Seite direkt von AMD verkauft werden, was zumindest ihren Willen signalisiert. Für den Markt als ganzes aber ehr ein Muster ohne Wert, das ist eher vergleichbar mit Pontius Pilatus der sich die Hände waschen will.

Das ist ein Unterschied zu den Konsolen, bei denen sich der Hersteller sichtlich bemüht, dass der Erstverkauf an Kunden auch wirklich zum UVP geschieht.

War der Vorteil des PCs auch früher, das Spiele schneller im Preis gesunken sind, so ist dieser Vorteil inzwischen ebenfalls dahin. Einerseits dank Abodienste, andererseits weil Sony nun viel aggressiveres und dynamische Preisgestaltung erlaubt, weswegen ein Launchtitel wie WatchDogs Legion jetzt schon nur noch 30€ kostet.

Den traurigen Zustand des PCs sehen wir ja an solchen Artikeln. Früher haben die Leute auf dem Schulhof Autoquartett gespielt und sich dabei PS Zahlen und Höchstgeschwindigkeiten um den Kopf geworfen, jetzt macht man das mit Benchmarkbalken von 1000€ GPUs. Was ist die Message am Ende? Bezahlbar ist das alles nicht, zumindest nicht für eine breit genuge Masse, dass der PC gegen die neuen Konsolen seine Relevanz halten könnte.


Klar, PC Gaming als ganzes legt zu. Bei Home-Office PCs auf denen irgendwelche Pixel und Minimal-Grafik Spiele laufen. Bei bestehenden Spielern die in Spielen für die sie weniger Zeit hatten ihre Aktivität wieder hochfahren. Aber das nützt Nvidia oder Cyberpunk unter dem Strich nichts.

Bestenfalls ändert sich das im Juli mit den Änderungen an Ethereum. Bis dahin sind wohl auch genug Leute geimpft, dass das öffentliche Leben wieder hochfährt und die Leute ihr Geld nicht mehr in den Schreibtisch stecken. Dann könnte der GPU Markt ganz empfindlich zusammenbrechen.
 
Mit meiner 6800/2600x habe ich die Auflösungsskalierung auf 80 Prozent gestellt. Dazu mittlere/Höhe Einsstellung, 1440p und Raytracing Schatten und Reflexionen an.

Ist gut spielbar und sieht tatsächlich gar nicht schlecht aus. Aber immer noch ein bugfest. Bin eh durch mit dem Spiel.
 
Ich bezog mich EXPLIZIT auf die Aussage von mannefix dass Nvidia seine Karten für 2500€ verkauft, das ist nunmal schlichtweg falsch. Die Scalper Preise sind einfach nicht relevant für diesen Vergleich, die wechseln täglich.

RX6800XT - UVP 650,-
RTX3080 - UVP 719,-

RX6900 - UVP 999,-
RTX3090 - UVP 1500,-

Scalper Preise:
RX6800XT - 1500,- -> Preissteigerung 230%
RTX3080 - 1800,- -> Preissteigerung 250%

RX6900 - 1800,- -> Preissteigerung 180%
RTX3090 - 2200,- -> Preissteigerung 146%

Ok, in dem oberen Beispiel ist ein Unterschied von 20%, mea culpa. Und im zweiten Beispiel, naja, da siehts anders aus. Wenn ich 2700,- für die 3090 ansetze sind beide gleichauf in der prozentualen Preissteigerung. Ob das jetzt eine "Exklusiv Meinung" von mir ist kann jeder selbst entscheiden. In absoluten Zahlen sind die Nvidia Karten immer teurer (egal ob UVP oder Scalper), kein Wunder, AMD kommt meist über den Preis.
Wow das hast dir jetzt aber dezent schön gerechnet. Die NV Karten sind deutlich teurer als Ihre AMD Pendants die sich deutlich weniger eignen derzeit für Mining.
 
Das RTX eine echte Simulation von Licht ist, mit all den physikalischen Effekten, würde ich klar verneinen. Es simuliert die Effekte von Licht in einem sehr begrenztem Spektrum und diese Effekte kann man sehr wohl auch anders simulieren.
Das sehe ich anders... Aber da kann ich nur die Videos von DF auf Youtube zum Raytracing von Cyberpunk empfehlen. Die geben einen guten Eindruck (mit Vergleichsbeispielen) wo altbekannte Techniken schlicht an ihre Grenzen kommen bzw. in Zukunft aufgrund des steigenden Detailgrades gar nicht mehr machbar sind... :daumen:

Zudem muss man ganz klar sagen, dass je realistischer die Grafiken in Zukunft seinen sollen, desto weniger wird es möglich sein an Techniken wie Raytracing und Physiksimulationen vorbei zu kommen... Und Raytracing steht erst am Anfang der Praxistauglichen Entwicklung.
 
Wow das hast dir jetzt aber dezent schön gerechnet. Die NV Karten sind deutlich teurer als Ihre AMD Pendants die sich deutlich weniger eignen derzeit für Mining.
Wie "schön gerechnet"? Bitte erklären was du meinst. Absolute Zahlen bei den Scalper Preisen zu vergleichen ist halt Quatsch, da muss man schon die prozentuale Steigerung betrachten. Natürlich sieht 2700,- vs 1800,- krass aus, aber prozentual sind beide Karten GENAU GLEICH im Preis "gescalpt" worden.

aber bei Deinem mit den 2200 € für die 3090 trifft AUSSCHIEßLICH
für das eine günstigste Modell zu und wäre nur relevant wenn ALLE genau dieses Modell kaufen würden !!
Deswegen habe ich den Vergleich mit 2700,- als Preis AUCH dazu geschrieben, damit liegen BEIDE Topmodelle bei 180% Preissteigerung im Vergleich zu UVP. Ist ja nicht so als hätte ich das ignoriert...

Deine Screenshots sind schön, ich werde jetzt keine Benchmarks mit RT / DLSS auspacken, das wäre ja wieder "unfair" weil proprietär und so. Aber SAM sollte immer schön "an" sein in den Benchmarks als es noch AMD exklusiv war, gell? ;)
 
Deine Screenshots sind schön, ich werde jetzt keine Benchmarks mit RT / DLSS auspacken, das wäre ja wieder "unfair" weil proprietär und so. Aber SAM sollte immer schön "an" sein in den Benchmarks als es noch AMD exklusiv war, gell? ;)
Wollte mit den Benches lediglich aufzeigen, dass die grünen und roten Karten in etwa auf Augenhöhe liegen was die Leistung an geht. Wer auf RT steht und dies "zwingend" braucht sollte mMn zu nVidia greifen, da sie mittlerweile schon die 2. Generation am laufen haben und mit DLSS ein interessantes Feature bieten.
Auch wenn AMD mit SAM (durchschnittlich bis zu 12 % +) und nVidia/INTEL mit rBAR (durchschnittlich bis zu 7 % +) bieten, finde ich, dass die dazugehörigen Benches auf alle Fälle als solche auch gekennzeichnet werden.

MfG Föhn.
 
Zurück