Systemanforderungen 2.0 für Cyberpunk 2077: RTX 3070 für 1440p mit Raytracing

Ja, aber was bedeuted das? Wenn selbst die neuesten Karten die Leistung für die neuesten Spiele teilweise nicht brauchen? Ist doch schade.
Das ist doch nicht schade sondern dann hast Du doch eine zukunftssichere Karte, die Du lange behalten kannst und nicht nach schon 2 Jahren eine neue wieder für 600 - 900 € brauchst
 
Ja, aber was bedeuted das? Wenn selbst die neuesten Karten die Leistung für die neuesten Spiele teilweise nicht brauchen?
Nein, es bedeutet dass die Spiele bzw. deren Programmierung nicht in der Lage sind, das vorhandene Potential der Karten in mehr Leistung (wahlweise fps oder Bildqualität) umzusetzen... ;-)

Wenn Spiele wirklich ausschöpfen was möglich ist wirst du keine Grafikkarte der Welt (eine einigermaßen fixe CPU vorausgesetzt) unterhalb von 99% Auslastung sehen.
 
Es geht auch darum, das CD Projekt kein(!) RT für AMD anbietet.
Wahrscheinlicher ist, dass AMD's Raytracing für CP2077 noch seitens der Radeons noch nicht rechtzeitig fertig war.

Man hört bereits die ersten Berichte über Bugs, Grafikfehler und Abstürze in RT Spielen mit der RX6000er Generation. CDPR wird garantiert ihren next-gen Titel in so einem Zustand anbieten. Da ist es in der Entwicklung sinnvoler die Entwickler setzten sich im Hintergrund mit der AMD-Softwareabteilung zusammen und arbeiten dann an einem Patch irgendwann von jetzt bis Anfang nächsten Jahres.

Du kannst ganz sicher sein, dass CDPR das am liebsten bereits hinter sich hätte.

Es geht nicht um schlecht. Das ist eine politische Entscheidung (da es technisch möglich ist). Darin besteht meine Kritik. CD Projekt kann mit dieser Strategie nur ein paar Monate durchkommen. Zu viele (AMD) Konsolen, die bedient werden wollen.
Vor 8 Jahren (start der Entwicklung, war AMD halt noch nicht so stark).

Die AMD-Konsolen haben ebenfalls nur dürftige RT-Leistung. Das liest man bereits in den ersten Ps5 / Xbox XsX Tests. Dort wird CP2077 wahrscheinlich auf geringeren Einstellungen laufen, trotz Next-Gen Versprechen von Microsoft und Sony.

Das hat auch nichts politisches oder sonstige böswillige Unterstellungen. Es entspricht einzig der Realität.

Solche Kunden braucht Nvidia. 2-3 Jahre und dann weg. Ich finde 2-3 Genaerationen wären gesünder. Aber dann steigt der Aktienkurs nicht.

Also 2-3 Generationen können locker 4-6 Jahre unterschied machen. Viele Karten halten nicht einmal so lange. Entweder haben sie Defekte oder sind kurz über lang zu schwach und müssen ersetzt werden. Auch müssen sich die jetzigen 7/8nm Karten erst einmal bewähren. Die RDNA-Karten waren fast 1 Jahr lang schwer von Bugs, Abstürzen und sonsten Metzchen betroffen.

Bete lieber, dass das bei RDNA² nicht mehr auftritt. Wäre besser als irgendwelchen Verschwörungstheorien nachzujagen!
 
Du weißt schon, dass die 3080 und 3090 in WD:L, AC:V und Dirt 5 nicht voll ausgelastet werden und somit nicht ihr volles Potential entfalten können?

Das ist AC:V bei mir in 4K
Anhang anzeigen 1343227

"Nur" 330W, obwohl sie eigentlich bei 350W liegen müsste. In 1080p sinds sogar nur 280W und im HWLuxx hat irgendjemand ein Video von einer Stock 3090 mit 10900K und starkem OC gepostet. Man sieht dort deutlich, dass die Auslastung und FPS steigen.
Er erreicht dort in UWQHD die selben FPS wie ich in 1080p.

Das ist mir auch sofort aufgefallen auf meiner 2080S.
Wir reden von 30%, bzw. gerade mal 70% Auslastung.
Das resultiert in 10C weniger Temperatur, höherer Takt und klar leiserer GPU.

Ich frage mich wirklich ob a) das noch gefixt wird und b) warum ist das so? :huh:

---

Zum Thema:

Ich finde es wirklich schade für AMD User, vor allem nach dem mMn bombastischen Video von gestern.
CP sieht sowas von krass aus mit RT, einfach nochmal eine Stufe höher.
Und das ausgerechnet bei DEM Hype Spiel in diesem Jahr, ein Jammer.

Auf der anderen Seite, wie wäre es gelaufen ohne DLSS Pendant?
Vielleicht ist es sowieso besser zu warten bis AMD soweit ist.

Aber trotzdem ich bin ehrlich, mich würde das echt anpieseln.
Das hängt sicherlich mit dem Release der Karten und dem Spiel zusammen, zu wenig Zeit für CPR.
Ich drücke fest die Daumen, dass der RT Support so schnell wie möglich kommt.

Raytracing für alle!!! :bier:
 
Kaufe ich mir erst wenn das Ding gepatcht ist und alles funktioniert, dann gibts sicherlich schon wieder HD Mods und tatsächlich verfügbare Grafikkarten.
 
Kaufe ich mir erst wenn das Ding gepatcht ist und alles funktioniert, dann gibts sicherlich schon wieder HD Mods und tatsächlich verfügbare Grafikkarten.
welche erfahrungen nimmst du da her?
Das ist mir auch sofort aufgefallen auf meiner 2080S.
Wir reden von 30%, bzw. gerade mal 70% Auslastung.
Das resultiert in 10C weniger Temperatur, höherer Takt und klar leiserer GPU.

Ich frage mich wirklich ob a) das noch gefixt wird und b) warum ist das so? :huh:

---

Zum Thema:

Ich finde es wirklich schade für AMD User, vor allem nach dem mMn bombastischen Video von gestern.
CP sieht sowas von krass aus mit RT, einfach nochmal eine Stufe höher.
Und das ausgerechnet bei DEM Hype Spiel in diesem Jahr, ein Jammer.

Auf der anderen Seite, wie wäre es gelaufen ohne DLSS Pendant?
Vielleicht ist es sowieso besser zu warten bis AMD soweit ist.

Aber trotzdem ich bin ehrlich, mich würde das echt anpieseln.
Das hängt sicherlich mit dem Release der Karten und dem Spiel zusammen, zu wenig Zeit für CPR.
Ich drücke fest die Daumen, dass der RT Support so schnell wie möglich kommt.

Raytracing für alle!!! :bier:
nvidia berechnet sehr viel mehr hat igors lab bestätigt bei nvidia
DLSS 2.0 hin oder her, 8 GiB VRAM sind zu wenig. UHD mit RT in Ultra-Einstellungen wird die 3070 nicht packen!
ja aber durch dlss zersört sie alle amd karten
 
Zuletzt bearbeitet:
Das ist doch erst der Vorgeschmack, sobald die ersten wirklich für RDNA2 optimierten Spiele auf den Markt kommen, wird bei einer Vielzahl an AAA Titeln nicht die 6800 gegen die 3080 / 3090 antreten müssen, sondern dann wird auch eine stinknormale 6700 XT reichen um mit den beiden Karten der Konkurrenz mithalten zu können.
---------------------------------------------------------------------------------------------------------------------------------------------------------------
Mal davon abgesehen das der Einfluss von SAM und Rage nach meiner Meinung total überschätzt wird.
Selbst bei Stock-Taktraten wird die 6800 / 6800XT auch ohne SAM und Rage, die jeweiligen Kontrahenten 3070 / 3080 förmlich in der Luft zerreissen.
Glaubst Du dein Gesappel wirklich, oder willst Du nur in der schweren Corona Zeit das Forum ein wenig
zum lachen bringen?
DLSS 2.0 hin oder her, 8 GiB VRAM sind zu wenig. UHD mit RT in Ultra-Einstellungen wird die 3070 nicht packen!
Wieso wollt Ihr die RTX 3070 immer in die 4K Schublade stecken?
 
News@Thilo PCGH schrieb:
...Nvidia schon seit letztem Jahr als Partner für Cyberpunk 2077 feststeht. Das dürfte sicher eine Rolle spielen.

Vielleicht aufgrund der derzeitigen Implementationsstufe, ansonsten nein.

Die Implementationen von RTRT: RDNA2 to Ampere basieren auf beide auf DXR, aber unterschieden sich. Wenn man überlegt wie CDPR vorgeht und akribisch jeden Part ausschließt der als Fehloptmierung im Spiel gelten kann, ist es nur logisch, dass sie sich dafür Zeit nehmen. AMD beschleunigt das BVH Traversal anders als Nvidia und das muss ganz sicher berücksichtigt werden. Das CDPR einen Hersteller bevorzugt glaube ich nicht und hat Nvidia ja auch schon selbst dementiert. Nichts vom RTRT in CP2077 gehört Nvidia und trotzdem muss man Architekturen berücksichtigen.

In Godfall wird es ähnlich sein, wenn man lediglich bisher AMDs als RT Variante berücksichtigte oder eben auf dessen Hardware entwickelte (Konsolenpart). Das braucht dann für die Konkurrenz Optimierungen, die extra Zeit beanspruchen. Das ist ganz normal, wie Patchdays.

AMD hat die Infos rund um und zu RDNA2 ziemlich zurückgehalten und CDPR entwickelt vornehmlich auf Nvidia und macht es dann lauffähig. Das ist völlig normal. Ggf. brauchen sie auch mehr Einsicht bei und durch den Hersteller (Devs, Engineers).
 
Zuletzt bearbeitet von einem Moderator:
AMD kommt wohl auf 2080 Ti Niveau. (Dann habe ich das, wofür NVidia seit über 2 Jahren Werbung machte und uns jahrelang was vorgeschwärmt hat/Noch bis vor 2 Monaten...).
Wobei man dazu sagen muss, dass die 6800 XT nicht wirklich die Leistung einer 2080 Ti in RT erreicht, in den meisten Raytracing Titeln ist es doch ein mehr oder minder ein signifikanter Unterschied.
control1.png

control2.png

minecraftrtx.png

Wie man bei verschiedenen Tests sehen kann, ist die 6800 XT auch ohne DLSS langsamer in RT Titeln, mit DLSS zieht eine 2080 Ti der 6800 XT davon und macht mehr als doppelt so viele FPS wie die 6800 XT auf Highest Settings und Max RTX.
 
Wobei man dazu sagen muss, dass die 6800 XT nicht wirklich die Leistung einer 2080 Ti in RT erreicht, in den meisten Raytracing Titeln ist es doch ein mehr oder minder ein signifikanter Unterschied.

Wie man bei verschiedenen Tests sehen kann, ist die 6800 XT auch ohne DLSS langsamer in RT Titeln, mit DLSS zieht eine 2080 Ti der 6800 XT davon und macht mehr als doppelt so viele FPS wie die 6800 XT auf Highest Settings und Max RTX.
Und was soll daran neu sein? Wenn ich nur die Hälfte der Rays als bei nativer Auflösung berechnen muss, ist das nun mal so, im direkten Vergleich beschei**t Nvidia also reichlich und glättet das Bild mit AI nach (was bei AMD eben noch nicht läuft).

Es ist ein riesengroßer Unterschied, ob ich ein Bild mit 480p pro Pixel und Rays beschieße oder mit 1080p, das ist doch logisch. Das die AMD Karten überhaupt so schnell sind wundert mich, und sie beschleunigen RT über den Infinitycache, das hat bisher kein Entwickler auf der Uhr.

Mag ja sein das sie nicht so schnell wie Ampere sind, aber das war bei Nvidias erster Gen auch so und sie eiern 2 Jahre an der Performance umher, die auch Turingbesitzer teuer bezahlt haben.

Also ganz so einfach sollte man es sich nicht machen. Preislich ist das wieder eine andere Geschichte, wenn man 300 mehr verlangt beim Launchday als UVP. Dann bin ich der Meinung man sollte es liefern.

Ansonsten muss man jetzt warten was die Entwickler rausquetschen und dann kann man urteilen. Auch da, muss AMDs Varinate nicht zu jeder Engine passen, das geht Nvidia genauso. Wer Gameworks RTX nicht ausreichend gut implementiert, auch dem fehlt dann RT Leistung.
 
Zuletzt bearbeitet von einem Moderator:
Wieso wollt Ihr die RTX 3070 immer in die 4K Schublade stecken?
Weil die Lederjacke sie so beworben hat. Die 2080 Ti war von der Turing-Generation die einzige Grafikkarte, die 4K, Ultra-Details mit RT überhaupt in ansehnlichen FPS gepackt hat. Alle Grafikkarten der Ampere-Generation wurden bisher besser verkauft als sie sind, leistungstechnisch meine ich. Klar, die wollen ihr Zeugs auch an den Mann bringen. War von mir auch eher eine Feststellung als eine Wertung an sich. Ich persönlich werde CP2077 sowieso höchstwahrscheinlich in der "RT High"-Auflösung spielen. Reicht mir dicke.
 
Also wer sich ne neue Graka für Cyberpunk für 1000 euro kauft um ein paar Spiegelungen zu sehen (das Spiel wird eh mit quasi jeder Graka laufen).... öhm omg. Ist nur n dummes PS4 Game.

Für das Geld laß ich mein Schlafzimmer in nen Spiegelroom umbauen :D :D ;)
 
Was interessiert sie der Shit den Huang gestern gelabert hat, das weiß der doch selbst nicht mehr.:)

5K Downsampling kommt es zu massiven Nachladerucklern auf allen Karten unter 12GiB VRAM, obwohl die GPUs es wegen 4k ready stemmen könnten (Ampere und RDNA2).

Und Godfall fordert in 4K schon 12 ohne RT, da wundert es nicht das man auf *Wundertreiber* wartet, die das VRAM Limit egaliseren. Also worüber reden wir hier? Es betrifft beide Seiten.

Da den Nvidiajüngern nach der Effizienz und dem Taktverhalten + der dazugehörigen Leistung (Rasterizierung inklusive Boost-/Zusatzfeature und Ausstattung beim VRAM) nun nur noch DLSS und RTX bleiben war doch logisch, also sind das die neuen Argumente die AMD Hardware dann schlecht machen. Nichts neues auf PCGH.

Mich persönlich störte das P/L bei Launch mit 300$ über UVP (durch wen verschuldet unbekannt, vermutlich alle Händler und AMD), wenn das so bleibt muss AMD deutlich mehr und schneller liefern, dabei bleibe ich. Aber ob sie grundsätzlich schlechter sind wenn sich das Verhältnis egalisiert und auf sie optimert wird, steht tatsächlich in den Sternen. Dann kann es passieren man kauft etwas schneller mit zu wenig VRAM und dann?
 
Zuletzt bearbeitet von einem Moderator:
Und was soll daran neu sein? Wenn ich nur die Hälfte der Rays als bei nativer Auflösung berechnen muss, ist das nun mal so, im direkten Vergleich beschei**t Nvidia also reichlich und glättet das Bild mit AI nach (was bei AMD eben noch nicht läuft).
Die Benchmarks sind auch mit DLSS off und dort wird die 6800XT von einer 2080 Super geschlagen.

Es ist ein riesengroßer Unterschied, ob ich ein Bild mit 480p pro Pixel und Rays beschieße oder mit 1080p, das ist doch logisch. Das die AMD Karten überhaupt so schnell sind wundert mich, und sie beschleunigen RT über den Infinitycache, das hat bisher kein Entwickler auf der Uhr.
Wie beschleunigt man RT über den Infinity Cache? Auf die Antwort bin ich mal extremst gespannt.

Mag ja sein das sie nicht so schnell wie Ampere sind, aber das war bei Nvidias erster Gen auch so und sie eiern 2 Jahre an der Performance umher, die auch Turingbesitzer teuer bezahlt haben.
Die reine RT Performance ist schlechter als die der ersten Gen.
 
Die Benchmarks sind auch mit DLSS off und dort wird die 6800XT von einer 2080 Super geschlagen.


Wie beschleunigt man RT über den Infinity Cache? Auf die Antwort bin ich mal extremst gespannt.


Die reine RT Performance ist schlechter als die der ersten Gen.
Als wenn du davon auch nur den blassesten Schimmer hättest bei dem Zeug was du hier im Forum postest.

Wie beschleunigt Nvidia ein Traversal über Cores und dazugehöriges Caching? Schon die Frage allein zeigt auf das du gerade im Null Kompetenzbereich unterwegs bist.
 
Und was soll daran neu sein? Wenn ich nur die Hälfte der Rays als bei nativer Auflösung berechnen muss, ist das nun mal so, im direkten Vergleich beschei**t Nvidia also reichlich und glättet das Bild mit AI nach (was bei AMD eben noch nciht läuft).
Neu sind hier eigentlich die AMD Karten, die laut neuen Tests nicht an die RT Leistung der letzten Nvidia Turing Generation anknüpfen können.

Und den Part mitsamt Benchmarks wo RDNA 2 langsamer ist als Turing mit DLSS off, also nativer Auflösung, hast du anscheinend komplett übersehen, sind ja auch unangenehme Fakten die AMD Marketing desavouieren.

Es ist ein riesengroßer Unterschied ab ich ein Bild mit 480p Rays beschieße oder mit 1080p, das ist doch logisch. Das die AMD Karten überhaupt so schnell sind wundert mich, und sie beschleunigen RT über den Infinitycache, das hat bisher kein Entwickler auf der Uhr.
Erstens arbeitet die KI mit 1080p (was AMD genauso mit FX SR bezwecken will, aber noch nicht soweit ist es zu unterstützen), zweitens kann man wiederum das Bild was Ravion auf der ersten Seite schon gepostet hat, nochmal aufführen.
1605911592990.png
Wobei das noch Performance und nicht Quality ist, mit Quality ist die Bildqualität noch besser und unterscheidet sich nicht von nativer Auflösung, bis auf eine Ausnahme - DLSS macht das dargestellte Bild sogar besser weil es die Nutzung von hohen Einstellungen erlaubt mitsamt hohen FPS und fließender Motion, das AMD zur Zeit nicht bietet und meiner Meinung nach durch ihren technologischen Rückstand zu Nvidia bedingt es auch nicht auf derselben Leistungstufe zu bieten in der Lage sein wird.

Aber wie oben schon erwähnt, sind schon High-End Turing Karten wie 2080 Ti/2080 Super in Sachen RT ohne DLSS schneller, als eine 6800 XT, und eine 2070 Super braucht sich auch nicht zu verstecken.

Mag ja sein das sie nicht so schnell sind wie Ampere, aber das war bei Nvidias erster Gen auch so und sie eiern 2 Jahre an der Performance umher, die auch Turingbesitzer teuer bezahlt haben.
Eigentlich ist Turing die zweite Generation der Tensor Technik, die erste Generation Tensor-Kerne waren Volta Karten (Titan V und Quadro GV100), und für das was man im Vergleich zu einer Titan V zahlen musste (2.999 Dollar UVP), war Turing mit der 2en Gen ein massiver Fortschritt technisch und preislich gesehen. Entsprechend ausgereift ist die Technologie und bietet zur Zeit auch mehr Spielqualität in modernen DXR Titeln mit der 2en Turing Gen als RDNA 2. Ampere als 3e Gen macht die erbrachte Leistung gar noch günstiger im Vergleich zu früher.
 
Zuletzt bearbeitet:
Und Godfall fordert in 4K schon 12 ohne RT, da wundert es nicht das man auf *Wundertreiber* wartet, die das VRAM Limit egaliseren. Also worüber reden wir hier? Es betrifft beide Seiten.
Nein, 8.6GB:
Solltest nicht alles nachplappern, was du irgendwo gelesen hast.
Das war nur Bullshit von AMD und alle AMD Jünger plappern es blind nach :lol:

Als wenn du davon auch nur den blassesten Schimmer hättest bei dem Zeug was du hier im Forum postest.
Der Minecraft RT Benchmark wurde dir oben verlinkt. Dort ist zusehen, dass die 6800XT von einer 2080 Super geschlagen wird und das ohne DLSS.

Wie beschleunigt Nvidia ein Traversal über Cores und dazugehöriges Caching? Schon die Frage allein zeigt auf das du gerade im Null Kompetenzbereich unterwegs bist.
Habe nie behauptet die Materie zu verstehen, deswegen ja die Frage meinerseits an dich. Schade, dass du darauf nicht eingegangen bist und mich stattdessen angehst.
 
Zurück