• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Systemanforderungen 2.0 für Cyberpunk 2077: RTX 3070 für 1440p mit Raytracing

DarthSlayer

Komplett-PC-Käufer(in)
Ja, aber was bedeuted das? Wenn selbst die neuesten Karten die Leistung für die neuesten Spiele teilweise nicht brauchen? Ist doch schade.
Das ist doch nicht schade sondern dann hast Du doch eine zukunftssichere Karte, die Du lange behalten kannst und nicht nach schon 2 Jahren eine neue wieder für 600 - 900 € brauchst
 

Incredible Alk

Moderator
Teammitglied
Ja, aber was bedeuted das? Wenn selbst die neuesten Karten die Leistung für die neuesten Spiele teilweise nicht brauchen?
Nein, es bedeutet dass die Spiele bzw. deren Programmierung nicht in der Lage sind, das vorhandene Potential der Karten in mehr Leistung (wahlweise fps oder Bildqualität) umzusetzen... ;-)

Wenn Spiele wirklich ausschöpfen was möglich ist wirst du keine Grafikkarte der Welt (eine einigermaßen fixe CPU vorausgesetzt) unterhalb von 99% Auslastung sehen.
 

TheGoodBadWeird

Software-Overclocker(in)
Es geht auch darum, das CD Projekt kein(!) RT für AMD anbietet.
Wahrscheinlicher ist, dass AMD's Raytracing für CP2077 noch seitens der Radeons noch nicht rechtzeitig fertig war.

Man hört bereits die ersten Berichte über Bugs, Grafikfehler und Abstürze in RT Spielen mit der RX6000er Generation. CDPR wird garantiert ihren next-gen Titel in so einem Zustand anbieten. Da ist es in der Entwicklung sinnvoler die Entwickler setzten sich im Hintergrund mit der AMD-Softwareabteilung zusammen und arbeiten dann an einem Patch irgendwann von jetzt bis Anfang nächsten Jahres.

Du kannst ganz sicher sein, dass CDPR das am liebsten bereits hinter sich hätte.

Es geht nicht um schlecht. Das ist eine politische Entscheidung (da es technisch möglich ist). Darin besteht meine Kritik. CD Projekt kann mit dieser Strategie nur ein paar Monate durchkommen. Zu viele (AMD) Konsolen, die bedient werden wollen.
Vor 8 Jahren (start der Entwicklung, war AMD halt noch nicht so stark).

Die AMD-Konsolen haben ebenfalls nur dürftige RT-Leistung. Das liest man bereits in den ersten Ps5 / Xbox XsX Tests. Dort wird CP2077 wahrscheinlich auf geringeren Einstellungen laufen, trotz Next-Gen Versprechen von Microsoft und Sony.

Das hat auch nichts politisches oder sonstige böswillige Unterstellungen. Es entspricht einzig der Realität.

Solche Kunden braucht Nvidia. 2-3 Jahre und dann weg. Ich finde 2-3 Genaerationen wären gesünder. Aber dann steigt der Aktienkurs nicht.

Also 2-3 Generationen können locker 4-6 Jahre unterschied machen. Viele Karten halten nicht einmal so lange. Entweder haben sie Defekte oder sind kurz über lang zu schwach und müssen ersetzt werden. Auch müssen sich die jetzigen 7/8nm Karten erst einmal bewähren. Die RDNA-Karten waren fast 1 Jahr lang schwer von Bugs, Abstürzen und sonsten Metzchen betroffen.

Bete lieber, dass das bei RDNA² nicht mehr auftritt. Wäre besser als irgendwelchen Verschwörungstheorien nachzujagen!
 

I3uschi

Software-Overclocker(in)
Du weißt schon, dass die 3080 und 3090 in WD:L, AC:V und Dirt 5 nicht voll ausgelastet werden und somit nicht ihr volles Potential entfalten können?

Das ist AC:V bei mir in 4K
Anhang anzeigen 1343227

"Nur" 330W, obwohl sie eigentlich bei 350W liegen müsste. In 1080p sinds sogar nur 280W und im HWLuxx hat irgendjemand ein Video von einer Stock 3090 mit 10900K und starkem OC gepostet. Man sieht dort deutlich, dass die Auslastung und FPS steigen.
Er erreicht dort in UWQHD die selben FPS wie ich in 1080p.

Das ist mir auch sofort aufgefallen auf meiner 2080S.
Wir reden von 30%, bzw. gerade mal 70% Auslastung.
Das resultiert in 10C weniger Temperatur, höherer Takt und klar leiserer GPU.

Ich frage mich wirklich ob a) das noch gefixt wird und b) warum ist das so? :huh:

---

Zum Thema:

Ich finde es wirklich schade für AMD User, vor allem nach dem mMn bombastischen Video von gestern.
CP sieht sowas von krass aus mit RT, einfach nochmal eine Stufe höher.
Und das ausgerechnet bei DEM Hype Spiel in diesem Jahr, ein Jammer.

Auf der anderen Seite, wie wäre es gelaufen ohne DLSS Pendant?
Vielleicht ist es sowieso besser zu warten bis AMD soweit ist.

Aber trotzdem ich bin ehrlich, mich würde das echt anpieseln.
Das hängt sicherlich mit dem Release der Karten und dem Spiel zusammen, zu wenig Zeit für CPR.
Ich drücke fest die Daumen, dass der RT Support so schnell wie möglich kommt.

Raytracing für alle!!! :bier:
 

HyperBeast

Freizeitschrauber(in)
Kaufe ich mir erst wenn das Ding gepatcht ist und alles funktioniert, dann gibts sicherlich schon wieder HD Mods und tatsächlich verfügbare Grafikkarten.
 

manimani89

BIOS-Overclocker(in)
Kaufe ich mir erst wenn das Ding gepatcht ist und alles funktioniert, dann gibts sicherlich schon wieder HD Mods und tatsächlich verfügbare Grafikkarten.
welche erfahrungen nimmst du da her?
Das ist mir auch sofort aufgefallen auf meiner 2080S.
Wir reden von 30%, bzw. gerade mal 70% Auslastung.
Das resultiert in 10C weniger Temperatur, höherer Takt und klar leiserer GPU.

Ich frage mich wirklich ob a) das noch gefixt wird und b) warum ist das so? :huh:

---

Zum Thema:

Ich finde es wirklich schade für AMD User, vor allem nach dem mMn bombastischen Video von gestern.
CP sieht sowas von krass aus mit RT, einfach nochmal eine Stufe höher.
Und das ausgerechnet bei DEM Hype Spiel in diesem Jahr, ein Jammer.

Auf der anderen Seite, wie wäre es gelaufen ohne DLSS Pendant?
Vielleicht ist es sowieso besser zu warten bis AMD soweit ist.

Aber trotzdem ich bin ehrlich, mich würde das echt anpieseln.
Das hängt sicherlich mit dem Release der Karten und dem Spiel zusammen, zu wenig Zeit für CPR.
Ich drücke fest die Daumen, dass der RT Support so schnell wie möglich kommt.

Raytracing für alle!!! :bier:
nvidia berechnet sehr viel mehr hat igors lab bestätigt bei nvidia
DLSS 2.0 hin oder her, 8 GiB VRAM sind zu wenig. UHD mit RT in Ultra-Einstellungen wird die 3070 nicht packen!
ja aber durch dlss zersört sie alle amd karten
 
Zuletzt bearbeitet:

DaHell63

BIOS-Overclocker(in)
Das ist doch erst der Vorgeschmack, sobald die ersten wirklich für RDNA2 optimierten Spiele auf den Markt kommen, wird bei einer Vielzahl an AAA Titeln nicht die 6800 gegen die 3080 / 3090 antreten müssen, sondern dann wird auch eine stinknormale 6700 XT reichen um mit den beiden Karten der Konkurrenz mithalten zu können.
---------------------------------------------------------------------------------------------------------------------------------------------------------------
Mal davon abgesehen das der Einfluss von SAM und Rage nach meiner Meinung total überschätzt wird.
Selbst bei Stock-Taktraten wird die 6800 / 6800XT auch ohne SAM und Rage, die jeweiligen Kontrahenten 3070 / 3080 förmlich in der Luft zerreissen.
Glaubst Du dein Gesappel wirklich, oder willst Du nur in der schweren Corona Zeit das Forum ein wenig
zum lachen bringen?
DLSS 2.0 hin oder her, 8 GiB VRAM sind zu wenig. UHD mit RT in Ultra-Einstellungen wird die 3070 nicht packen!
Wieso wollt Ihr die RTX 3070 immer in die 4K Schublade stecken?
 

tokthora

Komplett-PC-Aufrüster(in)
News@Thilo PCGH schrieb:
...Nvidia schon seit letztem Jahr als Partner für Cyberpunk 2077 feststeht. Das dürfte sicher eine Rolle spielen.

Vielleicht aufgrund der derzeitigen Implementationsstufe, ansonsten nein.

Die Implementationen von RTRT: RDNA2 to Ampere basieren auf beide auf DXR, aber unterschieden sich. Wenn man überlegt wie CDPR vorgeht und akribisch jeden Part ausschließt der als Fehloptmierung im Spiel gelten kann, ist es nur logisch, dass sie sich dafür Zeit nehmen. AMD beschleunigt das BVH Traversal anders als Nvidia und das muss ganz sicher berücksichtigt werden. Das CDPR einen Hersteller bevorzugt glaube ich nicht und hat Nvidia ja auch schon selbst dementiert. Nichts vom RTRT in CP2077 gehört Nvidia und trotzdem muss man Architekturen berücksichtigen.

In Godfall wird es ähnlich sein, wenn man lediglich bisher AMDs als RT Variante berücksichtigte oder eben auf dessen Hardware entwickelte (Konsolenpart). Das braucht dann für die Konkurrenz Optimierungen, die extra Zeit beanspruchen. Das ist ganz normal, wie Patchdays.

AMD hat die Infos rund um und zu RDNA2 ziemlich zurückgehalten und CDPR entwickelt vornehmlich auf Nvidia und macht es dann lauffähig. Das ist völlig normal. Ggf. brauchen sie auch mehr Einsicht bei und durch den Hersteller (Devs, Engineers).
 
Zuletzt bearbeitet:

Averey

Komplett-PC-Aufrüster(in)
AMD kommt wohl auf 2080 Ti Niveau. (Dann habe ich das, wofür NVidia seit über 2 Jahren Werbung machte und uns jahrelang was vorgeschwärmt hat/Noch bis vor 2 Monaten...).
Wobei man dazu sagen muss, dass die 6800 XT nicht wirklich die Leistung einer 2080 Ti in RT erreicht, in den meisten Raytracing Titeln ist es doch ein mehr oder minder ein signifikanter Unterschied.
control1.png

control2.png

minecraftrtx.png

Wie man bei verschiedenen Tests sehen kann, ist die 6800 XT auch ohne DLSS langsamer in RT Titeln, mit DLSS zieht eine 2080 Ti der 6800 XT davon und macht mehr als doppelt so viele FPS wie die 6800 XT auf Highest Settings und Max RTX.
 

tokthora

Komplett-PC-Aufrüster(in)
Wobei man dazu sagen muss, dass die 6800 XT nicht wirklich die Leistung einer 2080 Ti in RT erreicht, in den meisten Raytracing Titeln ist es doch ein mehr oder minder ein signifikanter Unterschied.

Wie man bei verschiedenen Tests sehen kann, ist die 6800 XT auch ohne DLSS langsamer in RT Titeln, mit DLSS zieht eine 2080 Ti der 6800 XT davon und macht mehr als doppelt so viele FPS wie die 6800 XT auf Highest Settings und Max RTX.
Und was soll daran neu sein? Wenn ich nur die Hälfte der Rays als bei nativer Auflösung berechnen muss, ist das nun mal so, im direkten Vergleich beschei**t Nvidia also reichlich und glättet das Bild mit AI nach (was bei AMD eben noch nicht läuft).

Es ist ein riesengroßer Unterschied, ob ich ein Bild mit 480p pro Pixel und Rays beschieße oder mit 1080p, das ist doch logisch. Das die AMD Karten überhaupt so schnell sind wundert mich, und sie beschleunigen RT über den Infinitycache, das hat bisher kein Entwickler auf der Uhr.

Mag ja sein das sie nicht so schnell wie Ampere sind, aber das war bei Nvidias erster Gen auch so und sie eiern 2 Jahre an der Performance umher, die auch Turingbesitzer teuer bezahlt haben.

Also ganz so einfach sollte man es sich nicht machen. Preislich ist das wieder eine andere Geschichte, wenn man 300 mehr verlangt beim Launchday als UVP. Dann bin ich der Meinung man sollte es liefern.

Ansonsten muss man jetzt warten was die Entwickler rausquetschen und dann kann man urteilen. Auch da, muss AMDs Varinate nicht zu jeder Engine passen, das geht Nvidia genauso. Wer Gameworks RTX nicht ausreichend gut implementiert, auch dem fehlt dann RT Leistung.
 
Zuletzt bearbeitet:

Xzellenz

Freizeitschrauber(in)
Wieso wollt Ihr die RTX 3070 immer in die 4K Schublade stecken?
Weil die Lederjacke sie so beworben hat. Die 2080 Ti war von der Turing-Generation die einzige Grafikkarte, die 4K, Ultra-Details mit RT überhaupt in ansehnlichen FPS gepackt hat. Alle Grafikkarten der Ampere-Generation wurden bisher besser verkauft als sie sind, leistungstechnisch meine ich. Klar, die wollen ihr Zeugs auch an den Mann bringen. War von mir auch eher eine Feststellung als eine Wertung an sich. Ich persönlich werde CP2077 sowieso höchstwahrscheinlich in der "RT High"-Auflösung spielen. Reicht mir dicke.
 

Oldtekkno

PC-Selbstbauer(in)
Also wer sich ne neue Graka für Cyberpunk für 1000 euro kauft um ein paar Spiegelungen zu sehen (das Spiel wird eh mit quasi jeder Graka laufen).... öhm omg. Ist nur n dummes PS4 Game.

Für das Geld laß ich mein Schlafzimmer in nen Spiegelroom umbauen :D :D ;)
 

tokthora

Komplett-PC-Aufrüster(in)
Was interessiert sie der Shit den Huang gestern gelabert hat, das weiß der doch selbst nicht mehr.:)

5K Downsampling kommt es zu massiven Nachladerucklern auf allen Karten unter 12GiB VRAM, obwohl die GPUs es wegen 4k ready stemmen könnten (Ampere und RDNA2).

Und Godfall fordert in 4K schon 12 ohne RT, da wundert es nicht das man auf *Wundertreiber* wartet, die das VRAM Limit egaliseren. Also worüber reden wir hier? Es betrifft beide Seiten.

Da den Nvidiajüngern nach der Effizienz und dem Taktverhalten + der dazugehörigen Leistung (Rasterizierung inklusive Boost-/Zusatzfeature und Ausstattung beim VRAM) nun nur noch DLSS und RTX bleiben war doch logisch, also sind das die neuen Argumente die AMD Hardware dann schlecht machen. Nichts neues auf PCGH.

Mich persönlich störte das P/L bei Launch mit 300$ über UVP (durch wen verschuldet unbekannt, vermutlich alle Händler und AMD), wenn das so bleibt muss AMD deutlich mehr und schneller liefern, dabei bleibe ich. Aber ob sie grundsätzlich schlechter sind wenn sich das Verhältnis egalisiert und auf sie optimert wird, steht tatsächlich in den Sternen. Dann kann es passieren man kauft etwas schneller mit zu wenig VRAM und dann?
 
Zuletzt bearbeitet:

owned139

Software-Overclocker(in)
Und was soll daran neu sein? Wenn ich nur die Hälfte der Rays als bei nativer Auflösung berechnen muss, ist das nun mal so, im direkten Vergleich beschei**t Nvidia also reichlich und glättet das Bild mit AI nach (was bei AMD eben noch nicht läuft).
Die Benchmarks sind auch mit DLSS off und dort wird die 6800XT von einer 2080 Super geschlagen.

Es ist ein riesengroßer Unterschied, ob ich ein Bild mit 480p pro Pixel und Rays beschieße oder mit 1080p, das ist doch logisch. Das die AMD Karten überhaupt so schnell sind wundert mich, und sie beschleunigen RT über den Infinitycache, das hat bisher kein Entwickler auf der Uhr.
Wie beschleunigt man RT über den Infinity Cache? Auf die Antwort bin ich mal extremst gespannt.

Mag ja sein das sie nicht so schnell wie Ampere sind, aber das war bei Nvidias erster Gen auch so und sie eiern 2 Jahre an der Performance umher, die auch Turingbesitzer teuer bezahlt haben.
Die reine RT Performance ist schlechter als die der ersten Gen.
 

tokthora

Komplett-PC-Aufrüster(in)
Die Benchmarks sind auch mit DLSS off und dort wird die 6800XT von einer 2080 Super geschlagen.


Wie beschleunigt man RT über den Infinity Cache? Auf die Antwort bin ich mal extremst gespannt.


Die reine RT Performance ist schlechter als die der ersten Gen.
Als wenn du davon auch nur den blassesten Schimmer hättest bei dem Zeug was du hier im Forum postest.

Wie beschleunigt Nvidia ein Traversal über Cores und dazugehöriges Caching? Schon die Frage allein zeigt auf das du gerade im Null Kompetenzbereich unterwegs bist.
 

Averey

Komplett-PC-Aufrüster(in)
Und was soll daran neu sein? Wenn ich nur die Hälfte der Rays als bei nativer Auflösung berechnen muss, ist das nun mal so, im direkten Vergleich beschei**t Nvidia also reichlich und glättet das Bild mit AI nach (was bei AMD eben noch nciht läuft).
Neu sind hier eigentlich die AMD Karten, die laut neuen Tests nicht an die RT Leistung der letzten Nvidia Turing Generation anknüpfen können.

Und den Part mitsamt Benchmarks wo RDNA 2 langsamer ist als Turing mit DLSS off, also nativer Auflösung, hast du anscheinend komplett übersehen, sind ja auch unangenehme Fakten die AMD Marketing desavouieren.

Es ist ein riesengroßer Unterschied ab ich ein Bild mit 480p Rays beschieße oder mit 1080p, das ist doch logisch. Das die AMD Karten überhaupt so schnell sind wundert mich, und sie beschleunigen RT über den Infinitycache, das hat bisher kein Entwickler auf der Uhr.
Erstens arbeitet die KI mit 1080p (was AMD genauso mit FX SR bezwecken will, aber noch nicht soweit ist es zu unterstützen), zweitens kann man wiederum das Bild was Ravion auf der ersten Seite schon gepostet hat, nochmal aufführen.
1605911592990.png
Wobei das noch Performance und nicht Quality ist, mit Quality ist die Bildqualität noch besser und unterscheidet sich nicht von nativer Auflösung, bis auf eine Ausnahme - DLSS macht das dargestellte Bild sogar besser weil es die Nutzung von hohen Einstellungen erlaubt mitsamt hohen FPS und fließender Motion, das AMD zur Zeit nicht bietet und meiner Meinung nach durch ihren technologischen Rückstand zu Nvidia bedingt es auch nicht auf derselben Leistungstufe zu bieten in der Lage sein wird.

Aber wie oben schon erwähnt, sind schon High-End Turing Karten wie 2080 Ti/2080 Super in Sachen RT ohne DLSS schneller, als eine 6800 XT, und eine 2070 Super braucht sich auch nicht zu verstecken.

Mag ja sein das sie nicht so schnell sind wie Ampere, aber das war bei Nvidias erster Gen auch so und sie eiern 2 Jahre an der Performance umher, die auch Turingbesitzer teuer bezahlt haben.
Eigentlich ist Turing die zweite Generation der Tensor Technik, die erste Generation Tensor-Kerne waren Volta Karten (Titan V und Quadro GV100), und für das was man im Vergleich zu einer Titan V zahlen musste (2.999 Dollar UVP), war Turing mit der 2en Gen ein massiver Fortschritt technisch und preislich gesehen. Entsprechend ausgereift ist die Technologie und bietet zur Zeit auch mehr Spielqualität in modernen DXR Titeln mit der 2en Turing Gen als RDNA 2. Ampere als 3e Gen macht die erbrachte Leistung gar noch günstiger im Vergleich zu früher.
 
Zuletzt bearbeitet:

owned139

Software-Overclocker(in)
Und Godfall fordert in 4K schon 12 ohne RT, da wundert es nicht das man auf *Wundertreiber* wartet, die das VRAM Limit egaliseren. Also worüber reden wir hier? Es betrifft beide Seiten.
Nein, 8.6GB:
Solltest nicht alles nachplappern, was du irgendwo gelesen hast.
Das war nur Bullshit von AMD und alle AMD Jünger plappern es blind nach :lol:

Als wenn du davon auch nur den blassesten Schimmer hättest bei dem Zeug was du hier im Forum postest.
Der Minecraft RT Benchmark wurde dir oben verlinkt. Dort ist zusehen, dass die 6800XT von einer 2080 Super geschlagen wird und das ohne DLSS.

Wie beschleunigt Nvidia ein Traversal über Cores und dazugehöriges Caching? Schon die Frage allein zeigt auf das du gerade im Null Kompetenzbereich unterwegs bist.
Habe nie behauptet die Materie zu verstehen, deswegen ja die Frage meinerseits an dich. Schade, dass du darauf nicht eingegangen bist und mich stattdessen angehst.
 

tokthora

Komplett-PC-Aufrüster(in)
Und warum, nutzt eine RTX Karte RT Shader der Streamprozessoren nach Tier_1.1? Wird ein Roundtrip gestartet, der wie Inlineraytracing Systemressourcen verwaltet um Overhead zu sparen? Legen sie bereits instanzierte Objekte im schnellen Cache ab um sich Kopiervorgänge und Mehrfachdurchläufe zu sparen und ähnelt ihre Variante bisher in geeignter Weise DXR v1.1?

Kurz nein, das zeigt also du brauchst nicht weiter zu machen. Eine Unterhaltung mit dir diente also nur einem Zweck: Ärger, nutzlose Diskussionen, Moderation. Daher...

Es geht um eine Pipeline in einer Pipeline, die man in lowlevel ausführt und dort gibt es nunmal Unterschiede. Das ist gewollt.

Combined compute pass inkluded adding v.1.1 support...und nur dann kann man schnell sein. Wo ist tressFX auf Nvidia Hardware schnell? Nirgends, du führst eine Gameworks RTX based Nvidia optimierte Anwendung auf AMD Hardware aus und wunderst dich das sie langsamer ist, mein Gott was für eine Erkenntnis.
 
Zuletzt bearbeitet:

Averey

Komplett-PC-Aufrüster(in)
Nirgends, du führst eine Gameworks RTX based Nvidia optimierte Anwendung auf AMD Hardware aus und wunderst dich das sie langsamer ist, mein Gott was für eine Erkenntnis.
Mit etwas weniger Dramatik - es ist eigentlich auch keine große Erkenntnis, dass 2e Gen Turing und 3e Gen Ampere dedizierte Hardwarelösung sich besser im allgemeinen für DXR eignet, als die erste AMD Implementation mit nur einem Raytracing-Beschleuniger auf der CU. Rechenleistung kann man durch keine Optimierungen aus der Luft zaubern, was auch die allermeisten getetesteten RT Titel zeigen, wo Turing und Ampere besser performen als RDNA 2. Die rechtzeitige Implementation der früher im Wissenschaftsbereich (physikalische Berechnungen) genutzten Technik trägt maßgeblich dazu bei, das Nvidia in diesem Bereich führend ist, was man nicht ohne Ausblendung der Fakten bei Architekturunterschieden und gelieferter Performance abstreiten kann.
 

tokthora

Komplett-PC-Aufrüster(in)
Nein, 8.6GB:

Das war nur Bullshit von AMD und alle AMD Jünger plappern es blind nach :lol:


Der Minecraft RT Benchmark wurde dir oben verlinkt. Dort ist zusehen, dass die 6800XT von einer 2080 Super geschlagen wird und das ohne DLSS.
Netter Versuch, weil in dem Test auch Raytracing und RTX on getestet wurde, ohne sind es schon 8.6 (3070 auwiehö), und DLSS wird wohl nicht unterstützt, da ja RTX auch vorerst kein Thema ist (damit auch NRD nicht). Ja genau...die dummen AMD Jünger die alles nachplappern.

Minecraft ist eine RTX Beta, das Wort selbst erklärt eigentlich schon worum es sich handelt, halt Gameworks RTX. Es ist ein Pahttracing Algorithmus (worüber AMD bisher kein Wort verlor), kein einfaches Raytracing Effektkino, was auch interne DLSS Treiber erfordert. Die Creatorwelten sind massiv RTX only optimiert.

Wie ich schon schrieb...lieber was sinnvolles machen.
 

owned139

Software-Overclocker(in)
Netter Versuch, weil in dem Test auch Raytracing und RTX on getestet wurde, ohne sind es schon 8.6 (3070 auwiehö), und DLSS wird wohl nicht unterstützt, da ja RTX auch vorerst kein Thema ist (damit auch NRD nicht). Ja genau...die dummen AMD Jünger die alles nachplappern.
Deine Aussage war, dass es ohne Raytracing schon 12GB VRAM benötigt:
Und Godfall fordert in 4K schon 12 ohne RT...
Techpowerup hat es getestet und widerspricht dir.

Was genau soll RTX on sein? RTX ist die Bezeichnung für die Nvidia Karten, welche RT Hardwareseitig beschleunigen können. Das Spiel ist ein AMD Titel, deswegen versteh ich nicht, wie du hier auf RTX kommst.

Minecraft ist eine RTX Beta, das Wort selbst erklärt eigentlich schon worum es sich handelt, halt Gameworks RTX. Es ist ein Pahttracing Algorithmus (worüber AMD bisher kein Wort verlor), kein einfaches Raytracing Effektkino, was auch interne DLSS Treiber erfordert. Die Creatorwelten sind massiv RTX only optimiert.
Weder RT, noch DLSS fallen unter Gameworks: https://developer.nvidia.com/what-is-gameworks
Der RT Ansatz basiert auf DXR und nicht auf irgendwas Nvidia eigenes, was dort schneller und bei AMD schlechter läuft.
Wie kann man sowas Nvidia only optimieren? DXR sollte doch abstrakt sein.

Wie ich schon schrieb...lieber was sinnvolles machen.
Ist schon ironisch, dass du mir vorwirfst keine Ahnung zu haben, aber jeder einzelne Post von dir nur so voller Falschaussagen und Unwahrheiten trotzt :D
 
Zuletzt bearbeitet:

tokthora

Komplett-PC-Aufrüster(in)
Deine Aussage war, dass es ohne Raytracing schon 12GB VRAM benötigt:

Techpowerup hat es getestet und widerspricht dir.

Was genau soll RTX on sein? RTX ist die Bezeichnung für die Nvidia Karten, welche RT Hardwareseitig beschleunigen können. Das Spiel ist ein AMD Titel, deswegen versteh ich nicht, wie du hier auf RTX kommst.


Weder RT, noch DLSS fallen unter Gameworks: https://developer.nvidia.com/what-is-gameworks
Der RT Ansatz basiert auf DXR und nicht auf irgendwas Nvidia eigenes, was dort schneller und bei AMD schlechter läuft.
Wie kann man sowas Nvidia only optimieren? DXR sollte doch abstrakt sein.


Ist schon ironisch, dass du mir vorwirfst keine Ahnung zu haben, aber jeder einzelne Post von dir nur so voller Falschaussagen und Unwahrheiten trotzt :D
Was für Unwahrheiten?

Du lehnst dich einfach mal aus dem Fenster nach drei Tagen RT bei AMD zu behaupten, sie sind langsamer weil man Spiele bencht die hilflos auf Nvidia tot optimiert sind. Was willst du da auf AMD Hardware messen? Während Nvidia monatelang an der Performance feilte, mit zig Treibern und Patches durch die Spieleentwickler, DLSS, Denoiser und weitere Modi soll doch bitte AMD sofort mit ihrer neuen Gen, dass Gleiche leisten oder schneller sein. Suche den Fehler selbst.

In dem Forum hier behaupten die Leute einen lieben langen Tag lang irgendwelchen FUD, erst kommt RDNA2 alias Bignavi nicht mal an eine 2080, geschweige denn 2080ti ran und nun sülzt man, wo sich das nicht bewahrheitet hat, bei der RT Performance weiter, obwohl sie den Leistungswert der RA inklusive Computepipeline selbst angeben DXR = 13,7fach bei 471BPS? (wenn man nur wüsste was das bedeutet oder) (es geht um eine räumliche Partitionierung!)?

Wenn man damit natürlich nichts anzufangen weis, ist schon klar, das man lieber irgendwas sülzt.

Wenn es stimmt was du behauptest, schreibt Nvidia auf ihrer Seite über Minecraft ziemlich viel Mist, und ehrlich (bei allem Respekt) ich glaube lieber den Herstellern, als irgendwelchen selbsternannten Experten in Foren, da wurde nämlich in letzter Zeit so viel Stuss geschrieben, dass das gar nicht mehr nur für ein Buch reicht und das sind am Nicknamen gemessen tatsächlich immer die Gleichen.

Du findest das alles selbst im www, da du ja eine Forensoftware bedienen kannst, wirds dann mit den Informationen auf den betreffenden Seiten auch klappen.

RTX ist einen Entwicklerplattform aus Soft- und Hardware das hab ich schonmal geschrieben, inklusive den "Ends" die dafür gebraucht werden und Gameworks RTX ist Teil davon, denn irgendwie muss man Cuda dazu bringen oder ihm übersetzen, was man überhaupt von ihm will. Das geht nicht mit einem Microsoft Fingerschnips.

Bei Minecraft ging es Nvidia um die Demonstrationsmöglichkeit ein Technologiepaket wie RTX innerhalb von Pathtracing vorzustellen und du willst mir erklären, das sei nicht so? Ich kann lesen und was ich lese auch verstehen. Das Ding heißt nicht umsonst Minecraft for Windows RTX Beta, da steht nichts von DXR oder RT und Gameworks setzt wie immer als Schnittstelle oben auf (Abstractionsebenen-/level). Ich kenne keine Anwendung, wo Gamemurks AMD Hardware berücksichtig, eher ist es umgekehrt, es schließt sie eher aus.

AMD Hardware wird in den Systemanforderungen zu Minecraft nicht mal genannt. Wer sowas testet sollte ggf. vorher mal bei Microsoft nachfragen, ob das denn berücksichtig wurde. Ich glaube das kaum. Und in der Vergangenheit an Turing gemessen haben wir gelernt, dass der Entwickler selbst oder der Dev allein dafür nicht reicht.
 
Zuletzt bearbeitet:

Averey

Komplett-PC-Aufrüster(in)
In dem Forum hier behaupten die Leute einen lieben langen Tag lang irgendwelchen FUD, erst kommt RDNA2 alias Bignavi nicht mal an eine 2080, geschweige denn 2080ti ran und nun sülzt man, wo sich das nicht bewahrheitet hat, bei der RT Performance weiter, obwohl sie den Leistungswert der RA inklusive Computepipeline selbst angeben DXR = 13,7fach bei 471BPS? (wenn man nur wüsste was das bedeutet oder) (es geht um eine räumliche Partitionierung!)?

Wenn man damit natürlich nichts anzufangen weis, ist schon klar, das man lieber irgendwas sülzt.
Handfeste Tests und Benchmarks die die bessere Hardwareleistung von Turing- und Ampere-Lösungen bei RT beweist sind also "Gesülze". Interessant, wenn irgendwas einem nicht passt, wird einfach gegen die andere Meinung geflamed.

DXR ist ein offener Standard auf den es bei entsprechender Harwarelösungen so wenig wie möglich optimiert werden muss, ist es denn Nvidia's Schuld dass sie Tensor-Kerne so einfach wie möglich designt haben, damit die Programmierer sie leicht ansprechen können (was man bei diversen Fachwebsites nachlesen kann)? Nur weil AMD nicht dasselbe kann? Natürlich,was denn sonst.

Und auch wenn es einem noch so stinkt dass geliebte Konzern in Sachen Innovation und Leistung zurückfällt, nein, eine 6800 XT kommt immer noch nicht auf dieselbe RT Lestung wie eine 2080 Super, geschweige denn 2080 Ti oder 3070. Immer noch ohne DLSS, da hilft auch die ganze Aufregung nichts.
 
Zuletzt bearbeitet:

manimani89

BIOS-Overclocker(in)
Ich denke man muss das etwas differenzierter betrachten und nicht einfach nur Cherry-picking par excellence betreiben.
Control performt auf den neuen AMD Karten einfach nicht ganz optimal und man liegt gar >10% hinter der 2080ti zurück. In Call of Duty, Metro und SOTTR ligt man zwischen 15-25% hinter der 3080 zurück, also nicht der rede
Wert. Wo die Reise hingehen wird, sieht man ja ansatzweise bereits an Watch Dogs und da wohl sämtliche Konsolen RT Ports wohl bereits optimal auf den neuen AMD Karten laufen werden wird diese sicher nicht die Ausnahme bleiben.
Ray Tracing Performance in 6 Games (www.thefpsreview.com)
Anhang anzeigen 1343183Anhang anzeigen 1343184

Anhang anzeigen 1343185

Ach ja und 850€ für 10GB sind natürlich die viel bessere Wahl.
Für mich sehen 10GB bei einer 3080 in etwa so aus, als würde man bei einem Monstertruck 14 Zoll Felgen verwenden:lol:)

Anhang anzeigen 1343193
bei watch dogs wurde kein dlss verwendet dann steht die 6800xt einfach nur schlecht da. und igors lab behauptet sogar das nvidia viel mehr ratracing effekte berechnet in jedem game. gibt ein video auf youtube. und bei dirt 5 wird ein komplett anderes bild berechnet da gibts auch ein video dazu. amd trickst hier nur weil wenn man minecraft oder control ansieht dann sieht man die wirkliche raytracing performance
 

tokthora

Komplett-PC-Aufrüster(in)
Handfeste Tests und Benchmarks die die bessere Hardwareleistung von Turing- und Ampere-Lösungen bei RT beweist sind also "Gesülze". Interessant, wenn irgendwas einem nicht passt, wird einfach gegen die andere Meinung geflamed.

DXR ist ein offener Standard auf den es bei entsprechender Harwarelösungen so wenig wie möglich optimiert werden muss, ist es denn Nvidia's Schuld dass sie Tensor-Kerne so einfach wie möglich designt haben, damit die Programmierer sie leicht ansprechen können (was man bei diversen Fachwebsites nachlesen kann)? Nur weil AMD nicht dasselbe kann? Natürlich,was denn sonst.

Und auch wenn es einem noch so stinkt dass geliebte Konzern in Sachen Innovation und Leistung zurückfällt, nein, eine 6800 XT kommt immer noch nicht auf dieselbe RT Lestung wie eine 2080 Super, geschweige denn 2080 Ti oder 3070. Immer noch ohne DLSS, da hilft auch die ganze Aufregung nichts.
Was hat denn Tensor mit Raytracing zu tun?

Es ist doch eher umgekehrt, der geliebte Konzern kommt in Bedrängnis, mit seinen ach so tollen aber im Kern ziemlich geschlossenen Ideen und dann gibt man in Foren Gas das das ja nicht zum Nachteil für die eigene Aktie wird, mit der man sich seinen geliebten Hersteller finanziert.

Nvidia brauchte 2 geschlagene Jahre für dieses Leistungsvermögen, das soll AMD bei einem anderem Ansatz (auch wenn beides auf DXR aufsetzt) doch bitte sofort egalisieren, das man nur im Rastern schneller ist, reicht erstmal nicht, nein sie sollen doch bitte dafür sorgen das man grün schön billig kaufen kann.

Übrigens hast du kein Wort von dem verstanden was ich schon geschrieben habe. RTX ist nicht DXR und DLSS auch nicht DirectML, letztere kommen plattformübergreifend zum Einsatz was nicht AMD zweckgebunden erfolgt, sondern für Microsoft, AMD liefert als OEM lediglich die Hardware. Es ist also derzeit eher das Konsolensegment das Technologieansätze bestimmt und warum sollte AMD die für Konsolen auf Wunsch Hardware entwickeln, dann noch Mal was grundlegend anderes machen? Das wäre doch völlig hirnrissig.

Für Entwickler hat es trotzdem Vorteile, weil das bei der Entwicklung von Spielen in gleicher Umgebung einfach leichter zu coden und portieren ist (man spart deutlich mehr Zeit und muss nicht ständig einen Engineer des Herstellers ordern, wenn Extentionen auf gleiche Hardwarelevel treffen, vor allem wenn die Komplexität in Spielen steigen soll hält man so die Verteuerung auf), man gleiche Leistung abrufen kann und nicht ständig dedizierte Ansätze berücksichtigen muss. Es geht dabei auch um Flexibilität in der Entwicklung, wobei in Hardware enge Maßstäbe setzt, das wollen die Entwickler aber gar nicht. Die wollen wenn möglich ihr Ding machen, nicht das eines Herstellers und auch nicht unter deren Kontrolle.

Tensor ist keine eigenständige Entwicklung von Nvidia und Raytracing ist es auch nicht, genauso wenig wie von AMD.

Aber klar. Nvidia darf 2 Jahre an RT umherfrickeln, zig mal die Anforderungen und Voraussetzungen umstoßen, DLSS und Denoiser anpassen, mehrfach Treiber nachschieben, Auflösungsmodi anpassen und damit das Balancing dem eigenen Hardwarelevel was Raymengen usw. betrifft. AMD darf das nicht, die haben sofort zu funktionieren, merkt ihr den Blödsinn den Ihr schreibt nicht selbst.

War Zen denn überall schneller? Wurde er nicht trotzdem gekauft und wo steht er in der Spielergunst jetzt? An der Spitze?

Übrigens kündigt sich gerade eine 6700xt an, mit 12GiB VRAM an 192bit SI und 96mb Infinitiy Cache, auwiehö 3070. RTX ist doch immer nur noch ein Gimmik (RT selbst in Spielen steckt in den Kinderschuhen, vermutlich weitere 10 Jahre), auf AMD bricht die Framerate halt um 52% ein auf Nvidia bei um 41. Spielbar ist in beiden Fällen was anderes und wer sein Bild dann mit AI Denoiser und Upscaling verschmieren will, soll das gerne machen.

Nvidia muss da wohl einen ausgewachsenen GA102 komplett teildeaktiveren (mehr als 10GiB), soviel Schrott kann man gar nicht produzieren um derzeit mit AMDs Ideen mitzuhalten.

Ich hoffe das sich der Markt dann irgendwann das Preisgefüge entsprechend entspannt, denn wie ich schon schrieb, sind Preisaufschläge versus UVP von bis zu 30% keine Option. Das passt tatsächlich nicht zu dem Stand der Entwicklung und der Leistungsfähigkeit. Da gebe ich euch gerne Recht. Wenn ihr auf dieser Basis diskutieren würdet gäbe es auch meinungsabhängig nichts an der Art und Weise zu kritisieren.
 
Zuletzt bearbeitet:

owned139

Software-Overclocker(in)
@manimani89 Kannst du das Video mal verlinken?

@tokthora was die Zukunft bringt, kann niemand wissen, aber stand heute stinkt AMD ziemlich ab in Sachen RT.
Alles andere ist Glaskugel lesen und nichts handfestes.
 

tokthora

Komplett-PC-Aufrüster(in)
Sich nach einer Woche hinzustellen und in dem Zusammenhang zu behaupten sie sind deultich langsamer ist genauso falsch. Man muss abwarten was jetzt passiert. Derzeit passen die Preise (Aufschläge) einfach nicht.

Messergebnisse sind immer nur Ausdruck des derzeitigen Umfelds (Software und Hardware), und in herstellereigenen Laboren misst man oft was anderes, als dann wenn die breite Basis eben nicht das Optimum darstellt, das man in eigenen Tests simuliert.

Derzeit ist es um so schwieriger, wenn sich die Hardware wegen der schlechten Verfügbarkeit nur langsam im Markt verbreitet und die Metriken dazu fehlen.

Das lässt letztlich nicht auf das tatsächliche Leistunsgvermögen schließen, so ist das nunmal. Nvidia erging es da nicht anders, wenn man an die Patch- und Treiberorgien denkt, angefangen bei BFV und RT. Derzeit haben sie den Vorteil das genug Anwender Datensätze liefern was Optimierungen zulässt, dass kann bei AMD genausogut funktionieren und dann haben sie noch das komplette Konsolensegment auf ihrer Seite. Nintendo ist leistungstechnisch etwas abgeschlagener, kann aber Nvidia wiederum helfen.
 

manimani89

BIOS-Overclocker(in)
amd hat nur ein großes problem. und das ist eben das sie keine zusatz kerne haben wie nvidia die tensor kerne. damit dürfte es mit einem dlss gegner schwer werden
@manimani89 Kannst du das Video mal verlinken?

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
das von igor muss das testvideo sein bin mir nicht mehr sicher
 
Zuletzt bearbeitet:

Averey

Komplett-PC-Aufrüster(in)
Was hat denn Tensor mit Raytracing zu tun?
Du kannst gerne selbst nachlesen, was Tensor-Cores mit Raytracing zu tun haben. Hardwareluxx hat da ein schönen Artikel geschrieben, der in die Tiefe bei der Architektur geht.

Volta-Karten haben keine RT-Cores, dafür aber Tensor-Kerne wie Turing und Ampere, und Raytracing funktioniert auf denen auch flüssig wenn auch etwas langsamer als bei Turing/Ampere (und hat funktioniert bevor es Turing-Karten überhaupt gab, und AMD nicht mal in Träumen an RT gedacht hat). Woran könnte das nur liegen.

Es ist doch eher umgekehrt, der geliebte Konzern kommt in Bedrängnis, mit seinen ach so tollen aber im Kern ziemlich geschlossenen Ideen und dann gibt man in Foren Gas das das ja nicht zum Nachteil für die eigene Aktie wird, mit der man sich seinen geliebten Hersteller finanziert.
Das sind einzig und allein deine Wunschvorstellungen. Wenn du anderen Menschen keine innovativen Produkte gönnst oder einem Hersteller der jahrzentelange Erfahrung in GPU und wissenschaftlichem Computermarkt hat sein Know-How absprichst, wird es trotzdem nicht verschwinden. Und Nvidia war mit ihrer neuen Turing-Architektur wenn man den Schlusstrich zieht, sehr erfolgreich. Und entwickelten diese mit der 3en Gen an RT weiter, während AMD da zurückfällt.

Übrigens hast du kein Wort von dem verstanden was ich schon geschrieben habe. RTX ist nicht DXR und DLSS auch nicht DirectML, letztere kommen plattformübergreifend zum Einsatz was nicht AMD zweckgebunden erfolgt, sondern für Microsoft, AMD liefert als OEM lediglich die Hardware. Es ist also derzeit eher das Konsolensegment das Technologieansätze bestimmt und warum sollte AMD die für Konsolen auf Wunsch Hardware entwickeln, dann noch Mal was grundlegend anderes machen? Das wäre doch völlig hirnrissig.
Wenn man viele schlaue Wörter nennt, soll das auch einem bestimmten Grund dienen, z.B. ein Pointe haben. Hier versuchst du von der Tatsache abzulenken, dass die AMD Lösung viel schwächer in RT Leistung ist, als Nvidia, was nun mal Fakt ist, mitsamt den Konsolen die eine RT Leistung unter einer 2060 Super/2070 liefern. Auf Cross-Gen Titel. Und anders als bei dem PC, kannst du auf den Konsolen keine Grafikeinstellungen ändern, darfst also 30 FPS mit Low-RT und low-mid Spieleinstellungen hochskaliert spielen - mit einem schlechterem und viel weniger, als auf dem PC, flüssigem Bild (hallo Tearing).


Aber klar. Nvidia darf 2 Jahre an RT umherfrickeln, zig mal die Anforderungen und Voraussetzungen umstoßen, DLSS und Denoiser anpassen, mehrfach Treiber nachschieben, Auflösungsmodi anpassen und damit das Balancing dem eigenen Hardwarelevel was Raymengen usw. betrifft. AMD darf das nicht, die haben sofort zu funktionieren, merkt ihr den Blödsinn den Ihr schreibt nicht selbst.
Jeder darf mit seinem Geld und Ressourcen alles anstellen, was man will. Und Nvidia haben ihr Angebot mit ihrer Forschung und Weiterentwicklung der Tensor- und Ki-Technologie kontinuierlich besser gemacht, somit den Usern was geboten für ihr Geld, während AMD das nicht getan hat. Das als Schuld von Nvidia hinzustellen, ist unsinnig.

Übrigens kündigt sich gerade eine 6700xt an, mit 12GiB VRAM an 192bit SI und 96mb Infinitiy Cache, auwiehö 3070. RTX ist doch immer nur noch ein Gimmik (RT selbst in Spielen steckt in den Kinderschuhen, vermutlich weitere 10 Jahre), auf AMD bricht die Framerate halt um 52% ein auf Nvidia bei um 41. Spielbar ist in beiden Fällen was anderes und wer sein Bild dann mit AI Denoiser und Upscaling verschmieren will, soll das gerne machen.

Nvidia muss da wohl einen ausgewachsenen GA102 komplett teildeaktiveren (mehr als 10GiB), soviel Schrott kann man gar nicht produzieren um derzeit mit AMDs Ideen mitzuhalten.
Wass Nvidia zurzeit machen muss oder nicht, kannst weder du oder ich wissen, und andere Produkte von einem Hersteller als Schrott zu bezeichnen, ist alles andere als konstruktiv. Ich nenne die RDNA 2 Karten kein Schrott, auch wenn sie an die Leistung von Turing in RT nicht drankommen.

Die 10 GiB - 20 GiB Marge hat was mit dem Herstellungsprozess von GDDR6x zu tun, was AMD nicht anbietet, und nicht mit Deaktivierung was du behauptest, und Nvidia verwendet auf ihren karten einen schnelleren Speicher als RDNA2, mitsamt einem schnelleren Bus.

Und auch wenn es dir anscheinend überhaupt nicht gefällt, das Nvidia führend ist und nicht die "Heilsbringer" von AMD (die genauso dein Geld wollen wie andere Hersteller), wird RT immer verbreiteter sein, und wir kriegen ständig neue RT Titel weil die Technik von immer mehr Entwicklern übernommen wird. Der nächste Triple-A Titel ist Cyberpunk, btw. Kurze Zeit nach Watch Dogs Legion release.

Btw, wenn man die Leistung der 6800 XT in RT laut Spielebenchmarks bedenkt, die unter einer 2080 Super liegt, wird die 6700 XT unter einer 2070 Super da liegen, während die 3070 sie um einiges überholen wird. Was eine realistische Schätzung der Leistung ist, abseits von Luftschlössern.

Ich hoffe das sich der Markt dann irgendwann das Preisgefüge entsprechend entspannt, denn wie ich schon schrieb, sind Preisaufschläge versus UVP von bis zu 30% keine Option. Das passt tatsächlich nicht zu dem Stand der Entwicklung und der Leistungsfähigkeit. Da gebe ich euch gerne Recht. Wenn ihr auf dieser Basis diskutieren würdet gäbe es auch meinungsabhängig nichts an der Art und Weise zu kritisieren.
Das ist etwas wo ich dir zustimmen würde, das beide Produktangebote überteuert sind, im Vergleich zu UVP, und beide Entwickler mitsamt Händlern da gut verdienen bzw. die Situation für sich auszunutzen wissen.

Und anders als du vielleicht denkst und es schon zu persönlich aufnimmst wenn ein Hersteller von den Testern und Anwendern richtig eingeschätzt wird, sind die RDNA 2 Karten ganz gut für klassische Rasterisation, aber die Entwicklung geht da jetzt neue Wege schon seit 2017. Ein zukunftsischeres Featureset und gute Leistung ist auch ein Argument für eine Kaufentscheidung, wie es für viele war, auch wenn man es nicht für die andere Seite akzeptieren will.
 
Zuletzt bearbeitet:
Oben Unten