Radeon RX 6000: "Big Navi" XT 21 mit 320 bis 355 Watt TBP?

Das mag sein, ändert aber nicht an der 16GB Aussage. Es gibt mehr Spiele mit RT, oder DLSS, als Spiele die 16GB brauchen.
Lustig dabei, dass es bereits heute RT Titel gibt denen 10 GB nicht ausreichen, man also einerseits ein Feature auf einer GPU bewirbt, dieses andererseits durch den VRAM voraussichtlich wieder beschneidet.
Es wäre eher sinnvoll RTX Karten 16 GB Vram mit an die Hand zu geben statt zwischen RTX oder 16 GB entscheiden zu müssen.

Heute brauchen tut man keins von beiden, man geht aber eine Wette ein, was in Zukunft sinnvoller sein wird. Und eine RT Karte mit 10 GB wird wohl weit weniger langlebig sein als eine Non RT Karte mit 16 GB. Es gibt einen Grund warum viele User da draußen eine 3080 gerne mit 20GB Vram gesehen hätten...
 
Es gibt mehr Spiele mit RT, oder DLSS, als Spiele die 16GB brauchen.
Das kann sein. Für mich ist aber relevant was ich spiele und nicht was es sobst so gibt. Und ich habe nur ein spiel das dlss kann (wo ichs nicht brauche) aber mehrere wo meine 8 GB heute schon zu wenig sind (und 10 mich auch nicht retten würden). Und ja, ich nutze persönlich geene Texturmods.

Es muss ja nicht allgemeingültig sein aber für mich sind 16\20GB vRAM viel viel wichtiger als dlss oder rt. Vor allem weil grade rt mittelfristig genauso probleme mit nur 10 gb haben wird.
 
Du meinst deiner Meinung nach? ;)

Was ein Kaufargument ist, entscheidet jeder selbst.
Das DLSS keine Zukunft hat, ist erstmal eine gewagte These. Knn zwar passieren, das Nvidia irgendwann DLSS fallen lässt, aber vorher muss sich erst zeigen, das DirectML.

Meistens kommt Nvidia schon recht weit, mit deren Alleingängen.

Und wenn es nur die nächsten zwei Jahre sind, in denen man von den 5 AAA Titeln, die ich Spiele, drei davon profitieren, hat sich das schon für mich gelohnt und wäre richtig gewesen, das beim Kauf zu berücksichtigen.

Danach soll dann eigentlich schon wieder die nächste GPU anrollen und da werden die Karten dann wieder neu gemischt.

Das RT nicht mit Kaufentscheidend ist, finde ich auch gewagt, gerade jetzt, wo endlich die Konsolen auch aufspringen. Da glaube ich, das die neuen Titel für Konsole und PC, überwiegend RT einsetzen werden. lass es ruhig 2021 werden, aber dann denke ich wird es so sein.

Mein Problem mit der ganzen Sache ist halt die unweigerliche Sackgasse, in der das enden wird.
G-Sync hat es gezeigt, die extrem halbherzige Unterstützung von GPU PhysX (Man hätte es von Anfang an offen lassen sollen, so dass mehr Entwickler wirklich mit dem Feature spielen können. Aber nein.. man musste es exklusiv halten und andere dazu zwingen, das Rad neu zu erfinden, während wir Gamer nach und nach das Feature verloren und nur CPU PhysX blieb), DLSS wird es wieder zeigen, weil es schlicht einen zusätzlichen Aufwand, im Vergleich zu DirectML bedeutet.
DirectML wird sicher ein sehr relevantes Feature für die XBox. Dabei ist es egal, ob es 100% so gut ist, wie DLSS. Die schiere Masse an Spielen mit DirectML Unterstützung wird DLSS verdrängen.

Am Ende werden dann in 4 Jahren DLSS um die 30/40 Spiele mit dem Feature stehen... yay...
Aktuell (also 2 Jahre nach Start von DLSS) sind es 14 Spiele. Davon haben die Hälfte DLSS 2.0... und ein 15. soll die Unterstützung nachgereicht bekommen (Laut Gamestar Liste vom September) - die jetzt angekündigten sind da natürlich nicht enthalten.
RTX unterstützen übrigens nur 12 Spiele - nach der gleichen Liste.
Allerdings wird zumindest die Zahl der Spiele mit RT Unterstützung dank der neuen Konsolen deutlich steigen.
Werden sie alle für die Arbeitsweise von Nvidia RTX optimiert sein?
mmmmhhh... eher bedingt, würd ich sagen.
Laut DICE braucht RTX schon eine sehr spezifische Anpassung, die über die Basis von DX12 RT hinaus geht - genau wie eventuell der andere Weg, den AMD dann wählt.
Aber zumindest RT an sich wird da sein, bei dem dann noch Optimierungen für AMD und Nvidia fällig werden.
Wie viele aller Nvidia Kunden werden auch nur die Hälfte der DLSS Spiele besitzen?

Diese absolut bemitleidenswerte Menge an Spielen mit dem neuen Feature haben mich schon damals davon abgehalten, eine GTX Karte mit PysX zu kaufen.
Die immer dicker aufgetragenen "Marketing Aussagen" von Jensen machen es nicht besser.
 
Wie viele offene Standards haben sich in den letzten Jahren wirklich durchgesetzt?

Da sind doch auch genug Beispiele da wo es keine große Verbreitung gibt wenn man hier schon von Sackgassen spricht.
Was wurde denn aus Mantle? Ging in Vulkan über, okay. Nur wie ist die Verbreitung von Vulkan gegenüber dem auf Windows begrenzten DX12? Immer noch weniger wo schon DX12 jetzt nach Jahren nicht der Standard ist. Dennoch würde sich jetzt kaum Jemand eine nicht DX12/Vulkan fähige GPU mehr kaufen wollen.

Auch die Konsolen sind nicht immer ein Garant dass sich etwas häufig durchsetzt. Checkerboard was auch Sony auf der PS4 Pro in Hardware umsetzt ist dennoch nicht vielfältig anzutreffen.
Auch hat man durch AMD Hardware in den 2013er Konsolen gehofft dass AMD am PC besseren Support bei Software hat. Passiert ist aber nicht viel an den Machtverhältnisse. Auf Nvidia wird doch immer noch mit teils über 60% optimiert. gerade kleine Indie-Titel sind eher Richtung Team Grün.

Weiß auch nicht ob Entwickler gern offenen Standard immer unterstützen. Hat den Nachteil dass man auf eine noch breitere Hardwarefront hin optimieren muss. Dann hagelt es Kritik weil es auf älteren GPUs nicht mehr so besonders läuft. Kann es schon sein dass man proprietäre aber klarer abgesteckte Lösung viel eher umsetzt.

Ganze ist halt immer zweischneidiges Schwert.
Wir werden bei konkurrierenden Unternehmen eben recht selten sehen dass die an einem Strang ziehen. Außer noch größerer Konkurrenz macht sich am Horizont breit.

Ich hoffe ja gern darauf dass es dann flächendeckend in fast jedem Game DirectML zur Verfügung steht. Wundern würde es mich nicht wenn es letzten Endes dann auch nicht mehr Games sind als DLSS Versionen.
Es ist ja auch nicht gesagt dass man den DLSS Datensatz den Nvidia gesammelt hat dann nicht in einem offenen Standard weiterführen kann.

Man kann ja gern warten, oft wartet man ewig. Wer wartet kann auch dazu beitragen dass sich eine Sache nie wirklich durchsetzt. Weil Angebot sich auch nach Nachfrage richtet.
 
Beweise doch einfach, dass die 50% Effizienzsteigerung zwischen GCN und RDNA1 nicht da waren.
Darum ging es mir nie und das habe ich weder versucht zu widerlegen, noch überprüft ob es stimmt.
Es ging mir um die Aussage "AMD hat sich durch die positive nähere Vergangenheit Vertrauen verdient". Nur darauf habe ich versucht einzugehen und keinerlei Aussage zu etwaigen Effizienzverbesserungen gemacht.

Mal angenommen 50% kommen hin zwischen GCN und RDNA, warum MUSS dann die Aussage 50% mehr von RDNA1 zu RDNA2 stimmen?
Es ist so unglaublich einfach, Zahlen zu Performance pro Watt genau zu kontrollieren um genau die Werte zu bekommen die man haben will.
Wenn ich beispielsweise die Vega 56 mit der 5700XT vergleiche komme ich etwa auf 33% mehr Performance pro Watt bei RDNA1 (in 4k, Quelle TechPowerUp). Wenn ich aber die Vega 64 der RX 5700 gegenüberstelle komme ich da natürlich auf bessere Werte für RDNA1 . Dann kann ich noch die Vega bis zum erbrechen übertakten, Navi etwas underclocken und schon habe ich eine noch bessere Effizienz.
Ohne eine Veränderung im Herstellungsprozess halte ich persönlich echte +50% Effizienz für unmöglich, aber darum geht es mir nicht, denn das ist reine Mutmaßung und hat mehr mit Glauben als mit Wissen zu tun.
Alles was ich betonen will und wollte ist, dass Zahlen direkt vom Hersteller sehr oft nicht stimmen (auch wenn es natürlich Zahlen gibt die hinkommen) und man im Bereich der Hardware und Benchmarks, wo so viel von dem Test und dessen Bedingungen abhängt, niemals Versprechungen für bare Münze nehmen sollte um darauf seine Erwartungen aufzubauen.
 
Naja, wie hier schon geschrieben wurde: ähnliche Leistung - ähnlicher Verbrauch.
Aber ich denke das zumindest die Mittelklasse-Modelle effizienter sind als ihre Vorgänger.
 
Wie viele offene Standards haben sich in den letzten Jahren wirklich durchgesetzt?

Da sind doch auch genug Beispiele da wo es keine große Verbreitung gibt wenn man hier schon von Sackgassen spricht.
Was wurde denn aus Mantle? Ging in Vulkan über, okay. Nur wie ist die Verbreitung von Vulkan gegenüber dem auf Windows begrenzten DX12? Immer noch weniger wo schon DX12 jetzt nach Jahren nicht der Standard ist. Dennoch würde sich jetzt kaum Jemand eine nicht DX12/Vulkan fähige GPU mehr kaufen wollen.

Auch die Konsolen sind nicht immer ein Garant dass sich etwas häufig durchsetzt. Checkerboard was auch Sony auf der PS4 Pro in Hardware umsetzt ist dennoch nicht vielfältig anzutreffen.
Auch hat man durch AMD Hardware in den 2013er Konsolen gehofft dass AMD am PC besseren Support bei Software hat. Passiert ist aber nicht viel an den Machtverhältnisse. Auf Nvidia wird doch immer noch mit teils über 60% optimiert. gerade kleine Indie-Titel sind eher Richtung Team Grün.

...
DX12 wurde ebenfalls von Mantle beeinflusst. - immerhin nutzte Mantle die gleiche Sprache.
DX12 ist jetzt nicht unbedingt ein geschlossener Standard, wenn man es rein auf Windows bezieht.
DX12 funktioniert für alle GPUs gleich - seien es GPUs von AMD, Intel, oder Nvidia.
Das kann man von GPU PhysX, DLSS und RTX nicht behaupten (wobei letzteres eine Erweiterung von DX12 RT ist).

Nvidia setzt seit Maxwell auf Checkerboard Rendering - ein Grund für die große Performancesteigerung von Maxwell.
Ich würd Nvidia jetzt nicht unbedingt als kleines Licht bezeichnen.
Das Checkerboard Rendering geschieht zwar "nur" in der GPU, ist aber für alle Spiele genutzt, egal was sie eigentlich vorsehen.
Da gibt es übrigens ein paar schöne Qualitätsvergleiche bei The Division, die den Einfluss von Nvidias Renderingmethode näher ansehen.
David Kanter nennt es tile based rendering, was aber aufs Gleiche raus kommt:
 
Anfangs hieß es, dass die neuen Radeons mindestens so schnell wie die 2080TI werden, eher etwas schneller.
Jetzt kamen die grünen 3000er, nicht unwahrscheinlich, dass AMD hier dann noch etwas gewerkelt hat
und mehr Dampf reinschiebt als ursprünglich angedacht und somit leider auch über dem Sweetspot landet.
Ich find's auch nich tragisch, wenn die Dickste nicht an die 3080 rankommt, solange der Preis passend bleibt.

Ich persönlich finde das ja halb so wild.
Der Verbraucht der Gesamtkarte geht mit mehr Vram ja sowieso etwas hoch gegenüber Karten mit weniger
und wer alles nutzen will, aber weniger Leistung verbraten möchte, der setzt sich einfach ein FPS-Limit,
vielleicht baut AMD auch wieder einen Energiespar-Schalter in den Treiber ein, wie wir das schonmal hatten bei den RX480.

Kurzum, ich finde das mit dem angeblich hohen Verbrauch halb so schlimm, als das manch einer hier darstellt.
Bin jedenfalls super gespannt was da auf uns zukommt.
 
Das kann sein. Für mich ist aber relevant was ich spiele und nicht was es sobst so gibt. Und ich habe nur ein spiel das dlss kann (wo ichs nicht brauche) aber mehrere wo meine 8 GB heute schon zu wenig sind (und 10 mich auch nicht retten würden). Und ja, ich nutze persönlich geene Texturmods.

Es muss ja nicht allgemeingültig sein aber für mich sind 16\20GB vRAM viel viel wichtiger als dlss oder rt. Vor allem weil grade rt mittelfristig genauso probleme mit nur 10 gb haben wird.
Und bei mir ist es eben anders herum.
Wenn ich mir die paar Spiele so ansehe, die ich Spiele und auch vermutlich die nächsten Jahre spiele, sind es eben diese Namen, die zu einem vielversprechenden Anteil eben doch RT / DLSS nutzen. Ob es jetzt 20/30/40% der Spiele bei mir werden, spielt keine Rolle, selsbt mit 20% hat es beim Kauf schon eine Relevanz.

Da ich auch in Crysis damals kein einziges mal Texturmods genutzt habe komme ich ach wohl, mit den 10GB weit hin.

Dazu muss man auch sehen worüber wir reden. Wenn die Texturauflösung reduziert werden muss, bei einer 10GB Karte, wird das über bleibenden Ergebnis nicht so aussehen, wie damals bei einer 1,5GB Karte, oder aktuell bei einer 3GB Karte.

Was wie genau kommt, wird nur die Zeit zeigen.

Auch st es mir egal, ob DLSS in zwei, drei Jahren eingestampft wird (glaube mir, das ist alles schon einkalkuliert bei Nvidia) weil ich in der Zwischenzeit es dann nutzen konnte.

Das ist natürlich nur meine Sichtweise! ;)
Lustig dabei, dass es bereits heute RT Titel gibt denen 10 GB nicht ausreichen, man also einerseits ein Feature auf einer GPU bewirbt, dieses andererseits durch den VRAM voraussichtlich wieder beschneidet.
Es wäre eher sinnvoll RTX Karten 16 GB Vram mit an die Hand zu geben statt zwischen RTX oder 16 GB entscheiden zu müssen.

Heute brauchen tut man keins von beiden, man geht aber eine Wette ein, was in Zukunft sinnvoller sein wird. Und eine RT Karte mit 10 GB wird wohl weit weniger langlebig sein als eine Non RT Karte mit 16 GB. Es gibt einen Grund warum viele User da draußen eine 3080 gerne mit 20GB Vram gesehen hätten...
Welches Spiel?

Welches Spiel fängt wegen Speichermangel an mit Nachladerucklern?

Mit dem Heute brauchen hast du aber Recht. Auch mit der Wette. Aber nicht jeder wettet gleich
 
Welches Spiel?

Welches Spiel fängt wegen Speichermangel an mit Nachladerucklern?
Aktuell bei mir beispielsweise Serious Sam 4 in 4K. Da läuft mir der vRAM voll und man bemerkst beispielsweise wenn man sich schnell umdreht nachladende texturblöcke mit ganz kurzen Rucklern. Und das wohlgemerkt auf der ZWEITHÖCHSTEN Textureinstellung, die höchste lässt mich das Spiel nicht mal anwählen weils schon sagt "hey du hast zu wenig vRAM dafür". :-D
Raff hats auf ner 3080 probiert - auch 10GB reichen nicht. 16GB dagegen reichen, denn etwa die Menge wird auf ner 3090er belegt.

Wie DOOM (3) damals das für die Insane-Textureinstellung damals Grafikkarten mit 512 MB erforderte was damals sozusagen Titan-Klasse war.^^


Klar, das sind heute noch Ausnahmen (und mit besserer Optimierung würde das Spiel wahrscheinlich auch mit etwas weniger klarkommen) aber die Marschrichtung ist eindeutig und für Spieler die auf sowas Wert legen ist ne 10GB-3080er quasi dead on arrival.
 
Aktuell bei mir beispielsweise Serious Sam 4 in 4K. Da läuft mir der vRAM voll und man bemerkst beispielsweise wenn man sich schnell umdreht nachladende texturblöcke mit ganz kurzen Rucklern. Und das wohlgemerkt auf der ZWEITHÖCHSTEN Textureinstellung, die höchste lässt mich das Spiel nicht mal anwählen weils schon sagt "hey du hast zu wenig vRAM dafür". :-D
Raff hats auf ner 3080 probiert - auch 10GB reichen nicht. 16GB dagegen reichen, denn etwa die Menge wird auf ner 3090er belegt.

Wie DOOM (3) damals das für die Insane-Textureinstellung damals Grafikkarten mit 512 MB erforderte was damals sozusagen Titan-Klasse war.^^


Klar, das sind heute noch Ausnahmen (und mit besserer Optimierung würde das Spiel wahrscheinlich auch mit etwas weniger klarkommen) aber die Marschrichtung ist eindeutig und für Spieler die auf sowas Wert legen ist ne 10GB-3080er quasi dead on arrival.

Das die Marschrichtung grundsätzlich fest steht ist klar. Letztendlich die Frage wie viele Spiele davon betroffen sind.
Wenn ich mir überlege, was heute schon mit 10GB an hübschen Texturen realisiert werden kann, wenn ordentlich optimiert wurde...

Schauen wir mal, wann was wie...

Erstmal muss sich jetzt zeigen, was AMD mit RDNA 2 drauf hat. Auch in bezug auf RT. Dann muss sich zeigen, wie Nvidia da drauf reagiert.
 
Kann mir nicht vorstellen, dass Portierungen von den neuen Konsolen auf einmal besser für PC optimiert werden. Ist es nicht eher so, dass es immer schlimmer wird mit Portierungen?
 
Kann mir nicht vorstellen, dass Portierungen von den neuen Konsolen auf einmal besser für PC optimiert werden. Ist es nicht eher so, dass es immer schlimmer wird mit Portierungen?
Wieso besser, die neuen Konsolen haben doch auch nicht mehr Speicher zur Verfügung, der nur für die GPU genutzt werden kann, oder soll.

Deswegen werden, deswegen meiner Meinung nach keine schlechteren Texturen auf dem PC sehen.

Wobei wenn ich so nachdenke, könnte es ja sein, das die Spiele für den PC dann noch bessere Texturen bringen, die dann vielleicht wirklich mal mehr als 10GB brauchen könnten.

Früher hatte AMD auch immer mehr Speicher, wenn also Nvidia keine weiteren Karten mit 16GB, oder 20GB bringt, darf man nur hoffen das AMD diesmal wirklich wenigstens gleich schnell ist. Sonst darf man wieder nur das kleinere Übel wählen.
 
Weil sich gefühlt die Entwickler immer weniger Mühe geben, dass eine Portierung ressourcenschonend auf dem PC läuft. Und jetzt gibt es neue Konsolen und welche ein Zufall gleichzeitig Grafikkarten mit 16GB für quasi jeden. Dazu noch nvme zum Pfuschen. Das lädt doch gerade zu ein, dass man die Games uns einfach hinwirft.

Zugegeben, die haben sich auch immer mehr Stress und können aus Zeit- und Gelddruck nicht so optimieren wie sie vielleicht möchten.
 
Ja und? Jede Grafikeinstellung verändert das Bild. Deine Argumentation ergibt keinen Sinn.
Doch. Du verstehst sie nur nicht oder willst sie nicht verstehen. Ursprünglich ging's darum ja auch nicht. Sondern dass mit und ohne DLSS zu testen nicht das gleiche ist wie mit unterschiedlichem RAM-Takt zu testen.

Die ganzen Features gab es irgendwann mal so gut wie alle nicht und durch sowas werden die Spiele hauptsächlich beschleunigt.
T&L unterstützung, Tessellation, Vertex/Pixel Shader etc. All dass ist Hardwareseitig.
Nur zu sagen, dass man das nicht testen darf/soll, weils der andere nicht kann, ist schwachsinn.
Erstens hat keiner gesagt, dass man es nicht testen soll/darf. Ich sagte ja schon, als Sondertest hat keiner was dagegen und reicht völlig aus für die Leute, die daran interessiert sind. Es wurde lediglich gesagt, dass für einen direkten Vergleich die Testbedingungen gleich sein sollen. Und das ist ja auch richtig. Ausserdem ist DLSS mit den von dir genannten Features nicht vergleichbar. Dafür wurden Spezifikationen innerhalb einer hardwareunabhängigen API wie Direct3D oder OpenGL festgelegt. Auf DLSS trifft das bisher jedenfalls nicht zu.

Stimmt die soll wohl sehr bescheiden sein
Nope. ;)

Also kurz gesagt bist du einfach nur ein AMDler der auf krampf versucht die Tester dazu zu bewegen DLSS zu ignorieren, damit AMD nicht ganz abgeschlagen ist?
Nope. Aber bei dir hab ich das Gefühl, dass Tester nur noch mit DLSS testen sollen, weil sich Big Navi ansonsten womöglich als schnelleres und besseres Produkt herausstellen könnte und du dich dann über einen völlig überteuerten Fehlkauf ärgerst. :schief: Du würdest echt gut zum Nvidia Marketing passen. Die scheuen auch freien und fairen Wettbewerb wie die Pest. Zu dumm, dass nur wenige Spiele DLSS unterstützen werden.

Ach jetzt spekulierst du? Das klang aber alles ziemlich nach Fakt.
Die Rohleistung ist auch ein Fakt. Alles weitere wurde von mir klar als Spekulation bzw als ungewiss gekennzeichnet, z.B. wie sich die Rohleistung in der Praxis schlägt. Wenn du das nicht auseinanderhalten kannst, dann solltest du dringend an deinem Textverständnis arbeiten.


Das stimmt nicht, mit DLSS im Quality Mode erreicht man ein unterm Strich besseres Bild wie nativ
Die Frage ist doch was man als besser empfindet. Z.B. auf dem ersten von dir verlinkten Bild werden die Buchstaben mit DLSS relativ stark verformt. Für mich wäre das ein absolutes NoGo. Auf dem nativen Bild schauen die Buchstaben sauber aus. Ich empfinde das daher auch als besser. Insofern stimmen solche pauschalen Aussagen einfach nicht.
 
Zuletzt bearbeitet:
Zurück