Radeon RX 6000: "Big Navi" XT 21 mit 320 bis 355 Watt TBP?

@weisserteufel

Du kannst nicht einfach die komplette boardpower zum rechnen nehmen. Die typische asic power der 5700xt liegt so um die 180W der rest wird davon mehr oder weniger direkt beeinflusst (Speicherkonfiguration, Wandlerverluste etc.). "Effizienzsteigerung" ist eigentlich kaum fassbar, weil es keinen Standard gibt ausser den Sweetspot des Chips, was nichts bringt wenn die absolute Leistung an diesem Sweetspot nicht ausreicht.

Wenn man dann ein willkuerliches performance Ziel erreichen muss (eg. 3080) kann von so einer optimalen Effizienzverbesserung beim fertigen Produkt im worst case genau 0 übrig bleiben.
Genau um diese Sweetspot Geschichte zu umgehen, habe ich eben nicht einen wesentlich effizienteren 5600 gewählt, sondern den Vollausbau von RDNA1: 5700XT. Der wird sich genauso wenig im Sweetspot bewegen, wie eine Navi 21 XTX.
 
Genau um diese Sweetspot Geschichte zu umgehen, habe ich eben nicht einen wesentlich effizienteren 5600 gewählt, sondern den Vollausbau von RDNA1: 5700XT. Der wird sich genauso wenig im Sweetspot bewegen, wie eine Navi 21 XTX.
Die 5700xt war deutlich über 60% effizienter als die Vega64. Die 56er und die 5700 trennen 50% aber auf der selben Node war Vega dann nur 20% hinter der XT. Die 50% von AMD stimmen also gemessen an ihren ausgelieferten Produkten nicht so ganz. Sie geben ja auch an, dass RDNA1 50% mehr Leistung bei gleichem Stromverbrauch und gleicher Configuration bietet (in den Slides geben sie aber für beides keine konkreten Zahlen).

Ausserhalb von AMD weiß wahrscheinlich noch niemand wie RDNA2 nach oben skaliert. (Takt, CUs, Spannung etc.) und ob man den Holzhammer rausholen muss um mit der 3080 gleich zu ziehen. Da jetzt einfach die 5700xt zu verdoppeln und 50% effizienzsteigerung anzusetzen ist imho einfach Kaffeesatzleserei um das Produkt grob einzuordnen so genaue Aussagen wie 320W++ sind unglaubwuerdig weil zu hoch finde ich gewagt.
 
Du hast nicht verstanden, was ich sagte. Ich sprach vom Ergebnis einer Anwendung, nicht von deren Performance. Rendert Cinebench ein anderes Bild mit niedriger getaktetem RAM? Nein. Kodiert x264/265 ein Bild anders mit niedriger getaktetem RAM? Nein. Die Berechnungsgeschwindigkeit mag unterschiedlich ausfallen, das Ergebnis aber eben nicht. Daher ist das mit DLSS nicht vergleichbar, weil sich hier sehr wohl das Ergebnis ändert bzw konkret die Bildqualität. Und wie gesagt, mitunter durchaus zum schlechteren.
Ja und? Jede Grafikeinstellung verändert das Bild. Deine Argumentation ergibt keinen Sinn.

So ist es, wenn man vergleichbar testen will. Trifft auf Nvidia übrigens genauso zu, wenn die kein AA unterstützen würden. Als Sondertests kann man das ja noch zusätzlich machen. Dagegen sagt keiner was.
Die ganzen Features gab es irgendwann mal so gut wie alle nicht und durch sowas werden die Spiele hauptsächlich beschleunigt.
T&L unterstützung, Tessellation, Vertex/Pixel Shader etc. All dass ist Hardwareseitig.
Nur zu sagen, dass man das nicht testen darf/soll, weils der andere nicht kann, ist schwachsinn.
Ich kaufe mir das schnellere/bessere Produkt und dabei ists mir egal, woran es liegt.

Doch, über die Rohleistung ist sehr wohl was bekannt. Zumindest was die neuen Konsolen betrifft. Und die Desktop Grafikkarten werden da mit Sicherheit nicht weniger performant.
Stimmt die soll wohl sehr bescheiden sein ;)
Also spricht dies auch gegen deine Aussage.

Aber das kannst du als Käufer von völlig überteuerter Nvidia Hardware natürlich auch nicht wissen.
Also kurz gesagt bist du einfach nur ein AMDler der auf krampf versucht die Tester dazu zu bewegen DLSS zu ignorieren, damit AMD nicht ganz abgeschlagen ist?
Danke. Nuff said :D

Erstens spricht Igor vermutlich nicht von Rohleistung, zweitens spekuliert er wie wir auch nur und drittens liegt auch er hin und wieder falsch. Du musst mir auch nicht glauben. Schau dir die Zahlen selber an. Das sind Fakten. Da aber wie gezeigt beide Hersteller unterschiedliche Wege bei der RT Implementierung gehen und keiner von uns im Moment sagen kann, welche in der Praxis besser oder schlechter ist, finde ich es einfach nur dumm zu behaupten, RT wäre ein Vorteil für Nvidia. Das sind aktuell eben nur Pseudoargumente, um Nvidia schönzureden.
Ach jetzt spekulierst du? Das klang aber alles ziemlich nach Fakt.
Dann liefere doch einfach mal die Fakten und poste mir den Link :)

"...zweitens spekuliert er wie wir auch nur..."
"Schau dir die Zahlen selber an. Das sind Fakten."
"...und keiner von uns im Moment sagen kann, welche in der Praxis besser oder schlechter ist..."
Kriegst du eigentlich selber noch mit, was du von dir gibst? Ist nicht mal böse gemeint, aber auf mich wirkt es nicht so.
 
Zuletzt bearbeitet:
Ja genau, im Grunde haben sich User von gsync oder freesync schon vor der Ankündigung der neuen Karten entschieden. Sofern sie nicht im selben Zug den Monitor tauschen oder auf die sync verzichten wollen oder es egal ist. Es könnte so einfach sein... :D
Theoretisch gibt es da ja noch Gsync Compatible wenn man eine Nvidia haben will aber FreeSync Monitore hat. Die Frage ist dann nur wie gut das funktioniert.
 
Die meisten der "Spieler" spielen entweder auf der Konsole Fortnite, FIFA oder CoD, auf dem Handy irgendeinen völligen Müll oder auf dem PC LoL oder CSGO.
Dafür brauchst du sicher keine 700€ GPU.
Für den reinen PC non E-Sports Markt sind das die größten Titel die dieses Jahr rauskommen (Valhalla fehlt).
Ja es kommen noch tausend andere Spiele raus, nur spielt die kaum wer.
Es muss ja nicht deinen persönlichen Geschmack treffen aber NVIDIA scheint quasi alle Triple A Games nun mit DLSS auszustatten und die Entwickler in diesen Games implementieren dann auch meist RT.
RT + DLSS wird in Zukunft in allen großen PC Titeln Standard. Entweder AMD entwickelt ein AI Upscaling welches gleichwertig ist oder ich sehe auf längere Zukunft schwarz für AMD.
Turing war mehr oder weniger ein Test. Sobald die kleinen Ampere (hier dürften wohl kaum Produktionsschwierigkeiten entstanden sein) rauskommen wird sich auch die Verbreitung der GPU's die DLSS und RT beherrschen massiv vergrößern.
Alleine schon durch die Tatsache, dass der Aufwand für die Entwickler zur Implementierung von DLSS enorm niedrig ist und NVIDIA fast alles erledigt steht der Verbreitung nichts im Weg.
Es ist nicht der heilige Gral, aber in Anbetracht der Tatsache, dass die GPU Entwicklung immer langsamer wird sind solche FPS Verbesserungen in vielen Spielen gern gesehen.
RT hingegen ist die Vorstufe des heiligen Grals und ich hoffe, dass wir in 10 Jahren die ersten großen Path Tracing Titel sehen dürfen.



Der Aufwand liegt derzeit quasi nur bei NVIDIA in Sachen DLSS.
Du meinst sicher große Titel wie Cyberpunk, CoD und Watch Dogs? Die bekommen ja ganz sicher keins :schief:.
So lange RT und DLSS noch nicht Standard sind und die Zukunft da reine Spekulation bleibt, sind die beiden Features kein Kaufargument.

So lange DLSS für jedes Spiel einzeln implementiert werden muss, kostet es Entwicklungszeit und damit Geld.
Nvidia betreibt auch nicht das Bugfixing für ein ganzes Spiel.. da ist durchaus noch einiges an Aufwand beim entwickler.

Dazu kommt noch, dass sich mit DirectML schon ein offener Konkurrent am Horizont abzeichnet.
Es wird nicht leichter für DLSS... eher schwerer.
Vor allem kann man mit darüber entwickelten Upscaling Techniken deutlich mehr GPUs und damit Kunden erreichen, als mit DLSS.
Man braucht nur eine DX12 fähige Grafikkarte - also alles ab GTX 600 und HD7000.
Das macht diese Variante deutlich attraktiver für Spieleschmieden, als DLSS.

Also: AI Upscaling ja, DLSS in Zukunft eher nein.
Natürlich wird es weiter Nvidia bezahlte DLSS titel geben... aber ob die sich dann durchsetzen?

Ob die Triple A Titel dann auch zum Release gleich mit RT kommen, muss sich auch noch rausstellen... hat in der Vergangenheit ja auch nicht sonderlich geklappt... auch mit DLSS beim Start sah es nicht ganz so rosig aus.

Es dürfte wie bei G-Sync vs. Freesync ausgehen... die speziellen Hardwareanforderungen und generelle Exklusivität auf einen Hersteller helfen bei PC Gaming nicht wirklich mit der Verbreitung.
Vor allem nicht beim Großteil der Gamer, bei dem das Budget doch eher knapp bemessen ist.
 
Hab ja eigentlich gehofft, dass AMD bei Big Navi nicht ganz so extreme Verbräuche bringt ...
Naja mal schauen; Gerüchteküche kocht ja auch öfters mal "daneben"
Sehe ich genauso (bzgl. Verbrauch) !
Aber nach dem es anscheinend (seit Ampere) "normal" ist ca. 400 Watt (im Extremfall bis zu 550 Watt / siehe Post #156) zu verbraten, wäre AMD schlecht beraten, nicht auch eine "High End" Karte zu bringen, jene auf Kante genäht ist. Für die ganze " Verbrauch ist mir egal, Hauptsache 13 FPS mehr" Fraktion.
Wer sich daran stört (aus welchen Gründen auch immer) kann ja zur Strom sparenden Karte greifen ...

MfG Föhn.
 
Zuletzt bearbeitet von einem Moderator:
Für mich persönlich steht und fällt alles mit dem "Undervolting Potential" und mit der dann im Anschluss erreichten Performance und natürlich dem Preis. Geringeren Einfluss wird auch die RT Performance und Co haben (something like DLSS).
Meine aktuelle GPU ist leider etwas schwach :ugly:
 
  • Like
Reaktionen: rum
Ausserhalb von AMD weiß wahrscheinlich noch niemand wie RDNA2 nach oben skaliert. (Takt, CUs, Spannung etc.) und ob man den Holzhammer rausholen muss um mit der 3080 gleich zu ziehen.
Ah, dass ist die neue Argumentation? AMD holt den Holzhammer raus um gleich zu ziehen?
Also ich sehe da bei Nvidia bei der Leistungsaufnahme bereits einen Holzhammer aka Brechstange.

Nach deiner Logik ist der erste, der auf den Markt mit einem abartigen Stromverbrauch aufwartet der Gute und der danach kommt holt den Holzhammer raus? Geile Logik.
Theoretisch gibt es da ja noch Gsync Compatible wenn man eine Nvidia haben will aber FreeSync Monitore hat. Die Frage ist dann nur wie gut das funktioniert.
Wie ich schon vorher schrieb: Das geht bei weitem nicht bei allen Monitoren. Im Gegenteil, das betrifft nur eine eher kleinere Menge gemessen auf den Freesync Monitor Anteil am Markt.
 
Theoretisch gibt es da ja noch Gsync Compatible wenn man eine Nvidia haben will aber FreeSync Monitore hat. Die Frage ist dann nur wie gut das funktioniert.
Stimmt, hat du recht, aber deswegen habe ich es extra nicht erwähnt. Beim einen klappts und ist super beim anderen nicht und ist nicht zu gebrauche. Das wird dann auf die Allgemeinheit projiziert und gibt zu viel Spielraum für pro & contra.


Und? Wenn AMD kein AA unterstützen würde, dürfte man kein AA verwenden, denn es verändert hier ja auch die Bildqualität?
Jede Grafikeinstellung verändert die Bildqualität. Das ist genau ihr Zweck...
Ich glaube er meint die damit verbundene Leistung und nicht wie schön ein Spiel aussieht. Beim Grafikkartentest geht es doch auch um die Leistung und nicht welche Karte das schönere Bild zeigt.

Und btw die Qualität sagt nichts über den (schönen) Inhalt eines Bild aus.


Ein hochauflösendes scharfes Bild vom kargen und lebensfeindlichen "Dreck" vom Mars kann "besser" aussehen als ein vermatsches und verpixeltes Bild vom Strand auf Hawaii.
Nur weil ich mehr Gräser oder Kisten am Boden sehen kann sind die nicht automatisch auch schöner. Texturmatsch vs 4k Texturen.
Aufpopende Texturen bei zu wenig vram in der Ferne sind auch nicht schön, machen das Bild aber nicht schärfer oder mehr verwaschen.
 
Ich denke mir auch, wenn AMD wirklich aufschließen kann, dann ist das ein Armutszeugnis für Nvidia, wenn wir in Betracht ziehen, dass AMD vor Ampere schon deutlich hinter Nvidia lag/liegt und obwohl Nvidia noch ordentlich was oben drauf gepackt hat mit Ampere kann das ohnehin schon sehr weit angeschlagen gewesene AMD aufschließen? Wir können aber auch sagen, es ist eine beachtliche Leistung was AMD erbracht hat mit Big Navi, OK die Tests stehen noch aus, we will see.
 
Zuletzt bearbeitet:
So lange RT und DLSS noch nicht Standard sind und die Zukunft da reine Spekulation bleibt, sind die beiden Features kein Kaufargument.
Warum muss irgendwas immer Standard sein und in jedem Game genutzt um Kaufargument zu sein?

Du hast dir sicherlich auch schon elektronische Geräte für Unterhaltung/Haushalt oder Fahrzeuge gekauft wo eine Funktion vielleicht 4-5x im Jahr genutzt wurde. Dennoch froh dass man sie hatte wenn nötig.
Muss eine Anhängerkupplung überall Standard sein damit gewisse Leute Nutzen darin sehen paar mal im Jahr?


So lange DLSS für jedes Spiel einzeln implementiert werden muss, kostet es Entwicklungszeit und damit Geld.
Nvidia betreibt auch nicht das Bugfixing für ein ganzes Spiel.. da ist durchaus noch einiges an Aufwand beim entwickler.
Der Aufwand liegt doch momentan noch eher bei Nvidia. Der Entwickler schickt nur paar Bilddaten die dann von den Servern als 16k Master ausgewertet werden. Der hat da eigentlich kaum Entwicklungsaufwand als es einfach dann in der Engine als Menüpunkt freizuschalten.
Raytracing dürfte da momentan etwas aufwendiger sein da man auch noch Effekte ohne RT-fähig Hardware einbetten muss.


Dazu kommt noch, dass sich mit DirectML schon ein offener Konkurrent am Horizont abzeichnet.
Es wird nicht leichter für DLSS... eher schwerer.

Aber DLSS beschleunigt die Entwicklung und das Interesse daran. Letzten Endes egal worin es dann mündet. Ob in Grafikmenü dann DLSS und DirectML auftaucht oder dann nur Letzteres für jede GPU. Bis aber DirectML in mehreren Spielen drin ist kann man die Funktion die nächsten Monate und Spiele (Cyberpunk, CoD, Watch Dogs) eben nur mit DLSS 2.0 nutzen.


Ob die Triple A Titel dann auch zum Release gleich mit RT kommen, muss sich auch noch rausstellen... hat in der Vergangenheit ja auch nicht sonderlich geklappt... auch mit DLSS beim Start sah es nicht ganz so rosig aus.

Die Konsolen allein werden schon für schnellere RT Verbreitung sorgen. Da ist PS5/Serie X halt Raytracing-fahige Hardware zu 100% vorhanden. Deswegen werden Spiele wohl auch gleich mit RT ausgestattet. Glaub kaum dass man dort Raytracing immer nur über Monate nachreichen wird.
Die tragen also maßgeblich zur weiteren Verbreitung bei.
 
Mit 80CUs wird man GA102 in jeglicher Form vernichten.

Die Benchmark dürften von der 6800XT sein.
Mit den von Patrick/Igor aus dem AiB-BIOS ausgelesenen Taktraten stehen die Chancen jedenfalls schon mal ziemlich gut und langsam glaub' ich fast, der Hypetrain schafft es diesmal tatsächlich bis in den Bahnhof.
Sapphire Toxic, XTX-Chip , Custom-WaKü kompatibler WaKü-Block ab Werk... zusammen mit Igors VBios-Tools ab Tag 1... Träumchen! :-)

@Khabarak & Co.:
Imho ist DLSS schlicht broken by design. Alles was der GraKa-Vendor für sein proprietäres Gedöns selbst händisch implementieren muss verschwindet über kurz oder lang wieder. Ja, Nvidia pushed das Thema jetzt natürlich gerade wieder mal aber die lange Liste der keiner-braucht-es, nach zwei, drei Jahren verschwindet es -Features ist doch inzwischen soooo ellenlang bei nV....
Ab der nächsten Gen kann sich nV diese Verschwendung von wertvoller Chipfläche vermutlich gar nicht mehr leisten und wird es einfach wieder weglassen (müssen).

im Übrigen ist das hier auch der falsche Faden für das Abspulen von DLSS-Glaubensmantras. Geht doch damit bitte in den Ampere-Laberthread et Al.
 
Zuletzt bearbeitet:
Eindeutig AMD. Also ganz ehrlich, langsam geht mir dein DLSS Marketing etwas gegen den Strich. Es sind so gut wie keine relevanten Spiele für DLSS2.0 angekündigt. Wenn sich das irgendwann mal ändern sollte kann man sich darüber weiter unterhalten...und was RT angeht, ich bin so gut wie überzeugt das kommt diese Konsolengeneration auch noch nicht richtig aus den Kinderschuhen raus.
Das ist kein DLSS Marketing, schau Dir mal die AAA Spiele an die diesen Herbst/Winter erscheinen, die meisten nutzen DLSS, und ich wette das wird für die meisten AAA Spiele in Zukunft genauso der Fall sein. Gestern wurde das auch für einige bestehende Spiele angekündigt:

Eine Technik wo ich eine bessere Bildqualität und dabei deutlich bessere Performance bekomme ist aus meiner Sicht einfach ein absoluter Gamechanger:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Für Indie Spiele die ohnehin kaum Leistung benötigen ist das nicht wirklich notwendig.
 
Genau um diese Sweetspot Geschichte zu umgehen, habe ich eben nicht einen wesentlich effizienteren 5600 gewählt, sondern den Vollausbau von RDNA1: 5700XT. Der wird sich genauso wenig im Sweetspot bewegen, wie eine Navi 21 XTX.
Du hast einen entscheidenden Denkfehler, du nimmst die Bordpower zur Hand für deinen Vergleich. Bei einem Arch Vergleich interessiert aber rein die GPU Power, also die ASIC OHNE VRAM und OHNE BOARD!
 
Das ist kein DLSS Marketing, schau Dir mal die AAA Spiele an die diesen Herbst/Winter erscheinen, die meisten nutzen DLSS, und ich wette das wird für die meisten AAA Spiele in Zukunft genauso der Fall sein. Gestern wurde das auch für einige bestehende Spiele angekündigt:

Eine Technik wo ich eine bessere Bildqualität und dabei deutlich bessere Performance bekomme ist aus meiner Sicht einfach ein absoluter Gamechanger:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Für Indie Spiele die ohnehin kaum Leistung benötigen ist das nicht wirklich notwendig.
So, so.
Ich kenne eine nV-gepflegte Liste mit Ankündigung von ganzen ca. 10 Games. 10!!! Und das zum Pushen während des Ampere-Launchs!

Ziemlich ärmlich imho.
 
So, so.
Ich kenne eine nV-gepflegte Liste mit Ankündigung von ganzen ca. 10 Games. 10!!! Und das zum Pushen während des Ampere-Launchs!

Ziemlich ärmlich imho.
Wieviele Spiele sollen es denn sonst sein? Es reicht wenn man die meisten performancehungrigen Spiele wie Cyberpunk 2077 oder Watch Dogs 3 supportet, wozu brauche ich DLSS in Indie Spielen wo man ohnehin keine Performanceprobleme hat. Wäre zwar nett, aber nun sicher nicht zwingend notwendig.
 
Wieviele Spiele sollen es denn sonst sein? Es reicht wenn man die meisten performancehungrigen Spiele wie Cyberpunk 2077 oder Watch Dogs 3 supportet, wozu brauche ich DLSS in Indie Spielen wo man ohnehin keine Performanceprobleme hat. Wäre zwar nett, aber nun sicher nicht zwingend notwendig.
Ich habe die meisten Performance Probleme in schlecht optimierten Indiegames. Da hilft nur Rohleistung.
In AAA Titeln habe ich selbst mit der 1080 weniger Probleme.

Proprietäre Lösungen wie DLSS gehören einfach nicht unterstützt.
 
wozu brauche ich DLSS in Indie Spielen wo man ohnehin keine Performanceprobleme hat.
Meinst du damit, dass auf JEDEM Rechner JEDES Indiespiel mit allen Einstellungen ohne Probleme läuft?

Bin auch der Meinung, dass DLSS und RT aktuell eher ein persönlicher Kaufgrund wäre. Wenn ich das haben möchte, dann ist es auch ein Kaufgrund für mich. Wenn ich das nicht nutze, warum soll ich dafür zahlen? Wie bei Shadowplay. Finde die Möglichkeit zum Aufnehmen super. Muss doch jeder selber wissen. Das Problem ist, dass niemand wissen kann, welche Spiele in Zukunft unterstützt werden. Nützt ja auch dann nichts, wenn 8/10 Spiele super Support bieten, aber ich keines der 8 Spiele zocke. Dazu kommt noch, woher soll ich das jetzt schon wissen was ich in 1-2 Jahren spielen will/werde?

Wenn ich dann doch genau das eine Spiel spielen will, dann tausche ich halt die Karte. Wo ist das Problem? Wenn ich mir darüber so den Kopf zermattern würde, ob, DLSS und RT was wie viel und wann bringt, dann ist mir das Spielen vorher schon 10x vergangen... Wie kann man denn nur so darauf rumreiten?

Würde ich ein neues Auto kaufen, dann denke ich auch nicht daran eine Familienkutsche zu kaufen, weil man könnte ja in einem Jahr Vater sein.
 
Zuletzt bearbeitet:
Wieviele Spiele sollen es denn sonst sein? Es reicht wenn man die meisten performancehungrigen Spiele wie Cyberpunk 2077 oder Watch Dogs 3 supportet, wozu brauche ich DLSS in Indie Spielen wo man ohnehin keine Performanceprobleme hat. Wäre zwar nett, aber nun sicher nicht zwingend notwendig.
Ich persönlich würde in DLSS für mich ein (mit) kaufentscheidendes Feature sehen, wenn nV (nachvollziehbar) klarstellen könnte, dass es ein asset- und einzelspielspezifisches Training für funktionsfähiges, optisch einwand-, d.h. artefakt- und verschmierungsfreies DLSS nicht mehr braucht. Weil erst dann auch nur die Voraussetzung dafür existiert, dass die Branche das Feature annimmt. Ich fürchte aber, der Zug ist mit den sich inzwischen schon abzeichnenden nichtpropietären Alternativen für nV schon wieder abgefahren. Drei Jahre Zeit (und viel Wohlwollen) gehabt - leider nicht genutzt.
 
Zurück