• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Radeon RX 6000: Leise Kritik an Benchmarks wegen Smart Access Memory und Rage Mode

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu Radeon RX 6000: Leise Kritik an Benchmarks wegen Smart Access Memory und Rage Mode

Wie schnell ist die Radeon RX 6000-Serie wirklich? Diese Frage stellt man sich im Netz nach wie vor, dabei hatte AMD während der Vorstellung ja doch einige Benchmarks in petto. Über den Einfluss des Smart Access Memorys in Kombination mit einem Zen-3-Prozessor sowie den Rage Mode kann man jedoch nur mutmaßen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Radeon RX 6000: Leise Kritik an Benchmarks wegen Smart Access Memory und Rage Mode
 

manimani89

BIOS-Overclocker(in)
die karten sind für heutige standards schon fast zu schnell^^ und in raytracing wieder zu langsam wenn man die ganzen news liest

aber wenigstens konkurrenz mal wieder
 

User-22949

PC-Selbstbauer(in)
Klar sind die Benchmarks geschummelt und best case.
In einer normalen Spieleumgebung wird das anders aussehen. Nicht jeder kauft gleich ein komplett neues AMD only System.
DLSS gibts auch nicht und bei Raytracing fällt die Performance der Karten extrem. So wie damals bei Touring.
In 3 Wochen wissen wir mehr.
Ich sehe nur einen großen Vorteil und das sind die 16 GB im unteren Preisbereich.
Hat man nun eine 3090 ist allerdings dieser Vorteil weg und nutzt man diese Karte auch für Videobearbeitung/Rendering in 3D mit CUDA kommt die 6900XT bei weitem nicht mit.
 

chill_eule

BIOS-Overclocker(in)
Die Kollegen vom 3D-Center halten es zudem für einen Schritt in die falsche Richtung, weil es sich um ein proprietäres Feature handelt, auf das Intel und Nvidia jederzeit kontern könnten.

Einfach nur lol...

Ist doch klar, das AMD möglichst gute Zahlen zeigt und eben auch die neuen technischen Möglichkeiten aufzeigt.
Inklusive Vergleichsfolien btw.
Was haben denn die Kollegen von 3D-Center damals zu DLSS von Nvidia gesagt? :schief:
Update: Anscheinend waren sie damals auch, zumindest, skeptisch
 

Mitchpuken

Software-Overclocker(in)
Tja, CPU lässt sich damit sich ein klein wenig ankurbeln. Gutes Marketing.

Was am Ende überbleibt wird man messen, aber nicht spielbar fühlen können, so salopp gesagt. Sollte es anders sein wäre das ein (merklich spürbarer) enormer fps Boost. Man wird sich einfach immer heimlich fragen: "was geht mit und ohne SAM". Für alle nervend, welche zwischen Intel/NV und AMD/AMD entscheiden ^^

Ist doch schon langsam unheimlich, dass beide Seiten für jede Stufe fast gleich schnelle Karten haben :D
 

cap82

BIOS-Overclocker(in)
Die 6800XT scheint aktuell der einzig adäquate und preislich attraktive Nachfolger für meine 1080ti zu sein. Hoffentlich war das nicht nur "Heiße Luft", wie schon so oft auf den Präsentationen..
Ich trau dem Braten auch noch nicht.

Würde aber echt passen, ich könnte mich zu Weihnachten wieder schön selbst beschenken. :D
Nur bräucht ich dann mal ne Schulung im Catalyst, ich hatte seit 10 Jahren keine Rote..:ugly:
 

twack3r

Software-Overclocker(in)
Kurze Frage:

Wurde angesprochen und debatiert, was die auf allen Folien gewählte Formulierung 'FPS - (up to)' bedeuten soll?

Sollen das average fps sein, die man maximal erreichen kann? Sollen das maximale fps Spitzen sein?

Und wie wurde 'best API' qualifiziert? 'Best' für wen?

Ich bin mir sicher diese Punkte wurden in den Launch Threads schon eingehend diskutiert, mir hingegen ist das jetzt erst aufgefallen und ich fände es spannend zu wissen, was der dazu herrschende Konsens ist.
 

Galandier

Schraubenverwechsler(in)
Laut Gamers Nexus (sagen sie hatten mit AMD gesprochen), soll der Rage mode das Powerlimit minimal anheben und möglichgerweise noch den Fanspeed anpassen. Es soll dadurch eine Verbesserung der Leistung von 1-2% enstanden sein.

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Hoffe das Youtube Video funktioniert so, anonsten war es bei 10:00 in dem Video über die RX 6000er Ankündigung.
 

Krabonq

Software-Overclocker(in)
Die Zen 3 CPUs geben schon eine doch deutlich bessere Performance, da wird die Zusatz-Synergie mit den RX 6000 nicht mehr allzu viel hergeben.
Ich denke nicht, dass SMA allzu große Auswirkungen haben wird. Selbst Forza mit 11% halte ich für einen Ausreißer, der nicht konstant +11% FPS hat und auch nicht bei jeder GPU gleich viel. Ob die Speerspitze oder die 6800 bzw. später darunter mehr profitieren muss sich auch erst noch zeigen.

Und wie wurde 'best API' qualifiziert? 'Best' für wen?
Für die jeweilige Grafikkarte.
 

twack3r

Software-Overclocker(in)
Die Zen 3 CPUs geben schon eine doch deutlich bessere Performance, da wird die Zusatz-Synergie mit den RX 6000 nicht mehr allzu viel hergeben.
Ich denke nicht, dass SMA allzu große Auswirkungen haben wird. Selbst Forza mit 11% halte ich für einen Ausreißer, der nicht konstant +11% FPS hat und auch nicht bei jeder GPU gleich viel. Ob die Speerspitze oder die 6800 bzw. später darunter mehr profitieren muss sich auch erst noch zeigen.


Für die jeweilige Grafikkarte.

Heißt das, es wurde jeweils die beste API für einmal die AMD und einmal die nVidia Karte genommen, oder einmal die beste API für die AMD Karte und dann die gleiche für das nVidia Pendant?

Weißt Du, wie die 'up to' Formulierung zu bewerten ist?
 

Pu244

Lötkolbengott/-göttin
Ich finde das jetzt nicht so schlimm, wer sich die Karten kauft, der weiß, worauf er sich einläßt. Klar ist es eine künstliche Beschränkung, ähnlich Nvidias PhysX, GSync, RTX und DLSS, aber damit mußte man auch leben. Wer natürlich sich bei diesen Funktionen laut beschwert hat, der sollte das aus Prinzip jetzt auch machen.

Für mich ist es interessanter, in wie weit der Infinitycache die Leistung irgendwann bremsen wird. Je mehr VRAM die Spiele benötigen, um so weniger dürfte der Cache die geringere Bandbreite kompensieren. Nvidia hat durchaus recht damit, wenn sie sagen, dass heutige Spiele nur 6-8GB benötigen, sprich: das Problem wird in Zukunft deutlich größer werden (ähnlich, wie der Geringe VRAM der RTX 3070 und 3080). Die beiden Karten wird AMD wohl problemlos schlagen können, wenn mehr VRAM benötigt wird, dann überholen die RX 6000er ihre Nvidiakonkurrenten auch ohne infinitycache, da reicht der größere VRAM aus. Gegenüber der RTX 3090 und eventuellen RTX 3080 20GB und RTX 3070 16GB Karten, dürfte AMD langfristig jedoch ordentlich Boden verlieren. Aber Karten werden meist für das hier und jetzt gekauft, das weiß auch Nvidia mit der geringen Speicherausstattung.
 

Nebulus07

Freizeitschrauber(in)
Lachhaft !

Es ist doch egal wie die GPU ihre Leistung erreicht.. Am Ende muß nur die Leistung stimmen pro Watt.


Und dann diese EXPERTEN:

Daneben ist generell die Frage aufzuwerfen, ob AMDs "Smart Access Memory" nicht einen Schritt in die falsche Richtung darstellt. Die exakte Wirkungsweise des Features ist zwar noch etwas unklar, aber in jedem...

Wenn man keine Ahnung hat, einfach mal die Klappe halten!
 

dmasiretteb

PC-Selbstbauer(in)
Bei der 6800XT gab es Folien zu beiden ich mache mir da keine Sorgen :devil:. Customs werden da gut was drauflegen also weist schon noch extra. Stock nehmen sich die beiden Karten nicht viel schätze ich.
 

hoffgang

BIOS-Overclocker(in)
Es macht einen Unterschied, ob ich nur eine entsprechende GPU brauche oder der ganze Unterbau auch passen muss, damit ich das Feature nutzen kann.

Naja ist eben ein Kaufanreiz. Kumpel von mir will sich mit Ryzen 5000 ein neues System bauen und wollte unbedingt eine 3070. Da er sowieso auf die CPUs warten muss kann er sichs auch leisten auf die Tests dieser Features zu warten.

Aber du wolltest ja eh ein Asus Crosshair Dark Hero, da kannste mir deine TUF geben und diese durch eine 6900XT ersetzen und ab geht der Rage Mode. :crazy:
 

Don-71

PCGHX-HWbot-Member (m/w)
Für mich ist es interessanter, in wie weit der Infinitycache die Leistung irgendwann bremsen wird. Je mehr VRAM die Spiele benötigen, um so weniger dürfte der Cache die geringere Bandbreite kompensieren. Nvidia hat durchaus recht damit, wenn sie sagen, dass heutige Spiele nur 6-8GB benötigen, sprich: das Problem wird in Zukunft deutlich größer werden
Ich glaube hier bist du auf dem absoluten Holzweg, denn AMD führt nicht so ein Feature ein, ohne an die Zukunft zu denken. Dazu bin ich davon überzeugt, das wir das jetzt in jeder Generation sehen werden. Ich weiß auch nicht warum du glaubst dem Infinitycache könnte so schnell die Puste ausgehen, da er wohl Level 3 ist, und direkt auf dem Die sitzt und praktisch ein Pufferspeicher für die vorgehaltenen Daten ist, um die anderen Caches möglichst schnell zu füttern und eine neue/zusätzliche Cachestufe
Das ganze geht ja auch erst seit 7nm, weil man erst jetzt wohl den Platz hat, so etwas auf dem Die unterzubringen.
 
Zuletzt bearbeitet:

DaCrazyP

Komplett-PC-Käufer(in)
Warum sollte man nicht bei der Präsentation zeigen, was die Karten im Optimalfall können? Das wäre ja marketingtechnisch nicht so gut, wenn man sagt "Ja, wir sind langsamer als die Konkurrenz, aber wenn ihr noch unsere neuste CPU kauft, dann geht es aber ab!“
Lassen wir uns doch einfach überraschen.
Auch was dann die wirklichen Preise angeht. Die aktuelle Lage zeigt uns ja dass sowas ja auf einem anderen Blatt Papier steht.
Ich persönlich werde mir die Benchmarks angucken und dann mal rechnen, ob mir x Prozent Mehrleistung x Prozent Aufpreis wert sind.
Allerdings dauert es wahrscheinlich schon einige Monate, bis die Anfangspreise sinken. So war es zumindest beim Ryzen 3900X und auch bei der Radeon 5700X (zumindest bei der Nitro +).
 

sandworm

Freizeitschrauber(in)
Bei der 3090 mit ihren 350W bist du im dauer rage mode, da gibt es kein Button wo man das mal so eben auf die schnelle im Treiber deaktivieren könnte, da sagt auch niemand etwas. Mal davon abgesehen das der rage mode gerade mal ca. 2% bringt.
Bei SAM sieht es etwas anders aus, aber der Schritt ist sowieso schon lange überfällig.

Ich dachte mir schon längst, wieso man die beiden Plattformen nicht miteinander in Kombination treten lassen sollte um so Synergien zwischen der CPU und der GPU zu schaffen.

SmartShift wie es zur Zeit bei vereinzelnden Dell Notebooks zum Einsatz kommt wäre doch auch im Desktop eine tolle Idee um das vorhandene Energiebudget intelligenter von der CPU zur GPU und umgekehrt zu verlagern um so die Leistung zu steigern je nach dem ob das Game gerade mehr CPU oder GPU Power benötigt.
Ich glaube SAM ist nur der erste Schritt um da noch mehr Synergien zu schaffen.
Würde mich nicht überraschen wenn wir für RDNA3 etwas in Richtung SmartShift zu sehen bekommen werden.
Wieso nicht, die Technik ist bereits vorhanden?
Allerdings würde AMD mit ihren 65 -105W CPUs wohl deutlich wenigere davon profitieren als es z.B. bei Intel mit ihren 250W + CPU's der Fall wäre.
Da wäre allerdings nicht ganz klar wer mehr verbrauchen würde: Eine 3090 oder ein 10900K / Rocket lake S.
(Aber es ist vielleicht auch besser wenn man die beiden Katzenhaie nicht in das gleiche Aquarium sperrt da sie sich sonst noch gegenseitig auffressen:D)

Aber stimmt, wenn ich so darüber nachdenke wäre das eine tödliche Kombination eine: OC 3090 mit 500W + ein OC 10900K mit 250-300W, da wäre wohl mit etwas ähnlichem wie SmartShift kein Kraut dagegen gewachsen.:devil:

AMD Smartshift
amd smart shift.png
 

Lichtspieler2000

Freizeitschrauber(in)
Ich weiß auch nicht warum du glaubst dem Infinitycache könnte so schnell die Puste ausgehen, da er wohl Level 3 ist, und direkt auf dem Die sitzt und praktisch ein Pufferspeicher für die vorgehaltenen Daten ist, um die anderen Caches möglichst schnell zu füttern und eine neue/zusätzliche Cachestufe
Schaut euch in den Reviews mal die Percentile und Varianzen an.:kotz:
 

sifusanders

PC-Selbstbauer(in)
Oh ein proprietäres Feature von AMD. War früher noch ein G-sync Monitor für Sync nötig, wird man nun zu einer AMD CPU gezwungen um SAM zu nutzen.:wow:
Du wirst eben nicht gezwungen. Die Karten funktionieren ebenso im vollen Umfang auf anderen Plattformen. Mit zen3 und dem entsprechendem Board halt ein bisschen schneller. Warum sollte man die Leistung liegen lassen? Denke mal, dass AMD seit der ATI Übernahme von einem solchen Feature träumt.
Die 6800xt wurde auch ohne diese Features gezeigt und kann gut bei der 3080 mithalten, hat mehr RAM, ist sparsamer und günstiger. Dafür muss man Abstriche bei der RT Performance machen (immernoch besser als 2080ti) und hat kein DLSS (ein ähnlich funktionierendes Paket allerdings in Planung - da haben wir wieder open source)
 

mangel76

Kabelverknoter(in)
Die Kollegen vom 3D-Center halten es zudem für einen Schritt in die falsche Richtung, weil es sich um ein proprietäres Feature handelt, auf das Intel und Nvidia jederzeit kontern könnten.
Das ist Leonidas ganz persönliche Meinung, während das Forum da nicht so einig ist. Vor allem ist es ziemlich scheinheilig, da proprietäre Dinge bei NV und Intel in der Vergangenheit nie so runtergemacht wurden. Über GSync hat sich auch niemand aufgeregt, obwohl hier auch bestimmte Hardware-Kombinationen notwendig waren. Dabei fehlt dir hier sogar eine entscheidende Funktion (VRR), wenn du nicht NV-GPU und GSync-Monitor hast. Bei SAM steht erstens noch gar nicht fest, ob es wirklich proprietär ist oder ob Intel vielleicht das auch nutzen kann. Niemand hindert NV daran, dieses Feature in Absprache mit AMD und oder Intel auch umzusetzen. Und zweitens gehen hier nur ein paar FPS verloren nicht gleich ein ganzes Feature! Das auf eine Stufe zu stellen ist echt ziemlich daneben.
 

Don-71

PCGHX-HWbot-Member (m/w)
Oh ein proprietäres Feature von AMD. War früher noch ein G-sync Monitor für Sync nötig, wird man nun zu einer AMD CPU gezwungen um SAM zu nutzen.:wow:
Was für ein wirklicher Unsinn!
Eine AMD GPU funktioniert mit allen Systemen, auch mit Intel CPUs, ein Gsync Monitor synct nur mit Nvidia Grafikkarten!
Das Hauptfeature des Monitors ist properitär, weil sonst kann man sich auch jeden normalen Monitor ohne Sync kaufen. Jede AMD GPU entfaltet zu weit über 90% ihr Hauptfeature auf jedem System.

Aber mach mal weiter solche Vergleiche, zeigt entweder die Bias oder den Neid.
 

BigYundol

Software-Overclocker(in)
Okay, bei Intel ist es sowieso egal, solange die bei PCIe3 festhängen bleiben.
Aber SAM soll angeblich auch von NVidia und Intel implementiert werden können, da es angeblich lediglich PCIe4 besser ausnutze.
Wäre interessant wenn PCGH dem mal nachgehen würde, ob SAM damit de facto nur zeitexklusiv für AMD ist und Blau und Grün halt einfach gepennt und damit diesen Featurerückstand de facto selbst verursacht haben.


Davon ab, sind G-Sync, DLSS und RTX für sich betrachtet eigentlich ein brauner, warmer Haufen, weil sie proprietär sind und nur auf NVidia laufen?
(Meine persönliche Meinung: Als Technologie an sich nicht, sondern sind teils beeindruckende Ansätze. Ich selber wähle einfach wenn irgendwie möglich die Alternativen neuer Technologien, die möglichst plattformunabhängig funktionieren kann, und wenn ich auf eine solche Alternative warten muss)
 

Pu244

Lötkolbengott/-göttin
Ich glaube hier bist du auf dem absoluten Holzweg, denn AMD führt nicht so ein Feature ein, ohne an die Zukunft zu denken.

Die Zukunft ist für AMD relativ unwichtig, die Karten werden im hier und jetzt verkauft. Das mußten sie schon einige male sehen, die 3GB der HD 7900er sind damals z.B. nicht so richtig zur Geltung gekommen, heute machen die Karten die GTX 670 und 680 richtig fertig. Wichtig ist, wie sich die Karten in den nächsten zwei Jahren machen werden, dann kommt sowieso die nächste Generation. Die Frage, in wie weit eine GTX 3080 20GB nach 6Jahren, die RX 6900XT fertig machen wird, ist da einfach egal, die Karten sind schon lange verkauft und tauchen wohl eher selten in Benchmarks auf.

Dazu bin ich davon überzeugt, das wir das jetzt in jeder Generation sehen werden.

Das vermute ich auch.

Ich weiß auch nicht warum du glaubst dem Infinitycache könnte so schnell die Puste ausgehen, da er wohl Level 3 ist, und direkt auf dem Die sitzt und praktisch ein Pufferspeicher für die vorgehaltenen Daten ist, um die anderen Caches möglichst schnell zu füttern und eine neue/zusätzliche Cachestufe

Weil die Größe Cachestufe im Verhältnis zur Menge der Daten einfach schrumpft. Bei unter 128MB passt alles in den Cache hinein, bei 1Gb immer noch ein Achtel, bei 6GB liegen etwa 2% der Daten im Infinitycache vor, bei 12Gb nur noch 1% usw.. Das dürfte eben zu einem relativen Leistungseinbruch, im Vergleich zu normalen Karten, führen. Bei CPUs ist es auch ein gigantischer Unterschied ob und wieviel Daten in den Cache passen.

Das ganze geht ja auch erst seit 7nm, weil man erst jetzt wohl den Platz hat, so etwas auf dem Die unterzubringen.

Früher wäre die Größe des Cache einfach kleiner ausgefallen. In Zukunft wird man sie steigern müssen, wenn das ganze nicht zum Bremsklotz werden soll.
 

BigBoymann

Software-Overclocker(in)
Boah, finde ich erstmal einen gewagten Artikel.

Man wirft hier AMD vor, dass man zwei Produkte parallel veröffentlich und diese im Zusammenspiel einen Gimmick haben. Ist ja das gleiche als wenn man Nvidia DLSS vorwerfen würde, wie kann man nur!

Richtig finde ich den Ansatz, dass man Vergleiche zumindest auch ohne diesen Vorteil machen muss, gerade für Aufrüster, die einen Zen2 oder einen Intel im System haben, müssen ja die CPU eigentlich nicht aufrüsten. Die würden dann aber eine andere Leistung erhalten, daher muss man die letzliche Performance in beiden Szenarien wissen. Aber das AMD jetzt mit SMA testet, finde ich OK und wenn wir ehrlich sind auch sinnvoll.
 

Lichtspieler2000

Freizeitschrauber(in)
Eine AMD GPU funktioniert mit allen Systemen, auch mit Intel CPUs, ein Gsync Monitor synct nur mit Nvidia Grafikkarten!
SAM funktioniert nur im Zusammenspiel mit einer aktuellen AMD Plattform + CPU, nicht mit Intel CPUs.
Der G-syc Monitor funktioniert doch auch mit einer AMD GPU, ich glaube du bist etwas verwirrt. Macht nichts!

Aber mach mal weiter solche Vergleiche, zeigt entweder die Bias oder den Neid.
Deine Lügen sind schockierend.
 
Zuletzt bearbeitet:
Oben Unten