Radeon RX 6000: Leise Kritik an Benchmarks wegen Smart Access Memory und Rage Mode

Für mich ist es interessanter, in wie weit der Infinitycache die Leistung irgendwann bremsen wird. Je mehr VRAM die Spiele benötigen, um so weniger dürfte der Cache die geringere Bandbreite kompensieren. Nvidia hat durchaus recht damit, wenn sie sagen, dass heutige Spiele nur 6-8GB benötigen, sprich: das Problem wird in Zukunft deutlich größer werden
Ich glaube hier bist du auf dem absoluten Holzweg, denn AMD führt nicht so ein Feature ein, ohne an die Zukunft zu denken. Dazu bin ich davon überzeugt, das wir das jetzt in jeder Generation sehen werden. Ich weiß auch nicht warum du glaubst dem Infinitycache könnte so schnell die Puste ausgehen, da er wohl Level 3 ist, und direkt auf dem Die sitzt und praktisch ein Pufferspeicher für die vorgehaltenen Daten ist, um die anderen Caches möglichst schnell zu füttern und eine neue/zusätzliche Cachestufe
Das ganze geht ja auch erst seit 7nm, weil man erst jetzt wohl den Platz hat, so etwas auf dem Die unterzubringen.
 
Zuletzt bearbeitet:
Warum sollte man nicht bei der Präsentation zeigen, was die Karten im Optimalfall können? Das wäre ja marketingtechnisch nicht so gut, wenn man sagt "Ja, wir sind langsamer als die Konkurrenz, aber wenn ihr noch unsere neuste CPU kauft, dann geht es aber ab!“
Lassen wir uns doch einfach überraschen.
Auch was dann die wirklichen Preise angeht. Die aktuelle Lage zeigt uns ja dass sowas ja auf einem anderen Blatt Papier steht.
Ich persönlich werde mir die Benchmarks angucken und dann mal rechnen, ob mir x Prozent Mehrleistung x Prozent Aufpreis wert sind.
Allerdings dauert es wahrscheinlich schon einige Monate, bis die Anfangspreise sinken. So war es zumindest beim Ryzen 3900X und auch bei der Radeon 5700X (zumindest bei der Nitro +).
 
Bei der 3090 mit ihren 350W bist du im dauer rage mode, da gibt es kein Button wo man das mal so eben auf die schnelle im Treiber deaktivieren könnte, da sagt auch niemand etwas. Mal davon abgesehen das der rage mode gerade mal ca. 2% bringt.
Bei SAM sieht es etwas anders aus, aber der Schritt ist sowieso schon lange überfällig.

Ich dachte mir schon längst, wieso man die beiden Plattformen nicht miteinander in Kombination treten lassen sollte um so Synergien zwischen der CPU und der GPU zu schaffen.

SmartShift wie es zur Zeit bei vereinzelnden Dell Notebooks zum Einsatz kommt wäre doch auch im Desktop eine tolle Idee um das vorhandene Energiebudget intelligenter von der CPU zur GPU und umgekehrt zu verlagern um so die Leistung zu steigern je nach dem ob das Game gerade mehr CPU oder GPU Power benötigt.
Ich glaube SAM ist nur der erste Schritt um da noch mehr Synergien zu schaffen.
Würde mich nicht überraschen wenn wir für RDNA3 etwas in Richtung SmartShift zu sehen bekommen werden.
Wieso nicht, die Technik ist bereits vorhanden?
Allerdings würde AMD mit ihren 65 -105W CPUs wohl deutlich wenigere davon profitieren als es z.B. bei Intel mit ihren 250W + CPU's der Fall wäre.
Da wäre allerdings nicht ganz klar wer mehr verbrauchen würde: Eine 3090 oder ein 10900K / Rocket lake S.
(Aber es ist vielleicht auch besser wenn man die beiden Katzenhaie nicht in das gleiche Aquarium sperrt da sie sich sonst noch gegenseitig auffressen:D)

Aber stimmt, wenn ich so darüber nachdenke wäre das eine tödliche Kombination eine: OC 3090 mit 500W + ein OC 10900K mit 250-300W, da wäre wohl mit etwas ähnlichem wie SmartShift kein Kraut dagegen gewachsen.:devil:

AMD Smartshift
amd smart shift.png
 
Ich weiß auch nicht warum du glaubst dem Infinitycache könnte so schnell die Puste ausgehen, da er wohl Level 3 ist, und direkt auf dem Die sitzt und praktisch ein Pufferspeicher für die vorgehaltenen Daten ist, um die anderen Caches möglichst schnell zu füttern und eine neue/zusätzliche Cachestufe
Schaut euch in den Reviews mal die Percentile und Varianzen an.:kotz:
 
Oh ein proprietäres Feature von AMD. War früher noch ein G-sync Monitor für Sync nötig, wird man nun zu einer AMD CPU gezwungen um SAM zu nutzen.:wow:
Du wirst eben nicht gezwungen. Die Karten funktionieren ebenso im vollen Umfang auf anderen Plattformen. Mit zen3 und dem entsprechendem Board halt ein bisschen schneller. Warum sollte man die Leistung liegen lassen? Denke mal, dass AMD seit der ATI Übernahme von einem solchen Feature träumt.
Die 6800xt wurde auch ohne diese Features gezeigt und kann gut bei der 3080 mithalten, hat mehr RAM, ist sparsamer und günstiger. Dafür muss man Abstriche bei der RT Performance machen (immernoch besser als 2080ti) und hat kein DLSS (ein ähnlich funktionierendes Paket allerdings in Planung - da haben wir wieder open source)
 
Die Kollegen vom 3D-Center halten es zudem für einen Schritt in die falsche Richtung, weil es sich um ein proprietäres Feature handelt, auf das Intel und Nvidia jederzeit kontern könnten.
Das ist Leonidas ganz persönliche Meinung, während das Forum da nicht so einig ist. Vor allem ist es ziemlich scheinheilig, da proprietäre Dinge bei NV und Intel in der Vergangenheit nie so runtergemacht wurden. Über GSync hat sich auch niemand aufgeregt, obwohl hier auch bestimmte Hardware-Kombinationen notwendig waren. Dabei fehlt dir hier sogar eine entscheidende Funktion (VRR), wenn du nicht NV-GPU und GSync-Monitor hast. Bei SAM steht erstens noch gar nicht fest, ob es wirklich proprietär ist oder ob Intel vielleicht das auch nutzen kann. Niemand hindert NV daran, dieses Feature in Absprache mit AMD und oder Intel auch umzusetzen. Und zweitens gehen hier nur ein paar FPS verloren nicht gleich ein ganzes Feature! Das auf eine Stufe zu stellen ist echt ziemlich daneben.
 
Oh ein proprietäres Feature von AMD. War früher noch ein G-sync Monitor für Sync nötig, wird man nun zu einer AMD CPU gezwungen um SAM zu nutzen.:wow:
Was für ein wirklicher Unsinn!
Eine AMD GPU funktioniert mit allen Systemen, auch mit Intel CPUs, ein Gsync Monitor synct nur mit Nvidia Grafikkarten!
Das Hauptfeature des Monitors ist properitär, weil sonst kann man sich auch jeden normalen Monitor ohne Sync kaufen. Jede AMD GPU entfaltet zu weit über 90% ihr Hauptfeature auf jedem System.

Aber mach mal weiter solche Vergleiche, zeigt entweder die Bias oder den Neid.
 
Okay, bei Intel ist es sowieso egal, solange die bei PCIe3 festhängen bleiben.
Aber SAM soll angeblich auch von NVidia und Intel implementiert werden können, da es angeblich lediglich PCIe4 besser ausnutze.
Wäre interessant wenn PCGH dem mal nachgehen würde, ob SAM damit de facto nur zeitexklusiv für AMD ist und Blau und Grün halt einfach gepennt und damit diesen Featurerückstand de facto selbst verursacht haben.


Davon ab, sind G-Sync, DLSS und RTX für sich betrachtet eigentlich ein brauner, warmer Haufen, weil sie proprietär sind und nur auf NVidia laufen?
(Meine persönliche Meinung: Als Technologie an sich nicht, sondern sind teils beeindruckende Ansätze. Ich selber wähle einfach wenn irgendwie möglich die Alternativen neuer Technologien, die möglichst plattformunabhängig funktionieren kann, und wenn ich auf eine solche Alternative warten muss)
 
Ich glaube hier bist du auf dem absoluten Holzweg, denn AMD führt nicht so ein Feature ein, ohne an die Zukunft zu denken.

Die Zukunft ist für AMD relativ unwichtig, die Karten werden im hier und jetzt verkauft. Das mußten sie schon einige male sehen, die 3GB der HD 7900er sind damals z.B. nicht so richtig zur Geltung gekommen, heute machen die Karten die GTX 670 und 680 richtig fertig. Wichtig ist, wie sich die Karten in den nächsten zwei Jahren machen werden, dann kommt sowieso die nächste Generation. Die Frage, in wie weit eine GTX 3080 20GB nach 6Jahren, die RX 6900XT fertig machen wird, ist da einfach egal, die Karten sind schon lange verkauft und tauchen wohl eher selten in Benchmarks auf.

Dazu bin ich davon überzeugt, das wir das jetzt in jeder Generation sehen werden.

Das vermute ich auch.

Ich weiß auch nicht warum du glaubst dem Infinitycache könnte so schnell die Puste ausgehen, da er wohl Level 3 ist, und direkt auf dem Die sitzt und praktisch ein Pufferspeicher für die vorgehaltenen Daten ist, um die anderen Caches möglichst schnell zu füttern und eine neue/zusätzliche Cachestufe

Weil die Größe Cachestufe im Verhältnis zur Menge der Daten einfach schrumpft. Bei unter 128MB passt alles in den Cache hinein, bei 1Gb immer noch ein Achtel, bei 6GB liegen etwa 2% der Daten im Infinitycache vor, bei 12Gb nur noch 1% usw.. Das dürfte eben zu einem relativen Leistungseinbruch, im Vergleich zu normalen Karten, führen. Bei CPUs ist es auch ein gigantischer Unterschied ob und wieviel Daten in den Cache passen.

Das ganze geht ja auch erst seit 7nm, weil man erst jetzt wohl den Platz hat, so etwas auf dem Die unterzubringen.

Früher wäre die Größe des Cache einfach kleiner ausgefallen. In Zukunft wird man sie steigern müssen, wenn das ganze nicht zum Bremsklotz werden soll.
 
Boah, finde ich erstmal einen gewagten Artikel.

Man wirft hier AMD vor, dass man zwei Produkte parallel veröffentlich und diese im Zusammenspiel einen Gimmick haben. Ist ja das gleiche als wenn man Nvidia DLSS vorwerfen würde, wie kann man nur!

Richtig finde ich den Ansatz, dass man Vergleiche zumindest auch ohne diesen Vorteil machen muss, gerade für Aufrüster, die einen Zen2 oder einen Intel im System haben, müssen ja die CPU eigentlich nicht aufrüsten. Die würden dann aber eine andere Leistung erhalten, daher muss man die letzliche Performance in beiden Szenarien wissen. Aber das AMD jetzt mit SMA testet, finde ich OK und wenn wir ehrlich sind auch sinnvoll.
 
Eine AMD GPU funktioniert mit allen Systemen, auch mit Intel CPUs, ein Gsync Monitor synct nur mit Nvidia Grafikkarten!
SAM funktioniert nur im Zusammenspiel mit einer aktuellen AMD Plattform + CPU, nicht mit Intel CPUs.
Der G-syc Monitor funktioniert doch auch mit einer AMD GPU, ich glaube du bist etwas verwirrt. Macht nichts!

Aber mach mal weiter solche Vergleiche, zeigt entweder die Bias oder den Neid.
Deine Lügen sind schockierend.
 
Zuletzt bearbeitet:
Zurück