Radeon RX 6000: Leise Kritik an Benchmarks wegen Smart Access Memory und Rage Mode

Bin jetzt mal ganz frech und poste mal meine Meinung ohne all 120+ Kommentare vor mir zu lesen... =)

...
Mach ich nur so! ... gut, hin und wieder lese ich mir die Kommentare auch durch.
Meistens endet das aber in einer Art "Nicht-Nachvollziehbarkeit" bei den grabenkriegstreibenden Gläubigen der einen einzig wahren Seite .. yaLLa, yalla - zwitscher - Müll:pissed::stupid:

Jedoch sollte immer festgehalten werden, was das eigentliche Topic ist: is diesem Fall
radeon-rx-6000-leise-kritik-an-benchmarks-wegen-smart-access-memory-und-rage-mode
Ich für meinen Teil entkopple
a) meine Meinung zum Thema von
b) einer Anmerkung zu einer Meinung einer anderen Person zum selben Thema von
c) einer Anmerkung zu einer Meinung einer anderen Person, welche in diesem Thema absolut nichts verloren hat bzw. keinerlei Zusammenhang mehr zum Thema besitzt

a) sollte man immer posten dürfen! Wenn nicht, sollte man im PCGH-Forum eine Funktion einbauen, welche es einem verweigert zu Posten, wenn man nicht alle vorherigen Anworten gelesen hat. Eigentlich hohl .. :confused:
Für b) sollte ebenso wenige Einschränkungen geben und bei c) sehe ich zwar eher Moderator-Bedarf bei einer nicht mehr nachvollziehbaren Ungezügeltheit, jedoch gehört auch so etwas hin und wieder in ein Forum.

In der realen Welt, wenn man sich mit einer Person unterhält, anwortet man ja auch nicht nur ausschließlich auf geschlossene Fragen und erlaubt es sich auch auf die Meinung Anderer eine eigene Meinung entgegen zu bringen, oder sich dafür Auszusprechen, je nachdem.

Naja .. ich finde die Diskussionskultur hier ist schon ansprechend, auch wenn ich mir (eigentlich in jedem Thema bei irgendeinem Beitrag) etwas mehr Grammatik und verständlich geschriebenes Hochdeutsch wünsche! :love::love:
 
Auf der einen Seite wird auch mit den ganzen NV wie Amsel, NV Voice (?) usw. bewerben aber wenn AMD
Haste ja Recht, jeder darf meiner Meinung nach seine Softwarefeatures positionieren wie er möchte. Allerdings missfällt mir eben der Gedanke auf Performance, in FPS verzichten zu müssen, weil ich kein Zen3 + Unterbau besitze.

Geht mir hauptsächlich darum, das Performance von Komponenten X an Komponente Y hängt.

Das ist wie, wenn ich nen Samsung TV kaufe aber 4K nur dann bekomme ich wenn ich nen Samsung Receiver und Samsung Soundbar dranklemme. (so kommt es mir zumindest vor.)

Ja klar, es sind nur die letzten Prozent aber ein Produkt in Sachen Leistung voll nutzen zu können nur wenn ich weitere Produkte der Firma kaufe finde ich auf den ersten Blick schräg.
 
Haste ja Recht, jeder darf meiner Meinung nach seine Softwarefeatures positionieren wie er möchte. Allerdings missfällt mir eben der Gedanke auf Performance, in FPS verzichten zu müssen, weil ich kein Zen3 + Unterbau besitze.

Geht mir hauptsächlich darum, das Performance von Komponenten X an Komponente Y hängt.

Das ist wie, wenn ich nen Samsung TV kaufe aber 4K nur dann bekomme ich wenn ich nen Samsung Receiver und Samsung Soundbar dranklemme. (so kommt es mir zumindest vor.)

Ja klar, es sind nur die letzten Prozent aber ein Produkt in Sachen Leistung voll nutzen zu können nur wenn ich weitere Produkte der Firma kaufe finde ich auf den ersten Blick schräg.
Die Performance von Komponente X hing schon immer von Komponente Y ab, wo ist jetzt hier genau der Unterschied zu sonst? Das neuere und schnellere CPUs dann am Ende auch mehr FPS ausspucken ist doch jetzt kein Geheimnis. Nicht umsonst streiten sich doch immer alle um "die beste Gaming-CPU der Welt" und hatten bisher zu Intel gegriffen um die maximalen FPS Zahlen zu erreichen. Nur erreicht man diese jetzt eben mit den Zen3 CPUs, auch bei einer Nvidia Karte.
 
Ist doch vollkommen egal ob das an oder aus war - die Karten (Referenz) sind das untere Limit was geht (bis 300W). Was meint ihr was für Werte da raus kommen mit 2.5MHz (oder halt im Durchschnitt 2.3MHz und das werden die Top Modelle halten) selbst ohne Rage (1-2%) oder Smart Access.
Denkt mal zurück an RTX IO - was das abgefeiert wurde obwohl es nur als Papiertiger existiert (sagen wir mal Folientiger). Oder DLSS - ebenso proprietär - das sind für "Jünger" knallharte Verkaufsargumente. Die hat AMD jetzt auch - willst Du das beste Paket kauf nur bei AMD ein!! (finde ich selber nicht wirklich gut, muss man aber einfach respektieren)
Der Aufschrei ist okay, muss dann aber eben auch für alle am Markt befindlichen Unternehmen gelten. Die realen Tests werden ja wahrscheinlich auch ohne stattfinden (oder eben beides) und am Ende sind dann die AIB Modelle STrix OC (LC) oder Sapphire Toxic oder Powercolor Red Devil selbst ohne Smart+Rage wahrscheinlich nochmal 5-10% schneller als die powerlimitierte AMD Referenz - die Enthusiasten kaufen sich eh die Top Karten (wie bei Nvidia auch) oder packen die Referenz unter Wasser.
Am Ende bekommt man übrigens eine AMD 6900XT+CPU+Board für weniger als eine RTX 3090 - ist doch auch nicht schlecht.
 
Jetzt reicht es mir aber langsam, ich kann nichts dafür, wenn du der deutschen Sprache nicht wirklich mächtig bist, aber unterstelle nicht einfach Unwahrheiten!

Müsstest du das von dem kleinen Casurin nicht eigentlich kennen? Es ist doch lange bekannt das ihm nach 3 sec. die Argumente ausgehen und einfach immer Lüge schreit um die eigene Inkompetenz zu kaschieren.

Freuen wir uns das AMD diesen Punkt erreicht hat, an dem sie wieder Wettbewerbsfähig sind .
So, und Nummer 3...

Welche reviews? :motz:

Du wirst keine Antwort bekommen, er zündet halt mit seinen Lügen die Nebelkerzen um die unwissenden Leser zu verwirren. Ist halt Casurin, lügen um die eigene Welt im richtigen Licht erscheinen zu lassen.
 
Zuletzt bearbeitet:
wo ist jetzt hier genau der Unterschied zu sonst?
Dass ich mit einer Intel CPU nicht die Möglichkeiten hätte die letzte Performance aus der GPU rauszukitzeln, das ich SAM nicht aktivieren kann.

Das ist für mich schon ein ziemlich gewaltiger unterschied.
Gleiches gilt für ein Setup mit nem 3900XT (oder so). Ich bin nicht im Stande ein Feature zu nutzen, welches mir GPU Performance bringt.

Sowas gab es bis heute meiner Meinung nach nicht.
 
Die Performance von Komponente X hing schon immer von Komponente Y ab, wo ist jetzt hier genau der Unterschied zu sonst? Das neuere und schnellere CPUs dann am Ende auch mehr FPS ausspucken ist doch jetzt kein Geheimnis. Nicht umsonst streiten sich doch immer alle um "die beste Gaming-CPU der Welt" und hatten bisher zu Intel gegriffen um die maximalen FPS Zahlen zu erreichen. Nur erreicht man diese jetzt eben mit den Zen3 CPUs, auch bei einer Nvidia Karte.
Tut sie nur wenn es ein Bottleneck ist andernfalls hast du nur was im Bereich der Messtoleranz feststellen können.
Der Unterschied ist der, dass deine Karte unter Umständen die Performance nur voll ausfahren kann wenn du die passende CPU bereit stellst, selbst wenn diese garnicht limitiert. Erstmal perse nicht die Katastrophe da neue Features immer supported werden müssen. Wenn es sich jedoch bewahrheitet, dass es sich um properitiären Ansatz handelt, wird versucht einem ein System aufzuzwingen. Das ist der gleiche Müll wie seinerzeit mit G-Sync und braucht kein Konsument.
 
Dass ich mit einer Intel CPU nicht die Möglichkeiten hätte die letzte Performance aus der GPU rauszukitzeln, das ich SAM nicht aktivieren kann.

Das ist für mich schon ein ziemlich gewaltiger unterschied.
Gleiches gilt für ein Setup mit nem 3900XT (oder so). Ich bin nicht im Stande ein Feature zu nutzen, welches mir GPU Performance bringt.

Sowas gab es bis heute meiner Meinung nach nicht.
Hättest du aktuell ohnehin mit einer Intel CPU nicht, da Zen3 halt auch einfach schneller ist (egal ob mit oder ohne SAM). Auch kannst du kein PCIe 4.0 nutzen, auch hier haste einen (vielleicht nur messbaren) Nachteil. Aber man muss die Kirche auch Mal im Dorf lassen, es ist jetzt nicht so das man 20% Leistung weniger hätte ohne eine Zen3 CPU. Wartet doch erst einmal unabhängige Tests ab bevor ihr die Sau durchs Dorf treibt.
 
Mich hat es schon immer gewundert, warum AMD aus dem Chipsatz, der GPU und dem Prozessor kein Kapital schlägt. Wenn sie sie alle selbst herstellen, dann sollte es doch eine Möglichkeit geben, dass sie schneller zusammenarbeiten. Das ist keinesfalls Wettbewerbsverzehrung, sondern das ausnutzen der Marktsituation. Intel und Nvidia hätten es längst getan. Gut, dass sie endlich mal daraufkommen.
 
Wartet doch erst einmal unabhängige Tests ab bevor ihr die Sau durchs Dorf treibt.
Niemand treibt irgendeine Sau. Keine verschreit ein Produkt. Die Tatsache, welche so von AMD geäußert wurde, finde ich einfach persönlich bedenklich. Nicht mehr, nicht weniger.

Hättest du aktuell ohnehin mit einer Intel CPU nicht, da Zen3 halt auch einfach schneller ist (egal ob mit oder ohne SAM)
Dann könnt ich jetzt das Beispiel mit Zen3 auf X470 konstruieren. Darum geht's aber nicht. Sondern um den Fakt wie die Technik funktioniert.
 
Mich hat es schon immer gewundert, warum AMD aus dem Chipsatz, der GPU und dem Prozessor kein Kapital schlägt. Wenn sie sie alle selbst herstellen, dann sollte es doch eine Möglichkeit geben, dass sie schneller zusammenarbeiten. Das ist keinesfalls Wettbewerbsverzehrung, sondern das ausnutzen der Marktsituation. Intel und Nvidia hätten es längst getan. Gut, dass sie endlich mal daraufkommen.
Genau das denke ich auch. Im hart umkämpften Hardwarebusiness sollte man alle Vorteile die man hat auch klug ausspielen...
Klar sind die Benchmarks geschummelt und best case.
In einer normalen Spieleumgebung wird das anders aussehen. Nicht jeder kauft gleich ein komplett neues AMD only System.
DLSS gibts auch nicht und bei Raytracing fällt die Performance der Karten extrem. So wie damals bei Touring.
In 3 Wochen wissen wir mehr.
Ich sehe nur einen großen Vorteil und das sind die 16 GB im unteren Preisbereich.
Hat man nun eine 3090 ist allerdings dieser Vorteil weg und nutzt man diese Karte auch für Videobearbeitung/Rendering in 3D mit CUDA kommt die 6900XT bei weitem nicht mit.
Gab es denn schon Benchmarks zu Raytracing in irgendeinem Spiel? Ich kann mir gut vorstellen das die AMD-Karten darunter langsamer als die nvidia-Pendants sind, diese hatten aber auch eine Generation an Erfahrung voraus. Das gleiche gilt für DLSS: Für mich immer noch ein Feature was verschleiern soll das die Leistung für die angestrebte Auflösung nicht ausreicht. Kann ganz hübsch aussehen, ja, aber auch erst seit Version 2.0. Die erste war eher so meeehhhh. Lt. Präsentation bringt AMD in nächster Zeit SuperResolution welches ebenso auf DeepLearning bzw. DirectML basieren soll. Ich bin gespannt wie sie es hin bekommen.
 
Zuletzt bearbeitet:
AMD hat nicht getrollt, hier die Benchmarks mit einem 10900k damit heut nicht noch Köpfe rollen ;).
Die Aussagen waren auch nicht bedenklich oder sonstiges.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Dass ich mit einer Intel CPU nicht die Möglichkeiten hätte die letzte Performance aus der GPU rauszukitzeln, das ich SAM nicht aktivieren kann.

Das ist für mich schon ein ziemlich gewaltiger unterschied.
Gleiches gilt für ein Setup mit nem 3900XT (oder so). Ich bin nicht im Stande ein Feature zu nutzen, welches mir GPU Performance bringt.

Sowas gab es bis heute meiner Meinung nach nicht.
Wenn Du Funktionen von Intel willst, bist Du mit Gemecker über vermeintliche Fehler bei AMD leider an der völlig falschen Adresse. Das sollte sich eigentlich völlig von selbst verstehen und keiner ellenlangen Diskussion bedürfen. Da musst Du Dich schon an Intel bzw. deren (Mother-)Boardpartnern wenden.

Amd hat ja bislang gerade mal eine 20min Präse mit den wichtigsten Eckpunkten gehalten. Na, gut: zwei waren es - trotzdem kann nicht erwartet werden, dass dabei alle Architekturverbesserungen in mundgerechte Häppchen und gleichzeitig trotzdem allumfassend an den Mann gebracht werden. Möglicherweise kommt da ja auch noch was. Und wenn nicht, eben nicht. Auch nicht schlimm. Was TensorCores eigentlich so in 'ner Gamingkarte treiben, weiß auch keiner genau - wird deswegen geflennt oder trotzdem gekauft? Hat Meister Leonidas gejammert, als offene Monitor-Standards gekapert und mit 'nem ansonsten weitgehend funktionslosen Hardwaredongle proprietarisiert wurden? Oder wurde das nicht -imho gerade auch von ihm- monatelang als ganz großes Grafikvodoo vernebelt und abgefeiert? Von dem aktuellen RT-Gedöns, wo dick an Bilder "on" und "off" geschrieben werden muss, damit der Kunde weiß, was er gut zu finden hat, ganz zu schweigen.

Ich finde, manch einer sollte seine Maßstäbe erst mal wieder halbwegs geraderücken, bevor er sich in die Diskussion zu sehr verrennt. Schade, dass PCGH das wieder nur so unreflektiert übernommen hat. Wäre imho eine Chance gewesen, mit eigenen Recherchen zu PCIe-Standards zu glänzen. Manchmal Gewinne ich fast den Eindruck, den Anspruch hat man hier teilweise gar nicht mehr.

@Nuallan:
Wer sagt denn, dass SAM nicht auch noch für 400er Chipsätze nachgereicht wird, wenn technisch machbar? Dass AMD in ihrem großen Präsentationsmonat sich erst mal um die Platzierung der neuen Flaggschiffe kümmern, kann ja doch wohl erstmal gar nicht anders sein und muss noch nicht unbedingt viel heißen. Ansonsten: Bei Intel bekommst Du IMMER 'ne neuen Sockel und darfst selbst OHNE neue MoBo-Features löhnen. Auch da: Maßstab und so.
 
Zuletzt bearbeitet:
AMD hat nicht getrollt, hier die Benchmarks mit einem 10900k damit heut nicht noch Köpfe rollen ;).
Die Aussagen waren auch nicht bedenklich oder sonstiges.
Woher will dieser "Mark PC" denn eine 6900 XT haben?
AMD würde vor dem allgemeinem Release sicherlich keine 6900 XT irgendjemandem schicken ohne das eine NDA unterzeichnet werden muss. Die GraKa-Hersteller ebenso. Und in diesem NDA würde sicherlich stehen das im Oktober keine selbsterstellten Benchmark-Ergebnisse veröffentlicht dürfen.

Davon abgesehen, sieht das Video nicht im geringsten nach einem seriösen Test aus.
Da könnte ich nun auch hergehen und irgendwas behaupten. Bevor kein Beweis vorliegt das dieser "Mark PC" tatsächlich eine 6900 XT hat, ist das Video nur als fake anzusehen.
 
Wenn Du Funktionen von Intel willst, bist Du mit Gemecker über vermeintliche Fehler bei AMD leider an der völlig falschen Adresse.
Ich weiß ja nicht, wann ich irgendwas von Fehler geschrieben habe, oder dem Gemecker über fehlende Funktionen von Intel. Aber wenn Du es gut findest, dass höchstwahrscheinlich eine GPU nur dann 100% gibt, wenn sie mit einem bestimmten Chipsatz und einer bestimmten CPU gekoppelt wird, okay.

Wer sagt denn, dass SAM nicht auch noch für 400er Chipsätze nachgereicht wird, wenn technisch machbar?
Dachte wir reden hier aktuell über Fakten? Stand jetzt geht es eben nicht damit.
 
Zurück