• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Radeon RX 6000: Leise Kritik an Benchmarks wegen Smart Access Memory und Rage Mode

cesimbra

Freizeitschrauber(in)
D
Kleine Gegenkorrektur:
"Demnach hatte AMD bei den Benchmarks zur Radeon RX 6900 XT sowohl den Rage Mode als auch Smart Access Memory aktiviert und bei denen zur Radeon RX 6800 immerhin noch den Rage Mode. Lediglich die Performance der Radeon RX 6800 XT präsentierte man ohne die neu vorgestellten Features."

Die Gegenkorrektur liegt falsch, da ist ein Fehler im Artikel:

> https://www.igorslab.de/wp-content/uploads/2020/10/RX-6000_Page_27.jpg

> https://www.igorslab.de/wp-content/uploads/2020/10/RX-6000_Page_28.jpg
 

HairforceOne

Software-Overclocker(in)
Kleine Gegenkorrektur:
"Demnach hatte AMD bei den Benchmarks zur Radeon RX 6900 XT sowohl den Rage Mode als auch Smart Access Memory aktiviert und bei denen zur Radeon RX 6800 immerhin noch den Rage Mode. Lediglich die Performance der Radeon RX 6800 XT präsentierte man ohne die neu vorgestellten Features."

Gegenkorrektur der Gegenkorrektur. :D
Die Karten wurden wie folgt in der AMD Vorstellung getestet:

-> 6800 ohne Rage Mode, mit SAM

-> 6800XT ohne Rage Mode und ohne SAM

-> 6900XT mit Rage Mode und SAM
 

Deathmachine

Freizeitschrauber(in)
Tatsache, dabei war ich mir relativ sicher, dass das anders war :stupid:

Dann ändere ich mein Statement:
Damit ist der Benchmark absoluter Käse.
Viele Leute werden die 6800 mit einem Zen 2 oder aktuellem Intel in Betracht ziehen, da sie erstmal die günstigste der neuen Grafikkarten sein wird.
 

rum

Software-Overclocker(in)
Mir persönlich passt das auch nicht, dass man für die max. Leistung ein Board mit AMDs 500er Chipsatz benötigt + eine Ryzen 5000er CPU. Also ich verstehe die leiste Kritik etwas, obwohl ich AMD-User bin! Aber .. insgesamt betrachtet ist gerade doch alles richtig gelaufen bei mir. Ich werde nicht vor Mitte 2021 neue Hardware anschaffen und ich denke, es ist genau der richtige Zeitraum damit sich die Dinge auf ein einschätzbares Niveau einpendeln:
- Raytracingunterstützung durch neue Spiele und beide Grafikkartenanbieter
- 4k(UHD)@120Hz Gedöhnse mit entsprechenden Monitoren und funktionierenden Lösungen
- Synergiespielchen mit Platfrom und CPU (hier stellt sich die Frage bezüglich AM5/Ryzen6000/DDR5)
- Wertverluste der aktuellen Hardware
- Entwicklung von Infinity-Cache und Gsync
- Einschlag und Auswirkung der neuen Konsolen-Gen
 

Infinity1985

Komplett-PC-Käufer(in)
Finde ich auch, es ist einfach schockierend, wie AMD Nutzer über Tatsachen hinwegtäuschen möchten und anfangen Lügen zu verbreiten. Das muss nicht sein.
Die AMD Karten lassen sich in vollem Umfang nur auf einer AMD Plattform nutzen, somit benötigt man eben einen AMD Prozessor um SAM zu nutzen. Hat man eine Intel Plattform oder eine ältere AMD, sind die GPUs eben langsamer als in den slides gezeigt. Es kann sich also lohnen Prozessor und GPU aufzurüsten.
Wie jetzt, die neuen AMD Grakas laufen mit den neuesten CPUs besser als mit älteren? Du bist da etwas ganz heißem auf der Spur.
Jetzt Mal ehrlich...das ist doch alles nur Geningel auf hohem Niveau. Worüber regt man sich jetzt auf? Das die neuen GPUs mit den neuesten CPUs die beste Performance liefern? Das war und ist schon immer so. Nicht umsonst gibt es ständig die Streitereien um "die beste Gaming-CPU" der Welt. Diese werden bekanntlich Zen 3 sein und ihr meckert jetzt darüber das ihr mit einem 9900k/3700x oder irgend einem älteren CPU nicht auf die gleiche Leistung wie mit einem Zen 3 kommt? Heult bitte leiser.

Und psssst....Die beste Leistung bei einer 3080/3090 wird man übrigens auch nur mit einem Zen 3 rausholen...
 
Zuletzt bearbeitet:

cesimbra

Freizeitschrauber(in)
Was für ein wirklicher Unsinn!
Eine AMD GPU funktioniert mit allen Systemen, auch mit Intel CPUs, ein Gsync Monitor synct nur mit Nvidia Grafikkarten!
Das Hauptfeature des Monitors ist properitär, weil sonst kann man sich auch jeden normalen Monitor ohne Sync kaufen. Jede AMD GPU entfaltet zu weit über 90% ihr Hauptfeature auf jedem System.

Aber mach mal weiter solche Vergleiche, zeigt entweder die Bias oder den Neid.
Naja, sicher ist "der Sync" für den User in der Tat eher "erlebbar" als es der S.A.M. (mindestens zu Beginn) sein wird, aber Du solltest halt auch schon etwas weiter denken. Es ist ja nun noch nicht wirklich klar, wie exklusiv das bleiben wird, aber ich fände eine Sperre jedenfalls gefährlich.

Daß das zukünftig ein ganz starkes Feature werden kann, steht in meinen Augen außer Frage – kein Witz, auf das Grundprinzip warte ich ja seit Jahren:

> https://extreme.pcgameshardware.de/...tlich-auch-dass-wir-bald.462609/#post-8606521

Mich würde es nicht wundern, wenn dieses Feature zentral für ALLE Architekturen wird.
 
Zuletzt bearbeitet:

Homerclon

Volt-Modder(in)
Ich find SAM gut, wurde doch Zeit das so etwas kommt. Eigentlich hab ich mit etwas in der Richtung gerechnet seit ATi von AMD gekauft wurde.
Aber wie sollte NVIDIA darauf reagieren können? Denen mangelt es an (x86-) CPUs. Intel wird NVIDIA wohl nicht ins Boot holen, die sind gerade dabei eine eigene GraKa-Sparte aufzubauen.

Immerhin gehts dabei nur um eine Leistungssteigerung, nicht um exklusive Grafik-/Spielfeatures. Egal ob SAM genutzt wird oder nicht, die Spiele sehen immer gleich aus und lassen sich gleich spielen. Diese Art von Proprietären Lösungen lass ich mir gefallen - während ich sonst davon eher kein großer Freund bin.

Was man AMD vorwerfen kann ist, das sie nicht Benchmark-Ergebnisse jeweils mit als auch ohne SAM sowie Rage gezeigt haben. Aber die Benchmarks der Hersteller sind eh nur ein Teaser, die wichtigen Benchmark-Ergebnisse kommen von den unabhängigen Tester.
 

DragonX1979

PC-Selbstbauer(in)
Bin jetzt mal ganz frech und poste mal meine Meinung ohne all 120+ Kommentare vor mir zu lesen... =)

Zu aller erst find' ich's gut dass AMD endlich wieder etwas druck macht und seit Jahren endlich
mal wieder in der Oberklasse mitmischt. Das wird sich in Zukunft sicher für alle
Hardcore-Zocker und sonstigen Freunde des Digitalen Zeitvertreibs auszahlen.

Von daher :daumen:

Nichts desto trotz hat AMD genauso wie Nvidia natürlich versucht seine Produkte im besten Licht zu
zeigen. Zwar waren die gezeigten Infos von gestern recht beeindruckend und es ist gut zu wissen,
dass z.B. Features wie Direct Storage von beiden und vermutlich dann auch von Intel kommen werden aber...

Ich muss es so sagen, auch bei AMD sah wieder alles sehr "aufpoliert" aus.
Nicht wirklich überraschend, aber da ich in die Zielgruppe der 3090 falle, galt mein
Interesse natürlich der RX 6900 XT.

Und da muss ich sagen, schien mir der Preis noch das solideste Argument zu sein.
Die (wie zu erwarten war) nicht ganz sachlichen Balken und Fußnoten waren mir dann aber doch trotz
aller positiven Eindrücke ein wenig zu viel. Denn die jeweils gezeigten Unterschiede
könnten 2 oder 20 fps bedeuten und dann noch Fußnoten zu AMD's aktivierten "Extra Features" ? Hmm...

Das Kurioseste war dann aber die Leistungsaufnahme - 300W?
Genau so wie die 6800 XT, bei gleichem Takt, Speicher und gleicher Kühllösung
nur leicht vergrößerter Kühllösung aber 11% mehr Recheneinheiten?

Voodoo? :what:

Wie dem auch sei, die Tests werden zeigen wo am Ende die Haken versteckt sind... Ich bin gespannt.
 
Zuletzt bearbeitet:

LastManStanding

PCGH-Community-Veteran(in)
ich weiß gar nicht warum so viele hier weinen und der Autor und Erfinder von dem Bild-Artikel überhaupt nicht realistisch ist.

Sämtliche Hersteller WELTWEIT in allen Kategorien bewerben und bieten die höchste und effizienteste Funktionalität in Kombination mit ihren eigenen Produkten-Logisch!!-Wirtschaft??. Von Handfeger/Kehrblech kombies über Elektronik(Apple will ich jetzt gar nicht nennen;-)) bis zu Autos und Industriemaschienen.

Ich muss meine Siebträgermaschiene nicht alle 100Liter entkalken wie vom Hersteller angepriesen... NEIN ich verklage meine Statdwerke weil ich schon bei 50 Litern zu viel Kalk im Gerät habe. Und die nicht mit dem Automatenhersteller zusammen arbeiten. Sondern dieser seine eigene Kaffeeoptimierte-Wasserqualität als maßstab nimmt..frech.. der Kaffee schmeckt auch ganz anders als auf dem Plakat....:schief:

Wie kann man überhaupt nur denken das AMDs verhalten verwerflich wäre in diesem Fall.
Warum darf AMD nicht die maximal mögliche Leistung ihrer Produkte zeigen, so wie andere die auch Kombinierbare Geräte herstellen? Weil es AMD ist?
 
Zuletzt bearbeitet:

Chicien

Software-Overclocker(in)
Ohja, das wird kritisiert wo höchstens 11% Mehrleistung zustande kommt bei Forza Horizon 4 aber es sonst nur mickrige einstellige Werte sind. AMD kann stolz auf ihre Arbeit sein und ich bin sehr psotiv überrascht von den kommenden Radeons. Das SAM und Rage ist eh nur Marketing damit Leute die teureren 5000er Ryzen kaufen. Wer sich so leicht beeinflussen lässt ist selber Schuld.

Da würde ich mir viel mehr wünschen das Nvidia und die Händler kritisiert werden wie die seit Ampere die Leute über den Tisch ziehen oder sieht man bei Media Markt, Caseking und Co auch eine PS5 oder XSX für 800€?
 

Salatsauce45

Freizeitschrauber(in)
Die Technik welche hinter SAM steckt, nämlich von der CPU direkt in den Grafikspeicher zu schreiben, ist doch nichts neues und gibt es doch schon seit Jahren. Dass Windoof es nicht gebacken bekommt, das richtig zu implementieren wundert mich auch überhaupt nicht. Jetzt bastelt AMD selbst am Treiber rum und schon fangen alle an zu heulen...
 
G

Grestorn

Guest
Die Technik welche hinter SAM steckt, nämlich von der CPU direkt in den Grafikspeicher zu schreiben, ist doch nichts neues und gibt es doch schon seit Jahren. Dass Windoof es nicht gebacken bekommt, das richtig zu implementieren wundert mich auch überhaupt nicht. Jetzt bastelt AMD selbst am Treiber rum und schon fangen alle an zu heulen...
Eieieieiei.

So viel Kompetenz auf einen Haufen...
 

Inras

Freizeitschrauber(in)
Ich werde sicher nicht wegen SAM von meinem Ryzen 3700X auf einen Ryzen 5800X wechseln. Vorallem weil ich dann ein neues Board bräuchte. Das is mir dann doch zu teuer wegen den paar Prozent an Bonus. Für mich gibt es erst mit Zen4 was neues. Also vermutlich AM5 und DDR5.
 

Julian K

Freizeitschrauber(in)
Meine Güte, ich könnte den (leisen) Aufschrei verstehen, wenn die Aktivierung der Features erst in den im Abspann gezeigten Bench-Daten ersichtlich gewesen wäre, aber sie haben es sehr offensichtlich unter den Diagrammen gezeigt.

Uh und etwas Proprietäres ist ja "soooo schrecklich"; das hielt die Nvidia-Käufer jahrelang nicht davon an, nur zu Nvidia zu greifen. :stupid: Zudem ist es bei AMD kein die Optik des Spiels betreffendes Feature, das den anderen dann vorenthalten wird, es geht schlicht um die Leistung.

Wenn man sich bei AMD darüber aufregt, dann bitte auch gerade bei Nvidia wegen DLSS.
 

wuselsurfer

Kokü-Junkie (m/w)
Die Technik welche hinter SAM steckt, nämlich von der CPU direkt in den Grafikspeicher zu schreiben, ist doch nichts neues und gibt es doch schon seit Jahren. Dass Windoof es nicht gebacken bekommt, das richtig zu implementieren wundert mich auch überhaupt nicht.
Oh Gott, ... .
Da klaffen riesige Wissenslücken.
Kleine Hilfe: https://de.wikipedia.org/wiki/Microsoft_Windows_NT.

Für einen direkten Hardwarezugriff hättest Du früher unter Umständen einen Blackscreen bekommen und einen Verweis von der HAL.
 
Zuletzt bearbeitet:

rum

Software-Overclocker(in)
Bin jetzt mal ganz frech und poste mal meine Meinung ohne all 120+ Kommentare vor mir zu lesen... =)

...
Mach ich nur so! ... gut, hin und wieder lese ich mir die Kommentare auch durch.
Meistens endet das aber in einer Art "Nicht-Nachvollziehbarkeit" bei den grabenkriegstreibenden Gläubigen der einen einzig wahren Seite .. yaLLa, yalla - zwitscher - Müll:pissed::stupid:

Jedoch sollte immer festgehalten werden, was das eigentliche Topic ist: is diesem Fall
radeon-rx-6000-leise-kritik-an-benchmarks-wegen-smart-access-memory-und-rage-mode
Ich für meinen Teil entkopple
a) meine Meinung zum Thema von
b) einer Anmerkung zu einer Meinung einer anderen Person zum selben Thema von
c) einer Anmerkung zu einer Meinung einer anderen Person, welche in diesem Thema absolut nichts verloren hat bzw. keinerlei Zusammenhang mehr zum Thema besitzt

a) sollte man immer posten dürfen! Wenn nicht, sollte man im PCGH-Forum eine Funktion einbauen, welche es einem verweigert zu Posten, wenn man nicht alle vorherigen Anworten gelesen hat. Eigentlich hohl .. :confused:
Für b) sollte ebenso wenige Einschränkungen geben und bei c) sehe ich zwar eher Moderator-Bedarf bei einer nicht mehr nachvollziehbaren Ungezügeltheit, jedoch gehört auch so etwas hin und wieder in ein Forum.

In der realen Welt, wenn man sich mit einer Person unterhält, anwortet man ja auch nicht nur ausschließlich auf geschlossene Fragen und erlaubt es sich auch auf die Meinung Anderer eine eigene Meinung entgegen zu bringen, oder sich dafür Auszusprechen, je nachdem.

Naja .. ich finde die Diskussionskultur hier ist schon ansprechend, auch wenn ich mir (eigentlich in jedem Thema bei irgendeinem Beitrag) etwas mehr Grammatik und verständlich geschriebenes Hochdeutsch wünsche! :love::love:
 

thebagger

Komplett-PC-Käufer(in)
Auf der einen Seite wird auch mit den ganzen NV wie Amsel, NV Voice (?) usw. bewerben aber wenn AMD
Haste ja Recht, jeder darf meiner Meinung nach seine Softwarefeatures positionieren wie er möchte. Allerdings missfällt mir eben der Gedanke auf Performance, in FPS verzichten zu müssen, weil ich kein Zen3 + Unterbau besitze.

Geht mir hauptsächlich darum, das Performance von Komponenten X an Komponente Y hängt.

Das ist wie, wenn ich nen Samsung TV kaufe aber 4K nur dann bekomme ich wenn ich nen Samsung Receiver und Samsung Soundbar dranklemme. (so kommt es mir zumindest vor.)

Ja klar, es sind nur die letzten Prozent aber ein Produkt in Sachen Leistung voll nutzen zu können nur wenn ich weitere Produkte der Firma kaufe finde ich auf den ersten Blick schräg.
 

Infinity1985

Komplett-PC-Käufer(in)
Haste ja Recht, jeder darf meiner Meinung nach seine Softwarefeatures positionieren wie er möchte. Allerdings missfällt mir eben der Gedanke auf Performance, in FPS verzichten zu müssen, weil ich kein Zen3 + Unterbau besitze.

Geht mir hauptsächlich darum, das Performance von Komponenten X an Komponente Y hängt.

Das ist wie, wenn ich nen Samsung TV kaufe aber 4K nur dann bekomme ich wenn ich nen Samsung Receiver und Samsung Soundbar dranklemme. (so kommt es mir zumindest vor.)

Ja klar, es sind nur die letzten Prozent aber ein Produkt in Sachen Leistung voll nutzen zu können nur wenn ich weitere Produkte der Firma kaufe finde ich auf den ersten Blick schräg.
Die Performance von Komponente X hing schon immer von Komponente Y ab, wo ist jetzt hier genau der Unterschied zu sonst? Das neuere und schnellere CPUs dann am Ende auch mehr FPS ausspucken ist doch jetzt kein Geheimnis. Nicht umsonst streiten sich doch immer alle um "die beste Gaming-CPU der Welt" und hatten bisher zu Intel gegriffen um die maximalen FPS Zahlen zu erreichen. Nur erreicht man diese jetzt eben mit den Zen3 CPUs, auch bei einer Nvidia Karte.
 

rasenschach

PC-Selbstbauer(in)
Ist doch vollkommen egal ob das an oder aus war - die Karten (Referenz) sind das untere Limit was geht (bis 300W). Was meint ihr was für Werte da raus kommen mit 2.5MHz (oder halt im Durchschnitt 2.3MHz und das werden die Top Modelle halten) selbst ohne Rage (1-2%) oder Smart Access.
Denkt mal zurück an RTX IO - was das abgefeiert wurde obwohl es nur als Papiertiger existiert (sagen wir mal Folientiger). Oder DLSS - ebenso proprietär - das sind für "Jünger" knallharte Verkaufsargumente. Die hat AMD jetzt auch - willst Du das beste Paket kauf nur bei AMD ein!! (finde ich selber nicht wirklich gut, muss man aber einfach respektieren)
Der Aufschrei ist okay, muss dann aber eben auch für alle am Markt befindlichen Unternehmen gelten. Die realen Tests werden ja wahrscheinlich auch ohne stattfinden (oder eben beides) und am Ende sind dann die AIB Modelle STrix OC (LC) oder Sapphire Toxic oder Powercolor Red Devil selbst ohne Smart+Rage wahrscheinlich nochmal 5-10% schneller als die powerlimitierte AMD Referenz - die Enthusiasten kaufen sich eh die Top Karten (wie bei Nvidia auch) oder packen die Referenz unter Wasser.
Am Ende bekommt man übrigens eine AMD 6900XT+CPU+Board für weniger als eine RTX 3090 - ist doch auch nicht schlecht.
 

boedefelt

PC-Selbstbauer(in)
Jetzt reicht es mir aber langsam, ich kann nichts dafür, wenn du der deutschen Sprache nicht wirklich mächtig bist, aber unterstelle nicht einfach Unwahrheiten!

Müsstest du das von dem kleinen Casurin nicht eigentlich kennen? Es ist doch lange bekannt das ihm nach 3 sec. die Argumente ausgehen und einfach immer Lüge schreit um die eigene Inkompetenz zu kaschieren.

Freuen wir uns das AMD diesen Punkt erreicht hat, an dem sie wieder Wettbewerbsfähig sind .
So, und Nummer 3...

Welche reviews? :motz:

Du wirst keine Antwort bekommen, er zündet halt mit seinen Lügen die Nebelkerzen um die unwissenden Leser zu verwirren. Ist halt Casurin, lügen um die eigene Welt im richtigen Licht erscheinen zu lassen.
 
Zuletzt bearbeitet:

thebagger

Komplett-PC-Käufer(in)
wo ist jetzt hier genau der Unterschied zu sonst?
Dass ich mit einer Intel CPU nicht die Möglichkeiten hätte die letzte Performance aus der GPU rauszukitzeln, das ich SAM nicht aktivieren kann.

Das ist für mich schon ein ziemlich gewaltiger unterschied.
Gleiches gilt für ein Setup mit nem 3900XT (oder so). Ich bin nicht im Stande ein Feature zu nutzen, welches mir GPU Performance bringt.

Sowas gab es bis heute meiner Meinung nach nicht.
 

Bl4ckR4v3n

Freizeitschrauber(in)
Die Performance von Komponente X hing schon immer von Komponente Y ab, wo ist jetzt hier genau der Unterschied zu sonst? Das neuere und schnellere CPUs dann am Ende auch mehr FPS ausspucken ist doch jetzt kein Geheimnis. Nicht umsonst streiten sich doch immer alle um "die beste Gaming-CPU der Welt" und hatten bisher zu Intel gegriffen um die maximalen FPS Zahlen zu erreichen. Nur erreicht man diese jetzt eben mit den Zen3 CPUs, auch bei einer Nvidia Karte.
Tut sie nur wenn es ein Bottleneck ist andernfalls hast du nur was im Bereich der Messtoleranz feststellen können.
Der Unterschied ist der, dass deine Karte unter Umständen die Performance nur voll ausfahren kann wenn du die passende CPU bereit stellst, selbst wenn diese garnicht limitiert. Erstmal perse nicht die Katastrophe da neue Features immer supported werden müssen. Wenn es sich jedoch bewahrheitet, dass es sich um properitiären Ansatz handelt, wird versucht einem ein System aufzuzwingen. Das ist der gleiche Müll wie seinerzeit mit G-Sync und braucht kein Konsument.
 

Infinity1985

Komplett-PC-Käufer(in)
Dass ich mit einer Intel CPU nicht die Möglichkeiten hätte die letzte Performance aus der GPU rauszukitzeln, das ich SAM nicht aktivieren kann.

Das ist für mich schon ein ziemlich gewaltiger unterschied.
Gleiches gilt für ein Setup mit nem 3900XT (oder so). Ich bin nicht im Stande ein Feature zu nutzen, welches mir GPU Performance bringt.

Sowas gab es bis heute meiner Meinung nach nicht.
Hättest du aktuell ohnehin mit einer Intel CPU nicht, da Zen3 halt auch einfach schneller ist (egal ob mit oder ohne SAM). Auch kannst du kein PCIe 4.0 nutzen, auch hier haste einen (vielleicht nur messbaren) Nachteil. Aber man muss die Kirche auch Mal im Dorf lassen, es ist jetzt nicht so das man 20% Leistung weniger hätte ohne eine Zen3 CPU. Wartet doch erst einmal unabhängige Tests ab bevor ihr die Sau durchs Dorf treibt.
 

-ElCritico-

Freizeitschrauber(in)
Mich hat es schon immer gewundert, warum AMD aus dem Chipsatz, der GPU und dem Prozessor kein Kapital schlägt. Wenn sie sie alle selbst herstellen, dann sollte es doch eine Möglichkeit geben, dass sie schneller zusammenarbeiten. Das ist keinesfalls Wettbewerbsverzehrung, sondern das ausnutzen der Marktsituation. Intel und Nvidia hätten es längst getan. Gut, dass sie endlich mal daraufkommen.
 

thebagger

Komplett-PC-Käufer(in)
Wartet doch erst einmal unabhängige Tests ab bevor ihr die Sau durchs Dorf treibt.
Niemand treibt irgendeine Sau. Keine verschreit ein Produkt. Die Tatsache, welche so von AMD geäußert wurde, finde ich einfach persönlich bedenklich. Nicht mehr, nicht weniger.

Hättest du aktuell ohnehin mit einer Intel CPU nicht, da Zen3 halt auch einfach schneller ist (egal ob mit oder ohne SAM)
Dann könnt ich jetzt das Beispiel mit Zen3 auf X470 konstruieren. Darum geht's aber nicht. Sondern um den Fakt wie die Technik funktioniert.
 

Tarjei

Komplett-PC-Käufer(in)
Mich hat es schon immer gewundert, warum AMD aus dem Chipsatz, der GPU und dem Prozessor kein Kapital schlägt. Wenn sie sie alle selbst herstellen, dann sollte es doch eine Möglichkeit geben, dass sie schneller zusammenarbeiten. Das ist keinesfalls Wettbewerbsverzehrung, sondern das ausnutzen der Marktsituation. Intel und Nvidia hätten es längst getan. Gut, dass sie endlich mal daraufkommen.
Genau das denke ich auch. Im hart umkämpften Hardwarebusiness sollte man alle Vorteile die man hat auch klug ausspielen...
Klar sind die Benchmarks geschummelt und best case.
In einer normalen Spieleumgebung wird das anders aussehen. Nicht jeder kauft gleich ein komplett neues AMD only System.
DLSS gibts auch nicht und bei Raytracing fällt die Performance der Karten extrem. So wie damals bei Touring.
In 3 Wochen wissen wir mehr.
Ich sehe nur einen großen Vorteil und das sind die 16 GB im unteren Preisbereich.
Hat man nun eine 3090 ist allerdings dieser Vorteil weg und nutzt man diese Karte auch für Videobearbeitung/Rendering in 3D mit CUDA kommt die 6900XT bei weitem nicht mit.
Gab es denn schon Benchmarks zu Raytracing in irgendeinem Spiel? Ich kann mir gut vorstellen das die AMD-Karten darunter langsamer als die nvidia-Pendants sind, diese hatten aber auch eine Generation an Erfahrung voraus. Das gleiche gilt für DLSS: Für mich immer noch ein Feature was verschleiern soll das die Leistung für die angestrebte Auflösung nicht ausreicht. Kann ganz hübsch aussehen, ja, aber auch erst seit Version 2.0. Die erste war eher so meeehhhh. Lt. Präsentation bringt AMD in nächster Zeit SuperResolution welches ebenso auf DeepLearning bzw. DirectML basieren soll. Ich bin gespannt wie sie es hin bekommen.
 
Zuletzt bearbeitet:

PCTom

BIOS-Overclocker(in)
AMD hat nicht getrollt, hier die Benchmarks mit einem 10900k damit heut nicht noch Köpfe rollen ;).
Die Aussagen waren auch nicht bedenklich oder sonstiges.

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 

theGucky

PC-Selbstbauer(in)

Illithide

Freizeitschrauber(in)
Dass ich mit einer Intel CPU nicht die Möglichkeiten hätte die letzte Performance aus der GPU rauszukitzeln, das ich SAM nicht aktivieren kann.

Das ist für mich schon ein ziemlich gewaltiger unterschied.
Gleiches gilt für ein Setup mit nem 3900XT (oder so). Ich bin nicht im Stande ein Feature zu nutzen, welches mir GPU Performance bringt.

Sowas gab es bis heute meiner Meinung nach nicht.
Wenn Du Funktionen von Intel willst, bist Du mit Gemecker über vermeintliche Fehler bei AMD leider an der völlig falschen Adresse. Das sollte sich eigentlich völlig von selbst verstehen und keiner ellenlangen Diskussion bedürfen. Da musst Du Dich schon an Intel bzw. deren (Mother-)Boardpartnern wenden.

Amd hat ja bislang gerade mal eine 20min Präse mit den wichtigsten Eckpunkten gehalten. Na, gut: zwei waren es - trotzdem kann nicht erwartet werden, dass dabei alle Architekturverbesserungen in mundgerechte Häppchen und gleichzeitig trotzdem allumfassend an den Mann gebracht werden. Möglicherweise kommt da ja auch noch was. Und wenn nicht, eben nicht. Auch nicht schlimm. Was TensorCores eigentlich so in 'ner Gamingkarte treiben, weiß auch keiner genau - wird deswegen geflennt oder trotzdem gekauft? Hat Meister Leonidas gejammert, als offene Monitor-Standards gekapert und mit 'nem ansonsten weitgehend funktionslosen Hardwaredongle proprietarisiert wurden? Oder wurde das nicht -imho gerade auch von ihm- monatelang als ganz großes Grafikvodoo vernebelt und abgefeiert? Von dem aktuellen RT-Gedöns, wo dick an Bilder "on" und "off" geschrieben werden muss, damit der Kunde weiß, was er gut zu finden hat, ganz zu schweigen.

Ich finde, manch einer sollte seine Maßstäbe erst mal wieder halbwegs geraderücken, bevor er sich in die Diskussion zu sehr verrennt. Schade, dass PCGH das wieder nur so unreflektiert übernommen hat. Wäre imho eine Chance gewesen, mit eigenen Recherchen zu PCIe-Standards zu glänzen. Manchmal Gewinne ich fast den Eindruck, den Anspruch hat man hier teilweise gar nicht mehr.

@Nuallan:
Wer sagt denn, dass SAM nicht auch noch für 400er Chipsätze nachgereicht wird, wenn technisch machbar? Dass AMD in ihrem großen Präsentationsmonat sich erst mal um die Platzierung der neuen Flaggschiffe kümmern, kann ja doch wohl erstmal gar nicht anders sein und muss noch nicht unbedingt viel heißen. Ansonsten: Bei Intel bekommst Du IMMER 'ne neuen Sockel und darfst selbst OHNE neue MoBo-Features löhnen. Auch da: Maßstab und so.
 
Zuletzt bearbeitet:

Homerclon

Volt-Modder(in)
AMD hat nicht getrollt, hier die Benchmarks mit einem 10900k damit heut nicht noch Köpfe rollen ;).
Die Aussagen waren auch nicht bedenklich oder sonstiges.
Woher will dieser "Mark PC" denn eine 6900 XT haben?
AMD würde vor dem allgemeinem Release sicherlich keine 6900 XT irgendjemandem schicken ohne das eine NDA unterzeichnet werden muss. Die GraKa-Hersteller ebenso. Und in diesem NDA würde sicherlich stehen das im Oktober keine selbsterstellten Benchmark-Ergebnisse veröffentlicht dürfen.

Davon abgesehen, sieht das Video nicht im geringsten nach einem seriösen Test aus.
Da könnte ich nun auch hergehen und irgendwas behaupten. Bevor kein Beweis vorliegt das dieser "Mark PC" tatsächlich eine 6900 XT hat, ist das Video nur als fake anzusehen.
 

thebagger

Komplett-PC-Käufer(in)
Wenn Du Funktionen von Intel willst, bist Du mit Gemecker über vermeintliche Fehler bei AMD leider an der völlig falschen Adresse.
Ich weiß ja nicht, wann ich irgendwas von Fehler geschrieben habe, oder dem Gemecker über fehlende Funktionen von Intel. Aber wenn Du es gut findest, dass höchstwahrscheinlich eine GPU nur dann 100% gibt, wenn sie mit einem bestimmten Chipsatz und einer bestimmten CPU gekoppelt wird, okay.

Wer sagt denn, dass SAM nicht auch noch für 400er Chipsätze nachgereicht wird, wenn technisch machbar?
Dachte wir reden hier aktuell über Fakten? Stand jetzt geht es eben nicht damit.
 
Oben Unten