SAM mit Radeon RX 6900 XT getestet: Bis zu 31 Prozent mehr Leistung gratis

Die 6900xt zeiget der 3090 mit aktuellem Treiber und SAM die Rücklichter und wird damit jetzt auch offiziell zur der schnelleren Karte.
Die Rücklichter zeigen sieht für mich anders aus als in AC Valhalla vorne zu liegen, beim Rest liegt entweder die 3090 vorne oder es herrscht Gleichstand. Die 3090 fährt dabei mit angezogener Handbremse (ohne DLSS Quality) und RT ist deaktiviert.
 
Die Rücklichter zeigen sieht für mich anders aus als in AC Valhalla vorne zu liegen, beim Rest liegt entweder die 3090 vorne oder es herrscht Gleichstand. Die 3090 fährt dabei mit angezogener Handbremse (ohne DLSS Quality) und RT ist deaktiviert.

Sehe ich genauso (Vllt gibts im Heft mehr Details). Es wird vor allem wichtig, wie Nvidia rBar in der nächsten Gen. integriert. Denke dann kommen noch ein paar Prozentchen dazu.

Einfach mal noch abwarten, wenn jetzt noch Super Resolution dazu kommt, kann der Sack sehr wahrscheinlich zu gemacht werden ,,,
Das könnte durch die Konsolen passieren. Aber realistischerweise sollte es zu einem Gleichstand kommen bis minimalen Vorteil + Natürlich wer welchen Entwickler bei Game X unterstützt.
Wenn AMD Super Res bringt, muss man es natürlich dann auch in Kontrast zu DLSS setzen. Sollte es deutlich schlechter Aussehen (was bei der ersten Version realistisch ist) kommt man auch bei einem Vorteil wieder auf +-0

Diese Gen ist halt ausgeglichen und hat ihre Vor und Nachteile. Spannender werden die nächsten 2 Gens, da könnte dann der ein oder andere Vorsprung kommen.
 
Zuletzt bearbeitet:
Die Rücklichter zeigen sieht für mich anders aus als in AC Valhalla vorne zu liegen, beim Rest liegt entweder die 3090 vorne oder es herrscht Gleichstand. Die 3090 fährt dabei mit angezogener Handbremse (ohne DLSS Quality) und RT ist deaktiviert.
Angezogene Handbremse bei RT? Vielleicht mal die grüne Brille abnehmen, denn mit RT wird die Leistung reduziert.. Und zum Thema DLSS, ich kann auch einfach den Qualitätsregler nach links schieben... Aber ja sowas sieht ja ein gewisses Klientel nicht, erinnert mich stark an die Tesslationproblematik vor einigen Jahren, wo Nvidia bei Hairworks Implementationen bewusst immer den Tesslationfaktor sehr hoch gesetzt hat, da AMD bei über 8 fach sehr stark eingebrochen ist...
Und wäre es andersrum (also DLSS von AMD), wärst du der erste der schreien würde mit DLSS ist ja unfair, weil nvidia ja benachteiligt wird, durch die Implementierung von AMD.
 
Und wäre es andersrum (also DLSS von AMD), wärst du der erste der schreien würde mit DLSS ist ja unfair, weil nvidia ja benachteiligt wird, durch die Implementierung von AMD.
Grundsätzlich müssen sowohl Nvidia als auch AMD die Entwickler dazu bringen ihr "(AI) Upsampling" in die Engines zu integrieren, damit es convenient wird, sodass es auch alle Entwickler nutzen. Bringt allen langfristig mehr. Wäre natürlich schön, wenn langfristig ein Standard entsteht.
 
Hä wasn da wieder los. Rumbebashe da. Les mal gescheit den Bericht bevor du wieder mit grüne Brille und son Quark daher redest.

RTX / DLSS werden von den KI Cores der RTX Karten berechnet. Und diese sind nicht in gleichem Maße bei den AMD vorhanden. Daher kann die RTX/DLSS Adaption nicht ganz gleichziehen...
 
Zuletzt bearbeitet:
Angezogene Handbremse bei RT? Vielleicht mal die grüne Brille abnehmen, denn mit RT wird die Leistung reduziert.. Und zum Thema DLSS, ich kann auch einfach den Qualitätsregler nach links schieben... Aber ja sowas sieht ja ein gewisses Klientel nicht, erinnert mich stark an die Tesslationproblematik vor einigen Jahren, wo Nvidia bei Hairworks Implementationen bewusst immer den Tesslationfaktor sehr hoch gesetzt hat, da AMD bei über 8 fach sehr stark eingebrochen ist...
Und wäre es andersrum (also DLSS von AMD), wärst du der erste der schreien würde mit DLSS ist ja unfair, weil nvidia ja benachteiligt wird, durch die Implementierung von AMD.
Angezogene Handbremse da ohne DLSS, geht das nicht klar aus dem Satz hervor?

Wenn man RT aktiviert dann zieht die 3090 der 6900XT auch ohne DLSS davon.

1619176484141.png


Zum letzten Teil, wenn AMD zuerst DLSS und RT integriert hätte, dann würde jetzt eine RX6000 in meiner Kiste werkeln. Ich habe keinen Hersteller Bias, ich kaufe das Produkt welches für mich in dem Moment "geiler" ist.
 
Man muss sich im klaren sein, wenn AMD SR ähnlich gut umsetzt wie SAM könnte das der game changer werden.
AMD lässt sich ja Zeit und hat gesagt, dass man es erst bringt wenn es ausgereift ist.
Die Sache mit den Konsolen deutet darauf hin, dass es sehr bald soweit sein wird.
 
Also in Hunt, was ich gerade anteste, gibt's auch inGame ein schönes overlay, was mir aufgefallen ist.

Bezüglich Latenzen kann man da schön schauen, wie da was aufgeteilt ist.
Und wenn die ns halt mal zu hoch sind, ergeben die dann x 10000 insgesamt auch n beachtlichen Wert.
Das kann schon n Unterschied machen.

Gerade bezüglich der niedrigeren fps kann man ja gern noch mal n paar mitnehmen, vor allem wenn's eh schon eingebaut ist in die Technik.
Warte mal noch ab, aber hab grundsätzlich nix dagegen, das bei meiner 3080 auch irgendwann mal zu aktivieren.

Hier noch n Screen von Hunt mit dem Teil des Overlays, was ich meine.
Da sieht man auch schön, wo steht: CPU wartet auf GPU.
Das fand ich schon ein interessantes Detail. :)

1.jpg

Hab da auf 130 fps limitiert, da mir das reicht.
Ich hab keinen Unterschied festgestellt, ob ich mit 130 fps sterbe, oder mit 180. ;)

PS: Ach ... nich wundern: Da war grad zufällig Nebel inGame(das find' ich immer ätzend). ;) Das sieht nicht immer so aus ! :D


edit: Insgesamt finde ich aber die Umsetzung von AMD subjektiv besser.
Scheinbar bringt es aber auch bei Nvidia ein klein wenig, zumindest da, wo es funktioniert.
Ob mir die x fps allerdings den Aufwand(und das Risiko) der ganzen Treiberupdates wert is, das weiß ich nicht(never change a running system, vor allem nicht, wenn's richtig gut läuft).
Bei AMD würd' ich's auf jeden Fall mitnehmen.
 
Zuletzt bearbeitet:
Die 3090 fährt dabei mit angezogener Handbremse (ohne DLSS Quality) und RT ist deaktiviert.
Abgesehen davon wird sie in dem Spiel nicht mal voll ausgelastet. Meine gurkt mit 280W vor sich hin.
Das ist auch der Grund, weshalb die rote Fraktion gerne dieses Spiel als Vergleich heranzieht und die anderen 30+ Spiele untern Tisch fallen lässt x)

Einfach mal noch abwarten, wenn jetzt noch Super Resolution dazu kommt, kann der Sack sehr wahrscheinlich zu gemacht werden
Ich werde dir diese Aussage so um die Ohren hauen, wenns nicht so kommt.
 
Zuletzt bearbeitet:
Die 6900xt zeiget der 3090 mit aktuellem Treiber und SAM die Rücklichter und wird damit jetzt auch offiziell zur der schnelleren Karte.
Lass doch endlich mal diesen mist

Siehe es endlich ein auch wenn es als amd fanboy schwierig aber das ist nur ein Traum die 3090 ist und bleibt die schnellere Karte das ist Fakt siehe Tests von Computerbase.....
 
also ohne dlss ist die radeon einfach zuweit weg von allem vorallem was die in 4k leistung verliert ist nicht normal. das sieht man gut bei denn gebrrauchtmarktpreisen wo eine 3080 400 bis 500 teuerer als die 6900xt ist
 
Zum Abschluss der Messreihe sehen wir einen weiteren interessanten Fall. Egal ob rBAR oder SAM, der veränderte Speicherzugriff hat abseits des harten Grafiklimits eine bremsende Wirkung: In 720p bricht die 6900 XT um zwei Prozent ein, die RTX 3090 sogar um sechs Prozent. Ab Full HD sind die Ergebnisse mit und ohne SAM/rBAR weitestgehend identisch und zumindest bei der Radeon ändert sich mit steigender Auflösung kaum etwas daran. Bei der RTX 3090 zeigt sich hingegen eine vom üblichen Bild abweichende Skalierung, hier führt höhere Grafiklast zu immer größeren Leistungsgewinnen durch rBAR; maximal steigt die Bildrate um fünf Prozent (Ultra HD).

Damit dürfte klar sein, dass man Grafikkarten bald nur noch in 4K und 8K testet...
 
Lass doch endlich mal diesen mist

Siehe es endlich ein auch wenn es als amd fanboy schwierig aber das ist nur ein Traum die 3090 ist und bleibt die schnellere Karte das ist Fakt siehe Tests von Computerbase.....
Ist ja wieder mal wie im Kindergarten hier! Dabei ist es völlig egal welche Karte schneller ist, da sie im Schnitt so dicht beieinander liegen, dass man den Unterschied sowieso nicht merken kann. Außerdem muss man dieses Thema doch nicht in jedem Thread, der auch nur annähernd mit Grafikkarten zu tun hat, ohne Ergebnis und Erkenntnis tot diskutieren.

@Topic: Mit der reBAR Implementierung von Nvidia werde ich nicht warm, weil die Leistung weniger konstant erscheint. Mich interessiert, wieso reBAR je nach Situation Leistung kostet. Ich hoffe im Heft gibt es mehr Details und Frametime Analysen.

Edit:
also ohne dlss ist die radeon einfach zuweit weg von allem vorallem was die in 4k leistung verliert ist nicht normal. das sieht man gut bei denn gebrrauchtmarktpreisen wo eine 3080 400 bis 500 teuerer als die 6900xt ist
Die Big Navi verliert in UHD keine Leistung, die skaliert wie Turing. Tatsache ist, Ampere gewinnt weniger Leistung in niedrigeren Auflösungen.
 
Ist ja wieder mal wie im Kindergarten hier! Dabei ist es völlig egal welche Karte schneller ist, da sie im Schnitt so dicht beieinander liegen, dass man den Unterschied sowieso nicht merken kann. Außerdem muss man dieses Thema doch nicht in jedem Thread, der auch nur annähernd mit Grafikkarten zu tun hat, ohne Ergebnis und Erkenntnis tot diskutieren.

@Topic: Mit der reBAR Implementierung von Nvidia werde ich nicht warm, weil die Leistung weniger konstant erscheint. Mich interessiert, wieso reBAR je nach Situation Leistung kostet. Ich hoffe im Heft gibt es mehr Details und Frametime Analysen.

Edit:
Die Big Navi verliert in UHD keine Leistung, die skaliert wie Turing. Tatsache ist, Ampere gewinnt keine Leistung in niedrigeren Auflösungen.
Bin auch gespannt auf das Mag.
 
Die Big Navi verliert in UHD keine Leistung, die skaliert wie Turing. Tatsache ist, Ampere gewinnt weniger Leistung in niedrigeren Auflösungen.
Hier hatte ich mal was nachgerechnet:
 
Richtig Cool und geschente Leistung... Leider kann ich es nicht nutzen, weil mein Linux nicht per UEFI bootet sondern nur per CSM.
Wieso kann man den BAR Support eigentlich nur nutzen, wenn man CSM abschaltet im Bios ?
Schon mal probiert, CSM zu deaktivieren, BAR Resize anzuschalten und danach wieder CSM zu reaktivieren? Bei meinem Boards ging das, jedenfalls nach einem UEFI-Update (Asrock X570 Pro4*) - wobei das wahrscheinlich keine Absicht, sondern irgendein dämlicher Bug/Fehler ist... Wenn ich CSM anhabe, ist Above 4G Decoding ausgegraut, das muss bei mir aber an sein, damit Resize Bar auftaucht. Deshalb muss ich CSM ausmachen, neu booten, 4G Decoding aktivieren, Resize Bar zuschalten, neu booten, CSM wieder einschalten. Wenn ich CSM nämlich aushabe, verschwindet meine M.2-SSD, auf der Windows 10 installiert ist (nicht komplett, in der NVMe Configuration wird sie noch angezeigt, aber ich kann nicht darauf zugreifen, sie nicht in der Bootliste auswählen und auch nicht davon starten, solange CSM deaktiviert ist).

Ich hab mich schon in Form von ungefähr 5 wütenden Mails bei Torsten über den Zustand von Mainboards (und UEFI-Updates) ausgekotzt... Dass CSM sehr seltsame Zicken veranstaltet, ist aber anscheinend mehr oder minder normal, jedenfalls hatte er damit in Vergangenheit auch schon sehr unterhaltsame (wenn vielleicht auch nicht gerade erheiternde) Probleme.

Das funktioniert dann auch (das da ist eine RTX 3070 bei Full HD und Ultra-Details in Cyberpunk):

1619180740580.png


*Beim UEFI-Update ging btw. nur das File vom chinesischen Server, das vom "internationalen" Server war defekt. Auch noch so ein kleiner Aufregepunkt^^ Wahrscheinlich hab ich damit auch gleich Onkel Xi's freundlich lächelnden Staatstrojaner mitinstalliert ;)

Gruß,
Phil
 

Anhänge

  • Rebar Asrock X570 Pro4.png
    Rebar Asrock X570 Pro4.png
    744,2 KB · Aufrufe: 50
Zuletzt bearbeitet:
@elmobank Ich finde es erfreulich das die reine Rohleistung bei AMD und Nvidia sehr nah beieinander liegt. Diese Aussage kann ich jedoch leider nicht teilen "Wir sind endlich bei einem Gleichstand bei den GPUs angekommen".
Für einen Gleichstand müsste AMD eine DLSS Alternative liefern, was aktuell noch nicht der Fall ist. So ist für mich, der ausschließlich in 4k spielt und auch überwiegend Spiele mit DLSS Support (z.B. Cyberpunk 2077), die Funktion wichtiger wie die fehlenden 6GB Speicher im Vergleich.

Mittelfristig kann hier AMD Nvidia aber überholen (Mehr Speicher und ggf. in einem Jahr eine brauchbare DLSS Alternativ?). Gut zu erkennen im Vergleich mit einer R9 290X mit 8GB (7 Jahre), die eine GTX 780 richtig alt aussehen lässt.

Aktuell betrifft es dann aber auch nur Leute die Ihre Grafikkarte nicht nach 2-4 Jahren wieder verkaufen. (Was im Highendbereich eher öfters passiert)
 
Zurück