• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

SAM mit Radeon RX 6900 XT getestet: Bis zu 31 Prozent mehr Leistung gratis

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu SAM mit Radeon RX 6900 XT getestet: Bis zu 31 Prozent mehr Leistung gratis

Kostenlos mehr Leistung - ohne Qualitätsverlust: Wer sagt da schon nein? Mit Smart Access Memory, besser bekannt als SAM, führte AMD Ende letzten Jahres eine Funktion ein, die genau das bringt. Zwischenzeitlich ist SAM sichtlich gereift, neue Treiber und Firmwares brachten weitere Leistungssteigerungen. PCGH prüft, was SAM im Frühjahr 2021 bringt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: SAM mit Radeon RX 6900 XT getestet: Bis zu 31 Prozent mehr Leistung gratis
 

Krabonq

Software-Overclocker(in)
Auch wenn man es theoretisch schon vor Jahren hätte einbauen können, 5-10% einfach so oben drauf ohne, dass das Spiel dafür optimiert sein muss, ist schon ziemlich gut für so ein Feature.
Sicherlich das mit Abstand beste GPU Feature der letzten paar Jahre.
 

elmobank

Software-Overclocker(in)
Schöner Nachtest.

Generell ist rBar oder SAM, wie man es auch nennen mag, ein schöner Zugewinn.

Das einzige, was etwas negativ bei nvidia auffällt ist, dass die Implementierung nicht ganz so gut funktioniert wie bei AMD. Der Prozentuale Zugewinn ist bei AMD teilweise deutlich höher - aber dies wird einfach an der "Softwarelösung" von nvidia liegen - und die Whitelist, die es dann erst im Treiber ermöglicht/freischaltet.

Über die fps braucht man nicht sprechen, die RX6900XT und RTX3090 bewegen sich je nach Auflösung und Spiel in einem ähnlichen Rahmen.

Als Kunde kann man sich nun seine bevorzugte Karte auswählen, egal was man bevorzugt. Wir sind endlich bei einem Gleichstand bei den GPUs angekommen und das kann nur positiv für uns sein.
 

shaboo

Software-Overclocker(in)
"Unsere Beispiele ergeben einen gut doppelt so großen Sprung durch SAM als durch rBAR über alle getesteten Spiele und Auflösungen hinweg (+5,7 statt +2,7 Prozent)."

"doppelt so groß als" - finde den Fehler ...
 

owned139

BIOS-Overclocker(in)
Als Kunde kann man sich nun seine bevorzugte Karte auswählen, egal was man bevorzugt. Wir sind endlich bei einem Gleichstand bei den GPUs angekommen und das kann nur positiv für uns sein.
Die nächste Generation wird richtig interessant, wenn AMD mit den MCM Chips um die Ecke kommt. Bin mal gespannt, ob Nvidia was vergleichbares in der Hand hat oder trotzdem noch auf einen monolithischen Chip setzt. Letzteres könnte ein Nachteil für NV sein.
 

GEChun

BIOS-Overclocker(in)
Interessant wäre ein Frametime vergleich dazu... klar hat man 3 FPS mehr in 4k aber dafür gibts auch Szenarien bei dem die Frametimes doppelt so hoch sind... das ist dann kontraproduktiv!
 

BigYundol

Software-Overclocker(in)
Für ein Leistungsplus dieser Grössenordnung bei AMD werfen einige sonst gerne 400€+ zusätzlich aus dem Fenster. Wie bsw. 2080Ti > RTX Titan oder 6800XT > 6900XT.
 

SlaveToTheRave

Freizeitschrauber(in)
Auch wenn man es theoretisch schon vor Jahren hätte einbauen können, 5-10% einfach so oben drauf ohne, dass das Spiel dafür optimiert sein muss, ist schon ziemlich gut für so ein Feature.
Sicherlich das mit Abstand beste GPU Feature der letzten paar Jahre.
Vor 5 Jahren wurde von AMD (und darauf auch von NVIDIA) der Low Level API zugriff (Treiber/Hardware) implementiert.

Es tut sich also schon was - aber eben nur langsam.
 

Nebulus07

Software-Overclocker(in)
Richtig Cool und geschente Leistung... Leider kann ich es nicht nutzen, weil mein Linux nicht per UEFI bootet sondern nur per CSM.
Wieso kann man den BAR Support eigentlich nur nutzen, wenn man CSM abschaltet im Bios ?
 

tigra456

Software-Overclocker(in)
Was mich dabei interessiert hat, waren die Frametimes und welcher Art und Weise sich der Nutzen von SAM/BAR zeigt.
Gedanke von mir dazu war, PCIe 4.0 bei GPUs ist kaum von Nutzen im Vergleich zu PCIe 3.0.

Das hat PCGH ja schon vor einiger Zeit aufgezeigt. Jetzt kam BAR hinzu und dann stellt sich die Frage werden die Unterschiede nun noch kleiner ? (bzw. kann ich noch besseren Gewissens auf PCIe 4.0 verzichten, was die GPU Leistung angeht)
 

ChrisMK72

PCGH-Community-Veteran(in)
mit Radeon RX 6900 XT getestet: Bis zu 31 Prozent mehr Leistung gratis

Das hört sich im Zusammenhang mit aktuellen Grafikkartenpreisen leicht verwirrend an. ;)



Ansonsten sehr interessant, wie die Technik sich entwickelt und was man da noch so rausholen kann.

Bei der Nvidia Seite und meiner ollen Basis hab ich da noch leichte Bedenken, dieses rBar mal in Angriff zu nehmen.
Vor allem halt, da ich aktuell in allen Spielen meine "Wunsch-FPS" bereits erreiche.
Entweder riegel ich ja bei langsameren Spielen bei 70 ab, aktuell, oder bei so Sachen wie Hunt, was ich aktuell mal anteste, auf 130 fps, die ich da auch dauerhaft erreiche.
Obwohl es für mich wohl keinen Unterschied machen würde, ob ich nun mit 70, oder 130 fps abgeballert werde. ;)

Die Waffen sind aber geil ! :D

Mal schaun, ob ich dieses Technik-Zeugs irgendwann später mal angehe, falls Berichte darauf hindeuten, dass alles immer unproblematisch ist und auch wirklich immer ein Plus an FPS bringt.

Gerade die niedrigen FPS interessieren mich ja meist.
Die P1/P5. Und da soll es ja angeblich was bringen.

Naja ... mal schaun.

Abwarten und Betatesten lassen ! ;)


Wenn ich auf AMD/Radeon unterwegs wäre ... klar ... Kein Ding. Sofort drauf.
Nobrainer.

klar hat man 3 FPS mehr in 4k aber dafür gibts auch Szenarien bei dem die Frametimes doppelt so hoch sind... das ist dann kontraproduktiv!

Hm ... das wär mal interessant.

Naja, ich lass noch ne Weile Betatesten, wie das gleiche in Grün :D bei Nvidia abgeht.



edit:

btw:
Im Normalfall kann der VRAM nur in kleinen Heaps von 256 MiByte belegt werden - und zwar sequenziell, also nacheinander. Soll eine größere Menge Speicher adressiert werden, müssen mehrere Copy-Vorgänge von der CPU zur GPU vorgenommen werden, was Zeit kostet beziehungsweise Latenzen zwischen CPU und GPU verursacht.

An dieser Stelle kommt rBAR/SAM ins Spiel. Durch die Ausnutzung der Resize-Fähigkeit des PCI-Standards kann die Größe dieses Blocks angepasst werden, mit einem Copy-Vorgang also auch mehr als 256 MiByte Grafikspeicher direkt von der CPU mit für das aktuelle Frame nötigen Daten belegt werden. Das parallele Arbeiten verhindert unnötige Latenzen, obendrein kann die hohe Transferrate von PCI-Express deutlich besser ausgeschöpft werden. Mit anderen Worten: die Leistung steigt - und das wünschen wir uns schließlich alle.

Das fand ich sehr gut erklärt. Danke. So kapier selbst ich das(das is n Lob! ;) ). Danke. :daumen:
 
Zuletzt bearbeitet:

Knuddelsucht

Kabelverknoter(in)
Der Test ist interessant aber irgendwie realitätsfern.

SAM oder rBar soll ja den CPU overhead reduzieren. Da nehmt ihr eine CPU mit 32 Threads die damit eigentlich kaum Probleme haben sollte.

Den Test würde ich mir mit einem 5600x oder 5800x wünschen.

Ebenfalls wäre es interessant ob es auch Zuwächse beim Raytracing gibt, da dort ja mehr Speicher in der Grafikkarte adressiert werden muss und ob das auch Vorteile bei einem GPU Speicheroverhead bringt wenn über die CPU mehr Daten zw RAM und GPU ausgetauscht werden müssen.
Sollte das Vorteile bringen, könnte man vllt die Speicherbestückung einer 3070 & 3080 im neuem Licht sehen.
 

raPid-81

Freizeitschrauber(in)
Die 6900xt zeiget der 3090 mit aktuellem Treiber und SAM die Rücklichter und wird damit jetzt auch offiziell zur der schnelleren Karte.
Die Rücklichter zeigen sieht für mich anders aus als in AC Valhalla vorne zu liegen, beim Rest liegt entweder die 3090 vorne oder es herrscht Gleichstand. Die 3090 fährt dabei mit angezogener Handbremse (ohne DLSS Quality) und RT ist deaktiviert.
 

Maggolos

PC-Selbstbauer(in)
Die Rücklichter zeigen sieht für mich anders aus als in AC Valhalla vorne zu liegen, beim Rest liegt entweder die 3090 vorne oder es herrscht Gleichstand. Die 3090 fährt dabei mit angezogener Handbremse (ohne DLSS Quality) und RT ist deaktiviert.

Sehe ich genauso (Vllt gibts im Heft mehr Details). Es wird vor allem wichtig, wie Nvidia rBar in der nächsten Gen. integriert. Denke dann kommen noch ein paar Prozentchen dazu.

Einfach mal noch abwarten, wenn jetzt noch Super Resolution dazu kommt, kann der Sack sehr wahrscheinlich zu gemacht werden ,,,
Das könnte durch die Konsolen passieren. Aber realistischerweise sollte es zu einem Gleichstand kommen bis minimalen Vorteil + Natürlich wer welchen Entwickler bei Game X unterstützt.
Wenn AMD Super Res bringt, muss man es natürlich dann auch in Kontrast zu DLSS setzen. Sollte es deutlich schlechter Aussehen (was bei der ersten Version realistisch ist) kommt man auch bei einem Vorteil wieder auf +-0

Diese Gen ist halt ausgeglichen und hat ihre Vor und Nachteile. Spannender werden die nächsten 2 Gens, da könnte dann der ein oder andere Vorsprung kommen.
 
Zuletzt bearbeitet:

Bärenmarke

Software-Overclocker(in)
Die Rücklichter zeigen sieht für mich anders aus als in AC Valhalla vorne zu liegen, beim Rest liegt entweder die 3090 vorne oder es herrscht Gleichstand. Die 3090 fährt dabei mit angezogener Handbremse (ohne DLSS Quality) und RT ist deaktiviert.
Angezogene Handbremse bei RT? Vielleicht mal die grüne Brille abnehmen, denn mit RT wird die Leistung reduziert.. Und zum Thema DLSS, ich kann auch einfach den Qualitätsregler nach links schieben... Aber ja sowas sieht ja ein gewisses Klientel nicht, erinnert mich stark an die Tesslationproblematik vor einigen Jahren, wo Nvidia bei Hairworks Implementationen bewusst immer den Tesslationfaktor sehr hoch gesetzt hat, da AMD bei über 8 fach sehr stark eingebrochen ist...
Und wäre es andersrum (also DLSS von AMD), wärst du der erste der schreien würde mit DLSS ist ja unfair, weil nvidia ja benachteiligt wird, durch die Implementierung von AMD.
 

Maggolos

PC-Selbstbauer(in)
Und wäre es andersrum (also DLSS von AMD), wärst du der erste der schreien würde mit DLSS ist ja unfair, weil nvidia ja benachteiligt wird, durch die Implementierung von AMD.
Grundsätzlich müssen sowohl Nvidia als auch AMD die Entwickler dazu bringen ihr "(AI) Upsampling" in die Engines zu integrieren, damit es convenient wird, sodass es auch alle Entwickler nutzen. Bringt allen langfristig mehr. Wäre natürlich schön, wenn langfristig ein Standard entsteht.
 

tigra456

Software-Overclocker(in)
Hä wasn da wieder los. Rumbebashe da. Les mal gescheit den Bericht bevor du wieder mit grüne Brille und son Quark daher redest.

RTX / DLSS werden von den KI Cores der RTX Karten berechnet. Und diese sind nicht in gleichem Maße bei den AMD vorhanden. Daher kann die RTX/DLSS Adaption nicht ganz gleichziehen...
 
Zuletzt bearbeitet:

raPid-81

Freizeitschrauber(in)
Angezogene Handbremse bei RT? Vielleicht mal die grüne Brille abnehmen, denn mit RT wird die Leistung reduziert.. Und zum Thema DLSS, ich kann auch einfach den Qualitätsregler nach links schieben... Aber ja sowas sieht ja ein gewisses Klientel nicht, erinnert mich stark an die Tesslationproblematik vor einigen Jahren, wo Nvidia bei Hairworks Implementationen bewusst immer den Tesslationfaktor sehr hoch gesetzt hat, da AMD bei über 8 fach sehr stark eingebrochen ist...
Und wäre es andersrum (also DLSS von AMD), wärst du der erste der schreien würde mit DLSS ist ja unfair, weil nvidia ja benachteiligt wird, durch die Implementierung von AMD.
Angezogene Handbremse da ohne DLSS, geht das nicht klar aus dem Satz hervor?

Wenn man RT aktiviert dann zieht die 3090 der 6900XT auch ohne DLSS davon.

1619176484141.png


Zum letzten Teil, wenn AMD zuerst DLSS und RT integriert hätte, dann würde jetzt eine RX6000 in meiner Kiste werkeln. Ich habe keinen Hersteller Bias, ich kaufe das Produkt welches für mich in dem Moment "geiler" ist.
 

Chatstar

Software-Overclocker(in)
Man muss sich im klaren sein, wenn AMD SR ähnlich gut umsetzt wie SAM könnte das der game changer werden.
AMD lässt sich ja Zeit und hat gesagt, dass man es erst bringt wenn es ausgereift ist.
Die Sache mit den Konsolen deutet darauf hin, dass es sehr bald soweit sein wird.
 

ChrisMK72

PCGH-Community-Veteran(in)
Also in Hunt, was ich gerade anteste, gibt's auch inGame ein schönes overlay, was mir aufgefallen ist.

Bezüglich Latenzen kann man da schön schauen, wie da was aufgeteilt ist.
Und wenn die ns halt mal zu hoch sind, ergeben die dann x 10000 insgesamt auch n beachtlichen Wert.
Das kann schon n Unterschied machen.

Gerade bezüglich der niedrigeren fps kann man ja gern noch mal n paar mitnehmen, vor allem wenn's eh schon eingebaut ist in die Technik.
Warte mal noch ab, aber hab grundsätzlich nix dagegen, das bei meiner 3080 auch irgendwann mal zu aktivieren.

Hier noch n Screen von Hunt mit dem Teil des Overlays, was ich meine.
Da sieht man auch schön, wo steht: CPU wartet auf GPU.
Das fand ich schon ein interessantes Detail. :)

1.jpg

Hab da auf 130 fps limitiert, da mir das reicht.
Ich hab keinen Unterschied festgestellt, ob ich mit 130 fps sterbe, oder mit 180. ;)

PS: Ach ... nich wundern: Da war grad zufällig Nebel inGame(das find' ich immer ätzend). ;) Das sieht nicht immer so aus ! :D


edit: Insgesamt finde ich aber die Umsetzung von AMD subjektiv besser.
Scheinbar bringt es aber auch bei Nvidia ein klein wenig, zumindest da, wo es funktioniert.
Ob mir die x fps allerdings den Aufwand(und das Risiko) der ganzen Treiberupdates wert is, das weiß ich nicht(never change a running system, vor allem nicht, wenn's richtig gut läuft).
Bei AMD würd' ich's auf jeden Fall mitnehmen.
 
Zuletzt bearbeitet:

owned139

BIOS-Overclocker(in)
Die 3090 fährt dabei mit angezogener Handbremse (ohne DLSS Quality) und RT ist deaktiviert.
Abgesehen davon wird sie in dem Spiel nicht mal voll ausgelastet. Meine gurkt mit 280W vor sich hin.
Das ist auch der Grund, weshalb die rote Fraktion gerne dieses Spiel als Vergleich heranzieht und die anderen 30+ Spiele untern Tisch fallen lässt x)

Einfach mal noch abwarten, wenn jetzt noch Super Resolution dazu kommt, kann der Sack sehr wahrscheinlich zu gemacht werden
Ich werde dir diese Aussage so um die Ohren hauen, wenns nicht so kommt.
 
Zuletzt bearbeitet:

Thepunisher2403

Kabelverknoter(in)
Die 6900xt zeiget der 3090 mit aktuellem Treiber und SAM die Rücklichter und wird damit jetzt auch offiziell zur der schnelleren Karte.
Lass doch endlich mal diesen mist

Siehe es endlich ein auch wenn es als amd fanboy schwierig aber das ist nur ein Traum die 3090 ist und bleibt die schnellere Karte das ist Fakt siehe Tests von Computerbase.....
 

manimani89

BIOS-Overclocker(in)
also ohne dlss ist die radeon einfach zuweit weg von allem vorallem was die in 4k leistung verliert ist nicht normal. das sieht man gut bei denn gebrrauchtmarktpreisen wo eine 3080 400 bis 500 teuerer als die 6900xt ist
 

Nebulus07

Software-Overclocker(in)
Zum Abschluss der Messreihe sehen wir einen weiteren interessanten Fall. Egal ob rBAR oder SAM, der veränderte Speicherzugriff hat abseits des harten Grafiklimits eine bremsende Wirkung: In 720p bricht die 6900 XT um zwei Prozent ein, die RTX 3090 sogar um sechs Prozent. Ab Full HD sind die Ergebnisse mit und ohne SAM/rBAR weitestgehend identisch und zumindest bei der Radeon ändert sich mit steigender Auflösung kaum etwas daran. Bei der RTX 3090 zeigt sich hingegen eine vom üblichen Bild abweichende Skalierung, hier führt höhere Grafiklast zu immer größeren Leistungsgewinnen durch rBAR; maximal steigt die Bildrate um fünf Prozent (Ultra HD).

Damit dürfte klar sein, dass man Grafikkarten bald nur noch in 4K und 8K testet...
 

Birdy84

Volt-Modder(in)
Lass doch endlich mal diesen mist

Siehe es endlich ein auch wenn es als amd fanboy schwierig aber das ist nur ein Traum die 3090 ist und bleibt die schnellere Karte das ist Fakt siehe Tests von Computerbase.....
Ist ja wieder mal wie im Kindergarten hier! Dabei ist es völlig egal welche Karte schneller ist, da sie im Schnitt so dicht beieinander liegen, dass man den Unterschied sowieso nicht merken kann. Außerdem muss man dieses Thema doch nicht in jedem Thread, der auch nur annähernd mit Grafikkarten zu tun hat, ohne Ergebnis und Erkenntnis tot diskutieren.

@Topic: Mit der reBAR Implementierung von Nvidia werde ich nicht warm, weil die Leistung weniger konstant erscheint. Mich interessiert, wieso reBAR je nach Situation Leistung kostet. Ich hoffe im Heft gibt es mehr Details und Frametime Analysen.

Edit:
also ohne dlss ist die radeon einfach zuweit weg von allem vorallem was die in 4k leistung verliert ist nicht normal. das sieht man gut bei denn gebrrauchtmarktpreisen wo eine 3080 400 bis 500 teuerer als die 6900xt ist
Die Big Navi verliert in UHD keine Leistung, die skaliert wie Turing. Tatsache ist, Ampere gewinnt weniger Leistung in niedrigeren Auflösungen.
 

Gurdi

Kokü-Junkie (m/w)
Ist ja wieder mal wie im Kindergarten hier! Dabei ist es völlig egal welche Karte schneller ist, da sie im Schnitt so dicht beieinander liegen, dass man den Unterschied sowieso nicht merken kann. Außerdem muss man dieses Thema doch nicht in jedem Thread, der auch nur annähernd mit Grafikkarten zu tun hat, ohne Ergebnis und Erkenntnis tot diskutieren.

@Topic: Mit der reBAR Implementierung von Nvidia werde ich nicht warm, weil die Leistung weniger konstant erscheint. Mich interessiert, wieso reBAR je nach Situation Leistung kostet. Ich hoffe im Heft gibt es mehr Details und Frametime Analysen.

Edit:
Die Big Navi verliert in UHD keine Leistung, die skaliert wie Turing. Tatsache ist, Ampere gewinnt keine Leistung in niedrigeren Auflösungen.
Bin auch gespannt auf das Mag.
 

DARPA

Volt-Modder(in)
Die Big Navi verliert in UHD keine Leistung, die skaliert wie Turing. Tatsache ist, Ampere gewinnt weniger Leistung in niedrigeren Auflösungen.
Hier hatte ich mal was nachgerechnet:
 

PCGH_Phil

Audiophil
Teammitglied
Richtig Cool und geschente Leistung... Leider kann ich es nicht nutzen, weil mein Linux nicht per UEFI bootet sondern nur per CSM.
Wieso kann man den BAR Support eigentlich nur nutzen, wenn man CSM abschaltet im Bios ?
Schon mal probiert, CSM zu deaktivieren, BAR Resize anzuschalten und danach wieder CSM zu reaktivieren? Bei meinem Boards ging das, jedenfalls nach einem UEFI-Update (Asrock X570 Pro4*) - wobei das wahrscheinlich keine Absicht, sondern irgendein dämlicher Bug/Fehler ist... Wenn ich CSM anhabe, ist Above 4G Decoding ausgegraut, das muss bei mir aber an sein, damit Resize Bar auftaucht. Deshalb muss ich CSM ausmachen, neu booten, 4G Decoding aktivieren, Resize Bar zuschalten, neu booten, CSM wieder einschalten. Wenn ich CSM nämlich aushabe, verschwindet meine M.2-SSD, auf der Windows 10 installiert ist (nicht komplett, in der NVMe Configuration wird sie noch angezeigt, aber ich kann nicht darauf zugreifen, sie nicht in der Bootliste auswählen und auch nicht davon starten, solange CSM deaktiviert ist).

Ich hab mich schon in Form von ungefähr 5 wütenden Mails bei Torsten über den Zustand von Mainboards (und UEFI-Updates) ausgekotzt... Dass CSM sehr seltsame Zicken veranstaltet, ist aber anscheinend mehr oder minder normal, jedenfalls hatte er damit in Vergangenheit auch schon sehr unterhaltsame (wenn vielleicht auch nicht gerade erheiternde) Probleme.

Das funktioniert dann auch (das da ist eine RTX 3070 bei Full HD und Ultra-Details in Cyberpunk):

1619180740580.png


*Beim UEFI-Update ging btw. nur das File vom chinesischen Server, das vom "internationalen" Server war defekt. Auch noch so ein kleiner Aufregepunkt^^ Wahrscheinlich hab ich damit auch gleich Onkel Xi's freundlich lächelnden Staatstrojaner mitinstalliert ;)

Gruß,
Phil
 

Anhänge

  • Rebar Asrock X570 Pro4.png
    Rebar Asrock X570 Pro4.png
    744,2 KB · Aufrufe: 45
Zuletzt bearbeitet:

Eragoss

Freizeitschrauber(in)
@elmobank Ich finde es erfreulich das die reine Rohleistung bei AMD und Nvidia sehr nah beieinander liegt. Diese Aussage kann ich jedoch leider nicht teilen "Wir sind endlich bei einem Gleichstand bei den GPUs angekommen".
Für einen Gleichstand müsste AMD eine DLSS Alternative liefern, was aktuell noch nicht der Fall ist. So ist für mich, der ausschließlich in 4k spielt und auch überwiegend Spiele mit DLSS Support (z.B. Cyberpunk 2077), die Funktion wichtiger wie die fehlenden 6GB Speicher im Vergleich.

Mittelfristig kann hier AMD Nvidia aber überholen (Mehr Speicher und ggf. in einem Jahr eine brauchbare DLSS Alternativ?). Gut zu erkennen im Vergleich mit einer R9 290X mit 8GB (7 Jahre), die eine GTX 780 richtig alt aussehen lässt.

Aktuell betrifft es dann aber auch nur Leute die Ihre Grafikkarte nicht nach 2-4 Jahren wieder verkaufen. (Was im Highendbereich eher öfters passiert)
 
Oben Unten