Die Radeon RX 5600 XT ... - Das sagen die PCGH-Redakteure dazu

Übrigens schreibt selbst PCGH "Machen wir uns nichts vor: 6 GiByte Speicherkapazität mögen im Hier und Jetzt in den meisten Fällen ausreichen, vor allem in Full HD"
Genau das schreibt PCGH, vollkommen richtig. Und wenn Du mitgezählt hast, bedeutet das genau drei Einschränkungen: "Hier und Jetzt" (nicht in der Zukunft), "in den meisten Fällen" (nicht in allen) und "vor allem in Full HD" (nicht WQHD oder höher). Wenn DICH diese Einschränkungen aktuell nicht davon abhalten würden, für eine entsprechende Karte 250 bis 300 Euro auszugeben, bitte, ganz alleine Deine Entscheidung. Anderen reicht das halt einfach nicht, insbesondere nicht vor dem Hintergrund, der noch in diesem Jahr anstehenden neuen Karten und Konsolen, die bereits in nicht allzu ferner Zukunft und in völlig absehbarer Weise alles mit weniger als 8 GB noch älter aussehen lassen werden als es das jetzt schon tut. Wenn ich mir eine neue Karte kaufe, geht es eben nicht nur darum, ob sie in der Gegenwart möglicherweise noch reicht, sondern auch darum, welche Reserven sie für die (nähere) Zukunft noch in petto hat.

Wäre die Karte 2018 so erschienen, hätte sich ja auch niemand (oder kaum jemand) beschwert, aber 2020 ist es einfach Bullshit, die Praxistauglichkeit und Lebensdauer einer prinzipiell bis in WQHD hinein leistungsfähigen Karte durch knappen Speicher künstlich zu begrenzen. Das macht die Karte schlicht unausgewogen.

Im Übrigen geht es bei der Beurteilung der Karte eben nicht nur darum, was man "braucht" (das kann ja sowieso individuell sehr verschieden sein), sondern auch um AMDs Modellpalette und Modellpolitik im Ganzen. Da hat man eben nun mal die Käufer in der Vergangenheit mit Speicher oftmals sehr verwöhnt und hatte Karten mit deutlich weniger Leistung auf dem Markt, die aber trotzdem mehr Speicher als jetzt die 5600XT hatten. Auf diese Weise hat man in der Vergangenheit (lobenswerterweise) einen Standard etabliert, den die 5600 XT in der Gegenwart (leider) unterläuft. Ein Grund zum Jubeln ist das natürlich nicht.
 
Genau das schreibt PCGH, vollkommen richtig. Und wenn Du mitgezählt hast, bedeutet das genau drei Einschränkungen: "Hier und Jetzt" (nicht in der Zukunft), "in den meisten Fällen" (nicht in allen) und "vor allem in Full HD" (nicht WQHD oder höher). Wenn DICH diese Einschränkungen aktuell nicht davon abhalten würden, für eine entsprechende Karte 250 bis 300 Euro auszugeben, bitte, ganz alleine Deine Entscheidung. Anderen reicht das halt einfach nicht, insbesondere nicht vor dem Hintergrund, der noch in diesem Jahr anstehenden neuen Karten und Konsolen, die bereits in nicht allzu ferner Zukunft und in völlig absehbarer Weise alles mit weniger als 8 GB noch älter aussehen lassen werden als es das jetzt schon tut. Wenn ich mir eine neue Karte kaufe, geht es eben nicht nur darum, ob sie in der Gegenwart möglicherweise noch reicht, sondern auch darum, welche Reserven sie für die (nähere) Zukunft noch in petto hat.

Wäre die Karte 2018 so erschienen, hätte sich ja auch niemand (oder kaum jemand) beschwert, aber 2020 ist es einfach Bullshit, die Praxistauglichkeit und Lebensdauer einer prinzipiell bis in WQHD hinein leistungsfähigen Karte durch knappen Speicher künstlich zu begrenzen. Das macht die Karte schlicht unausgewogen.

Im Übrigen geht es bei der Beurteilung der Karte eben nicht nur darum, was man "braucht" (das kann ja sowieso individuell sehr verschieden sein), sondern auch um AMDs Modellpalette und Modellpolitik im Ganzen. Da hat man eben nun mal die Käufer in der Vergangenheit mit Speicher oftmals sehr verwöhnt und hatte Karten mit deutlich weniger Leistung auf dem Markt, die aber trotzdem mehr Speicher als jetzt die 5600XT hatten. Auf diese Weise hat man in der Vergangenheit (lobenswerterweise) einen Standard etabliert, den die 5600 XT in der Gegenwart (leider) unterläuft. Ein Grund zum Jubeln ist das natürlich nicht.
Naja, das Argument von dir war ja, dass es eben im Hier und Jetzt eben nicht mehr ausreicht und da ist selbst dieses VRAM geile Magazin hier anderer Meinung. "Vor allem" Full HD meint aber auch, dass es eben auch für WQHD noch ausreicht, so kann man das auch drehen ;) Ja das ist mir schon klar, nicht jeder wird mit 1080p und hohen Einstellungen in Next Gen Titeln zufrieden sein. Aber deswegen gibt es ja die Option, dass man sich auch 8 GB Karten mit mehr Leistung für die höheren Auflösungen kaufen kann. Dass man sich hier immer so anstellt, wenn Karten mit 6 GB veröffentlicht werden, halte ich für übertrieben und kindisch. Bei einigen Postern könnte man ja meinen, 6 GB VRAM sei die Wurzel allen Elends auf der Erde.

Ja wie gesagt, die neuen Konsolen... mit ihren 13 GB Shared VRAM/RAM und dem tollen SSD memory paging glaube ich da nicht dass es zu einem signifikanten Anstieg des VRAM Verbrauchs kommen wird, zumindest nicht mit normalen Texturen unter 1080p (Lockhart gibt's ja auch noch)

Wie gesagt ich kann natürlich verstehen, dass User 8 GB VRAM bevorzugen, aber man muss jetzt keinen so einen Aufstand machen, wenn es Optionen für Käufer gibt, die weniger Geld in das Hobby investieren möchten.

Ich glaube auch nicht dass man das noch mit den alten Karten, wo AMD noch mit Vram um sich geschmissen hat, vergleichen kann. Du bekommst mit der 5600 XT eine wesentlich aktuellere Architektur und vor allem gddr6 Speicher, der ja maßgeblich teurer ist, als bei so einer alte 570 gcn Karte.
 
Zuletzt bearbeitet:
Die muss sich doch auch mit der vega 56 messen finde ich. Diese undervoltet, schlägt sie die 5600 und ist fast gleich auf mit der 5700. (Und hat 8 GB RAM) Ich sehe da keinen wirklichen Fortschritt. Im Grunde machen sie das selbe wie nvdia. Fast gleiche Leistung und dafür mehr dinero.
Ich bin echt froh mir letztes Jahr eine vega im Abverkauf gekauft zu haben.
 
Kannst du dich mal entscheiden? Erst müssen 95-100% keine Abstriche machen und dann muss man Abstriche machen? Wenn selbst ein Ultra-Fan wie du schon Probleme hat das alles ohne Widersprüche zu rechtfertigen, dann wird es halt leider eng.. Dann noch dieses ständige Gerede von "Wenn die Karte erstmal billiger wird dann ist sie soooo toll".. Ja, sie ist aber nicht billiger. Und der Test wurde jetzt gemacht. Sie wird in Zukunft billiger, aber in Zukunft wird auch der Speicher mehr und mehr zum Problem. Sie wird also niemals "der Burner" werden. Nichts anderes sagen all die Tests in der Branche auch aus.

Wo liegt das Problem? Ich habe ja in 95% aller Fälle geschrieben, was impliziert das in 5% aller Fälle wenn max. Details (ultra) Verwendung finden, es zu Einschränkungen kommen kann.
Des Weiteren bin ich eben kein ultra-Fan sonder mir reicht in der Regel schon High bzw. eine Kombination aus High und ultra.

Bezüglich des Preises frage ich manchmal echt, man kann doch nicht ein eher schlecht als rechtes Custom Designs einer RX5700,
mit einer nagelneuen, gerade erst am Markt eingeführten Karte vergleichen.
Man sollte sich nur mal die uvp der beiden Karten: RX5700, 379$ / RX5600XT, 289$ und die gerade eben erfolgte Preissenkung um 50$ der 2060 vor Augen halten.
Man muss kein Prophet sein, um zu sehen das die günstigsten eher schlecht als recht Modelle bereits in Kürze für um die 250€ und gute Custom designs für um die 270 zu haben sein werden.

Was die Zukunftsfähigkeit anbelangt, würde ich mir bezüglich dieser Karte auch nicht zu viel Gedanken machen.
Bis grössere Verwerfungen durch die neuen Konsolen eintreten wird die Karte sicherlich noch gut abliefern können.
Wenn es wirklich soweit ist und die ersten Titel, die explizit für die next Gen. entwickelt wurden an den Start gehen. Werden auch die 8GB der anderen Karten keinen großen Unterschied mehr machen.

Bis dahin und gerade weil ich noch große Dinge von RDNA2 erwarte, wäre dies wenn der Preis stimmt für mich die perfekte Übergangskarte um dann 2021 auf RDNA2 aufzurüsten

Bis dahin habe ich eine vergleichbar mit der 2060 / 5700 schnelle, flüsterleise, sehr stromsparende und voraussichtlich günstige Grafikkarte.

In Punkto Tests empfehle ich dir eine Geasamtübersicht: Radeon RX 5600 XT Launchreviews: Die Testresultate zur FullHD-Performance im UEberblick | 3DCenter.org
Wie du daraus entnehmen kannst, sehen die meisten anderen Seiten die Problematik deutlich entspannter als es hier auf PCGH der Fall ist.
Bei Computerbase z.B. ist sie auch deutlich Effizienter als die 2060 / 1660 (ti / super) bzw. die Effizienteste Karte überhaupt.
 
Wo liegt das Problem? Ich habe ja in 95% aller Fälle geschrieben, was impliziert das in 5% aller Fälle wenn max. Details (ultra) Verwendung finden, es zu Einschränkungen kommen kann.

Da war noch ein ">"-Zeichen vor deinen 95%.. Aber halten wir uns nicht mit Kleinigkeiten auf. Es ist alles gesagt.

Des Weiteren bin ich eben kein ultra-Fan sonder mir reicht in der Regel schon High bzw. eine Kombination aus High und ultra.

Ok, der war wirklich gut. ;) Ich meinte natürlich Ultra-AMD-Fan.

Bis dahin und gerade weil ich noch große Dinge von RDNA2 erwarte, wäre dies wenn der Preis stimmt für mich die perfekte Übergangskarte um dann 2021 auf RDNA2 aufzurüsten

Bis dahin habe ich eine vergleichbar mit der 2060 / 5700 schnelle, flüsterleise, sehr stromsparende und voraussichtlich günstige Grafikkarte.

Nein, nicht mal als Übergangskarte ist sie zu gebrauchen, weil sie einen (relativ) geringen Wiederverkaufswert hat. Kein Raytracing, nur 6GB, ernüchternde Test-Fazits.. Du kannst es drehen und wenden wie du willst. Die Karte ist ein Reinfall, auch wenn sie technisch was die Effizienz angeht ein tolles Stück Hardware ist, auf das AMD mal wieder stolz sein kann. Das bestreitet auch niemand. Auf dem Markt hat sie aber leider kaum eine Chance. Wir werden sehen..
 
Nein, nicht mal als Übergangskarte ist sie zu gebrauchen, weil sie einen (relativ) geringen Wiederverkaufswert hat. Kein Raytracing, nur 6GB, ernüchternde Test-Fazits.. Du kannst es drehen und wenden wie du willst. Die Karte ist ein Reinfall, auch wenn sie technisch was die Effizienz angeht ein tolles Stück Hardware ist, auf das AMD mal wieder stolz sein kann. Das bestreitet auch niemand. Auf dem Markt hat sie aber leider kaum eine Chance. Wir werden sehen..

Lies dir mal die von mir verlinkten Reviews mal aufmerksam durch, dann wirst du erkennen das die Karte in der Mehrzahl der Test-Fazits sehr gut abschneidet.

Wenn du den Speicher wie hier auf PCGH zubombardierst kannst du natürlich auch eine 8GB Karte bei 1080p in die Knie zwingen.
 
Lies dir mal die von mir verlinkten Reviews mal aufmerksam durch, dann wirst du erkennen das die Karte in der Mehrzahl der Test-Fazits sehr gut abschneidet.

Wenn du den Speicher wie hier auf PCGH zubombardierst kannst du natürlich auch eine 8GB Karte bei 1080p in die Knie zwingen.



So ein Schwachsinn die ein Stück schnellere RX 5700 mit 8GB Ram kostet gerade einmal zwischen 9 und 18 Euro mehr !!

Da stellt sich die Frage nach der RX 5600XT erst gar nicht :nene:
 
Andererseits ist es schon bitter, wenn man bei einer 300€ Karte bereits ab Kauf Texturauflösung, die keine Leistung kostet(!), herunterdrehen muss.

Sie kostet halt Speicher und Speicher kostet halt. Ist das gleiche wie bei der GPU. Speicher ist halt nicht mehr so billig wie früher und höhere Texturauflösungen brauchen halt inzwischen immens viel Speicher. Da kann man sich aber auch fragen, wie sinnvoll und vor allem nötig das ist und ob man damit bei einer, zumindest relativ gesehen, eher günstigen Karte nicht leben kann. Wenn der Preis noch auf ca. 250€ sinkt, finde ich, dass sie sich gut im Portfolio macht. Dass sie für die meisten hier im Forum total uninteressant ist, steht außer Frage. Aber Einsteiger oder diejenigen, die ihr Einsteigersystem oder älteres Mittelklassesystem aufrüsten wollen, finde ich die Karte sinnvoll.
 
Und diesen ganzen Man-muss-ja-nicht-alles-auf-Ultra-spielen-Quatsch kann ich echt nicht mehr hören. Womit sonst soll man Spiele denn bitte auf Ultra spielen, wenn nicht mit einer brandneuen Grafikkarte??!!
Man darf nicht alle Detail Regler in den gleichen Topf werfen. Den mit Abstand größten Speicherverbrauch haben Texturen und das ist es besonders ärgerlich, wenn man diese optische Aufwertung aufgrund von Speichermangel nicht mitnehmen kann. Alle anderen Optionen gehen ja z.T. deutlich auf die GPU Leistung und ich würde bei so einer kleinen Karte, wie der 5600 XT, eben nicht erwarten, dass sie alle Spiele mit maximalen Details schafft, auch nicht in FHD.

BTW hab ich mit meinem 6 GB PC schon viele Titel letztes Jahr gezockt und bei keinem sowas wie Texturschwund oder Ruckler bemerkt, in WQHD wohlgemerkt.
Das ist ja wirklich schön für dich, dass du das nicht bemerkt hast, aber PCGH hat es schon bei Mirrors Edge gemessen und beobachtet, dass 6GB eben nicht bei maximierten Details reichen.
Edit: Speicherbedingte Ruckler, sind meist auch nicht in Durchschnitts-FPS und auch nicht in den Perzentilen sichtbar.

Wie gesagt ich kann natürlich verstehen, dass User 8 GB VRAM bevorzugen, aber man muss jetzt keinen so einen Aufstand machen, wenn es Optionen für Käufer gibt, die weniger Geld in das Hobby investieren möchten.
Sind die Karten denn günstiger? Navi ist vergleichsweise teuer, für so einen kleinen Chip!
Kann es sein, dass du einfach nur deine Hardware bzw. deine Entscheidung eine 6GB Karte zu verwenden verteidigst und deswegen anderen Usern, die definitiv was auf dem Kasten haben, wie Atma, auf die Füße trittst?
 
Man darf nicht alle Detail Regler in den gleichen Topf werfen. Den mit Abstand größten Speicherverbrauch haben Texturen und das ist es besonders ärgerlich, wenn man diese optische Aufwertung aufgrund von Speichermangel nicht mitnehmen kann. Alle anderen Optionen gehen ja z.T. deutlich auf die GPU Leistung und ich würde bei so einer kleinen Karte, wie der 5600 XT, eben nicht erwarten, dass sie alle Spiele mit maximalen Details schafft, auch nicht in FHD.


Das ist ja wirklich schön für dich, dass du das nicht bemerkt hast, aber PCGH hat es schon bei Mirrors Edge gemessen und beobachtet, dass 6GB eben nicht bei maximierten Details reichen.
Edit: Speicherbedingte Ruckler, sind meist auch nicht in Durchschnitts-FPS und auch nicht in den Perzentilen sichtbar.

Sind die Karten denn günstiger? Navi ist vergleichsweise teuer, für so einen kleinen Chip!
Kann es sein, dass du einfach nur deine Hardware bzw. deine Entscheidung eine 6GB Karte zu verwenden verteidigst und deswegen anderen Usern, die definitiv was auf dem Kasten haben, wie Atma, auf die Füße trittst?

Mirrors Edge ist ja auch ein furchtbar optimierter Titel auf einer noch älteren Engine. Warum sollte man den als Referenz nehmen? PCGH sind ja nicht die einzigen, die sowas testen und außerdem, wo hast du handfeste Daten bekommen, dass der Speicher zum Problem wird?? Die Speichersimulation von PCGH sagt jedenfalls nicht aus, dass der Unterschied von 6 zu 8 groß ist (außer bei Wolf, das eher fraglich ist wenn man das Image Streaming ne Stufe runtersetzen kann ohne Einfluss auf die Texturqualität). PCGH schreibt zwar von frametimes, Daten dazu sehe ich aber keine! Da vertraue ich doch lieber Digital Foundry, welche mir Video Material geben und einen richtigen Frametime Graphen in Echtzeit angeben. Nichts gegen PCGH, aber mein Vertrauen in den deutschen Technik-Journalismus ist diesbezüglich angeknackst.
Und natürlich wenn es häufig zu Nachladerucklern kommt, macht sich das auch in den min FPS und im Durchschnitt bemerkbar! So wie man es ja auch in Wolfenstein sieht.



Ja, natürlich tue ich das, wenn man hier so rumblökt wegen 6 GB VRAM. Diese Leute hatten wahrscheinlich noch nie eine 6 GB VRAM Karte in der Hand und sabbeln einfach das nach, was sie gehört haben. Fakt ist, GDDR6 Speicher ist teuer und eine Reduzierung kommt dem Kunden preislich zu Gute.

Und bitte wo trete ich jemanden auf die Füße? Atma hat mir in den Mund gelegt, dass ich Titel von 2018 willentlich ignoriere bei Daten wo ich bewusst 2019 Spiele aufgeführt hab,um eben die Gegenwart des VRAM Verbrauchs zu zeigen. Warum muss man da mir vorwerfen, keine 2018 Titel zu nennen? Und dass ich es einfach sein lassen soll...
 
Zuletzt bearbeitet:
Fränkisch für "jetzt".
Ich würde sagen, da PCG und PCGH in Fürth (=Mittelfranken) ansässig ist, ist die Nutzung von Fränkisch im Forum legitim.
:ugly:

Viele Dank!
Das würde auch erklären, warum ich mir hier, seit geraumer Zeit so fremd vorkomme;
Regionalmagazin mit Regionalforum. :P
Naja, in fremde Welten reinschnuppern kann nicht schaden. (?)
 
Komplett Sinnlos ist die RX 5600 XT jetzt nicht. Das kommt auf die Ausgangslage des jeweiligen Kunden an und wenn dann mal der Preis - wie hier mehrfach gesagt - stimmt. Hätte es die Karte nicht gegeben würde niemand drum weinen denke ich. Und, dass sie nur mit 6GB kommt verstehe ich sowieso nicht.
 
Mirrors Edge ist ja auch ein furchtbar optimierter Titel auf einer noch älteren Engine.
Um dein Argument zu unterstützen solltest du erläutern, was dich zu dieser Aussage qualifiziert. Die Frostbyte Engine "furchtbar unoptimiert" zu bezeichnen ist ungewöhnlich.

Warum sollte man den als Referenz nehmen?
Es ist ein Beispiel eine Spiels, welches bei max Details mehr als 6GB VRam benötigt.

PCGH sind ja nicht die einzigen, die sowas testen und außerdem, wo hast du handfeste Daten bekommen, dass der Speicher zum Problem wird??
Aus dem PCGH Test, der müsste auch hier auf der Website zu sehen sein.
Die Speichersimulation von PCGH sagt jedenfalls nicht aus, dass der Unterschied von 6 zu 8 groß ist (außer bei Wolf, das eher fraglich ist wenn man das Image Streaming ne Stufe runtersetzen kann ohne Einfluss auf die Texturqualität). PCGH schreibt zwar von frametimes, Daten dazu sehe ich aber keine! Da vertraue ich doch lieber Digital Foundry, welche mir Video Material geben und einen richtigen Frametime Graphen in Echtzeit angeben.
Ja, kann ich verstehen. Genauere analysen gibt es im Heft - wie immer.


Und natürlich wenn es häufig zu Nachladerucklern kommt, macht sich das auch in den min FPS und im Durchschnitt bemerkbar! So wie man es ja auch in Wolfenstein sieht.
Min. FPS sind nicht gleich der Perzentile. Bei Perzentilen können Stocker schon mal untergehen.


Ja, natürlich tue ich das, wenn man hier so rumblökt wegen 6 GB VRAM. Diese Leute hatten wahrscheinlich noch nie eine 6 GB VRAM Karte in der Hand und sabbeln einfach das nach, was sie gehört haben. Fakt ist, GDDR6 Speicher ist teuer und eine Reduzierung kommt dem Kunden preislich zu Gute.
Dann belege das doch mal? Was kostet die kleine Navi GPU und was kostet der GDDR6 RAM?

Und bitte wo trete ich jemanden auf die Füße? Atma hat mir in den Mund gelegt, dass ich Titel von 2018 willentlich ignoriere bei Daten wo ich bewusst 2019 Spiele aufgeführt hab,um eben die Gegenwart des VRAM Verbrauchs zu zeigen. Warum muss man da mir vorwerfen, keine 2018 Titel zu nennen? Und dass ich es einfach sein lassen soll...
Fakt ist, es ist bereits seit ein paar Jahren von PCGH nachgewiesen, dass Karten mit 6GB Nachteile gegenüber Modellen mit mehr Speicher haben.
 
Um dein Argument zu unterstützen solltest du erläutern, was dich zu dieser Aussage qualifiziert. Die Frostbyte Engine "furchtbar unoptimiert" zu bezeichnen ist ungewöhnlich.

Es ist ein Beispiel eine Spiels, welches bei max Details mehr als 6GB VRam benötigt.

Aus dem PCGH Test, der müsste auch hier auf der Website zu sehen sein.
Ja, kann ich verstehen. Genauere analysen gibt es im Heft - wie immer.


Min. FPS sind nicht gleich der Perzentile. Bei Perzentilen können Stocker schon mal untergehen.


Dann belege das doch mal? Was kostet die kleine Navi GPU und was kostet der GDDR6 RAM?

Fakt ist, es ist bereits seit ein paar Jahren von PCGH nachgewiesen, dass Karten mit 6GB Nachteile gegenüber Modellen mit mehr Speicher haben.

Achso du meinst Catalyst. Das kommt auch in 4K mit Hyper Settings und 6 GB VRAM klar, jedoch nicht mit 4 GB.

08111547219l.jpg
Mirror's Edge: Catalyst PC Performance Review | VRAM Usage | GPU & Displays | OC3D Review

Wie kommst du darauf, dass 6 GB nicht ausreichen?
 
https://www.pcgameshardware.de/Mirrors-Edge-Catalyst-Spiel-55642/Specials/Benchmarks-Test-1197847/
Damit bin ich raus, denn das ganze wird zur Erbsenzählerei. Ja, na klar kann man mit 6GB Karten spielen, aber eben nicht uneingeschränkt.

Danke, das ist in der Tat ein spannender Test. Ist okay wenn du dich ausklinkst, hier nur meine eigenen Gedanken:

Bei 4 GB sieht man ja deutlich in den Vergleichsbilder, dass die Speicherrestriktion die Texturqualität zugunsten der Performance beschränkt, was sich ja auch mit meinem OC3D VRAM Bild deckt (etwas über 4 GB benötigt in hyper details und 1440p) . Wobei ich es schon etwas seltsam finde, dass einige der Texturen dann plötzlich so aussehen, als seien sie dem Nintendo 64 entsprungen, hab ich so auch noch nicht gesehen :D Wurde bestimmt in neueren Versionen der FBE gefixt.

Schade nur, dass es keine Vergleichsbilder mit 6 GB gibt, aber wenn ich den VRAM Verbrauch anhand meines OC3D Belegs vergleiche, so gehe ich davon aus, dass es keine Unterschiede in der Bildqualität zu 8 GB gegeben hätte. Mit Restriktion gibt es auch keine Einbrüche in der Framerate, also alles cool. :cool: Ich würde also nicht behaupten, dass 6 GB VRAM für diesen Titel nicht ausreichen. Aber ja, mit 4 GB und 1440p wirds bei Mirrors Edge knapp, das stimmt absolut.

Natürlich wird der VRAM Verbrauch etwas steigen, in Next Gen Titeln wird man mit 6 GB ohne Zweifel Einschränkungen hinnehmen müssen, aber dann stelle ich halt die Texturen ein bisschen runter, das macht mir nichts aus. Für Leute denen das was ausmachen wird, greifen ja sowieso zu stärkeren GPUs mit mindestens 8 GB VRAM, gerne mehr.
 
Zuletzt bearbeitet:
Zurück