Radeon RX 5600 (XT): Kommt sie mit 6 oder 8 GiByte? Ein Kilogramm PCGH-Spekulatius zum Fest

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Radeon RX 5600 (XT): Kommt sie mit 6 oder 8 GiByte? Ein Kilogramm PCGH-Spekulatius zum Fest

Die Herdplatten der Gerüchteküche brodeln derzeit heftig bezüglich der Radeon RX 5600 XT. Die neue AMD-Grafikkarte soll bereits im Januar 2020 auf der IT-Messe CES in Las Vegas vorgestellt werden. Aktuelle Gerüchte deuten auf eine Speicherkapazität von 6 GiByte hin, wenngleich 8 GiByte naheliegend und technisch machbar sind. Zeit für eine kleine Gerüchte-Fakten-Gegenüberstellung.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Radeon RX 5600 (XT): Kommt sie mit 6 oder 8 GiByte? Ein Kilogramm PCGH-Spekulatius zum Fest
 
Schön wäre es, wenn es sich mal im "High End" Bereich was tun würde. AMDs Speerspitze liegt einfach zu weit zurück, klar die sind preislich attraktiver, ändert trotzdem nichts an der Tatsache, dass sie abgeschlagen zurück liegen und für Leute die mehr GPU Leistung benötigen, nicht in Frage kommen,
nicht weil da AMD drauf steht, sondern weil die einfach zu schwach sind. Von dem her lässt mich persönlich das Kilo Spekulatius kalt...
 
Die 56 hat aber ein deutlich stärkeres Optimierungspotential soweit ich weiß. Die neuen AMD GPUs sind ab Werk schon näher bzgl des Optimierungspotentials.
Denke der Trend den wir hier sehen, gilt für alle neuen AMD GPUs AMD Navi und Nvidia RTX mit OC, UV und PCIe 4.0 - ComputerBase
Hier bzgl der Vega, kp wie gut die aber optimiert haben: AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test - Hardwareluxx
Man landet mit der Leistungsaufnahme mit der UV 56 auf 2070 non Super Niveau, wenn ich mich nicht täusche und von der Performance her landet man ca auch auf 2070 Niveau, soweit ich das jetzt sehen konnte.
Sprich 56 UV = 2070 stock (non Super, sowohl von der Performance als auch von der Leistungsaufnahme? Kommt das so hin, hab jetzt übergreifend 5-6 Tests vergleichen dazu?
Solange der Treiber demnächst nicht noch einiges stark verschiebt, sehe ich die Vega 56 UV vor 5600XT optimiert.
 
Zuletzt bearbeitet:
Der Spekulatius hat recht gut geschmeckt. ;)

6GB Modelle für die OEMs, und 8GB für Retail ist ein Win-Win-Win für alle Beteiligten.
AMD bekommt die teildefekten Chips gewinnbringend los. Die OEMs bekommen neue Hardware - die evtl. sogar etwas Günstiger sind -, und die Retail-Kunden brauchen sich nicht mit 6GB herumschlagen.
 
Ein i7-2600k von 2011 hat selbst Ende 2019 kein Problem in den meisten Spielen gegen einen Ryzen 3600 anzutreten. Klar, wenn man auf 720p runterstellt wird man einen Unterschied sehen, aber wenn amn eine 1070 oder 2080 reinsteckt, das game auf 1440p oder 4k stellt dann ist da effektivv kaum ein Utnerschied. Zumindest keiner wegen dam man sofort losrennt unf für 500€ eine neue CPU+Board+RAM kauft. Und warum? Weil ein i7-2600k schneller ist als alles was in einer PS4Pro oder Xone so verbaut ist. Weil jeder Entwickler weiß, dass sein Spiel auf diesen Konsolen CPUs laufen muss, hat es die ganze Zeit keinen Sinn gemacht, ob man jetzt einen 6700, 7700, 9700 hat. Man war stets mit der Grafikkarte limitiert.

Auch die Grafikkarte war nie vor dem Problem gestanden, dass ein Entwickler so viel Texturen in sein Spiel gepackt hat, dass die nicht mehr in den Speicher gepasst hätten. Es muss ja alles auf Konsole laufen und die hat nur 8GB. Also eigentlich nur 6 wenn man das Betriebsystem abzieht und dann muss in den Speicher ja auch nicht nur die Textur. Alle unsere heuteigen Denkweisen über den Speicher von Grafikkarten entspingen dem Entwicklungszyklus von Firmen wie Ubisoft. Das Spiel muss auf Konsole laufen also ist es CPU schonend, es muss dort in den Speicher passen, und klar will man den PC Spielern mehr beiten, aber man will es nicht übertreiben und plötzliche ien Texturpaket für Division 2 anbieten, das 32 GB Grafikkartenspeicher braucht.

Nächstes Jahr kommen die neuen Konsolen und dann wird sich alles ändern. Dann werden wir wieder eine neue untere Grenze für CPUs haben. Alles was drüber ist hat wieder gute Chancen so lange wie der i7-2600k zu halten. Auch die Grafik wird dann entsprechend der Speichergröße der Konsole ausfallen. Wenn die Konsole 12 GB für Texturen verballern kann, dann werden die Hersteller 12 GB für Texturen verballern und wer dann eine 6GB oder 8GB Karte hat, der wird wohl mit Medium vorlieb nehmen. Nicht dass das schlecht aussehen wird, aber Hoch und Ultrra werden dann halt entsprechend besser aussehen und 16GB verlangen.

Ich kann nur sagen Finger weg von dem ganzen Müll mit dem AMD und Nvidia derzeit den Markt fluten. Bei der E3 2020 werden Trailer in Spielegrafik auf Euch zurollen die werden nicht mehr in 8GB Karten reinpassen. Die Radeon 7 ist viel gescholten und als Konsumentenkarte nicht das was die Leute wollen. Aber effektivv ist das die Karte für die NextGen Konsolenentwickler mit ungefähr den richtigen Eckdaten. Das Devkit ist ja nicht zum Erstellen des Spiels, das ist zum Zertifizieren. Die Iteration von der R7 und die Entsprechung von Nvidia, das sind die Karten auf die man warten will.
 
Weil jeder Entwickler weiß, dass sein Spiel auf diesen Konsolen CPUs laufen muss, hat es die ganze Zeit keinen Sinn gemacht, ob man jetzt einen 6700, 7700, 9700 hat. Man war stets mit der Grafikkarte limitiert.
Es gibt genug Spiele, in denen auf in 1440p noch die CPU limitiert, Asassins Creed ist hier ein gutes Beispiel, mein 1600X war hier in Städten komplett am Limit und die fps auf 30-35 gedrückt, während meine Vega56 sich gelangweilt hat. Mit dem 3700X sind die FPS bei gleicher GPU direkt mal auf 50-55 gestiegen.
Auch Far Cry New Dawn könnte ich nennen, da hat der 1600X mich oftmals auf 50-60fps eingebremst, mit dem 3700X sind es konstant über 80.
Oder Kingdom Come, vorher 40-60, nachher 60-70.
Oder Starcraft II, wo in einer Replay Testszene im Kampf meine fps mit dem 1600X auf 29 gefallen sind, mit dem 3700X nur noch auf 43.

Und so ein 1600X ist schon etwas stärker als der 2600K, den du anfangs genannt hast.

Was den Vergleich mit den Konsolen angeht: Spiele werden so gut wie immer mit weitaus höherer Qualität entwickelt und dann auf den Konsolen auf niedrigere Einstellungen gesetzt, gerade so dass man die angepeilte fps Schwelle möglichst durchgehend halten kann.
Für die PC Versionen stehen dann aber auch die höheren Einstellungen zur Wahl, wodurch natürlich auch stärkere Hardware nötig ist.
Versuche ein Red Dead Redemption 2 mal auf einem PC mit der Leistung einer PS4Pro auf irgendwas anderem als niedrigen Einstellungen zu spielen. Manche Settings sind auf den Kosnolen sogar noch niedriger, als man sie am PC überhaupt runterziehen kann, weil die CPU einfach zu langsam ist.

Und dann will man als PC Spieler auch meist lieber 60fps statt 30 haben. Der Grund dass viele PS4 Spiele auf der Pro eher bessere Grafik bekommen, als die FPS auf 60 zu heben, ist auch mehr in der schwachen CPU begründet, die GPU der Pro wäre dazu oftmals durchaus in der Lage.


Auch die Grafikkarte war nie vor dem Problem gestanden, dass ein Entwickler so viel Texturen in sein Spiel gepackt hat, dass die nicht mehr in den Speicher gepasst hätten. Es muss ja alles auf Konsole laufen und die hat nur 8GB. Also eigentlich nur 6 wenn man das Betriebsystem abzieht und dann muss in den Speicher ja auch nicht nur die Textur.
Weil die Texturen für die PC-Versionen ja auch immer einfach von den Konsolen übernommen werden....
Gleiches Spiel wie oben, die Texturen werden für die Konsolen einfach runtergedreht, der PC bekommt meist mehr als die Konsolen.
Manche Spiele nehmen einfach die Konsolen Texturen, sehr viele machen das aber nicht.
 
Zuletzt bearbeitet:
Das ist einfach Unfug, dass man mit einer uralten CPU einfach problemlos alles spielen kann... Klar merkt man die Limitierung der CPU nicht so deutlich wir die einer gpu aber dennoch sie ist da und manchmal extremer als man denkt.

Mein i5-2400 hat in Elder scrolls ohne mods 15 FPS mit mods teils Drops auf 5 FPS in Full HD geschafft.
Im normalen Spiel hatte ich nie unter 60 FPS.
In Assassin's Creed cyndicate 60-80 fps Aber dafür aber alle 4 Sekunden eine microfreeze
An Titel wie Total War war irgendwann nicht mehr zu denken. Gerade im Multiplayer nicht mehr.

Und wie teils schon gesagt wurde. Mit einer flotteren CPU hätte man halt bei gleicher Grafikkarte gleich Mal viel mehr FPS.

Ist auch logisch wenn man sich den Zusammenhang aus der Bilderstellung mir CPU und GPU ansieht....
 
Ein i7-2600k von 2011 hat selbst Ende 2019 kein Problem in den meisten Spielen gegen einen Ryzen 3600 anzutreten. Klar, wenn man auf 720p runterstellt wird man einen Unterschied sehen, aber wenn amn eine 1070 oder 2080 reinsteckt, das game auf 1440p oder 4k stellt dann ist da effektivv kaum ein Utnerschied. Zumindest keiner wegen dam man sofort losrennt unf für 500€ eine neue CPU+Board+RAM kauft. Und warum? Weil ein i7-2600k schneller ist als alles was in einer PS4Pro oder Xone so verbaut ist. Weil jeder Entwickler weiß, dass sein Spiel auf diesen Konsolen CPUs laufen muss, hat es die ganze Zeit keinen Sinn gemacht, ob man jetzt einen 6700, 7700, 9700 hat. Man war stets mit der Grafikkarte limitiert.
Sorry, aber da habe ich meine Zweifel. Ich habe Mitte des Jahres meinen i5 2500k in Ruhestand geschickt. In einigen Spielen ging da einfach gar nichts mehr. Mini-Ruckler bei den meisten Open World Spielen, gerade beim schnellen Umschauen oder schnellen Fahren/Fliegen. Bei The Devision 2 auch regelmäßige lange Aussetzer - unspielbar. Dabei habe ich noch nicht einmal die aktuellsten Titel gespielt und auch weit nicht auf hohen Einstellungen (gepaart mit einer GTX 1060).

Nach meinem Umstieg auf Ryzen 3700X konnte ich direkt die Verbesserungen sehen, bei einigen ein Unterschied wie Tag und Nacht - Battlefield 1 brachte einige Dutzend FPS mehr im Mehrspieler. Von anderen Anwendungen wie Entpacken oder Videobearbeitung will ich gar nicht erst reden.

Kann mir nicht vorstellen, dass da ein Intel 2600k mit GTX 1070 oder RTX 2080 noch so super dasteht. Da ist die CPU auf alle Fälle das Bottleneck. Der Trugschluß, dass sich die alten Intel 2XXX noch so super halten, hat spätestens dieses Jahr sein Ende gefunden.
 
8GB wären wirklich wünschenswert, damit wäre die Karte eine klare Empfehlung in dem Bereich.

Jein, der Preis muss noch festgelegt sein, dann kann man über Empfehlungen reden. Per se ist die 5500 XT nicht schlecht, aber zu teuer und daher fällt sie gegenüber der Konkurrenz zurück.

@topic
Klingt plausibel, bin gespannt
 
Ich stelle fest der GPU Markt ist komplett am A-A. Anfang des Jahres wurde heiß diskutiert wegen der Radeon VII und ihren 16 GB Speicher, jetzt Ende des Jahres spricht man nur noch von Karten mit 4, 6 und 8 GB Speicher. Duvar bringt die 56 ein auf dem Niveau einer 5600. Ja sagt mal, wie viele neue GPUs sollen denn noch erscheinen, die von der Leistung nicht über 2017 hinaus kommen.
Seit Pascal gibt es nur eine einzige Karte am Markt die vorwärts gegangen ist und das war die 2080 Ti. Mit einem Preis der im Laden den Verpackungsaufdruck vor lauter Staub nicht mehr erkennen lässt.
Leute, spart euch die ganzen Gammelkarten, wir haben in 2020 besseres verdient. 250€ und die Leistung einer 1080 Ti, von beiden Herstellern, ist angemessen. Was muss man denn noch in dieser Preisklasse von 6 GB sprechen, da wurde bereits 2016 mit der 1060 das Gesicht verzogen.
 
Sorry, aber da habe ich meine Zweifel. Ich habe Mitte des Jahres meinen i5 2500k in Ruhestand geschickt. In einigen Spielen ging da einfach gar nichts mehr. Mini-Ruckler bei den meisten Open World Spielen, gerade beim schnellen Umschauen oder schnellen Fahren/Fliegen. Bei The Devision 2 auch regelmäßige lange Aussetzer - unspielbar. Dabei habe ich noch nicht einmal die aktuellsten Titel gespielt und auch weit nicht auf hohen Einstellungen (gepaart mit einer GTX 1060).

Bei Division 2 kann ich keine Aussetzer feststellen. Auf 1080p lag die CPU Auslastung bei 65%, bei 4k und 75% Scaling lag sie bei 50%. Mit einer Ryzen 2600x hab ich auch nicht mehr Frames aus der 1070 rausgepresst, die CPU Auslastung liegt einfach niedriger. Das Setup aus 2600k und 1070 kommt auf 1440p auf 60fps im Schnitt, mehr kann mein Monitor auch nicht. Details steht fast alles auf höchster Stufe außer Antialiasing. Microruckler wären mir wie gesagt nicht aufgefallen.

Am ehesten hab ich den Unterschied bei Borderlands 3 auf 1440p gemerkt. Da holt man mit dem 2600k 68fps aus einer 1070 und mit dem Ryzen 2600x waren es 79 fps. Das Spiel zeigt sehr schön an wie lange die CPU zum Berechnen der Frames braucht. Aber selbst dann, wegen 78 gegenüber 68fps renn ich jetzt nicht los und tauschen Mainboard CPU und RAM aus. Das steht in keinem Verhältnis.

Es sind natürlich auch zwei Spiele die auch fähig sind auf alle 8 Kerne zu verteilen.

2600k mit 2080 hab ich nicht getestet, das war selbst mir zu doof. Ich wollte eher wissen, wie viel bei dem Setup 2600k und 1070 auf der Strecke bleibt. Mir sind diese Benchmarks bekannt die immer lowest 10% und lowest 1% auflisten um zu zeigen, dass die neue CPU sich doch lohnt, aber ehrlich gesagt merk ich bei den Spielen die ich zocke das nicht und halte das eher für Marketing der verzweifelten Sorte als etwas anderes. Mit sauberer Programmierung sollte das eh verschwinden, weil solche Unebenheiten eher ein Hinweis darauf sind, dass irgendwo eine Chache Größe zu klein ist und plötzlich nicht mehr in einem Zyklus geschaufelt werden kann.
 
Mit nem 4 Kerner möchte ich heute nicht mehr zocken, bei aller liebe nicht und schon gar nicht mit dem ur alten 2600k :hmm:.
 
Die 56 hat aber ein deutlich stärkeres Optimierungspotential soweit ich weiß. Die neuen AMD GPUs sind ab Werk schon näher bzgl des Optimierungspotentials.
Denke der Trend den wir hier sehen, gilt für alle neuen AMD GPUs AMD Navi und Nvidia RTX mit OC, UV und PCIe 4.0 - ComputerBase
Hier bzgl der Vega, kp wie gut die aber optimiert haben: AMD Radeon RX Vega 56 und Vega 64 im Undervolting-Test - Hardwareluxx
Man landet mit der Leistungsaufnahme mit der UV 56 auf 2070 non Super Niveau, wenn ich mich nicht täusche und von der Performance her landet man ca auch auf 2070 Niveau, soweit ich das jetzt sehen konnte.
Sprich 56 UV = 2070 stock (non Super, sowohl von der Performance als auch von der Leistungsaufnahme? Kommt das so hin, hab jetzt übergreifend 5-6 Tests vergleichen dazu?
Solange der Treiber demnächst nicht noch einiges stark verschiebt, sehe ich die Vega 56 UV vor 5600XT optimiert.

Das mag schon alles stimmen, ABER V56 wird verschwinden. Wie jede alte Hardware, deren Zeitspanne nun mal vorbei geht.
Und meiner Meinung nach, sind die wenigstens bereit oder trauen sich an so Spielereien bis eine Karte so gut läuft wie eine optimierte V56. Das muss out-of-the-box schon wesentlich besser sein. Ich habe auch eine RX580 und weiß wie nervig das sein kann UV/OC permanent zu testen bis das Ding endlich mal einigermaßen ruhig und angemessen läuft. Und der liebe Wattman zickt auch manchmal, da ganze permanent zu übernehmen. Aber im Standard ist es mehr als nur ein Graus...zu laut und zu heiß und zu kompliziert.
Und mit der RX5600XT oder auch RX5500 ist der Stromverbrauch endlich mal so niedrig dass man eine Karte bekommt ohne sich mit Basteln und UV etc beschäftigen MUSS, und man damit einfach nur zocken kann.
Es muss unkompliziert sein, sonst kauft die breite Masse einfach nicht.
 
Zurück