[Usertest] Sapphire Radeon RX 5500 XT Pulse 4GB

AchtBit

Software-Overclocker(in)
Hi zusammen,

ich hab besagte Karte jetzt über eine Woche im PC und kenne inzwischen, ziemlich genau die Schwächen und Stärken, der Gaming Einsteigerkarte.
Da die Karte noch kaum Marktanteile besitzt, war kaum ein Erfahrungsbericht im Inet vorhanden. Bzw. gab es für mich nur einen einzigen Grund warum ich die Karte gewählt hab und nicht "Ene mene Miste" zw. 5500XT und 1650S, entscheiden ließ. Es war der, 16€ günstigere Gesamtpreis, von 160€ inkl. DVI-DP Adapter.

Der Lieferumfang war gleich mal ernüchternd. Karte + Schachtel. Ultra Lite Retail :huh:

Nagut. Soft Power OFF und 'on the fly', altes Brett raus neues Brett rein. 5 min. später Power ON (10-15sek. Bildschirm schwarz) , dann endlich machts 'peep' und ich lande im Bios Setup , mit der Meldung 'Reset Bios to Default'. Na gut, einfach mein gespeichertes Preset geladen und neu gesaved. Jetzt lief alles weitere glatt. Alles in Allem dauerte der Wechsel ca. 15min. und ich konnte gleich mal direkt loslegen.

Nach so 2-3 Stunden konnte ich noch immer keinen Mux von den Lüftern hören. Diverse Monitoring Tools, zeigten mir alle nur 0 U/min. Dann hab ich die Karte erstmal gestresst und im Hintergrund die Lügfterdrehzahlen geloggt. Siehe da, es dreht sich was. Allerdings laufen die Lüfter nur mit max. 35% und sind deshalb nicht hörbar. Zudem bleiben sie schon ein paar Sek. nach verlassen des 3D Modes, wieder stehen. Damit gibts gleich mal den ersten dicken fetten Pluspunkt. Thermal Management und - Design sind perfekt gelöst. :daumen:
Das ich das noch erleben darf. :D

So jetzt gehts zum Hauptgang. Die Leistungsfähigkeit der Karte. Um die Grenzen zu ermitteln, habe ich Render Leistung und Rechen Leistung soweit wie möglich voneinander, getrennt geprüft. Gut geeignet dafür, ist der kostenlose Superposition Bench.

Zuerst sehen wir mal wie optimal der Speicherbus angebunden ist. Bzw. ob die Speicherbandbreite der Leistungsfähigkeit des Renderers genügt. Hierzu brauch ich eigentlich grob nur 2 x benchen.
Einstellung 1: 1080p, Shader low, Texture low , vram 749MB.
Einstellung 2: 1080p, Shader low, Texture high, vram 3140MB.
Fallen beide Ergebnisse gleich aus, dann ist die Speicherbandbreite optimal, für 1080p Auflösungen, ausgelegt.

Superposition_low_shader_749mb.png Superposition_txt_high_3140mb.png

Bingo. AMD hat seine Hausaufgaben gemacht.

So, jetzt testen wir grob, wann die GPU Rechenleistung an ihre Grenzen kommt. Hierzu benche ich 4 x.
Einstellung 1: 1080p, Shader low, Texture low , vram 749MB
Einstellung 2: 1080p, Shader med, Texture low , vram 821MB
Einstellung 3: 1080p, Shader high, Texture low , vram 929MB
Einstellung 4: 1080p, Shader ext, Texture low , vram 931MB
Die Grenze der GPU Rechenleistung ist erreicht, wenn die Framerate anfängt deutlich zu sinken.

Superposition_low_shader_749mb.png Superposition_med_shader_821mb.png Superposition_high_shader_929mb.png Superposition_ext_shader_931mb.png

Tja. Somit sind ist das Limit bereits bei High erreicht. Mit Ext ist die GPU restlos überfordert.

Das Ganze hab ich noch verifiziert, indem ich die beiden letzten Settings, mit Texture high, nochmals geprüft hab.
Einstellung 3: 1080p, Shader high, Texture high , vram 3320MB
Einstellung 4: 1080p, Shader ext, Texture high, vram 3322MB

Superposition_high_preset_3320mb.png Superposition_ext_preset_3322mb.png

Was die Leistung betrifft, komm ich zu einem klarem Ergebnis. Das Verhältnis zw. Renderer und Shading kann ich bestenfalls als, noch ausreichend, einstufen. Ich hätte mir gewünscht, das Rechenlimit wäre nicht schon im High Shader Preset erreicht. Eigentlich schade da gerade die Anforderungen, an die Rechenpower der GPU, immer mehr gewichten.
Unter dem Aspekt, Preis : Leistungs - Verhältnis, betrachtet geb ich mich zufrieden.

Zum Schluss noch 2 Screens mit Informationen über Verbrauch, Temperaturen und Auslastungen ganz allgemein.

Screen 1: Protokoll ein Durchlauf 3DMark Time Spy
Screen 2: Protokoll 4 min Furmark Burn In Test

5min_timescaling.png burn_in_log.png


Fazit:

Pro: Verbrauch, Lautstärke, Kühlerdesign
Neutral: Leistung, Preis
Kontra: Lieferumfang

Greez Acht
 
Zuletzt bearbeitet:
Danke für deinen Beitrag!
Hatte gerad gestern testweise eine 5500XT 8GB Red Dragon im System sitzen.
Magst du mal spaßeshalber den SP im 4K optimized Profil laufen lassen?

edit: bis zu 128W im TimeSpy find ich sportlich bei deiner Sapphire. Kam da hier nur an rund 115W@stock.
Hast ansonsten 150rpm weniger aufm Lüfter als die RedDragon, aber dafür wohl einen um 10°C höheren HotSpot. Okay, war nen offener Benchtable bei dem Test bei mir und mit 85°C bisse ja mein ich auch noch entspannt 20°C unterm ThermolThrottling.
HotS reißt die Karte auf jeden Fall mit 90-140FPS in 4K Ultra :D
Taktmäßig ging die RedDragon stock Richtung 1840-1850MHz, mit AutoOC dann Richtung 1950MHz.
 
Zuletzt bearbeitet:
Hi,

ja, kann ich aber nur mit Custom Presets durchführen, weil mein vram, für hohe Texture Qualität, in 4K Auflösung nicht ausreicht.
Die Optimierung ist aber nichts anderes als, die Shader Qualität in komplexen Szenen automatisch zu drosseln und oder die avg. Framerate durch Framemaximierung zu pushen. Eine Optimierung in diesem Umfang ist, technisch gesehen, nur auf statische Szenen anwendbar.
Tatsächlich dient das nur dazu, den Benchscore, in solchen Auflösungen, zu verbessern bzw. überhaupt eine halbwegs vernünftige
Framerate zu erzielen.

4K Optimierung max (32 Lichtquellen, 350 Pixel Materialien, 3500 Oberflächen 6,5Mio. Triangles):
Shader Qualität im Bench bewegt sich dynamisch zw, ca. 90% Medium und 10% High.

8K Optimierung max (30 Lichtquellen, 250 Pixel Materialien, 2500 Oberflächen, 5Mio. Triangles):
Shader Qualität im Bench bewegt sich dynamisch zw, ca. 80% Low, 15% Medium und 5% High.

Hier beide Einstellungen getestet in 1080p:

Superposition_Benchmark_v1.0_10909_1594430701.png Superposition_Benchmark_v1.0_12067_1594430419.png

Die Einstellung Extreme Shader rechnet mit bis zu 60 Lichtquellen, 700 Pixel Materialien, 6000 Oberflächen, 11.5Mio. Triangles
In der 4K Auflösung würde das auch Karten der Oberklasse ins Schleudern bringen und erst in der 8K Auflösung. Ich hab keine Ahnung aber ich rate,
da ist für Hi End Endstation. Könnte sich ja mal ein "Hi End Multi GPU" User für so einen Test opfern.

Um das Ganze mal zu veranschaulichen, hab ich das Extreme Preset mal mit 720p getestet. Pi mal Damen, sind das 30% weniger Pixel als bei 1080p.

Superposition_Benchmark_v1.0_5272_1594430986.png

Oha. Die Leistung ist ja fast 50% höher.

Im Umkehrschluss, wenn ich die Auflösung quasi verdoppele(1080p auf 4k), dann müsste die Shader Qualität, wie ein Bombeneinschlag, auf die Framerate einwirken. Shader Optimierung bedeutet nichts anderes als, je höher die Auflösung, desto stärker muss die Shader Qualität reduziert werden.

Ich würde gerne mal die SP Ergebnisse sehen welche, mit 4K oder 8K Auflösungen@Extreme Settings, erreicht werden könnten.

Grz Acht
 
Deine superpos. Benches in allen Ehren.... aber wie siehts denn mit der Spieleleistung aus? Oder zockst du nur Benchmarks?
 
Ich hatte einen 4k optimized SP-Bench in nativer 4k-Auflösung gemacht.
Das Ergebnis find ich für eine 200€ Karte passabel.
Anmerkung 2020-07-10 000055.jpg
 
Ähm, nö...eher so über 50% weniger Pixel:

1920 x 1080 = 20730600
1280 x 720 = 921600



Entsprechend der Pixelanzahl passt das auch.



Oder hab ich da einen Denkfehler? :huh:

Um genaue Zahlen gehts doch hier gar nicht. Ich wollte damit nur zeigen, wie stark die Shaderperformance von der Auflösung abhängig ist.


Deine superpos. Benches in allen Ehren.... aber wie siehts denn mit der Spieleleistung aus? Oder zockst du nur Benchmarks?

Das war auch nur ein Usertest, mit dem ich die Rechenleistung und Renderleistung der Karte ermittelt hab. Da gehts nicht um den höchsten Benchscore.

Und ja, ich zock z.Z. Wreckfest, Witcher 3(es will einfach kein Ende nehmen) und Troubleshooter. Alle 2048@1152@Max.
 
Die Performance der GPU ist abhängig von der Auflösung und das hast du jetzt erst bemerkt?
 
Zurück