Mittelerde: Schatten des Krieges im Test- 4-GiByte-Grafikkarten, nehmt euch in Acht! [Benchmark-Liveticker]

Die Performance ist, wenn ich mir die Grafik so ansehe, ja nicht so prickelnd. Ich hatte eine GTX 970 und besitze SoM. Das lief maxed out in FHD völlig problemlos mit 60 FPS Vsync. Hier liefert diese Karte im Minimum 32 FPS ab. Das könnte ich ja irgendwo nachvollziehen, wenn die Grafik so richtig viel besser wäre, als beim ersten Teil. Aber wie hier auch schon geschrieben wurde, finde ich sie eher durchschnittlich.
 
Es ist eben sinnvoll bei Neuanschaffung auf Zukunftssicherheit, statt nur auf reine Leistung zu achten, auf 10606gb/5808GB guck. ;)

Interessant finde ich, dass man eigentlich zwischen mittleren und ultra Details kaum "nennenswerte" in der Spielpraxis relevante Unterschiede sieht, was mich in meine Ansicht das man aktuell nicht unbedingt eine High-End Karte braucht bestärkt. Aber so hat halt jeder seine eigenen Präferenzen. ;)

Die Performance ist, wenn ich mir die Grafik so ansehe, ja nicht so prickelnd. Ich hatte eine GTX 970 und besitze SoM. Das lief maxed out in FHD völlig problemlos mit 60 FPS Vsync. Hier liefert diese Karte im Minimum 32 FPS ab. Das könnte ich ja irgendwo nachvollziehen, wenn die Grafik so richtig viel besser wäre, als beim ersten Teil. Aber wie hier auch schon geschrieben wurde, finde ich sie eher durchschnittlich.
Ist doch klar, die Spiele werden für Konsolen optimiert und für PCs haut man einfach ein paar HW hungrige Effekte oben rauf, die aber nicht nennenswert die Grafik verbessern, dafür aber enorm Leistung kosten.

MfG
 
Ich werde echt noch verrückt mit den Grafikkarten. Jetzt hab ich mir eine GTX 1080 bestellt, weil meine Radeon HD 7950 leider gestorben ist (die hat noch für alles gereicht, selbst BF1 etc konnte ich auf mittleren Details und FHD genießen). Das erste mal, dass ich mir eine Geforce in meinem Leben zulege und jetzt werden allmählich die Vega GPUs brauchbar. Ich gebe zu, ich hatte starke zweifel beim Kauf der GTX 1080, weil sich im Vergleich zu den letzten Generationen einfach keine Innovation zeigt und es eigentlich ein Chip-shrink mit höherem Takt ist. Bin ja mal gespannt ob selbst die Vega 56 die GTX 1080 hier outperformed. Vlt. schicke ich die GTX 1080 wieder zurück und warte doch noch auf die Custom Designs der Vega's. Der Druck war jetzt groß, da die Graka am Montag gestorben ist und jetzt die dunkle Jahreszeit anfängt (brace yourself, winter is coming...).

Selbst wenn die Vega 64 hier und da mal minimal schneller ist, als die GTX1080. So bleibt es bei den über 100W mehr Verbrauch unter Last. Die das ganze System aufheizen ;) und gekühlt werden wollen.

Ich möchte von AMD mal eine Vega 64 Nano mit minimaler Spannung und einer TDP von 150-200W sehen. Die könnte interessant sein.
 
Ich hatte jetzt wirklich erwartet, dass Vega durch HBBC ein Sprung in 4k machen würde, aber da ist ja quasi nichts passiert, obwohl die 8 GB HBM Überlaufen und dann wo die 8 GB reichen, nämlich in Full HD macht die Karte einen Sprung.
 
Wenn ich hier lese ueber 100W Mehrverbrauch der VEGA56/64 ggu Pascal dann ist das generell sicher richtig (hoeherer Verbrauch) nur sind die bei 1900Mhz-2000Mhz operierenden Custom Modelle der 1080 sicher auch keine Verbrauchswunder mehr.
 
Ich hatte jetzt wirklich erwartet, dass Vega durch HBBC ein Sprung in 4k machen würde, aber da ist ja quasi nichts passiert, obwohl die 8 GB HBM Überlaufen und dann wo die 8 GB reichen, nämlich in Full HD macht die Karte einen Sprung.
Das liegt wahrscheinlich eher an der anderen Eigenschaft des HBCC. Der HBCC vergrößert ja zum einen den Grafikspeicher virtuell, zum anderen sortiert/organisiert/lädt der HBCC die Daten im Speicher in, für die GPU optimalen, Pages (Bezogen auf Größe und Reihenfolge der Pages).
Ich würde vermuten, dass Letzteres für großen Sprünge in den kleineren Auflösungen verantwortlich ist. Dazu gab es ja auch im Vega Artikel einen extra Abschnitt zur Arbeitsweise des HBCC ;)
 
Wenn ich hier lese ueber 100W Mehrverbrauch der VEGA56/64 ggu Pascal dann ist das generell sicher richtig (hoeherer Verbrauch) nur sind die bei 1900Mhz-2000Mhz operierenden Custom Modelle der 1080 sicher auch keine Verbrauchswunder mehr.

230 Watt braucht die GTX 1080 Karte um nicht ins Powerlimit zu kommen dann ist sie aber konstant bei 2000Mhz Chiptakt.


man sieht bei den Test in FullHD ist genügend Power vorhanden nur der Speicher reicht nicht, die Speicherlimitierung wird durch HBCC einfach aufgehoben super und die restliche Leistung wird abgerufen.

Gut für AMD diese nette Funktion.
 
230 Watt braucht die GTX 1080 Karte um nicht ins Powerlimit zu kommen dann ist sie aber konstant bei 2000Mhz Chiptakt.


man sieht bei den Test in FullHD ist genügend Power vorhanden nur der Speicher reicht nicht, die Speicherlimitierung wird durch HBCC einfach aufgehoben super und die restliche Leistung wird abgerufen.

Gut für AMD diese nette Funktion.

Der Speicher reicht für Full HD nur eben nicht für 4k und genau da ändert sich nahezu nichts.
 
230 Watt braucht die GTX 1080 Karte um nicht ins Powerlimit zu kommen dann ist sie aber konstant bei 2000Mhz Chiptakt.


man sieht bei den Test in FullHD ist genügend Power vorhanden nur der Speicher reicht nicht, die Speicherlimitierung wird durch HBCC einfach aufgehoben super und die restliche Leistung wird abgerufen.

Gut für AMD diese nette Funktion.

die amd hat trotzdem eine geringere speicherbandweite als meine 1080ti und die hat nur gddr 5. ausserdem braucht ne 1080 auch weniger speicherbandweite als die rx für die gleiche leistung. und warte noch 2 tage dann kommt sicher wieder ein neuer treiber^^ ausserdem braucht die amd 400w+ mit oc und meine ti max 300w
 
Wenn ich hier lese ueber 100W Mehrverbrauch der VEGA56/64 ggu Pascal dann ist das generell sicher richtig (hoeherer Verbrauch) nur sind die bei 1900Mhz-2000Mhz operierenden Custom Modelle der 1080 sicher auch keine Verbrauchswunder mehr.

Also,

im Bench ist die Vega 64 LC auf Augenhöhe, mit einer GTX1080@ ca 2000MHz und bei sagen wir mal 230W. Die Vega 64 LC verbraucht aber übre 100W mehr. Also was passt da nicht?

Zu den Verbrauchswundern, das ist Chipabhängig und zum Beispiel läuft meine GTX1070FE in 4K und max Ausklastung im Schnitt mit 1936MHz (@0,95V), bei max 168W, für die ganze Karte. (Speicher @ 4600MHz)

Hierzu aber gerne per PN, wenn noch bedarf sein sollte.
 
Ich werde echt noch verrückt mit den Grafikkarten. Jetzt hab ich mir eine GTX 1080 bestellt, weil meine Radeon HD 7950 leider gestorben ist (die hat noch für alles gereicht, selbst BF1 etc konnte ich auf mittleren Details und FHD genießen). Das erste mal, dass ich mir eine Geforce in meinem Leben zulege und jetzt werden allmählich die Vega GPUs brauchbar. Ich gebe zu, ich hatte starke zweifel beim Kauf der GTX 1080, weil sich im Vergleich zu den letzten Generationen einfach keine Innovation zeigt und es eigentlich ein Chip-shrink mit höherem Takt ist. Bin ja mal gespannt ob selbst die Vega 56 die GTX 1080 hier outperformed. Vlt. schicke ich die GTX 1080 wieder zurück und warte doch noch auf die Custom Designs der Vega's. Der Druck war jetzt groß, da die Graka am Montag gestorben ist und jetzt die dunkle Jahreszeit anfängt (brace yourself, winter is coming...).

Falls Du Vega zur UVP schießen kannst, solltest Du damit für die nächsten Jahre imho schon sehr gut bedient sein. Wobei das P/L-Verhältnis der 56er nochmal etwas besser ist. Damit
Raijintek Morpheus II Preisvergleich | Geizhals Deutschland
oder damit
Radeon RX Vega Series - Full Cover for AMD(R) Radeon(R) - GPU Blocks - Water Blocks – EK Webshop
bekommt man mit nem FreeSync2-QHD/WQHD-Moni ein richtig gutes rundes Gesamtpaket hin.


ausserdem braucht die amd 400w+ mit oc und meine ti max 300w

PCGH testet Vega imho (leider) nur mit werksseitigen Einstellungen. Mehr als 264 W sind dann selbst für Vega LC nicht drin. Mit Custom States und aufgezogenem Powertarget hast Du freilich recht, dann sind aber auch die Benchmarkwerte nochmal deutlich andere als die, die PCGH hier jetzt hat.
 

Anhänge

  • gpu-power-limit-vega-power-profile-100731707-orig.jpg
    gpu-power-limit-vega-power-profile-100731707-orig.jpg
    57,3 KB · Aufrufe: 63
Zuletzt bearbeitet:
Falls Du Vega zur UVP schießen kannst, solltest Du damit für die nächsten Jahre imho schon sehr gut bedient sein. Wobei das P/L-Verhältnis der 56er nochmal etwas besser ist. Damit
Raijintek Morpheus II Preisvergleich | Geizhals Deutschland
oder damit
Radeon RX Vega Series - Full Cover for AMD(R) Radeon(R) - GPU Blocks - Water Blocks – EK Webshop
bekommt man mit nem FreeSync2-QHD/WQHD-Moni ein richtig gutes rundes Gesamtpaket hin.

Ich halte weder eine 1080 noch eine Vega für eine gute Idee, wie man hier sieht scheint HBCC rein gar nichts zu bringen, wenn der Speicher überläuft, die ti wird sich in Zukunft noch deutlich weiter absetzen, da den anderen Beiden der Speicher schon jetzt in manchen Spielen vollläuft.
 
o.O... mal gucken was ich bei meiner 980TI (ModBIOS unter Wasser) so alles runterschrauben muss um in 1440P zu spielen...
 
Ich halte weder eine 1080 noch eine Vega für eine gute Idee, wie man hier sieht scheint HBCC rein gar nichts zu bringen, wenn der Speicher überläuft, die ti wird sich in Zukunft noch deutlich weiter absetzen, da den anderen Beiden der Speicher schon jetzt in manchen Spielen vollläuft.

HBCC ist imho noch etwas zu unfertig, um sich eine abschließende Meinung bilden zu können. Wenn Geld keine Rolle spielt, ist GP102 aber natürlich momentan ein no brainer ohne Konkurrenz.
 
Ich halte weder eine 1080 noch eine Vega für eine gute Idee, wie man hier sieht scheint HBCC rein gar nichts zu bringen, wenn der Speicher überläuft, die ti wird sich in Zukunft noch deutlich weiter absetzen, da den anderen Beiden der Speicher schon jetzt in manchen Spielen vollläuft.

Du meinst, wenn man in manchen Grafikspeicherfresserspiele alle Details(vor allem Texturdetails) auf Ultra haben will, sollte man von der 1080 und Vega die Finger lassen. Schon der Vorgänger Mordors Schatten hat auf Ultra Texturen 6 GB Grafikspeicher verschluckt. Schaut man sich hingegen BF1, Battlefront 2 oder The Witcher 3 an kann man auch sehen, dass wenn die Texturen gut optimiert worden sind, man mit einer 8 GB Grafikkarte gut gedient ist. Selbst eine 4 GB Grafikkarte reicht in den genannten Beispielen gut aus. Man sollte also nicht immer nur von seinen Ansprüchen ausgehen sondern auch klar differenzieren.
 
@PCGH: Testet ihr auch die Karten mit 6GB Speicher (Zum Beispiel die GTX 980 TI) nochmal unter dem Sehr Hohen Preset oder ähnlichem? Die starke Abweichung zur GTX 1070 ist verwunderlich, wäre also sehr davon angetan, wenn es am Ende nur an der Textur - Auswahl "Ultra" liegt :)
 
Zurück