• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

[Lesertest] AMD RX Vega 64 LC CrossFire

Ralle@

BIOS-Overclocker(in)
Vorwort

Da ich günstig an eine weitere Vega 64 LC gekommen bin und es sehr wenig im Netz zum Thema Multi GPU und Vega gibt, dachte ich testest mal selbst.
Dabei waren Freud & Leid eng beieinander und ich wollte nicht nur 1x aufgeben, aber dazu später im Test mehr. Nun möchte ich euch meine Ergebnisse & Eindrücke nicht vorenthalten.
Passend zu meinen Eindrücken, habe ich mal ein Bild geschossen und meiner Stimmung angepasst.



Mit der Vorstellung der RX Vega Serie hat sich AMD auch über Multi GPU Thematik und deren Zukunft ausgelassen.
Für Heimanwender und Gamer ist nur mehr eine Verdopplung der Leistung möglich, Quad CrossFire wurde gestrichen (meiner Meinung hat es eh nicht wirklich existiert). Also können wir Gamer nur mehr 2 dieser Monster effektiv nutzen, die EU kann aufatmen und Schritt für Schritt die AKW´s abrüsten (kleiner Spaß am Rande) oder doch nicht?
Nun, ganz verschwinden wird CrossFire nicht, denn DX12 bzw. Vulkan machen es möglich mehr als 2 Grafikkarten anzusprechen. Wir dürfen also gespannt sein was in Zukunft so alles auf uns zu kommt.


Testsystem

CPU: I7 7820X @ 4,4 GHZ
CPU Kühlung: NZXT Kraken X62
RAM: 4 x 8GB DDR4 3466 CL 15
Mainboard: MSI X299 Gaming M7 ACK
Grafikakrten: XFX RX Vega 64 LC, Sapphire RX Vega 64 LC
Netzteil: Lepa Max Gold 800W
Gehäuse: Fractal Design R5 Black
Lüfter: 3x Be Quiet Silent Wing 3 140mm
SSD: 2x Samsung 850 500 GB, 2x Samsung 960 pro 512 GB
Display: AOC AG3222QCX, Dell Ultra Sharp UP2718Q


Windows 10, alles Games und sämtliche Treiber sind auf den aktuellsten Stand.

Anmerkung

Es war gar nicht so leicht CrossFire zu aktivieren. Also nichts mit 2 Karte rein, Treiber initialisieren und fertig.
Nein, weit gefehlt. CrossFire war zwar aktiv doch sobald eine 3D Anwendung lief, war CrossFire deaktiviert. Ich habe lange nach der Ursache geforscht, habe eine neue SSD genommen mit einem frischen Win 10, Bios Reset beim Mainboard, Bios Update beim Mainboard, statt Display Port ein HDMI Kabel genommen. Meine M2 SSD´s entfernt, es half alles nichts. Erst bis ich die beiden Karten getauscht habe, blieb CrossFire auch im 3D Betrieb aktiv. Soll heißen die Sapphire Karte will unbedingt den 1. PCIe Slot haben, keine Ahnung warum. Bios ist auf beiden Karten gleich, aber das ganze hat mich fast einen Tag gekostet.


Testmethode

Alle Games wurden von mir in der höchstmöglichen Detailstufe getestet.
Jeweils mit meinem eigenen 1440p Monitor und dann mit den 2160p den ich mir für den Test ausgeliehen habe.
Zum Thema CrossFire. Ich habe versucht CrossFire wenn es nicht auf Anhieb funktioniert hat, durch Tricks zum laufen zu bringen (der Treiber bietet paar Spielereien an).


Taktraten der Grafikkarten

Da die Karten ja über einen Boost verfügen, ist es nicht so einfach die Taktraten anzugleichen. Im Radeon Treiber sind jeweils 2 Wattman Reiter vorhanden (eh klar, für jede Karte 1 Reiter). Doch es war mir nicht möglich die Karten zu bewegen sich annähernd gleich zu takten. Also habe einige Tools durchprobiert, am ende bin ich beim MSI Afterburner hängen geblieben. Ist zwar nicht ganz so optimal aber dieses Tool bietet mir die Möglichkeit die Eingestellten Taktraten zu synchronisieren, somit takten beide Karten gleich. Da ich "nur" ein 800W Netzteil habe, habe ich beschlossen beide Karten zu optimieren und nur so zu testen (ich nutze die Karten auch nur so). Aus Spaß habe ich mal im Wattman auf Turbo gestellt und dann Witcher 3 in 4K gestartet mit dem Ergebnis dass das NT abgeschalten hat. Ich konnte kurz am Voltcraft 3000 1026W ablesen bevor das NT abgeschalten hat.
Beide Karten liefen bei jeder Anwendung sofern CrossFire funktioniert mit 1700 MHZ GPU Takt bei 1,075 Volt und 1050 MHZ HBM2 Takt bei 0,950 Volt.
Aber genug, wir wollen ja schließlich Benchmarks sehen!


3D Mark Time Spy



Beim Time Spy hätten die beiden Karten mehr gekonnt, da limitiert meine CPU. Selbst im Extrem Test limitiert meine CPU noch etwas.
Schon heftig wie viel CPU Power solch Grafikkarten benötigen. Ansonsten zeigten sich keine Auffälligkeiten, aber gut ist ja auch nur ein Benchmark.


Unigine Superposition



Hier zeigte sich zum ersten mal dass Multi GPU doch nicht so Plug and Play ist, dann der Benchmark lief immer nur mit einer Karte. Also etwas rum probiert im Treiber und nach einigen Versuchen die Lösung gefunden.
Im Treiber muss Frame Pacing deaktiviert sein und im CrossFire Modus Optimize 1x1 stehen, dann greift CrossFire und bringt auch die beste Leistung. Ist schon mal nicht schlecht was AMD da im Treiber so alles anbietet falls CrossFire mal nicht funktioniert.
Aber Benchmarks sind eines, Games was völlig anderes.


Battlefiled 1



Den Test habe ich im Multiplayer auf der Map Monte Grappa mit 64 Playern gemacht. Damit die CPU und die Karten etwas zu tun bekommen.
Mir ist aufgefallen das DX12 smoother läuft, auch lädt das Game etwas schneller wenn es auf DX12 gestellt wurde. Das ich hier keine Min FPS mit anzeigen lasse möge man mir verzeihen, es wäre sonst zu unübersichtlich geworden.


Deus Ex Mankind Divided DX12



Eigentlich wollte ich nur den internen Benchmark laufen lassen.
Doch es zeigte sich dass es immer wieder zu Slow Downs kommt. Also meinen Spielstand gestartet und siehe da, es läuft. Da habe ich mal drauf losgespielt und beim spielen zeigte sich nichts auffälliges. Eine Lösung für die Slow Downs beim Benchmark habe ich bis heute nicht gefunden, eventuell ein BUG in Verbindung mit Multi GPU.


Doom 2016




Das einzige Game im Testfeld welches Vulkan unterstützt.
Wie unschwer zu erkennen ist, die Skalierung ist nicht berauschend. Damit könnte ich noch leben, doch die Frametimes schwanken (von 14 auf 45 und wieder zurück). Da hilft nicht mal Freesync bzw. ein FPS Limit, die schwankenden Frametimes bleiben und es macht einfach keinen Spaß. Bei dem Game kann man getrost auf CrossFire verzichten, denn mit einer GPU macht es Spaß. Das Aiming ist wieder schön knackig, die Bewegungen wieder schnell und nichts ruckelt bzw. laggt. Ich schreibe deswegen so negativ über CrossFire bei Doom, da die angezeigten FPS was ganz anderes suggerieren.


Forza 7



Wie unschwer zu erkennen ist, Forza 7 macht nur wenig Gebrauch von Multi GPU.
Es ist einfach CPU limitierend und erst bei 2160p skaliert CrossFire etwas aber selbst da drehen beide Karten mit etwa 40 - 50% Auslastung Däumchen und langweilen sich. Dafür sind die Framtimes super, diese liegen zwischen 12 - 15ms.


Rise of the Tomb Raider



Die gute Lara darf bei den DX12 Games natürlich nicht fehlen.
Die Skalierung ist ordentlich, CrossFire funktioniert hier einfach super. Die Lara reagiert so als würde man mit einer GPU zocken, was auch die Frametime zeigen die sich stehts zwischen 13 - 16ms bewegen. Hier scheint man sehr gut optimiert zu haben.

Zu guter letzt kommen noch ein paar DX11 Games, wer es also bis hier her geschafft hat, die hälfte habt ihr schon
;)


Anno 2205



Wie man sieht, Anno ist kein Spiel was mit CrossFire wirklich möchte. Bei 4K und etwa 3 Mio. Einwohnern kommt die CPU einfach nicht mehr nach und man hat üble Slow Downs im Multi GPU Betrieb. Das merkt man auch an den Frametimes die von 15 - 56 schwanken.
Gut, für Anno reicht aber auch eine Karte, weshalb ich auf Multi GPU verzichten würde. Es macht mit einer Single GPU einfach mehr Spaß den Bewohnern beim wuseln zu zusehen.


Far Cry 5



Im Gegensatz zu Anno freuen sich die Bewohner von Hope Country über den Einsatz von 2 Grafikkarten.
Es macht auch tierisch Spaß die Sektenanhänger mit den beiden Vegas zu jagen, auch die Frametimes passen ganz gut und bewegen sich immer um die 11 - 15ms.


Tom Clancy´s Ghost Recon Wildlands




Wildlands hinterlässt bei mir gemischte Gefühle.
Bei Sonnenschein macht es Spaß mit CrossFire, die Frametimes könnten mit 16 - 21ms zwar besser sein aber es fühlt sich gut an. Das ändert sich sobald es zu Regnen anfängt, denn dann hat man plötzlich üble Aussetzer nach oben. Das Tritt aber nur bei CrossFire auf, ich habe alles probiert aber entweder es liegt an meiner Konfiguration oder am Game. Treiber habe ich die letzten 3 durchprobiert, immer mit den selben Ergebnis.


GTA 5



Ach ja GTA 5
Was soll ich sagen, es läuft und macht fun. Einfach in der Gegend rum fahren und Chaos verbreiten, perfekt um abzuschalten. Hier zeigt sich auch CrossFire von seiner besseren Seite. Die Frametimes bleiben auch bei 14 - 20ms, also alles in Butter.


Mass Effect Andromeda



Die liebe Sara Ryder hat es auch nicht leicht.
Erst verpasst man ihr und ihren Bruder schrecklich aussehende Animationen die erst durch einen Patch nachgebessert werden, dann muss sich mit CrossFire rumschlagen. Denn 4K und CrossFire mag das Game nicht so, beim erkunden von Planeten ist noch alles OK aber sobald was los ist (und Mass Effect ist ja ein Action Game) dann brechen die FPS gern mal ein. Ich denke das könnte man noch weg patchen aber da wird von EA nichts mehr kommen. Egal, zur Sicherheit habe ich es mal AMD gemeldet, eventuell ein Treiber BUG.


Metro Last Light Redux



Die gute alte Metro kann auch noch heute GPUs fordern.
Zudem skaliert die Engine ordentlich mit CrossFire und Frametimes sind mit 11 - 14ms super. Da freut sich nicht nur der liebe Artyom, sondern auch der der vor dem Bildschirm sitzt.


Watch Dogs 2



Watch Dogs 2 verhält sich ähnlich wie Mass Effect Andromeda.
Beim Erkunden von San Francisco ist noch alles gut, das ändert sich sobald man Chaos veranstaltet. Es wird zwar etwas besser wenn man den CrossFire Modus auf AFR Friendly ändert, dann schleichen sich allerdings Bildfehler ein. So oder so, bei 4K macht es keinen Spaß.


Witcher 3



Last but not least.
Der Monster tötende, Frauen schlagende und fremdgehende Geralt darf natürlich nicht fehlen. Witcher 3 ist ein Meisterwerk, welches für mich die Messlatte kommender RPG sehr hoch gesetzt hat. Und es skaliert schön mit CrossFire. Was will der Gamer noch mehr? Vielleicht mehr Quests oder ein neues DLC bitte!?


Stromverbrauch



Natürlich darf eine Messung des Verbrauchs nicht fehlen.
Wie unschwer zu erkennen ist, mit einen 800W NT ist man da schon am Limit. Aber eines nach dem anderen.

Out of the Box: Bedeutet bei meinen Karten dass sie im Balanced Mode eingestellt sind. Der Takt schwankt dann zwischen 1620 - 1655 hin und her.

Power Safe: Hier wird der Takt auf Maximal 1600 eingestellt, meist 1580.

Turbo: Tja, das schaffte mein Netzteil nur ganz kurz, ich konnte wie schon mal erwähnt noch 1026 Watt ablesen und schon war der Rechner aus. Getestet wurde mit Witcher 3 auf 2160p. Laut Anzeige lagen kurz Taktraten von etwas über 1700 MHZ auf beiden an, allerdings mit 1,25 Volt.

Optimiert: Bedeutet ich habe mittels des MSI Afterburner die Karten auf 1700 MHZ GPU bei 1,075 Volt, 1050 MHZ HBM2 bei 0,950 Volt eingestellt.


Undervolten

Wenn wir schon beim Thema undervolten sind.
Das ist gar nicht so einfach mit 2 Karten. Ich nutze sonst immer das OverdriveNTool, das mag aber nicht unbedingt mit 2 Karten.
Also bin ich auf den Afterburner ausgewichen und habe dabei festgestellt dass wenn ich die Karten oder Karte undervolte sich nicht nur die Volt unter Last, sondern auch die Volt unter Idle ändert. Denn aktuell liegen im Idle bei 0,630 Volt an und alles unter 0,6 Volt mag dann nicht mehr so richtig. Heißt also, wer über den Afterburner undervoltet, ändert also alle P-States der Karte. Bei meinen beiden Karten bin ich bei -125 mv gelandet, ab -133 mv wird die Karte / Karten instabil.


Fazit

Es ist soweit, alles hat mal ein Ende, auch dieser Test (man glaubt es kaum :D)
Ich habe lange überlegt, ich will natürlich so objektiv wie möglich bleiben. Wenn mich einer fragen würde, ob ich CrossFire empfehle. Meine Antwort wäre Nein.
Es ist einfach kein Plug and Play, es fehlt die Generelle Unterstützung seitens der Spiel Industrie. Klar, mir macht es Spaß am PC zu basteln, aber ich bzw. wir hier im Forum sind da die Ausnahme. Der "normale" Gamer will einfach zocken und das geht eben nicht so ohne weiters, entweder man wartet auf einen Treiber oder Patch, muss im Treiber etwas tricksen um CrossFire zum laufen zu bringen und mit Bildfehlern oder Laggs leben. Wenn es funktioniert, dann ist es super keine Frage aber das ist nicht immer der Fall.
Deswegen, für Nerds ja, für alle anderen nein.

Ich bedanke mich fürs lesen bzw. durchhalten.
Ich habe versucht den Test nicht ganz so ernst zu gestalten und hoffe ihr habt Spaß beim Lesen und freue mich schon auf eure Kommentare.​
 

Anhänge

  • img_6970x8in9.jpg
    img_6970x8in9.jpg
    900,6 KB · Aufrufe: 6.173
  • 3D Mark Time Spy.jpg
    3D Mark Time Spy.jpg
    74,7 KB · Aufrufe: 5.996
  • uniginesuperpositionydio8.jpg
    uniginesuperpositionydio8.jpg
    70,7 KB · Aufrufe: 5.892
  • bf14se6m.jpg
    bf14se6m.jpg
    82,4 KB · Aufrufe: 5.929
  • deusexmankindqsfkv.jpg
    deusexmankindqsfkv.jpg
    67 KB · Aufrufe: 5.793
  • doomvulkan51fe6.jpg
    doomvulkan51fe6.jpg
    73,8 KB · Aufrufe: 5.780
  • forza7mvfw2.jpg
    forza7mvfw2.jpg
    69,7 KB · Aufrufe: 5.756
  • riseofthetombraider8linv.jpg
    riseofthetombraider8linv.jpg
    69,5 KB · Aufrufe: 5.776
  • anno2205sdcr6.jpg
    anno2205sdcr6.jpg
    68,1 KB · Aufrufe: 5.710
  • farcry5k2ihu.jpg
    farcry5k2ihu.jpg
    67,8 KB · Aufrufe: 5.689
  • ghostreconwildlands38iog.jpg
    ghostreconwildlands38iog.jpg
    69,2 KB · Aufrufe: 5.632
  • gta5s6i7m.jpg
    gta5s6i7m.jpg
    68,6 KB · Aufrufe: 5.630
  • masseffectandromeda7gise.jpg
    masseffectandromeda7gise.jpg
    66,9 KB · Aufrufe: 5.619
  • metrolastlightredux8ldg6.jpg
    metrolastlightredux8ldg6.jpg
    67,4 KB · Aufrufe: 5.574
  • watchdogs2ldehn.jpg
    watchdogs2ldehn.jpg
    71,4 KB · Aufrufe: 5.574
  • witcher34fek4.jpg
    witcher34fek4.jpg
    69,4 KB · Aufrufe: 5.528
  • verbrauchb6e9u.jpg
    verbrauchb6e9u.jpg
    72 KB · Aufrufe: 5.535

Gurdi

Kokü-Junkie (m/w)
Wow. Super Arbeit!Respekt für dein Durchhaltevermögen.
Sehr aufschlussreiche Ergebnisse. Wies aussieht ist Crossfire partiell durchaus zu gebrauchen.
 

Duvar

Kokü-Junkie (m/w)
Danke für deine Mühe. Hat Spaß gemacht zu lesen. Von mir gibt es die Note 1+ mit Sternchen.
 
TE
Ralle@

Ralle@

BIOS-Overclocker(in)
Danke fürs Lob.
Mir hat es auch Spaß gemacht mit den beiden Karten und bis auf weiteres bleiben die auch noch drinnen. Mal sehen was die Zukunft so bringt.
 

RtZk

Lötkolbengott/-göttin
Super Test :daumen: !
Darf man fragen wo du in Wildland getestet hast? , denn mir kommen die FPS der Single GPU ziemlich hoch vor.
 

Eol_Ruin

Lötkolbengott/-göttin
Super Test! Vor allem weil sehr umfangreich und mir gutem Fazit :)

CF (wahrscheinlich genauso wie SLI) ist für Nerds zum dran "Rumspielen" spaßig.
Aber ich persönlich würde auch die Zeit lieber "Ingame" verbringen ;)
 
TE
Ralle@

Ralle@

BIOS-Overclocker(in)
Danke :daumen:


@RtZk
Klar darfst du. Mein Startpunkt war Maco in Villa Verde und ich bin dann im Tiefflug nach Villa Verde geflogen.


@Eol_Ruin
Meistens geht es mir nicht viel anders, nur ab und an packt mich das bastel Fieber und ich könnte wieder eine Woche alles erdenkliche durchtesten.
 

Eol_Ruin

Lötkolbengott/-göttin
Meistens geht es mir nicht viel anders, nur ab und an packt mich das bastel Fieber und ich könnte wieder eine Woche alles erdenkliche durchtesten.

Ich war früher genauso ;)
Aber seitdem ich die 40 geknackt habe (auch schon etwas her) bastel ich (leider) seltener.

Oh mann! Sehne ich mich an die gute alte Celeron 300A@450Mhz Zeiten zurück ;)
 
TE
Ralle@

Ralle@

BIOS-Overclocker(in)
Mein erster war ein Pentium II 266 MHZ.
Man ist das schon lange her. Heute kann sich das keiner mehr vorstellen, eine CPU mit 266 MHZ.
 

EyRaptor

BIOS-Overclocker(in)
Danke für den super Test Ralle.

Die Ergebnisse sind besser als ich erwartet hätte.
Witcher 3 hatte ich auch mal im Crossfire laufen, allerdings war das Spielgefühl dabei eher schlecht.
Lag evtl. auch an der eher schlechten Konstellation aus einer r9 390x und einer r9 290 mit 4GB GDDR5 :ugly:.
 

HisN

Kokü-Junkie (m/w)
Bei SLI ist es mit Deus Ex das gleiche.
Der Benchmark läuft scheinbar in der Mitte EXTREM CPU-Limitiert.
Man schaue sich die Auslastung der beiden Grakas an (und nein, da ist kein vsync aktiviert, es ist nur zufällig in der Nähe).

dxmd_2017_02_10_10_120guqq.jpg

Naja, an der Stelle kann man wohl froh sein, dass es überhaupt unter DX12 läuft. Ist ja auch nicht "Standard".
 
TE
Ralle@

Ralle@

BIOS-Overclocker(in)
@EyRaptor

Danke für Lob.
Ja, ich schon so manch schlechtes über CrossFire und Witcher 3 gelesen.
Ich kann da allerdings nichts negatives berichten, aber auch nur weil ich keinen Vergleich habe. Im Netz liest man ja dass es Bildfehler geben soll aber das bezieht sich auf die älteren 290 / 390 und Fury Karten. Sonst findet man sehr wenig, gut Multi GPU interessiert einfach nur sehr wenige.

@HisN

Interessant, dann ist es gar kein BUG wie ich vermutet habe, sondern schlicht ein CPU Limit.
Aufgefallen ist es mir zwar dass die Last teils extrem sinkt, ich hätte aber nicht mit so einen extremen CPU Limit gerechnet, in 2160p schon gar nicht.
 

RtZk

Lötkolbengott/-göttin
@RtZk
Klar darfst du. Mein Startpunkt war Maco in Villa Verde und ich bin dann im Tiefflug nach Villa Verde geflogen.

Ich habe das ganze mal mit meiner Ti probiert, auf 2ghz Core Takt und 1467mhz Speicher Takt übertaktet, und komme gerade mal auf 33 FPS im Durchschnitt, wenn wirklich alles auf Max ist. Mich würde es sehr wundern, wenn du mit einer Vega 2 FPS mehr hättest, hast du auch wirklich alles auf Max, sprich alle Nebeneffekt und AA auch auf der höchsten Stufe?
Weil anhand der Benchmarks die man im Internet findet kommt ein Vorsprung der Vega niemals hin.
 

RtZk

Lötkolbengott/-göttin
Ich kann es später wenn ich wieder zu Hause bin gern noch mal testen.

Beziehungsweise, du hast ja selbst eine 1080 Ti, vielleicht lag es auch daran, dass wir nicht die exakt gleiche Route verwendet haben, wenn es möglich wäre, könntest du es dann mit der Ti und der Vega bei dir noch mal testen?
 

Cleriker

PCGH-Community-Veteran(in)
Hey Ralle@

Sehr schöner Test. Du schreibst dass du normalerweise das OverdriveNtool nutzt. War denn mit dem Wattman nichts machbar?
 
TE
Ralle@

Ralle@

BIOS-Overclocker(in)
Beziehungsweise, du hast ja selbst eine 1080 Ti, vielleicht lag es auch daran, dass wir nicht die exakt gleiche Route verwendet haben, wenn es möglich wäre, könntest du es dann mit der Ti und der Vega bei dir noch mal testen?

So, ich habe es 2x mit der Vega getestet (alle Einstellungen auch im Treiber gecheckt) und das Ergebnis stimmt, schwankt immer so um 1 FPS.
Mit meiner 1080 TI @ 2 GHZ GPU und 6000 VRAM habe ich 7 FPS mehr. Scheint also alles in Ordnung zu sein. Wenn ich im AMD Treiber Tessellation ausschalte kann ich mit meiner TI sogar gleich ziehen. Hätte mich auch gewundert, Wildlands ist ein Nvidia Titel, da komm ich mit meiner Vega nicht in die nähe einer TI.


@Cleriker

Wattman ist da sehr eigenwillig mit 2 Karten.
Das Undervolting wurde für die 2. Karte nicht immer zuverlässig übernommen, deswegen bin ich auf den Afterburner ausgewichen. Da einfach den Volt Regler soweit nach Links ziehen bis die Karte instabil wird und dann wieder 2 Schritte nach rechts. 1x eingestellt und wird immer übernommen.
 
Zuletzt bearbeitet:

Cleriker

PCGH-Community-Veteran(in)
Danke für die Antwort. Mir ist übrigens noch was eingefallen. Du schreibst im Test, dass du die Karten tauschen musstest, da die Sapphire unbedingt im ersten Slot sitzen wollte. So ähnlich war es auch schon bei Tahiti (teilweise) und Fiji. Beide Karten drin, CF eingestellt, im Spiel keine Änderung. Eine Karte wieder raus, rein, nochmal eingestellt, läuft. Das habe ich mit mehreren Modellen ausprobiert. Es galt immer: Erste Karte rein, treiber installieren. Zweite Karte rein, Treiber nochmal installieren und CF einstellen. Dann schauen obs läuft. Wenn nicht, untere Karte wieder raus, wieder rein und erneut CF einstellen. Dann lief es immer. Meiner Erfahrung nach war das aber nur dann so, wenn es unterschiedliche Hersteller waren, sicher bin ich mir da aber nicht. Ich weiß nur, dass mir drei 7970 von Asus, nicht ein einziges mal so ein Problem auftrat. Eine von Sapphire dabei und schon gings los. Ausgetauscht gegen eine MSI, selbiges. ALso ich denke es lag an den unterschiedlichen Boardpartnern.
 

Eol_Ruin

Lötkolbengott/-göttin
Mein erster war ein Pentium II 266 MHZ.
Man ist das schon lange her. Heute kann sich das keiner mehr vorstellen, eine CPU mit 266 MHZ.

Ich sage nur Intel XT 8086 mit 10Mhz ;)
Nach meinem Atari 800XL und Commodore C64 natürlich ;)

PS:
Der C64 war natürlich ubertaktet von 0,98 auf 1,0irgendwas (NTSC Modus - natürlich dann auf einem alten Pal-TV ohne Bildausgabe ;))
 
Zuletzt bearbeitet:

Derber-Shit

Software-Overclocker(in)
Hallo Ralle@,

danke für diesen schönen und ausführlichen Test. Mich würde interessieren, ob du bei den Games viel in Radeon Settings an den Crossfire-Einstellungen tüfteln musstest oder ob es bei den meisten Games quasi ootb lief - abgesehen von deiner merkwürdigen Erfahrung, dass eine "bestimmte" Karte in Slot 1 stecken will... :ugly:

Mir macht es Mut, dass man mit Willen auch schafft, CF aufblühen zu lassen. :)
Neue API's in Kombination mit den Engines der kommenden Generation stimmen mich für die Zukunft vorsichtig positiv für Multi-GPU.
Ich selbst bin Besitz von zwei Radeon R9 Fury X in CF und habe aufgrund deines Testes Lust, wieder mehr daran zu basteln. :daumen:


Liebe Grüße

Derber-Shit
 
Zuletzt bearbeitet:
TE
Ralle@

Ralle@

BIOS-Overclocker(in)
@Cleriker

Scheint also ein älteres Prblem zu sein.
Wobei die LC das gleiche BIOS haben und als Vendor AMD/ATI eingetragen ist. Beim nächsten Treiber Update werde ich deinen Tipp mal testen.


@Derber-Shit

Danke und viel Spaß beim basteln.
Viel tüfteln musste ich nicht. Der Superposition Benchmark wollte nicht, da musste ich tricksen, bei Doom habe ich alles probiert aber keine Lösung gefunden und bei Watch Dogs 2 habe ich was geändert.
Ansonsten liefen alle Games mit den Treiber Standards.
 

Cleriker

PCGH-Community-Veteran(in)
Bei doom kommt ja noch eine ältere Version von Vulkan zum Einsatz. Soweit ich weiß beherrscht aber erst die aktuelle Version auch Multi GPU, beziehungsweise bietet den Support dafür.

Gesendet von meinem HTC mit Tapatalk
 
TE
Ralle@

Ralle@

BIOS-Overclocker(in)
Leider kenne ich keine Anwendung wo eine neuere Version von Vulkan zum Einsatz kommt.
Zumindest noch nicht.
 

Mia-Grace-Miller

PC-Selbstbauer(in)
Super Test - danke schön. Ich bin jetzt stolze Besitzerin einer RX Vega 56 Red Dragon und kann mit OC + UV +HBM2 OC Battlefield 1 Multiplayer auf Custom Einstellungen (eigentlich alles auf Ultra bis auf Post-Processing und TAA aus) in 4k mit 60-66 fps spielen. Wie ist das Spielgefühl in BF1 mit einer zweiten VEGA? Schwammig oder sind die Frametimes noch gut für ein schönen Infantrie-Fight?
 
Zuletzt bearbeitet:
TE
Ralle@

Ralle@

BIOS-Overclocker(in)
Hallo

Sorry dass ich mich erst jetzt melde, war stressig die letzten Tage. Das Spielgefühl in BF1 war / ist gut. Außer die ersten paar Sekunden nach den laden der Map, da ist es etwas schwammig aber das legt sich nach etwa 5 Sekunden wieder.
 

Gurdi

Kokü-Junkie (m/w)
Die skalierung in Shadow of the Tomb Raider wäre noch schön.
Auch gibt es von Microsoft im Store die Forza Horizon 4 Demo kostenlos, die könntest du mal benchen wenn du Lust hast, die Engine läuft erste Sahne ich kann mir vorstellen das die hervorragend skaliert.
 
TE
Ralle@

Ralle@

BIOS-Overclocker(in)
Wenn ich am WE dazu komme, werde ich es gern testen.
Das neue Tomb Raider habe ich eh schon und so eine Demo ist auch schnell gezogen.
 
TE
Ralle@

Ralle@

BIOS-Overclocker(in)
Guten Abends Jungs & Mädels

Ich habe jetzt versucht Crossfire bei Shadow of the Tomb Raider ans laufen zu bringen, leider erfolglos.
Entweder das Game crasht sofort oder die Skalierung ist negativ (15 FPS als mit einer Vega).
 

RX480

Volt-Modder(in)
@Ralle
Danke für den Test. Nehme mal an bei 32GB Ram ist die Auslagerungsdatei Off.
Kannst Du mal bitte noch was zu TAA sagen. (bei Cf/SLi ja meistens störend)

WindEffectSnow war auch bei Division störend.
Ansonsten ala wiki:
Crossfire Game Compatibility List | AMD Crossfire Wikia | FANDOM powered by Wikia

Bei BF1 kann fps-Limit stören.
Vermutlich alle Games die allergisch auf fremde Overlays(AB) sind.
Da würde ich den Moni auf 100Hz stellen und Vsync probieren.(am besten inGame-Option)

Bei einigen Games hat früher mal Vollbildoptimierung off ,auch mit Single, geholfen.
Leider seit 1803 nicht mehr so richtig möglich , weil W10 anscheinend Das nicht mehr so komplett macht.

Letztens gelesen UE4-Engine kann nicht so gut mit hoher Speicherbandbreite. (Streaming ?)
Da evtl. entgegen aller Logik mal mit HBM nur 1050 testen.

Bei Vulkan wäre StrangeBrigade noch ne Alternative, weil da ja mGPu funzt.(siehe Anhang)
Kannst Du auch Destiny 2 testen ?

Für 4k ist der HBM-Takt zu niedrig. Man sieht schön, das 1440p noch skaliert aber 4k nicht.
Denke, das die Bandbreite auch für das Einzelbild hoch genug sein muss. Da hilft genau in dem Moment die 2. GPU nicht.
Man muss dann evtl. doch ein paar Regler nach links schieben oder bei 1440p bleiben.
Hier mal noch mit Setting 4k Medium:
CrossFire & SLI anno 2018: is it still worth it? - Benchmarks: Ghost Recon: Wildlands (DX11)

Genauso würde ich kein 8xMSAA verwenden sondern lieber SMAA oder FXAA/MLAA, ausser bei alten Games, wo die Bandbreite ausreicht, da geht auch meistens SSAA. Für DX9..11-Games kann man gut SMAA per Reshade 2.03 nutzen.
Prinzipiell würde ich das fps-Limit nur 10..15 fps über min fps legen. Da verbraucht dann Cf kaum mehr als ne Single-max OC
bei selben fps. Ausserdem wird dadurch das Streamen besser.

Was ne RX64LC mit 300W kann ist wesentlich weniger als Cf mit 2x150W. Da würde ich voll in den Sweetspotbereich untervolten. Bei 64LC = ca. 1600 und bei RX56=1530.

Was ich smart finde ist der Sideeffekt von ULPS (?).
Die beiden Grakas bleiben mit dem Takt immer in P6-7, wo z.Bsp. in Valley die Single in P3-5 fällt.

Bei light Games werden anscheinend einige Shader mit P7 gefahren und der Rest "geparkt". Da ist der Verbrauch dann auch niedrig.
(Im Anhang mal mit RX56, die aber ca. 50mV mehr braucht für denselben Takt als die LC)

LC-Settings:
Da ich keine LC habe, mal noch ein paar Sweetspotsettings von Onna(guru3d)#811. Der Kollege hat Wahnsinns-HBM.
Seine LC läuft mit PP und er hat die Kühlflüssigkeit ausgetauscht, leider nicht verraten gegen was.
RX Vega Owners Thread, Tests, Mods, BIOS & Tweaks ! | Page 41 | guru3D Forums
 

Anhänge

  • g100fps-SMAA.gif
    g100fps-SMAA.gif
    17,6 KB · Aufrufe: 151
  • SB_cf.jpg
    SB_cf.jpg
    286,4 KB · Aufrufe: 125
  • onna.jpg
    onna.jpg
    356,5 KB · Aufrufe: 189
Zuletzt bearbeitet:

Eragoss

Freizeitschrauber(in)
Da gerade die Vega 64 Liquid für 450€ im Angebot war, könnte man ja auf den Gedanken kommen 2 davon zu betreiben (=900€) Dein Bericht bestätigt aber leider wieder, das die Unterstützung fehlt und es sich einfach nicht lohnt - auch wenn der Gedanke noch so verlockend ist ;)

Schöner Test, Danke!
 

RX480

Volt-Modder(in)
Zu dem Preis mit 3x Games kann man net viel falsch machen, sofern man ein entsprechendes Board hat mit 2x eff. 16x PCi-E.
(zur Not wird halt eine Graka bei Betas oder BBB-Games Cf net genutzt)

btw.
Bei Wildlands-Trial macht Regen keine Probleme bei mir.

Ansonsten:
Durch die freien States können jetzt auch Laien rel. gut sparsame Settings nutzen. (mein Vorschlag für haxxor siehe #2072)
AMD Radeon RX Vega 64 und RX Vega 56 Overclocking/Undervolting-Thread
Grundsätzlich gilt, mehr HBM-Takt kostet NIX. Den GPU-Takt und die Spannung auf sparsam nehmen.
Für 2x LC braucht man auch ne gute Zuluft und sollte außerdem jeweils Push+Pull verwenden.

Anhaltswert:
2x LC@VDDC=1,0V = 1600+ > Custom-2080Ti@Stock.
Man braucht also net so voll aufdrehen wie Ralle. Da bleibt man dann bei ca. 2x 200W GPU-only.
Gerade die LC ist als Single-Graka schon sehr genügsam, mal als Bsp. dargo vom 3dC im Anhang.
(meine 56er sind i.d.R. 100MHz niedriger als die LC bei 2x 200W. siehe Anhang 200W avg. bei ca. 0,95Vavg.)
Man sollte vllt. noch beim 24/7 dann auf 4k@60fps gehen mit ca 0,88V.
Da kommt man noch deutlich runter +cooler+leise.(Settings und Sup4k-60fps im Anhang)

Problem:
Bei Cf kann der HBCC nicht aktiviert werden. Da hätte ne Ti dann mehr Vram.
(verstehe da AMD net, bei Konsolen+APU´s gibt es doch auch gemeinsame Speicherpools)

Games:
Man kann auch bei Daredevil vom 3dC schauen, welche Games funzen:
3DCenter Forum - Der RX Vega Crossfire Thread
(ist nicht gut gepflegt, viele alte Ergebnisse und sinnlose Settings mit AB, zumindestens mal versucht mit UV)
 

Anhänge

  • Setting-Graka2-primär.PNG
    Setting-Graka2-primär.PNG
    448,4 KB · Aufrufe: 99
  • sup-60fps.PNG
    sup-60fps.PNG
    166,2 KB · Aufrufe: 82
  • sup-w22z.PNG
    sup-w22z.PNG
    168,1 KB · Aufrufe: 85
  • witcher3_2017_12_23_15xsz9.jpg
    witcher3_2017_12_23_15xsz9.jpg
    1,2 MB · Aufrufe: 72
Zuletzt bearbeitet:
TE
Ralle@

Ralle@

BIOS-Overclocker(in)
Ich wollte damals auch nur zeigen was so möglich.
Max Taktraten haben sich noch nie gelohnt und wenn ich vor der Wahl stünde, dann würde ich eine Vega nehmen und happy sein.
 

RX480

Volt-Modder(in)
Jo,
Vega kann sehr gut auf sparsam gepimpt werden und nochmal Danke für den Thread.
Und mGPU ist halt Was für selektive Gelegenheitsgamer, die auch mal die SpieleSettings nach Problemen abklopfen.

Spiele i.d.R. nur die Singlekampagnen und habe da rel. wenig Probleme. Die Server sind für mGPU meistens zu schwach.
(vermutlich könnte ich bei meinen guten Temps@4k/60fps auch noch auf LC flashen, was dann auch nochmal 5% bringt durch mehr HBM-Takt)

Bei mir mit ungeeignetem Board und schwacher CPU ist das Ganze eh mal nur ein Gaudi bis 2020 ein neuer Rechner mit DDR 5 kommt.
Hoffentlich dann mit XGMI und ordentlich Lanes.

btw.
Aktuell kostet ein 56Cf net die Welt. 2x299,- +2x3 Games.
Davon 3x Games verkaufen und man ist bei ca. 500..540,-€.(je nach Gameerlös) = CRAZY
8GB PowerColor Radeon RX Vega 56 Aktiv PCIe 3.0 x16 (Retail) - Radeon RX VEGA | Mindfactory.de
 
Zuletzt bearbeitet:

Derber-Shit

Software-Overclocker(in)
Das ist natürlich Balsam auf die geschundene AMD-Seele. :D
Die verwendeten Spiele waren jetzt natürlich gut gewählt, da sie allesamt Crossfire Unterstützung bieten. Trotzdem gefällt es mir gut. :)


Liebe Grüße

Derber-Shit
 
Oben Unten