Erinnerung: Radeon RX Vega 56 geht heute in den Verkauf

...aberwenn man man mal das Gehirn zuschaltet, dann weiß man sehr schnell, was geht und was nicht. ...

Wäre es auch möglich, uns an Deinen dabei erlangten Erkenntnissen vertieft teilhaben zu lassen? :hmm:
Deine THW-Artikel kannst Du dabei natürlich als schon bekannt voraussetzen.
 
Zuletzt bearbeitet:
Man kann übrigens bei mindfactory die Spiele auch zur Vega 56 bekommen.
Habe gestern die Rechnungsnummer (beginnt mit 6) auf der Promoseite eingegeben und heute eine Mail mit den Codes bekommen.

Top:daumen: Meine wird erst am Donnerstag verschickt und dürfte dann Freitag ankommen. Freue mich dann schon auf Prey fürs Wochenende :)
 
In jedem Test den ich lese liegt die 56er so bei ca 75 C unter last. Meine ist nach 5 Minuten auf 85 selbst mit offenem Gehäuse und undervolting.:what: ( läuft auf 2500 rpm unter last)
Es war zwar ziemlich warm heute aber das macht doch nicht gleich 10 C mehr aus oder?
 
Wäre es auch möglich, uns an Deinen dabei erlangten Erkenntnissen vertieft teilhaben zu lassen? :hmm:
Deine THW-Artikel kannst Du dabei natürlich als schon bekannt voraussetzen.
Physik ist eine exakte Wissenschaft und es gibt kein Perpetuum Mobile. Ich habe auch vor drei Jahren schon mal was (Grundlagen, vor allem Seite 2) über die interne Funktionsweise von Power Tune, den ganzen Sensorwerten, dem Arbitrator und der Power Estimation Engine geschrieben; ich kann mich nicht ständig wiederholen.

Die Taktänderungen sind mittlerweile bei AMD nicht mehr so granulär (was gut ist), aber je mehr ich untervolte und dabei den Takt anhebe, umso hektischer regelt der Arbitrator (was man mit dem Oszi schön nachverfolgen kann), Das wiederum geht zu Lasten der Frametimes, denn es gibt dann sichtbar ansteigende Varianzen. Sicher, jeder reagiert auf unregelmäßig eintreffende Frames unterschiedlich, aber ich bin da sehr empfindlich. Das Einzige, was ich bei solchen Artikeln immer wieder anmahne, ist die gleichzeitige und exakte Darstellung der Frametimes. Um mal auf die angesprochene Ehrlichkeit zurückzukommen. Ohne solche Kurven ist die ganze Sache schon reichlich wertlos. FPS-Werte sind da viel zu ungenau, was die Immersion betrifft. Deswegen verweigere ich mich, so wie Carsten auch, irgendwelche Tools zu nutzen, die zwar per I2C irgendwelche Register der PWM-Controller überschreiben, aber die Firmewareeigenheiten dabei komplett außer auch lassen. Solange AMD mit der eigenen Software nicht klarkommt, ist das alles wie Formel 1 im Londoner Nachtnebel. Wäre es nämlich so extrem easy, hätte es AMD schon hinbekommen. Die beim Controller verwendeten Protokolle und die Register der Power States sind doch kein Hexenwerk. Dumm halt nur, wenn man an einer Schraube dreht und nicht weiß, wie viele davon das ganze Konstrukt eigentlich zusammenhalten. ;)
 
Zuletzt bearbeitet von einem Moderator:
Die Taktänderungen sind mittlerweile bei AMD nicht mehr so granulär (was gut ist), aber je mehr ich untervolte und dabei den Takt anhebe, umso hektischer regelt der Arbitrator (was man mit dem Oszi schön nachverfolgen kann), Das wiederum geht zu Lasten der Frametimes, denn es gibt dann sichtbar ansteigende Varianzen. Sicher, jeder reagiert auf unregelmäßig eintreffende Frames unterschiedlich, aber ich bin da sehr empfindlich. Das Einzige, was ich bei solchen Artikeln immer wieder anmahne, ist die gleichzeitige und exakte Darstellung der Frametimes.

Das Thema ist für mich recht interessant, da ich persönlich gerne Hardware undervolte bzw. Komponenten im Sweetspot betreibe, u. a. wegen Platzmangel (HTPC Gehäuse) und der Geräuschentwicklung. Aufgrund des Hinweises habe ich mir die Frametime-Messungen von Witcher 3 angeschaut, weil unter Witcher 3 auch die Leistungsaufnahmemessungen gemacht wurden. Ich bin überrascht und verwirrt vom Ergebnis (hoffe du nimmst es mir nicht übel, dass ich ein paar Screens uploade/poste, ich verlinke extra den Artikel nochmal): The Witcher 3 Wild Hunt - Kleine, heiss-kalte Schwester: AMD RX Vega56 mit Effizienztest und VR


RX Vega 56:

rx-vega-56-jpg.967821



RX Vega 64:

rx-vega-64-jpg.967822



GTX 1070 FE:

gtx-1070-fe-jpg.967823



GTX 1080 FE:

gtx-1080-fe-jpg.967824



Custom GTX 1070:

evga-gtx-1070-jpg.967825




Überrascht bin ich, dass die Vega Referenzkarten die deutlich besseren Frametimes gegenüber den Pascal Referenzkarten liefern, verwirrt bin ich aber aufgrund der Tatsache, dass eine Custom GTX 1070 (von EVGA) ebenfalls viel bessere Frametimes liefert als die Referenzkarten von Nvidia. Gibt es eine plausible Erklärung dafür? Sind die Founders Edition Karten z.B. bereits ab Werk zu stark auf geringen Verbrauch "optimiert", sprich mit zu geringer Spannung ausgestattet? Mich würden an dieser Stelle vor allem die Frametimes einer Pascal (z.B. wie von Carsten genannt -> GTX 1070@ 0,8V ~1600MHz) interessieren. Oder werden nur die Frametimes bei Vega-Karten schlechter wenn man undervoltet? Ich kann mir einfach keinen Reim auf das Ganze machen :ka:
 

Anhänge

  • RX Vega 56.jpg
    RX Vega 56.jpg
    22,3 KB · Aufrufe: 556
  • RX Vega 64.jpg
    RX Vega 64.jpg
    21,9 KB · Aufrufe: 537
  • GTX 1070 FE.jpg
    GTX 1070 FE.jpg
    29,5 KB · Aufrufe: 544
  • GTX 1080 FE.jpg
    GTX 1080 FE.jpg
    27,4 KB · Aufrufe: 543
  • EVGA GTX 1070.jpg
    EVGA GTX 1070.jpg
    22,6 KB · Aufrufe: 540
Zuletzt bearbeitet von einem Moderator:
Freilich ist da noch ein klarer Unterschied zugunsten der GTX 1070 zu sehen, nur eben nicht 100W+ wie einige Vorposter suggerierten. Und man sollte noch dazu sagen, dass ein Spiel (Witcher 3) nicht repräsetativ für alle Spieleverbräuche oder den Perfomance/FPS-Durchschnitt ist bei der Betrachtung GTX 1070 FE vs. RX Vega 56 (Powersave-Modus).
Im Auslieferungszustand (BIOS 1, Balanced) sind es - je nach Test und Last, also etwa bei uns - rund 69 Watt extra. Dabei macht Vega einen ziemlich guten (sprich besseren als Polaris) Job, die TDP-Vorgabe auszunutzen. Bei uns sind es jetzt, ähnlich wie bei Nvidia-Karten, durch den dynamischen Boost auch in zwei Tests, die früher deutlich unterschiedliche Ergebnisse gebracht haben, nahezu auf's Watt dieselben Ergebnisse. Zwischen Crysis 3 (mittlere Last) und Anno 2070 ([sehr] hohe Last) lagen bei der Fury X noch rund 67 Watt (250 zu 317), die Vega 56 bleibt bei 215-217, ähnlich wie die neueren Nvidia-Karten (was das Verhalten angeht, nicht die Wattzahlen).

Was die Begrifflichkeit "unoptimiert" betrifft, sowohl die GTX 1070 FE als auch die Vega 56 mit Powersave-Modus peilen den Sweetspot an, da muss man dann ehrlicherweise auch bei beiden gleichermaßen entweder von optimiert oder unoptimiert reden. Denn aufs Optimum getweakt (inkl. Undervolting) ist dort keine Karte. Spannungsspielraum (zwecks Stabilitätsgarantie) müssen beide Hersteller noch lassen und AMD ist da erfahrungsgemäß großzügig.
Ja, AMD hat Spielraum, Nvidia ebenfalls. Und ganz ehrlicherweise muss man aber auch sagen, dass der Powersave-Modus eben nicht der Auslieferungszustand ist, sondern optional. Dass man deutlich mehr Strom spart als man Performance verliert, steht außer Frage; AMD hat sich aber nunmal so entschieden.


BTW:
Warum zitierst Du die englische Übersetzung? Ich finde mein Original besser ;)
Ach, das war nur Faulheit, weil jemand hier weiter oben irgendwo den englischen Link reingestellt hatte. Keine böse Absicht. :)
 
Mir persönlich ist das "Wurst" ob Balanced die Werkseinstellung ist, der Powersave-Modus steht ebenso (einfach) zur Verfügung und kostet kaum Performance (ca. 5%), was Vega 56 schlimmstenfalls auf das Niveau einer GTX 1070 FE absinken lassen dürfte. Vielleicht nicht in eurem Parcour/Rating und auch nicht in Witcher 3 isoliert betrachtet, dafür aber im Schnitt von 3000 Benches oder Tests mit 32 Games.

Wenn der Powersave-Modus in der Lage ist die 69W Differenz zwischen Vega 56 und GTX 1070 in etwa zu halbieren, werden bei zusätzlichen manuellem Tweaken auf beiden Seiten nicht wieder 100W+ daraus. Diesen Eindruck haben in den letzten Tagen leider mehrere User zu erwecken versucht.

Edit: Der Postman war da^^
 
Zuletzt bearbeitet von einem Moderator:
Dein gutes Recht als Verbraucher, deine persönlichen Präferenzen anzulegen. :)

edit:
Der Postmann hat (mind. 1×) geklingelt.
 
Zuletzt bearbeitet:
... Überrascht bin ich, dass die Vega Referenzkarten die deutlich besseren Frametimes gegenüber den Pascal Referenzkarten liefern, verwirrt bin ich aber aufgrund der Tatsache, dass eine Custom GTX 1070 (von EVGA) ebenfalls viel bessere Frametimes liefert als die Referenzkarten von Nvidia. Gibt es eine plausible Erklärung dafür? Sind die Founders Edition Karten z.B. bereits ab Werk zu stark auf geringen Verbrauch "optimiert", sprich mit zu geringer Spannung ausgestattet? Mich würden an dieser Stelle vor allem die Frametimes einer Pascal (z.B. wie von Carsten genannt -> GTX 1070@ 0,8V ~1600MHz) interessieren. Oder werden nur die Frametimes bei Vega-Karten schlechter wenn man undervoltet? Ich kann mir einfach keinen Reim auf das Ganze machen :ka:
Die Antwort steht doch indirekt weiter oben schon da. Beide Nvidia FE rennen in zwei Targets, die Temperatur (wir testen mit komplett aufgeheizten Karten in mehreren aufeinanderfolgenden Loops, wobei der erste immer in die Tonne gehört) UND die Leistungsaufnahme. Genau dann setzt nun die hektische Nachreglerei des Arbitrators ein und die Frames werden fast schon zerhackt. Eine untervoltete Karte sieht nämlich genauso aus, auch wenn die FPS-Zahlen eine rosarote Welt vortäuschen. Die Custom 1070 hat ein höheres PT und läuft kühler - ergo stimmen die Frametimes wieder ;)

Und genau deswegen wäre es schon hilfreich, zu all den Untervolting-Sensationen dann bitte auch noch die echten Frametimes mitzuliefern :)
 
Überrascht bin ich, dass die Vega Referenzkarten die deutlich besseren Frametimes gegenüber den Pascal Referenzkarten liefern, verwirrt bin ich aber aufgrund der Tatsache, dass eine Custom GTX 1070 (von EVGA) ebenfalls viel bessere Frametimes liefert als die Referenzkarten von Nvidia. Gibt es eine plausible Erklärung dafür? Sind die Founders Edition Karten z.B. bereits ab Werk zu stark auf geringen Verbrauch "optimiert", sprich mit zu geringer Spannung ausgestattet?
Bei meiner 1080 Ti FE lief die Karte mit Standardkühler schnell ins Temperatur- bzw. TDP-Limit (je nach Spiel) und hat dann entsprechend runter- und wieder rauf getaktet. Mit einer Wasserkühlung und Defaulteinstellungen (1.05V) ging die Karte schnell auf 1900 MHz, taktete dann aber immer wieder wegen dem Erreichen/leichten Überschreiten der TDP-Grenze runter. Als ich die Karte dann auf max. 1950 MHz bei 0.95V gestellt habe (via Afterburner) hält die Karte die 1950 MHz bei ~90% TDP (laut GPU-Z) dann auch.
Ich denke daher, dass die Custom 1070 höheren Boosttakt besser und stabiler halten kann, während die FE beim Boosttakt eher am Limit läuft und öfter den max. möglichen Boosttakt ändert.
 
Die Antwort steht doch indirekt weiter oben schon da. Beide Nvidia FE rennen in zwei Targets, die Temperatur (wir testen mit komplett aufgeheizten Karten in mehreren aufeinanderfolgenden Loops, wobei der erste immer in die Tonne gehört) UND die Leistungsaufnahme. Genau dann setzt nun die hektische Nachreglerei des Arbitrators ein und die Frames werden fast schon zerhackt. Eine untervoltete Karte sieht nämlich genauso aus, auch wenn die FPS-Zahlen eine rosarote Welt vortäuschen. Die Custom 1070 hat ein höheres PT und läuft kühler - ergo stimmen die Frametimes wieder ;)

Und genau deswegen wäre es schon hilfreich, zu all den Untervolting-Sensationen dann bitte auch noch die echten Frametimes mitzuliefern :)


Danke für die Erklärung :) Jetzt stellt sich nur die Frage warum AMD das (hinsichtlich Frametimes) bei der Vega Referenz besser hinbekommt als Nvidia bei der Pascal Referenz (Vega dürfte ebenfalls in irgendein Limit laufen). Liegt es vielleicht daran, dass AMD das Powertarget weniger aggressiv als Nvidia einstellt und/oder die Lüftersteuerung bei AMD weniger lasch ist? Die Founders Edition Karten und GP104 Custom-Modelle, die sich an den Referenzvorgaben halten, sind im Auslieferungszustand für empfindliche Leute dann eigentlich unbrauchbar. Das sind ja nicht nur leichte Frametimes-Schwankungen bei der GTX 1070.

Langsam dämmert es mir auch warum meine stark PT-limitierte GTX 1050 Ti@max. 68°C in DayZ SA so unangenehm ist, das lief mit der passiven RX 460 4GB (RIP) deutlich runder, trotz weniger Grundleistung.
 
Zuletzt bearbeitet von einem Moderator:
Also bist du doch einer von diesen Schürfern oder wie?
Nö, war einfach zu ungeduldig beim Kaufen :D

Limited Edition 64 am 15.8 gekauft mit dem Plan zu Verkaufen, nachdem auf Vega 56 umgestiegen wurde.
Dann letzten Samstag gab es die 64 bei Mindfactory für 527€ inkl. 2 Spiele, dann dachte ich mir, ich werde eh keine 56er zur UVP bekommen, dann nehme ich halt die 64er (Limited Edition ist zwar schön, aber ich sehe sie halt nie, da PC unter Schreibtisch).
Am Montag riesig gefreut, als ich bei Mindfactory eine 56er Karte für 425€ bekommen habe. Dann eine halbe Stunde später hat Alternate die 56er noch billiger gehabt, dort bestellt, aber Mindfactory konnte ich nicht mehr stornieren.

That's the story how I ended up with four Vega cards :D

Möchte aber keinen Gewinn draus schlagen, heute holt jemand die zweite 56er zum Selbstkostenpreis ab. Die zweite 64er muss ich erst noch einstellen bei Kleinanzeigen.
 
Zurück