AMD Radeon RX Vega: Der hohe GPU-Takt kostet viele Transistoren

Die Mehraufnahme als 150W wurde nie an der RX 480 kritisiert, auch nicht bei ihrem Launch, sondern das sie mehr als 75 W aus dem Mainboard PCI-E Slot gezogen hat.
1) Natürlich war die hohe Stromaufnahme, speziell nach geringer Übertaktung überall erwähnt. Schließlich lag man bei fast nur HALBEM Tempo von der Leistungsaufnahme bei der (eben fast doppelt so schnellen) 1080.
Und natürlich wurde über diese Leistungsaufnahme gesprochen, schließlich ist ein HALBES JAHR LANG davon gesprochen worden, dass Polaris laut ihrer Präsentation im Dezember (!) extrem effizient wird und "made for FinFET" ist. Und das hat man so betont, als wäre die ganze Architektur drauf ausgelegt, entgegen der Konkurrenz, die somit dargestellt wurde, als hätten sie den neuen Prozess nur irgendwie drangeklatscht, statt ihn ins Design miteinbezogen. Dieses "Effizienzwunder" wurde dann aber eben widerlegt und die angebliche, aber bei weitem nicht erreichte 2.5x Effizienz gegenüber der vorigen GCN Generation war eine der größten Enttäuschungen die ich beim Launch erlebt habe.
Ich wollte keine Highendkarte, ich wollte eine effiziente, kleine, schnelle, leise, stromsparende Karte. Und die 480 hat in jeglicher Hinsicht enttäuscht. Von der 580 1 Jahr (!) später kaum zu schweigen. Was man da noch alles "rausgeholt" hat innerhalb eines Jahres... wahnsinn

2) die 75W wurden eigentlich nur in einem Review erwähnt und anschließend überall als News gepostet, aber schnell durch AMD korrigiert. Außerdem hat dieselbe Reviewseite (Toms Hardware) Nvidia-Modelle getestet (ich glaube von Asus), welche deutlich stärker aus der Reihe getanzt sind, als die 480.
 
Zuletzt bearbeitet:
Es wurde aber nie als Problem für die Hardware thematisiert oder das gegen einen Standard verstoßen wurde, anders als die mehr als 75 W über den PCI-E des Mainboards, allein um das ging es hier.

Ich wollte keine Highendkarte, ich wollte eine effiziente, kleine, schnelle, leise, stromsparende Karte. Und die 480 hat in jeglicher Hinsicht enttäuscht. Von der 580 1 Jahr (!) später kaum zu schweigen. Was man da noch alles "rausgeholt" hat innerhalb eines Jahres... wahnsinn

Wenn du die Karten besser kennen würdest, würdest du nicht so einen Mist schreiben! Was man aus der RX 580 am Sweetspot rausholen kann, ist nun hinreichend belegt!
The RX 500 Series Review - Featuring MSI RX 580 Gaming X...and Chill! - YouTube

Nicht umsonst verbaut Asus eine RX 580 in einem Notebook mit den Ryzen 1600 oder 1700.
 
Es wurde aber nie als Problem für die Hardware thematisiert oder das gegen einen Standard verstoßen wurde, anders als die mehr als 75 W über den PCI-E des Mainboards, allein um das ging es hier.



Wenn du die Karten besser kennen würdest, würdest du nicht so einen Mist schreiben! Was man aus der RX 580 am Sweetspot rausholen kann, ist nun hinreichend belegt!
The RX 500 Series Review - Featuring MSI RX 580 Gaming X...and Chill! - YouTube

Nicht umsonst verbaut Asus eine RX 580 in einem Notebook mit den Ryzen 1600 oder 1700.
Ich kauf mir keine Karte, bei der ich dann herumdoktern muss, damit sie mit Glück und Chipgüte vielleicht irgendwie annähernd so effizient ist, wie eine Karte der Konkurrenz, wenn ich das bei der Konkurrenz "out of the box" haben kann (ohne Underclocking, Volting und keine bremserfeatures wie Chill) - und auch dort noch runtergehen kann.
Auf Toms Hardware, oder wars PCPER gabs einen Test, die normale 1060 @ 75 Watt zu betreiben. Mit kaum FPS Einbußen. Wozu würde ich mich mit einer 580 rumärgern?

Ich benutze seit 2001 nur ATI/AMD. Heuer musste ich leider neu kaufen (eine Karte ist abgeraucht), es wurde also die 1060 und der PC braucht beim Spielen insgesamt keine 150 Watt. Dabei hab' ich noch nichtmal angefangen zum Untertakten/Volten. Weder bei der CPU (i7) noch GPU.

Was konkret willst du eigentlich mit dem Youtube- VIdeo? Da ich leider keine Zeit hab' zum "Fernsehen" und Videoreviews sowieso meist einen Verrtrauenswürdigkeitsgrad gegen 0 haben, bevorzuge ich einen ordentlichen Artikellink, wenn du mir etwas sagen möchtest.
 
Weil sie das genauso kann, sogar bei 60-70 Watt, wie das Video zeigt, insoweit hast du keine Ahnung von der Karte!

Edit:

Es ist die gleiche Review Seite die aufgedeckt hat, das Ryzen und Nvidia DX12 Treiber nicht zusammen harmonieren.
AdoreTV ist recht bekannt und ob du das glaubst oder nicht, ist mir herzlich egal, da er das in dem Video belegen kann!
 
Zuletzt bearbeitet:
Weil sie das genauso kann, sogar bei 60-70 Watt, wie das Video zeigt, insoweit hast du keine Ahnung von der Karte!
1) ich schau keine Videos von einzelpersonen
a) Videoschauen ist für Leute die nicht Lesen können. Ein gut geschriebener Artikel hat wesentlich mehr Informationsgehalt
b)was auch immer der für einstellungen gemacht hat, kann man selten Nachvollziehen und ist generell nicht vertrauenswürdig im Vergleich zu renommierten Redaktionen
2) Natürlich kenne ich speziell seine Karte nicht. Das Feature "Chill" kenne ich sehr wohl und ist auch nicht per se neu
3) logischerweise ist es dann mit Nvidia nochmal einfacher weiter runterzugehen, wenn man bei gleicher Performance wesentlich weniger Energie braucht. Das müsste ich nichtmal meiner 4 Jährigen Nichte erklären, das ist auch für die klar...
 
  • Like
Reaktionen: hfb
Mir ist das herzlich egal, ob du das schauen willst oder nicht, der Reviewer ist bekannt und hat auch ansehen.

Er hat den Takt von 1390-1265 MHZ gesenkt, also etwa den Takt, mit der eine RX 480 ausgeliefert wurde und erreicht damit 60-70 Watt Verbrauch.
Ich streite gar nicht ab, das die GTX 1060 das wohl noch etwas besser kann, nur dein undifferenziertes rumhauen auf AMD, mit falschen Fakten geht mir gegen den Strich, weil es einfach falsche Tatsachen sind und du seit Wochen, sowohl bei Ryzen als auch bei den GPUs mit Übertreibungen, nur auf AMD einschlägst!
 
Er hat den Takt von 1390-1265 MHZ gesenkt, also etwa den Takt, mit der eine RX 480 ausgeliefert wurde und erreicht damit 60-70 Watt Verbrauch.
Meinst du die Radeon-Chill Sequenz in WoW?

edit: Ah, später spielt er noch an der Spannung herum. Wie auch immer: Die eingeblendete Anzeige gibt lediglich die reine GPU-Power aus. Der Stromverbrauch der Karte ist deutlich höher. Oder ist kürzlich ein Tool gespawnt, bei dem der Polaris-Verbrauch komplett angezeigt wird? Mir wäre das nicht bekannt.
 
Zuletzt bearbeitet:
Es wurde aber nie als Problem für die Hardware thematisiert oder das gegen einen Standard verstoßen wurde, anders als die mehr als 75 W über den PCI-E des Mainboards, allein um das ging es hier.
Die RX480 im Referenzdesign verstößt immer gegen die PCIe Spezifikation. Die 75W Begrenzung gelten auch für den 6-Pin Zusatzstecker.
 
Meinst du die Radeon-Chill Sequenz in WoW?

edit: Ah, später spielt er noch an der Spannung herum. Wie auch immer: Die eingeblendete Anzeige gibt lediglich die reine GPU-Power aus. Der Stromverbrauch der Karte ist deutlich höher. Oder ist kürzlich ein Tool gespawnt, bei dem der Polaris-Verbrauch komplett angezeigt wird? Mir wäre das nicht bekannt.

Ja, aber er hat ja das in mehreren Stufen vorgeführt, inklusive undervolting und Senkung des Core Taktes, was bei einem 144 MHZ Freesync Monitor ja Sinn macht, wenn man in der Range des Freesync bleibt.
Das Equipment habe ich halt auch.
Wenn man Freesync hat, muss man Spiele, auße Shooter wie CSGO, sowieso alle auf die Grafikkarte einstellen und damit läßt sich bei der RX 580 eine Menge Strom sparen, weil mir FPS über meiner Freesync Range nichts nutzen.
 
Zuletzt bearbeitet:
Ja, aber er hat ja das in mehreren Stufen vorgeführt, inklusive undervolting und Senkung des Core Taktes,
Lies doch mal, was jemand anders schreibt: Die Anzeige ist NUR die reine GPU, die Leistungsaufnahme der KARTE ist deutlich höher, als im Video gezeigt.

Wenn die GPU schon 120W zieht, wie im Video gezeigt, wird die gesamte Karte irgendwo um die 170-180W liegen.
 
In wievielen Stufen das geschieht ist ja eigentlich irrelevant, wenn nur ein Teil des Verbrauchs in seinem Tool angegeben wird. Klar kann man mit der RX Strom sparen. Meine RX480 lief bei 0,93 Volt und 1200 MHz. Angezeigter Verbrauch war beim Mining auch im 75-Watt-Bereich. Trotzdem soff die Karte auch so insgesamt mehr als eine ebenfalls optimierte GTX 1070 - bei der in den Tools eben der Gesamtverbrauch (% der TDP) angegeben wird. Äpfel und Birnen.

Und ja: Mit Frame-Limitern spart man Strom. Keine Diskussion. Darüber hatten wir auch schon einen größeren Heft-Artikel, bevor es in die Treiber integriert wurde.
 
Falsch!

Die Karte wird bei Ashes mit 170Watt im Video angezeigt und das zieht sie auch nach den Reviews!
Nochmal ganz langsam: Die Anzeige ist GPU ONLY, deshalb steht da auch ganz dick vorne dran "GPU:".

Die Leistungsaufnahme des Speichers und des restlichen Boards kommen noch dazu. Bei 170W GPU sind das insgesamt dann wohl so 210-220W.
 
Falsch!

Die Karte wird bei Ashes mit 170Watt im Video angezeigt und das zieht sie auch nach den Reviews!

Naja, glaub was du willst. Wir haben die Karte (MSI RX 580 Gaming X 8 GB) in Ausgabe 06/2017 im Test: GPU-TDP 165 Watt. GPU, nicht Karte.
Die maß Kollege Vötter mit 194 Watt in Crysis - und das ist unser Test mit vergleichsweise niedriger Last. In Anno waren es dann schon 205 Watt. Bei per Tool angezeigten ~165 Watt. Komisch.
 
Komisch, das eine MSI RX 580Gaming X 8GB, nach offiziellen Tests, das niemals erreicht!
Insoweit bin ich davon nicht wirklich überzeugt, dass dort nicht der wirkliche Verbrauch der Karte angzeigt wird.

AMD Radeon RX 580 & 570 von Asus bis Sapphire im Test (Seite 4) - ComputerBase

Die Karte liegt bei 190 Watt und nicht 210-220W bei 3.840 × 2.160 Auflösung.

edit:

Dann bin ich dort wohl auf dem Holzweg und man muss noch 20-30Watt dazurechnen. Ich hatte immer geglaubt das wäre der Kartenverbrauch.
Wieder etwas gelernt!
 
Komisch, das eine MSI RX 580Gaming X 8GB, nach offiziellen Tests, das niemals erreicht!
Insoweit bin ich davon nicht wirklich überzeugt, dass dort nicht der wirkliche Verbrauch der Karte angzeigt wird.

AMD Radeon RX 580 & 570 von Asus bis Sapphire im Test (Seite 4) - ComputerBase

Die Karte liegt bei 190 Watt und nicht 210-220W

Ich sag's ja nur ungern, aber selbst in deinem „offiziellen“ Test, den du verlinkst, wird die Karte mit bis zu 208 Watt angegeben.

edit: Wie gesagt, ich bin raus.
 
Mir ist das herzlich egal, ob du das schauen willst oder nicht, der Reviewer ist bekannt und hat auch ansehen.

Er hat den Takt von 1390-1265 MHZ gesenkt, also etwa den Takt, mit der eine RX 480 ausgeliefert wurde und erreicht damit 60-70 Watt Verbrauch.
Ich streite gar nicht ab, das die GTX 1060 das wohl noch etwas besser kann, nur dein undifferenziertes rumhauen auf AMD, mit falschen Fakten geht mir gegen den Strich, weil es einfach falsche Tatsachen sind und du seit Wochen, sowohl bei Ryzen als auch bei den GPUs mit Übertreibungen, nur auf AMD einschlägst!
Und das misst er mit welchem Equipment? Soweit ich weiß haben nur Toms Hardware ein wirklich präzises. Oder meinst du die lächerliche Auslese/Angabe per Tool?
In wievielen Stufen das geschieht ist ja eigentlich irrelevant, wenn nur ein Teil des Verbrauchs in seinem Tool angegeben wird. Klar kann man mit der RX Strom sparen. Meine RX480 lief bei 0,93 Volt und 1200 MHz. Angezeigter Verbrauch war beim Mining auch im 75-Watt-Bereich. Trotzdem soff die Karte auch so insgesamt mehr als eine ebenfalls optimierte GTX 1070 - bei der in den Tools eben der Gesamtverbrauch (% der TDP) angegeben wird. Äpfel und Birnen.

Und ja: Mit Frame-Limitern spart man Strom. Keine Diskussion. Darüber hatten wir auch schon einen größeren Heft-Artikel, bevor es in die Treiber integriert wurde.


1) deshalb erschließt sich mir der Sinn der Diskussion nicht ganz: Eine Karte kann man undervolten und takten. Aber sie wird trotzdem im Normalfall weniger brauchen als eine Karte die von Haus aus schon weniger braucht, wenn man auch diese undervoltet und taktet
2) Und ja, dass man mit Frame-Limitern Strom spart ist bekannt. Auch sinnvoll (wozu Frames, wenn man sie wegwirft berechnen, denn das Berechnen benötigt logischerweise einen Rechnungs- und somit Energieaufwand). Wieviel zeigt ja nicht nur Chill sondern auch der erwähnte PCGH Artikel. Aber das war schon länger Thema, ich meine mich erinnern zu können, dass ich darüber schon vor knapp 12-13 Jahren gelesen habe.
Dann bin ich dort wohl auf dem Holzweg und man muss noch 20-30Watt dazurechnen. Ich hatte immer geglaubt das wäre der Kartenverbrauch.
Wieder etwas gelernt!
Wichtig in der ganzen Diskussion ist, dass du trotz vorhandenem Halbwissen versuchst andere mit "Tatsachen" zu belehren und zu korrigieren...
Vielleicht siehst du beim nächsten Mal ja davon ab
 
Zuletzt bearbeitet:
(...)Die Mehraufnahme als 150W wurde nie an der RX 480 kritisiert, auch nicht bei ihrem Launch, sondern das sie mehr als 75 W aus dem Mainboard PCI-E Slot gezogen hat.(...)
Mal wieder enorm witzig, wie weit Wahrnehmung auseinander liegen kann. Ich habe die Zeit als eine in Erinnerung, in der massive Trauer bzgl. des ausgebliebenen Effizienzwunders herrschte, während das mit den mehr als 75 Watt über den Slot halt echt nichts weiter als eine Randnotiz, einen kleinen Nebeneffekt eben der Effizienzenttäuschung. Und ähnliches auch bei den Preisen, auch dort war die Stimmung bedrückt-wütend-sonstwie.
Bezüglich der Sinnlosigkeit solcher 4k-Displays kann ich dir nur zustimmen, auf der anderen Seite laufen Auflösung und Qualitätseinstellungen schon länger der anliegenden Leistung voraus. Entweder man will hohe Auflösungen bei mittleren Einstellungen oder ultra Details bei 1080p bzw. 1440p. Man sollte aber beachten, dass die vom Nutzer erwünschten FPS vom Genre und auch persönlichen Vorlieben abhängen. Manchem reichen eben 40 FPS in 4k, andere wollen aus Kostengründen 1080p - dafür mit mehr FPS.(...)
Nein, der Wunsch nach 2160p144hzVRR-Displays zielt auf etwas anderes ab: Man hat damit in Spielen mit hohen Anforderungen einfach ein Display, dass sich so wie ein 2160p60hzVRR-Display (bzw. sogar einen Tacken besser) verhält, ABER eben gleichzeitig in Spielen mit niedrigen Anforderungen die Vorteile von 144hz...
...gibt ja schließlich Massen an Titeln, in denen auch eine 480 in 2160p über 144 FPS liefern kann---ältere und E-Sportstitel halt.
 
Weil sie das genauso kann, sogar bei 60-70 Watt, wie das Video zeigt, insoweit hast du keine Ahnung von der Karte!

Es gibt in der PCGH oder auf Tomshardware entsprechende Tests die belegen dass sich die GTX 1060 besser sparsamer machen lässt und so ist auch meine persönliche Erfahrung.
Pascal skaliert ja wesentlich besser nach unten.
Ein Video von AdoredTV der sehr AMD lastig berichtet und immer virales Marketing für AMD betreibt, würde ich als Quelle nicht ernst nehmen wollen.

Es ist die gleiche Review Seite die aufgedeckt hat, das Ryzen und Nvidia DX12 Treiber nicht zusammen harmonieren.

Das waren eher die Nutzer die das bemerkt haben, nicht Adored TV.
Soviel ich weiß mach er eher immer Zusammenfassungen von unterschiedlichen Quellen.

Meinst du die Radeon-Chill Sequenz in WoW?

edit: Ah, später spielt er noch an der Spannung herum. Wie auch immer: Die eingeblendete Anzeige gibt lediglich die reine GPU-Power aus. Der Stromverbrauch der Karte ist deutlich höher. Oder ist kürzlich ein Tool gespawnt, bei dem der Polaris-Verbrauch komplett angezeigt wird? Mir wäre das nicht bekannt.

Das wurde hier schon oft erklärt, auch was die angeblich so stark gestiegene Effizienz der frischen RX480 XFX Samples von JayztwoCents anging.
Alle Messungen wurden mit entsprechenden Tools gemacht die nur die GPU Pi mal Daumen messen, Board, RAM etc. wurden da nicht gemessen.

Dennoch kommt immer wieder diese Diskussion auf, für mich unverständlich.

Dann bin ich dort wohl auf dem Holzweg und man muss noch 20-30Watt dazurechnen. Ich hatte immer geglaubt das wäre der Kartenverbrauch.
Wieder etwas gelernt!

Wie kommst du nun wieder auf 20 bis 30 Watt? AMD gibt die reine GPU der RX480 mit 110 Watt an und die GPU benötigte dann Minimum 160 Watt. Das sind 50 Watt Differenz und selbst in deinem verlinkten Test sind es weit mehr als 20 bis 30 Watt.
 
Zuletzt bearbeitet:
Alles auf Computer-generierte Chips ausgelegt, nicht Hand-optiemiert auf max Takt.
Ich bekomme jetzt schon einen Anfall, wenn ich auf dem FPGA etwas von Hand optimieren soll. Ich glaube nicht, dass da bei Transistormonstern wie GPUs noch viel geht ^^
Dann immer in 14 nm warum nicht in 16 nm, Konsolen Chips werden alle in 16nm gemacht, da zählt der Verbrauch. Wäre 14nm besser , würde Sony und Ms die in 14nm machen lassen.
Konsolenhersteller wollen vor allem die Kosten niedrig halten, wenn der 16nm Prozess weitaus billiger ist als der 14nm, dann wird der genommen. Die paar °C Abwärme haben sie in ihrem Gehäuse- und Kühlerdesign sicher eingerechnet, da fertigt man zur Not ein etwas größeres Plastikgehäuse, lässt den Lüfter 5% schneller drehen oder packt ein paar zusätzliche Aluminiumfinnen an den Kühler. Ist weitaus billiger als dafür eine komplette Fertigung umzuschmeißen, die neue Masken braucht und die Waferkosten in die Höhe treibt.
Tsmc hat schon immer big chips gebaut, Globo hatte schon bei mittleren Chips (Amd 32nm Cpus) immer Probleme, dann ist der 14nm Lpp eigentlich von Samsung für Mobil Chips entwickelt worden.
AMD (GloFo) hat auch schon lange Big Chips gebaut, glaub mal nicht das IBM/GloFo/Samsung nicht wissen was sie tun.

Dann Amds Angewohnheit alles auf Packdichte auszulegen (High-Density-Verfahren) und dadurch Takt zu Opfern bei den Gpus und leider auch seit Bobcat bei den Cpus. (auch bei Zen)
Takt ist nicht alles, wie wir alle seit Netburst oder Bulldozer wissen. Das Problem bei der Packdichte ist eigentlich eher, dass mehr Transistoren auf weniger Fläche schwieriger zu kühlen sind. AMD braucht eher eine neue GPU-Architektur, GCN scheint mit seinen Compute-Wurzeln in der Sackgasse zu stecken. Da können Raja und Co noch so viel optimieren, die eierlegende Wollmilchsau aus purer Compute-Power und abgespeckten Gaming-GPUs wird es nicht geben.
 
Zurück