AMD Radeon Vega Frontier Edition: Typischer GPU-Takt bei knapp 1.400 MHz

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD Radeon Vega Frontier Edition: Typischer GPU-Takt bei knapp 1.400 MHz

Mit der Veröffentlichung der luftgekühlten Radeon Vega Frontier Edition hat AMD auch die Produktseite aktualisiert. Dort nennt der Chiphersteller einen "typischen" GPU-Takt in Höhe von 1.382 MHz, sodass die 1.600 MHz Peak kaum erreicht werden dürften. Für die Leistungsaufnahme von der Wakü-Version und Custom-Design ist das ein schlechtes Zeichen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: AMD Radeon Vega Frontier Edition: Typischer GPU-Takt bei knapp 1.400 MHz
 
Leider klingt das auch für mich langsam nach einer recht schlechten Effizienz und dass sie die GPUs daher so billig (nach der Aussage, dass sie P/L-technisch so geil sind) heraushauen. Wirklicht schade, hatte auf einen ähnlichen Effekt wie bei Ryzen gehofft, aber das scheint nun langsam ausgeschlossen. Lasse mich nach wie vor nur zu gerne eines Besseren belehren, aber ich glaube langsam auch nicht mehr dran.
Allerdings verstehe ich etwas bei diesen ganzen Gerüchten nicht: Normalerweise sollten sie doch inkl. neuer Fertigung, verbesserter Architektur etc. wenigstens 70-90% mehr Leistung liefern können als eine Fury X? Damit stünden sie definitiv deutlich vor einer 1080, aber bisher sieht es nicht mal danach aus? Das ist doch irgendwie Quatsch, selbst wenn sie die Arch einfach nur weiter aufgeblasen hätten, ohne jede Verbesserung, stünden sie durch die kleinere Fertigung doch ähnlich dar?
Man hat das Gefühl: Haut die Fury X mit neuer Fertigung und mehr HBM einfach "doppelt groß" raus, dann würdet Ihr schon irgendwie mithalten können, aber nun, durch die "Verbesserungen" sieht's im Mom. sogar düsterer aus, irgendwas passt da doch nicht?
 
Lower als erwartet, ich hoffe da tut sich noch was, Nvidia muss endlich mal mehr Druck bekommen

Je nachdem wo Vega Preis-/Leistungsmäßig von AMD eingereiht wird, kann sich schon Druck entwickeln.

Aber die FE ist für mich etwas schwer einzureihen. Scheint mir sowas wie ein Sportkombi zu sein: gerade gut genug für die Familie und doch noch gut genug für Papa... :lol:
Abwarten was noch kommt...
 
Das ist leider definitiv zu wenig.
1600 Mhz wären knapp über 13,1 Teraflops, bei vermutlich 375 Watt Verbrauch.
Eine GTX 1080ti schafft locker zwischen 1900-2000 Mhz, was in 13,6-14,3 Teraflops resultiert un das bei gut maximal ~300 Watt Verbrauch.
Und ich vermute dass die Shaderauslastung auch diesmal bei AMD viel schlechter sein wird, so dass man theoretisch um die 16 Teraflops bräuchte um mit einer GTX 1080ti zu konkurrieren.

Das wäre jedenfalls kein gutes Zeichen für AMD.:(
 
Das Interessante an Vega ist auch nicht die reine Rechenleistung an sich sondern die Überarbeitungen an den Einheiten fürs Rendering. Dadurch, dass bspw. nicht sichtbare Objekte früher verworfen werden, muss entsprechend weniger berechnet werden und es kann mit weniger TFLOPs eine hohe Framerate erzielt werden. Außerdem wurde mit der neuen Geometrie Pipeline eine weitere Schwachstelle gegenüber den Nvidia Karten ausgemerzt. Daher: nicht von den reinen Leistungsdaten verwirren lassen und auf Benchmarks warten!
 
schaut nach 1070/1080-Leistung aus. aber ein paar Jahre Treiberarbeit an Vega wird Volta sicherlich das Fürchten lehren.
 
Übertaktet man die Vega auf 1500 Mhz hat selbst eine GTX 1080 mit 2 Ghz keine Chance, selbst wenn die Shaderauslastung nur auf Polaris Niveau liegt.
Vielleicht gibt es aber hier Fortschritte, dank den NCU's.
 
Im Prinzip wäre es so wie ich es erwartet habe, eine Leistung irgendwo zwischen der GTX 1080 und GTX 1080Ti, fragt sich nur wie sehr AMD den Chip hochprügelt. Im Prinzip spricht, rein technisch, eigentlich nichts dagegen aus den 8 Pin PCIe etwa mehr als 150W zu entnehmen, die Fury X hat ja auch bis zu 383W gezogen.

Lustig finde ich, dass sich die AMD Fans einig waren, dass AMD niemals 300/375W verbrauchen wird, auch damit hatte ich offenbar recht (und solange AMD nicht in Führung geht, wird sich da auch nichts dran ändern)..

Mit 8GB HBM2 wird das "eng", aber die (Gesamt-)Leistung ist natürlich auch noch entscheidend....^^

Ich denke/hoffe, dass es eine 16GB Variante gibt, die diesem Argument den Wind aus den Segeln nimmt.
 
Die wird es geben, aber vermutlich wesentlich später & kosten wird das wohl auch entsprechend. Wenn es "eilt", dann kann man sich ja aber auch eine FE gönnen, die ja bekanntlich aber auch nicht günstig ist.^^
 
1400 MHz - also doch wieder nur Polaris? Sieht mir doch stark nach einer "großen" RX 480 aus: Eine Karte die mit 200 MHz weniger Takt super effizient sein könnte, aber auf Gedeih und Verderb hochgeprügelt wird um irgendwie leistungstechnisch mithalten zu können.

Zum Glück plane ich momentan kein GPU Upgrade, da kann ich die Spekulationen, Grabenkämpfe und Träumereien ganz entspannt und mit viel Popcorn genießen. :D
 
die Fury X hat ja auch bis zu 383W gezogen.
Zeig mir ein Spiel in dem das der Fall war! (Du wirst keins finden.) Vorallem unter dem Gesichtspunkt, dass die auf 175 Watt abgeriegelte Nano nur 10 bis 15% niedriger als die Fury X taktet, sollte jedem einleuchten, dass dieser Wert Blödsinn ist.

Ich hoffe du kommst jetzt nicht mit ner Furmark Messung an. Dann wird es komplett lächerlich.

Der Gaming Verbrauch der Fury X liegt je nach Auflösung (je höher, desto mehr Verbrauch, da bessere Shader-Auslastung) zwischen 220 und 270 Watt.
 
Vega bleibt ein Fragezeichen. Die seltsame Kommunikation seitens AMD, mittelprächtige 3d-Mark Werte.... Realistisch gesehen kann man sich von Vega als Überflieger verabschieden.

Oder aber AMD kommuniziert bewusst verhalten, hält die Spiele-Leistung absichtlich treibermässig zurück und releast Ende Juli mit Pauken und Trompeten einen Hammer, um die Konkurrenz zu überraschen. ;)
 
Oder aber AMD kommuniziert bewusst verhalten, hält die Spiele-Leistung absichtlich treibermässig zurück und releast Ende Juli mit Pauken und Trompeten einen Hammer, um die Konkurrenz zu überraschen. ;)
Naja, das grenzt jetzt aber schon in Richtung 4D-Schach Theorie.

Bei der Fury wars genauso, nur wartet man da bis heute auf den "Hammer" :ugly:

Edit:

Zeig mir ein Spiel in dem das der Fall war! (Du wirst keins finden.) Vorallem unter dem Gesichtspunkt, dass die auf 175 Watt abgeriegelte Nano nur 10 bis 15% niedriger als die Fury X taktet, sollte jedem einleuchten, dass dieser Wert Blödsinn ist.

Ich hoffe du kommst jetzt nicht mit ner Furmark Messung an. Dann wird es komplett lächerlich.

Der Gaming Verbrauch der Fury X liegt je nach Auflösung (je höher, desto mehr Verbrauch, da bessere Shader-Auslastung) zwischen 220 und 270 Watt.

Anno 2070: 313 Watt
Risen 3: 329 Watt

Quelle: Radeon R9 Fury X im PCGH-Test: Die leiseste High-End-Grafikkarte seit fast einer Dekade

Mag sein, dass die Fury X keine 400W in Spielen zieht, aber von deinen 220W-270W kann ja wohl auch keine Rede sein :schief:
 
Zurück