AMD Radeon RX Vega 64: 3DMark-Ergebnisse mit finalen Treibern von ersten Reviewern veröffentlicht

AW: AMD Radeon RX Vega 64: 3DMark-Ergebnisse mit finalen Treibern von ersten Reviewern veröffentlicht

gerade mal meine getestet

die macht mit 0.925V die 2 GHz in Witcher 3 4K (ohne RAM Overclock) und zieht durchschnittlich 80% PT

also 80% von 170W sind 136W

auf 0,8V optimiert (1,8GHz) bin ich bei 61% PT

also rund 110W Verbracuh ^^

Meine normale ACX3.0 hatte ein PT von 150 Watt. Unter Last hatte ich so 80% Auslastung bei 2 Ghz. Entspricht bei Adam Ries 120 Watt...

Manche wollen es einfach nicht glauben, aber schaut euch den Nvidia Thread an, davon kann und wird AMD nur träumen können. btw konnte ich so auch meine 1070 damals unter Vollast bei 55°C und 850 rpm kühlen. :ugly:
 
AW: AMD Radeon RX Vega 64: 3DMark-Ergebnisse mit finalen Treibern von ersten Reviewern veröffentlicht

Also Vega ist schon bei Händler.

IMG_0438.JPG
 
AW: AMD Radeon RX Vega 64: 3DMark-Ergebnisse mit finalen Treibern von ersten Reviewern veröffentlicht

laut techPowerUp soll die V56 am 28.08. launchen...
 
AW: AMD Radeon RX Vega 64: 3DMark-Ergebnisse mit finalen Treibern von ersten Reviewern veröffentlicht

Mir persönlich ist es ja Wurst ob ich jetzt 40 oder 120 FPS habe. Hauptsache es läuft mir in 1440p flüssig. Idealerweise mit etwas Luft für anspruchvollere Titel. Ich find es nur einfach Schade (untertrieben), dass AMD schon wieder auf dem Papier so gut dasteht, aber dann die theoretische Leistung nicht voll umsetzen kann. Ich bin gespannt wie ein Bogen was demnächst in realistischen Spieletests zu sehen sein wird. Ich will meinen FreeSync Monitor auch gerne weiterhin voll nutzen können und teile mittlerweile die Befürchtungen vieler, dass man sich um eine so Karte prügeln muss. Die ganze Situation ist einfach zum kotzen momentan!
 
AW: AMD Radeon RX Vega 64: 3DMark-Ergebnisse mit finalen Treibern von ersten Reviewern veröffentlicht

Hast du den Test schon vor NDA gelesen , Respekt ! Der Stromverbrauch muss in Relation zur Leistung gesehen werden und ich glaube kaum das eine 1080 als Custom die 180 Watt halten kann ! Also nur dummes Geschwätz ! Und ob Vega 300 Watt verbrauch steht doch noch im Raum das werden dann Test´s zeigen !

Das einzige was sicher scheint ist das Vega mehr Strom braucht bei 1080 Leistung , wie viel das genau ist wirst du nächste Woche sehen .

510€ für ne 1080 hab ich schon lange nicht mehr gesehen .

Array

477,04€ am 8. August
 
AW: AMD Radeon RX Vega 64: 3DMark-Ergebnisse mit finalen Treibern von ersten Reviewern veröffentlicht

Ich habe ja vor mir eine Vega56 zu kaufen, aber nur als Customdesign. Wie lange das auch immer dauern wird...
Man braucht eben eine AMD Graka für FreeSync, sonst hätte ich vermutlich zur 1070 gegriffen.
 
AW: AMD Radeon RX Vega 64: 3DMark-Ergebnisse mit finalen Treibern von ersten Reviewern veröffentlicht

Ein paar Tage noch, dann darf man offiziell schimpfen, haten und fanboy sein :schief: Muss jeder selber wissen, ob man das sowas braucht. Vorher ist das völlig unnötig, aber lässt sich nicht vermeiden.

Was für mich wichtig sein wird:

- lautlos, wenn nicht gespielt wird
- wo ist der sweet spot bei oc/uv und WIE ist DANN die Leistung/fps (mhz und verbrauch bei custom ist mir nicht so wichtig, ich stelle mir meine Karten selbst ein, wenn möglich)
- was kommt für mich mit Bildschirm am Ende bei P/L besser
- als Vielspieler spielt für mich der Stromverbrauch sehr wohl ein Rolle im Verhältnis zum Kaufpreis und in Relation zu meinem gesamten System (Bildschirm(e) und Soundanlage)
- Verbrauch, wenn nicht gespielt wird
- evtl Lüftertausch ohne Garantieverlust
 
AW: AMD Radeon RX Vega 64: 3DMark-Ergebnisse mit finalen Treibern von ersten Reviewern veröffentlicht

Ein paar Tage noch, dann darf man offiziell schimpfen, haten und fanboy sein :schief: Muss jeder selber wissen, ob man das sowas braucht. Vorher ist das völlig unnötig, aber lässt sich nicht vermeiden.

Was für mich wichtig sein wird:

- lautlos, wenn nicht gespielt wird
- wo ist der sweet spot bei oc/uv und WIE ist DANN die Leistung/fps (mhz und verbrauch bei custom ist mir nicht so wichtig, ich stelle mir meine Karten selbst ein, wenn möglich)
- was kommt für mich mit Bildschirm am Ende bei P/L besser
- als Vielspieler spielt für mich der Stromverbrauch sehr wohl ein Rolle im Verhältnis zum Kaufpreis und in Relation zu meinem gesamten System (Bildschirm(e) und Soundanlage)
- Verbrauch, wenn nicht gespielt wird
- evtl Lüftertausch ohne Garantieverlust

Natürlich muss man solche Dinge wie verbrauch als User der jeden Tag dran sitz beachten. Dass selbe beim Auto, wer viel fährt muss auf den Verbrauch achten. Mir ist der verbrauch total egal bei jeder Hardwear egal welches Lager diese herstellt.
Mein Pc ist eine Funkiste und so soll es bleiben.Mich interessiert nur die FPS in 1080p und der Preis. Alles andere ist mir egal, die 4 Stunden in der Woche jucken mich der verbrauch nicht.
Das ist eben meine Ansicht die sicher nicht jeder teilen kann oder will (nicht nur bei Hardwear auch beim Auto wenn ich auf die Achse hinten Dampf gebe will ich Spaß, verbrauch "egal" ).
 
AW: AMD Radeon RX Vega 64: 3DMark-Ergebnisse mit finalen Treibern von ersten Reviewern veröffentlicht

Richtig, wer viel zockt, für den könnte der Verbrauch eine Rolle spielen. Aber woher nehmt ihr eigentlich die Zeit um so viel zu Zocken?

Arbeit, Familie, Haushalt, Einkäufe und andere Erledigungen, also alles was in einem normalen Leben so anfällt... wo bekommt man, dann soviel Freizeit, dass der Stromverbrauch einer Grafikkarte einen merklichen unterschied macht?


Gesendet von iPhone mit Tapatalk Pro
 
AW: AMD Radeon RX Vega 64: 3DMark-Ergebnisse mit finalen Treibern von ersten Reviewern veröffentlicht

Stromverbrauch = Wärmeentwicklung und die ist in der Regel relevant für die Lautstärke.
 
AW: AMD Radeon RX Vega 64: 3DMark-Ergebnisse mit finalen Treibern von ersten Reviewern veröffentlicht

Wie bereits erwähnt, gibt es noch andere Dinge, für die so ein Rechner genutzt wird.

Das können andere GPU intensive Programme sein, aber auch der Verbrauch auf dem Desktop kann da sehr entscheidend sein. (War einer der Gründe meine R9 290 loszuwerden)


Die damit einhergehende Wärmeentwicklung ist auch entscheidend.
 
AW: AMD Radeon RX Vega 64: 3DMark-Ergebnisse mit finalen Treibern von ersten Reviewern veröffentlicht

Richtig, wer viel zockt, für den könnte der Verbrauch eine Rolle spielen. Aber woher nehmt ihr eigentlich die Zeit um so viel zu Zocken?

Arbeit, Familie, Haushalt, Einkäufe und andere Erledigungen, also alles was in einem normalen Leben so anfällt... wo bekommt man, dann soviel Freizeit, dass der Stromverbrauch einer Grafikkarte einen merklichen unterschied macht?


Man soll nicht immer von sich auf andere schließen.
Ich hab jeden Tag theoretisch 2 Std Zeit dafür, nach der Arbeit. Und ich weiß ja nicht wie oft und lange du einkaufen gehst, bei mir nimmt das vll. eine Stunde in der Woche in Anspruch.

Ein Kumple von mir sitzt jeden Tag 3h vorm Rechner am zocken, weil seine Kinder bereits aus dem Haus sind. Trotzdem hat er noch andere Hobbies wie Motorradfahren und weitere.
Wer natürlich kleine Kinder daheim hat, hat natürlich nicht mehr so viel Zeit.

Es ist immer eine Frage der Umstände. Nur weil du nicht die Zeit hast, heißt das nicht dass andere es nicht hinbekommen. Alles eine Frage der richtigen Zeiteinteilung ;-)
 
AW: AMD Radeon RX Vega 64: 3DMark-Ergebnisse mit finalen Treibern von ersten Reviewern veröffentlicht

Ich werde denk ich trotzdem meine R9 390X mit den ersten Custom Designs in Rente schicken.
Preis Leistung sollte schon passen. [emoji106]

Gesendet von meinem SM-G920F mit Tapatalk
 
AMD Radeon RX Vega 64: 3DMark-Ergebnisse mit finalen Treibern von ersten Reviewern veröffentlicht

@diablo8685 und @all

Ja, 3 Stunden, halte ich ja noch vertretbar. Da man aber aus den Verschiedesten Gründen, dies nicht jeden einzelnen Tag im Jahr tut, könnte man hier schon einen Schnitt von 30Stunden die Woche übers Jahr nehmen.
Sogar eine Verbrauchsdifferenz von 150W würden hier nicht den Ruin bedeuten, wie so mancher es darstellt.

Lautstärke ist ein anderes Thema aber auch 350W GPU bekommt man leise gekühlt.

Die Hitzentwicklung? Ja dann höre ich auf was zu Kochen, mache keine Wäsche mehr, setze mich hin und versuche so wenig wie Möglich mich zu bewegen, damit keien weitere Hitze entsteht... das kingt lächerlich und soll es auch.

Genau so lächerlich finde ich es wie hier regelrecht Probleme gesucht werden um ein Produkt schlecht zu reden.

Es gibt natürlich Einsatzzwecke wo sogar ein mehrverbrauch von 50W extrem viel sind, das sind aber eher Nischen und diese entsprechenden User informieren sich gezielt in diese Richtung. Hier kann man einfach nicht mehr von einem normalen User oder Gamer reden.

Ungeachtet der Konkurenz, scheint Vega eine vernünftige Leistung zu einem fairen Preis zu bieten. Somit wird es eine gute Alternative.

Genau wie die RX4/580 Karten gute Alternativen zur GTX1060 sind. Beide Seiten haben ihre Vor- und Nachteile.

Deshalb gibt es aber keinen Grund gegen den ein oder anderen Sinnlos zu Haten.


Gesendet von iPhone mit Tapatalk Pro
 
AW: AMD Radeon RX Vega 64: 3DMark-Ergebnisse mit finalen Treibern von ersten Reviewern veröffentlicht

Die Hitzentwicklung? Ja dann höre ich auf was zu Kochen, mache keine Wäsche mehr, setze mich hin und versuche so wenig wie Möglich mich zu bewegen, damit keien weitere Hitze entsteht... das kingt lächerlich und soll es auch.


Es geht um die Hitzeentwicklung im Gehäuse gerade bei den Custom. Die die Wärme im Gehäuse an die restlichen Komponenten abgeben. Nicht Jeder will gleich eine Wasserkühlung draufmachen.

Daher kann es schon wichtig sein was so eine Karte an Wärme abgibt.

Zumal hohe Temps immer auf den Alterungsprozess sich niederschlagen.

Es jetzt als lächerlich hinstellen ist auch eher Problemverdrängung. ;)

Sicher muss man noch abwarten was bei Vega wirklich rum kommt.

Das Thema Abwärme kann aber je nach Nutzer und Gehäuseformfaktor schon wichtig sein.
 
AW: AMD Radeon RX Vega 64: 3DMark-Ergebnisse mit finalen Treibern von ersten Reviewern veröffentlicht

Die Energie die in eine GPU geht wird zu 100% in Wärme umgewandelt und diese Wärme muss dann vom Kühler abgeführt werden damit die GPU nicht überhitzt und da sind wir dann beim Thema Kühlung und Lautstärke.

Sekundäreffekte wie eine stärkere Aufheizung des Gehäuses und anderer Komponenten sind da zweitrangig.

Natürlich ist das eigentliche Problem dabei nur die potentielle Lautstärke, aber mit ner guten 3,5 Slotkühlung oder ne Wakü kühlt man auch 600W GPU locker weg. Ich persönlich mochte im Winter den warmen Luftstrom aus der R290, den habe ich extra mit etwas Plastik umgeleitet, so dass ich warme Füße hatte und ich sparte sogar Heizkosten beim Zocken!!

So gesehen ist das Thema Energieaufnahme wirklich unbedeutend und sollte nicht genutzt werden um ein revolutionäres Produkt wie VEGA zu kritisieren.
 
AW: AMD Radeon RX Vega 64: 3DMark-Ergebnisse mit finalen Treibern von ersten Reviewern veröffentlicht

Huch ich meinte eigentlich die Wort- bzw. Busbreite, die höher ist als bei anderen Speicherarten. Werf ich wirklich irgendwie bei HBM dauernt durcheinander. Vlt. liegts am "High Bandwidth" naja...

Ob jetzt 512 GB/s, 483,8 GB/s oder 484 GB/s wie auch immer. In Spielen macht das wohl kaum einen Unterscheid. Bei GPGPU ist das wichtiger. Irgendwie muss doch AMD darauf gekommen den HBM2 auf der Vega FE nur mit der Hälfte der möglichen 4096 Bit anzubinden, meine Vermutung wäre, dass es selbst dort (GPGPU) einfach zuwenig brächte, um die zusätzlichen Kosten für das MCM PCB Entwicklung, Fertigung usw. zu rechtfertigen. Nicht zu vergessen, dass auch die große Schwester Radeon Instinct MI25 die gleiche Speicherbandbreite hat.

Stimmt ich habe mal Screenshots von Fury X mit 600 MHz HBM gesehen, das wars. Hab mal irgendwo gelesen, dass dafür der HBM Controller sowie ein Teil GPU übertaktet werden müsste, was die ganze Sache recht instabil machen würde, was einen Betrieb außerhalb des Testens unmöglich machen sollte. Leider habe ich nie eine Fury bzw. Fury X in der Händen gehabt. Somit kann ich das absolut nicht verifizieren. Dafür hab ich mal einen Post im overclock.net gefunden 540 vs. 570 MHz in Ungine Heaven bei gleichem GPU Takt Unterschied: Messunggenauigkeit. Daher bleibe ich bei meiner These: HBM OC wird wohl irgendwie möglich sein, aber nicht viel bringen.

Die Busbreite ist fast noch weniger interessant, sie muss halt als Basis passend gewählt werden.
Warum AMD sich bei V10 für 2048 bit und damit für 2 Stacks entschieden hat, kann man nur vermuten. Eventuell sind unterm Strich 2x 8-Hi Stacks günstiger als 4x 4-Hi. Die Größe des Interposers dürfte kaum eine Rolle spielen, da er die günstigste Position vom ganzen Package (-prozess) einnimmt.
Im Endeffekt muss man sich bei Designerstellung für Rahmendaten entscheiden und für AMD schien dies wohl am besten zur kalkulierten Performance zu passen.
V20 soll ja mit 4096 bit Interface kommen, was zusammen mit 1/2 FP64 dann mehr auf Compute Performance zugeschnitten ist.

30 MHz ist jetzt nicht viel OC, klar das da kaum Mehrleistung rauskommt. Es gibt aber andere Ergebnisse zur Fury und glaube auch schon zur Vega FE, das VRAM OC was bringt.

Ausserdem muss ich sagen, dass ich Maßnahmen zur effzienten Nutzung von Speicherbandbreite den intelligenteren Weg finde als reinen brute force. Der leistungsmäßige Konkurrent zur RX Vega hat grad mal ein 256 bit Interface und rund 370 GB/s. Aber das kostet natürlich auch R&D, vorallem im Bereich Software. Und da hat AMD leider viel weniger Ressourcen

Deswegen sag ich immer wieder, HBM spielt seine Stärke hauptsächlich in Sachen Energieeffizienz und Platzersparnis auf dem DIE aus. Man könnte böse behaupten, V10 braucht HBM um nicht noch stromhungriger und grösser oder langsamer zu werden.



metalstor aha ok dann schau mal bitte zb die 1080 an die hat auf der verpackung zb 8 GB sind 8GB =8000 MB (10 Potenz) , 8GIB sind aber 8192 MIB (2 potenz)sogar der Arbeitsspeicher Grösse verhält sich so es gibt keine 8,16,32,64 GB Grössen man müsste sogar da sagen dass 8GIB =8192 MIB ,.... ,...... , ......... usw

Ja und dann schau mal, wie gross der reale VRAM bei ner 1080 oder selbst bei deiner 390X ist -> 8192 MB. Also ist 8 GiB absolut korrekt!
 
Zurück