Gigabyte Radeon RX Vega 64 G1 Gaming mit 2,5 Slots zeigt sich

NVidia bringt vermutlich keinen weiter optimierten Treiber Forza betreffend, eher bringt die andere Seite einen Patch. Teile einer gezielten Entwicklung auszutauschen ist IMO nicht möglich und ich persönlich würde mir das als Entwickler auch verbieten. Dann kann nVidia die Spiele selbst entwickeln und das ist auch eins ihrer selbst gebastelten proprietären Probleme, ähnlich wie PHysX. Irgendwann will es einfach niemand mehr anwenden und baut sich ausreichend Widerstand dagegen auf.

Das die so ruhig sind, und mit AMD&M$ gerade beim Thema Forza7 auf Kuschelkurs gehen (Spiel sei i.O., AMDs DX12 Performance sei i.O., NVidias Treiber sei i.O.), kann nur bedeuten da kommt nichts mehr von denen, außer natürlich Volta. Unter 4K sind sie ja schnell genug, heißt weiterhin Toppdog und um mehr geht es denen doch sowieso nicht.

Oder es bedeutet, dass man als Firma erwachsen geworden ist. Man muss nicht aus jedem verlorenen Benchmark ein Drama machen, und ich bin mir ziemlich sicher, dass man zumindest das komische Verhältnis der Geforce untereinander betrachten wird. Ob es dann ein Treiber oder ein Patch ist, wird man sehen. Ich halte es übrigens auch für von beiden IHVs für völlig legitim wenn man den App-Entwicklern Wege aufzeigt die Hardware besser zu nutzen.
 
Dass jeder Thread über Vega immer in dieses gebashe ausarten muss.
Eine Vega und eine 1080 geben sich nicht viel, auf ein paar Prozent hier oder da, dass geht doch eigentlich jedem in der Praxis den Buckel runter.
Vega verbraucht dabei deutlich mehr, hat aber die modernere Technik mit Option auf ein + in diversen Games sowie via Treiber in Zukunuft und den Vorteil von Freesync was deutlich billiger ist.

Der Launch war/ist ne Katastrohe sowohl was die Informationslage betrifft als auch die Verfügbarkeit bei Vega.

@JoM79: Den Artikel kannst du lange suchen, er wurde aus irgend einem Grund entfernt von Luxx.
 
Bei DX12 hat doch der Treiber angeblich eh nicht mehr viel Einfluss. Wenn nicht gerade etwas abgeschaltet ist was die Game in Software anbietet hängt es eh am Entwickler wie die Architekturen arbeiten.
Da kommen hallt unterschiedliche Ergebnisse bei raus. Carsten hat im Forum auch mal aufgeführt dass wenn man es z.B. mit Asynchronous Compute übertreibt ältere GCN Generationen sogar einbrecjen würden. Einfeich weil sie damit nicht voll umgehen können. Ein Entwickler wird jetzt auch nicht die Zeit haben genig Renderpfade für 3-4 AMD und zusätzlich 3-4 Nvidia Generationen einzubauen.

Daher kann ich mur schon vorstellen dass gerade Nvidia mit ihrem Treiberteam die Kontrolle ungern an den Entwickler abgibt. Deswegen auch das längere Festhalten an DX11. Da kann man halt nich eher bestimmen wie man dasteht als wenn man es in die Hände der Enwickler gibt.

Battlefront 2 zeigt auch wieder gute Performance auf beiden Seiten mit DX11 wohingegen DX12 immer noch nicht funktioniert.
 
Die Frage ist wohl eher warum du immer alles so verstehen willst und nicht anders herrum..

Ich möchte ja gerne verstehen, aber du lieferst für dein Argument "Vega brauche unter Directx12 weniger Strom" keinen Hinweis, ja nicht mal ein Indiz.
Warum sollte ich dir also glauben, nachdem du bereits Phantasiewerte zum Stromverbrauch in deinem System erfindest und diese hier kolportierst aber quasi die Rahmenbedingungen für diese Messung immer ignorierst?

Async Compute zum Beispiel lastet AMD GPU´s besser aus, also wird sich die Stromaufnahme unter Directx12 eher erhöhen, denn reduzieren.
Eine Reduktion der Leisungsaufnahme unter Directx12 ist doch quatsch, wenn dann erhöht sich die Effizienz.

Vega benötigt unter DX12 und Vulkan weniger Strom, ist nun mal ein Fakt. Kannst du auch gerne bei Format C in dem Artikel nachlesen auf den du dich so gerne berufst

Link bitte angeben, dann überprüfe ich das gerne und ob die Aussage auch wirklich so dort steht.

Also, dann behaupte mal nicht immer sondern beleg es auch mal.

Wo genau war in deinen Messungen bei dem Spiel das du gemessen hast konkret der Directx11 Renderpfad und der Directx12 Renderpfad zu sehen !und! hast du ein CPU Limit ausgeschlossen, d.h. die Auslastung der Karten sichergestellt?
Das sind von dir immer so verwegene Behauptungen. Wenn ich meine GPU unter Directx 9 laufen lasse und nebenbei noch nen Framelimiter dazuschalte, dann kann ich auch sagen dass die GPU wenig verbraucht.
Nur hat das nix mit Directx11 vs Directx12 zu tun.

Weil man unter DX12 die Framerate um bis zu 50% auf der gleichen Hardware (dx12 ready) steigern kann/könnte, die Hardware verbraucht dann sozusagen nicht weniger, aber generiert mehr Frames weil man Bottlenecks minimiert (Programmierung in LowLevel).

Dass man unter Umständen die Effizienz erhöhen kann (wenn das Bottleneck greift), bestreitet ja niemand. Nur hat auch das nix mit der Behauptung von Gurdi zu tun.
Aber selbst das sind Ausnamefälle. Wie man weiß erhöht async compute auch den Stromverbrauch, ergo wird Directx12 alleine da gar keinen Verbrauch senken.
Und unterm Strich kommt da garantiert auch wenig von einer verbesserten Effizienz an.

Vega wird schon genug Eigenschaften mitbringen und das dieser zielgerichtet für neuere APIs entwickelt wurde ist zu vermuten.

Was genau bringt Vega außer einen etwas größeren Nutzen von Async Compute denn im Vergleich zu Pascal genau für Directx12 mit?

Man muss auch Hardware nicht endlos pushen, wenn man ein eigenes Softwareumfeld hat, in der diese effizient betrieben werden kann. NVidia macht es vor.

Das Pushen fängt doch gerade erst an. Vielleicht nicht mehr so viel mit dem Treiber, aber vielmehr darf denn der Entwickler die Arbeit übernehmen.
Und ob sich Directx12 so durchsetzen wird, bezweifel ich ehrlichgesagt schon ein wenig.
 
Zuletzt bearbeitet:
Vega64 ist viel viel potenter als die veraltete 1080. Sowohl was raw-power angeht als auch uArch als technischer Top-Dog.

VEGA64 kann sich doch kaum von der zweieinhalb jahren alten 980TI absetzen und du kommst mit GTX1080 ?!
LINK
YouTube

Die unterschiede sind lachhaft! Ich schreibe es nochmal ! Die 980TI ist zweieinhalb jahre alt, zweieinhalb Jahre ! Die Leistung findest du also toll, wake up !

Gegen 1080 und erst recht gegen 1080Ti sieht die karte absolut kein land bis auf 2 oder 3 titel... ganz schön viel,lol
YouTube
Träum also weiter!


Kepler wird hier auch oft angesprochen:

LINK
YouTube

Totgeglaubte leben länger ! In den meisten spielen klar schneller als das konkurrenzprodukt aus dem Hause AMD (290x)
780TIOC vs 290XOC ! Die min-framerate ist deutlich höher in den meisten Spielen und darauf kommts an.
...und das im jahre 2017, jup !

...desto älter der Wein, desto besser. Der Wein vielleicht aber garantiert nicht AMD.
 
Zuletzt bearbeitet:
Suny, 780Ti vs 290x gabs neulich in der PCGH, da war das Ergebnis aber andersrum.
Da spielt einiges rein. Witcher 3 ist übrigens kein sinniger Vergleich.

Wenn ichs drauf anlege, wähle ich die Benches so, dass immer mehr als 3GB VRAM nötig sind, schwupps ist die 780Ti durch.

780Ti und 290x sind real aber deutlich näher beieinander als Vega64 und 1080Ti.
 
Zurück