Radeon RX Vega 56 im CPU-Limit schneller als Geforce GTX 1080 Ti? Der Leserbrief der Woche

Echt der Hammer, welchen Wind der Benchmark eines Spiels im Alpha Status aufwirbelt. :schief:

Und was ist deine Kernaussage? Was deiner Meinung nach wird sich dann durch den Verlusst des Alphastatus ändern?

@ Topic : ich sehe das so, dass AMD hier nicht super schnell, sondern Nvidia super langsam ist. Ich muss allerdings sagen, dass ich es AMD gönne. Profitieren werden wir alle von einem guten Preiskampf.
 
@Edelhamster: "nein, wirklich, ist da so, dass "meine These" vom Artikel in Frage gestellt wird? is ja´n Ding! wär ich so nie drauf gekommen.
Vielen Dank für den Hinweis."
warum tangiert dich mein Standpunkt dermaßen, dass du mir gegenüber so ausfallend wirst?

ich steig hier auch in die pauschalen Aussagen der posts ein. und glaube den bisherigen benches mehr, als diesem Artikel.
kann ja sein, dass Vega den DX11-CPU-overhead in den Griff bekommen hat; das werden dann kommende benches zeigen, auf die wir wohl noch etwas warten müssen. bisher hatten AMD-Karten immer ein Problem mitm DX11-CPU-overhead und haben da mit großartigen drops überzeugt.
 
Zuletzt bearbeitet:
Und was ist deine Kernaussage? Was deiner Meinung nach wird sich dann durch den Verlusst des Alphastatus ändern?...
er meinte wohl, dass EIN Spiel im Alpha-Status weit weniger aussagekräftig ist, als ne ganze Reihe an Spielen, fertig released. ist jetzt auch nicht allzu weit hergehol; ansonsten kann man dem cherry-pick hier sicher nen gegenläufigen cherry-pick gegenüberstellen.

aber wie dem auch immer sei, ich gönns AMD auch. die haben ja sonst nix.
 
Der Treiber Overhead ist anderer Natur.
Nvidias Treiber kann Aufgaben an andere Threads verteilen, diese Funktion läuft auf dem Mainthread, das macht AMD nicht.
Verteilt die Anwendung eh schon ihre Aufgaben auf viele Threads verliert die Funktion von Nvidia ihren nutzen und verbraucht trotzdem Ressourcen. Nachdem aber fast alle DX11 Programme keine richtige Multithreadingprogrammierung haben gewinnt Nvidia an Leistung in den aller meisten fällen, während AMD verliert. Denn wird eh schon verteilt entsteht zusätzliche Last auf dem Mainthread und das kann die FPS drücken (sieht man auch in DX12 Titeln mit Nvidia)
Wobei Vega anscheinend nochmals anders agiert, denn Polaris verliert trotzdem das "Overhead-Duell".
Das ist der Punkt des Videos und auch das was wir in PUBG sehen
 
Und was ist deine Kernaussage? Was deiner Meinung nach wird sich dann durch den Verlusst des Alphastatus ändern?
In der Regel kommt der Prozess der Optimierung (Performance) am Ende der Entwicklung.
Ich habe natürlich keine Glaskugel, aber ich erwarte, dass die GPUs sich in der finalen Fassung des Spiels so einordnen, wie sie es bei den meisten anderen Spielen auch tun.
 

Du bist der Geilste! :O

Ob AMD mit Vega nun tatsächlich dieses Problem gelöst hat und nun im Prozessorlimit eventuell gar besser als Nvidia dasteht, ist eine Frage, die ich momentan noch nicht beantworten kann.
...
Eine Verbesserung der Situation war aber schon bei Polaris deutlich feststellbar und Vega scheint in einigen Spielen deutlich besser zu performen als von älteren Radeon-Generationen gewohnt.
...
Also bitte, gibt es das von dir auch in aktuell?
 
Ich verstehe das Problem hier nicht? Auch nicht dass PSGH nicht gescheit auf die Frage antwortet. Wir haben hier ein völlig unoptimiertes Spiel im Alpha Stadium bei dem die VEGAs vorn sind.
Soweit wäre es kein Problem, es gibt sicher auch mal ein fertiges Spiel bei dem eine Vega besser dasteht als eine NV, bspw. Dirt mit seiner uralten Engine. Allerdings sieht man doch an den Benchmarks von PCGH bei PUBG dass die 1080, 1080 und 1080 Ti unter FHD (und nur um die Auflösung ereifern sich hier alle" fast identische Bildraten liefern. Wartet mal ab ob da noch Optimierungen bzw. entsprechende Treiber kommen sobald NV (und auch AMD!) es für angemessen erachten.
 
In der Regel kommt der Prozess der Optimierung (Performance) am Ende der Entwicklung.
Ich habe natürlich keine Glaskugel, aber ich erwarte, dass die GPUs sich in der finalen Fassung des Spiels so einordnen, wie sie es bei den meisten anderen Spielen auch tun.

Ja, aber AMD wird ja da zumindestens nicht schlechter werden. Ich hab ebenso keine Glaskugel, aber kann mir kaum vorstellen das es arg anders wird. Wir werden sehen.
 
Wenn AMD GPU + CPU bei 100% Auslastung 60 Fps liefern, wie soll die Nvidia GPU dann mehr liefern, wenn sie zusätzlich durch den Overhead des Treibers, noch die CPU belastet? Das macht doch rein logisch schon keinen Sinn!

Doch, genau das ist scheinbar der Fall.
Das Problem ist, dass die CPU meist schon limitiert, wenn gar nicht alle Kerne zu 100% ausgelastet sind. Das sollte ja klar sein. Oft limitiert nur ein Kern und auf den anderen ist die Auslastung nur bei 70 oder 80%.
So gesehen muss die Performance nicht unbedingt sinken, wenn der Treiber dann auch noch die letzten paar Prozent auslastet bzw. die Last gleichmäßiger verteilt.

Ich hab das ganze gesehen, als ich von meiner HD7950 auf die GTX 980 gewechselt bin. Damals hatte ich mit meinem damaligen i5 3470 in einigen Spielen starke CPU limits.
z.B. Dragon Age Inquisition. Hinterlande. GPU-Auslastung sinkt auf 70-80%, CPU ist bei 90%, Ein Kern bei 100%. -> CPU-limit. Das reduzieren der Auflösung bringt nichts, VRAM war auch nicht voll.
Nachdem ich die GTX980 eingebaut habe, ist die CPU-Auslastung auf 95-100% gestiegen und die FPS sind im CPU-Limit auch nochmal um 5-max. 10 FPS angestiegen. Im Schnitt warens aber ca. 5 FPS.

Somit hat der Nvidia Treiber im CPU-limit definitiv eine bessere Performance generiert. U.a. auch deswegen, weil die CPU maximal ausgelastet wurde. Genau das hat der AMD Treiber eben nicht so gut hinbekommen.

Man sollte zudem bedenken, dass Dragon Age Inquisition ein AMD Gaming Evolved Spiel incl. Mantle war. Letzteres hat auf meiner HD 7950 weder im CPU-limit noch im GPU-limit irgend was gebracht. Im Gegenteil, mit Mantle hatte ich extrem schlechte Frametimes...
Im Endeffekt hat der Nvidia Treiber im CPU-Limit mehr FPS aufs Bild gebracht, als Mantle, was schon ne Nummer ist.... Mantle hat damals halt erst mit den R9 200 Karten wirklich gut funktioniert.
 
Zuletzt bearbeitet:
und genau so verhält es sich schon verdammt lange. und ob sich das bei vega ändert, wird uns erst der Mittelwert aus ner Masse an Spiele-benches sagen und sicher nicht ein einziges Spiel im Alpha-Stadium.
dass es immer und jedesmal nen Artikel wert ist ... egal ob tW3 und gameworks, oder async shader und AoS oder Vulkan und Doom und jetzt das hier, kaum gibts nen ordentlichen cherry-pick, grolt die Masse "AMD wird kommen!" ... plus sinnreicher Artikel jedesmal ... und die Realität zeigt uns seit Jahren, dass das Ausnahmen sind, die die Regel bestätigen.
 
und genau so verhält es sich schon verdammt lange. und ob sich das bei vega ändert, wird uns erst der Mittelwert aus ner Masse an Spiele-benches sagen und sicher nicht ein einziges Spiel im Alpha-Stadium.
dass es immer und jedesmal nen Artikel wert ist ... egal ob tW3 und gameworks, oder async shader und AoS oder Vulkan und Doom und jetzt das hier, kaum gibts nen ordentlichen cherry-pick, grolt die Masse "AMD wird kommen!" ... plus sinnreicher Artikel jedesmal ... und die Realität zeigt uns seit Jahren, dass das Ausnahmen sind, die die Regel bestätigen.

Nochmal, such mal was neues.
Eine Verbesserung der Situation war aber schon bei Polaris deutlich feststellbar und Vega scheint in einigen Spielen deutlich besser zu performen als von älteren Radeon-Generationen gewohnt
 
Doch, genau das ist scheinbar der Fall.
Das Problem ist, dass die CPU meist schon limitiert, wenn gar nicht alle Kerne zu 100% ausgelastet sind. Das sollte ja klar sein. Oft limitiert nur ein Kern und auf den anderen ist die Auslastung nur bei 70 oder 80%.
So gesehen muss die Performance nicht unbedingt sinken, wenn der Treiber dann auch noch die letzten paar Prozent auslastet bzw. die Last gleichmäßiger verteilt.

Ich hab das ganze gesehen, als ich von meiner HD7950 auf die GTX 980 gewechselt bin. Damals hatte ich mit meinem damaligen i5 3470 in einigen Spielen starke CPU limits.
z.B. Dragon Age Inquisition. Hinterlande. GPU-Auslastung sinkt auf 70-80%, CPU ist bei 90%, Ein Kern bei 100%. -> CPU-limit. Das reduzieren der Auflösung bringt nichts, VRAM war auch nicht voll.
Nachdem ich die GTX980 eingebaut habe, ist die CPU-Auslastung auf 95-100% gestiegen und die FPS sind im CPU-Limit auch nochmal um 5-max. 10 FPS angestiegen. Im Schnitt warens aber ca. 5 FPS.

Somit hat der Nvidia Treiber im CPU-limit definitiv eine bessere Performance generiert. U.a. auch deswegen, weil die CPU maximal ausgelastet wurde. Genau das hat der AMD Treiber eben nicht so gut hinbekommen.

Man sollte zudem bedenken, dass Dragon Age Inquisition ein AMD Gaming Evolved Spiel incl. Mantle war. Letzteres hat auf meiner HD 7950 weder im CPU-limit noch im GPU-limit irgend was gebracht. Im Gegenteil, mit Mantle hatte ich extrem schlechte Frametimes...
Im Endeffekt hat der Nvidia Treiber im CPU-Limit mehr FPS aufs Bild gebracht, als Mantle, was schon ne Nummer ist.... Mantle hat damals halt erst mit den R9 200 Karten wirklich gut funktioniert.

Richtig, weil du noch Ressourcen übrig hattest die vom Treiber genutzt werden konnten. Wenn die CPU aber zu 100% ausgelastet ist (wie im Video, was du offensichtlich nicht angeschaut hast) und zwar auf allen Kernen, dann hast du mit Nvidia weniger FPS. Genau das sage ich die ganze Zeit und nichts anderes:
AMD GPU's sind im CPU Limit bei DX11 Spielen schneller. Das liegt daran, dass NVIDIA den GPU Scheduler (oder so ähnlich) Softwareseitig umgesetzt hat. Dies erzeugt einen ordentlichen Overhead, den die CPU berechnen muss. Bei Schnellen CPU's die noch Ressourcen in Form von Threads/Cores hat, ist dies kein Problem.

Wenn die CPU mit AMD GPU zu 100% auf allen Kernen ausgelastet ist, bekommst du im gleichen Szenario weniger Fps mit einer Nvidia GPU, weil der Treiber zusätzliche Rechenzeit für die Aufteilung des Workloads der DX11 Threads braucht. Das wird im Video aber auch exakt so erklärt. Du kannst nicht bei 100% Auslastung irgendwoher noch 10% zaubern.
 
Was für eine unsinnige Diskussion. Besser gesagt, eine Disk. mit falschen Fakten. Der Overhead bei DX11(!) ist bei AMD größer als bei Nvidia, letzter habe seit ein paar Jahren dahin gehen massiv optimiert, während AMD das nicht hin bekommen hat oder wollte und ihre Entwicklerzeit in Mantle gesteckt haben. Deshalb ist AMD bei DX12 da auch vorn, was aber im Moment total verlorener Aufwand ist da es im Moment kaum sinnvolle Anwendungsmöglichkeiten gibt.

Was man übrigens auch im dem Video von owned139 (nicht eher 0815 mit Abschluss an der youtube-Uni?) sieht, Drawcalls unter DX11 Nvidia > AMD, bei DX12 umgekehrt
 
Zuletzt bearbeitet:
...
Wenn die CPU mit AMD GPU zu 100% auf allen Kernen ausgelastet ist, bekommst du im gleichen Szenario weniger Fps mit einer Nvidia GPU, ...
pauschal gesehen, ist das totaler Schwachsinn, weil falsch. und nur auf dieses Spiel hier im Alpha-Stadium gesehen, genauso falsch, weil ein einziges Spiel nicht repräsentativ ist. AMD-Karten kannste zu starken CPU stecken, aber bei schwachen CPUs nimmt man mal besser ne NV-Karte. es sei denn man möchte möglichst extreme fps-Einbrüche und miese frametimes, dann is man mit AMD-Karten ganz weit vorne dabei.
 
Was mir gerade bei den PCGH Benches von PUBG auffällt:
HBCC on (RX Vega; 16.344 MiB)


Ich habe die Kommentar-Threads nur sporadisch gelesen, wurde schon thematsiert ob das Einfluss auf das hervorragend Abscheiden von Vega unter 1080p hat? Falls noch nicht und Phil mitliest, fiel das Ergebnis mit "HBCC off" ähnlich aus oder habt ihr das nicht (gegen)getestet? Da soll mal einer sagen "Vega is not thrilling"^^
 
und genau so verhält es sich schon verdammt lange. und ob sich das bei vega ändert, wird uns erst der Mittelwert aus ner Masse an Spiele-benches sagen und sicher nicht ein einziges Spiel im Alpha-Stadium.
dass es immer und jedesmal nen Artikel wert ist ... egal ob tW3 und gameworks, oder async shader und AoS oder Vulkan und Doom und jetzt das hier, kaum gibts nen ordentlichen cherry-pick, grolt die Masse "AMD wird kommen!" ... plus sinnreicher Artikel jedesmal ... und die Realität zeigt uns seit Jahren, dass das Ausnahmen sind, die die Regel bestätigen.
Ist das so? Ich habe dieses Thema gerade komplett gelesen und außer dir! haut niemand etwas in Richtung "AMD wird kommen" raus. Nur du. Genau das ist das Problem. Weil irgendwelche fanboys sowas wie du behaupten und dann anderen in die Schuhe schieben, gibt's überhaupt so oft Theater. Typen wie du kommen dann zur nächsten Gen, oder beim nächsten Spiel wieder und meinen AMD Nutzer hätten früher schon so etwas gesagt und es wird geglaubt. Dabei war es nachweislich die andere Seite die das einfach behauptet und anderen untergejubelt hat. Bitte erspar uns das.

Du meinst du die Situation wäre wie schon so oft cherrypicked? Sonst lag Spiel XY AMD dann einfach mal besser. Hier ist es aber nicht das Spiel allgemein, sondern nur die 1080p Auflösung, also das CPU limitierte Szenario. Wie erklärst du dir das? Am Code von Spiel kann's kaum liegen, dann wären die höheren Auflösungen ebenso betroffen. Also woran?
Erklär uns, vor allem aber mir, bitte mal im Detail wie das zustande kommt.

Wenn du keine eindeutige Erklärung hast, dann ist deine Kritik an dem Artikel welcher diesen Umstand einfach nur hinterfragt vollkommen ungerechtfertigt.

Gesendet von meinem HTC mit Tapatalk
 
Äh ok der Overhead bei Nvidia ist also nur bei dx11. Die Frage hat mir zwar keine beantwortet. Schade ich dann habe ich leider keine FPS Steigerung. Ich habe nämlich ein dx10(per Patch,eigentlich nur ein dx9 Spiel) Spiel das CPU limitiert ist. Nämlich company of heroes opposing Front. Wenn das stimmt was ihr sagt,müsste ich ja bei ner AMD Grafikkarte ja weniger FPS haben. Das Spiel lastet nämlich nur maximal 4 Kerne aus und ich habe ja 8. Und bei Nvidia muss es dx11 sein um von den Overhead zu profitieren. Aber das Spiel ist nur per Patch ein dx10. Also kein echtes dx10 Spiel. Natoll habe damit kein Vorteil,Mist.
 
@Cleriker: haste auch den anderen thread zu dem Thema gelesen?

"... Ob AMD mit Vega nun tatsächlich dieses Problem gelöst hat und nun im Prozessorlimit eventuell gar besser als Nvidia dasteht, ist eine Frage, die ich momentan noch nicht beantworten kann..."
warum ist die Rede davon, ob AMD "nun tatsächlich dieses Problem gelöst hat", wenn AMD dieses Problem gar nicht hat? was ja alle behaupten, die meinen, dass NV ein Problem mitm CPU-overhead unter DX11 hätte.
 
Zurück