Threadripper 2990WX: AMDs 32-Kerne-CPU läuft mit Radeon besser als mit GeForce

AW: Threadripper 2990WX: AMDs 32-Kerne-CPU läuft mit Radeon besser als mit GeForce

Die Intrinsic Functions habe ich erwähnt, weil die ja um die API herum direkt zum Treiber gehen. Ich glaube, ich könnte sogar nachweisen, dass es Fälle gibt, bei denen ein Standard Call ersetzt wird damit. Da müsstest du mir aber noch Zeit geben. Grundsätzlich gehe ich davon aus, dass Nivdia teils mit nicht optimierten Fallbacks arbeitet, damit das schön kompatibel ist und nach Standard aussieht.

Ich meine, betrachten wir es doch mal von einer anderen Warte aus. Nividia kocht sein eigenes Süppchen und holt dadurch mehr Performance raus und macht es gleichzeitig der Konkurrenz schwerer zu optimieren. Zwei Fliegen mit einer Klappe. Man muss schon arg naiv sein, wenn man davon ausgeht, dass sie nicht alles was geht aus den Bedingungen rausholen.
 
AW: Threadripper 2990WX: AMDs 32-Kerne-CPU läuft mit Radeon besser als mit GeForce

Nvidia bietet Zugang zu Instrinsic Functions über NvAPI, AMD tut es auch über AGS und im Falle von Vulkan über den eingebauten API-Mechanismus für Erweiterungen.
Bezogen auf die Middleware von den Herstellern würde es natürlich Sinn ergeben, wenn sie selber optimierte Routinen für ihre GPUs anbieten, im Falle von AMD könnte jeder nachschauen, wenn man den Durchblick bezüglich DX11/12 hat.
Öffentlich weiß ich jedenfalls nichts darüber, dass die Hersteller für die gängige Middleware in Spielen herstellerspezifische Intrinsics verwenden.

Bei der Konkurrenz muss es aber über den Vanilla DX11/12-Standard laufen, ansonsten würde es ja nicht funktionieren.

Aber wie schon vorher gesagt, dass sind zwei unterschiedliche Themen und ich verstehe nicht wieso GameWorks eingeworfen wurde, bei der Diskussion über die Treiberimplementierung von DX11.
 
AW: Threadripper 2990WX: AMDs 32-Kerne-CPU läuft mit Radeon besser als mit Georce

Schon vor bekanntwerden und Veröffentlichung des Golem-Tests hat ein User im 3DCenter auf diesen Umstand (Leistungseinbrüche mit Nvidia bei 64 Threads) hingewiesen - wohlgemerkt mit einem Intel-System.

welcher Intel Prozessor hat denn 32C/64T ?

Wenn man sich richtig informieren würde wüsste man, dass diese Probleme mit den Nvidia Karten erst AB 64 Threads auftreten.
Deshalb schneidet der 32 Kerne auch so viel schlechter ab in Games als der 16 Kerner.

und warum hat der 2990WX mit32C/32T in z.B. Far Cry 5 genau so ne miese Performance wie der 2990WX 32C/64T während der 2950x 16C/32T wesentlich besser läuft?
 
AW: Threadripper 2990WX: AMDs 32-Kerne-CPU läuft mit Radeon besser als mit Georce

OC-Burner hat laut User-Profil ein Dual-Socket-System, 2x Intel Xeon E5 2696 v3 (Haswell), 2x 18C/32T bzw. insgesamt 36C/72T.

Und hast du den Link zu den Far Cry 5 Resultaten?
 
AW: Threadripper 2990WX: AMDs 32-Kerne-CPU läuft mit Radeon besser als mit Georce

OC-Burner hat laut User-Profil ein Dual-Socket-System, 2x Intel Xeon E5 2696 v3 (Haswell), 2x 18C/32T bzw. insgesamt 36C/72T.

dual Socket könnte ja auch wieder eigene Probleme einführen

würde mich interessieren, wie es auf einem monolitischen 32C/64T Intel Prozzis aussieht

aber da müssen wir wohl bis 2020 warten

Und hast du den Link zu den Far Cry 5 Resultaten?

der PCGH Test

http://www.pcgameshardware.de/Ryzen...-267793/Tests/und-2950X-im-Test-1262448/2/#a1
 
Zuletzt bearbeitet:
AW: Threadripper 2990WX: AMDs 32-Kerne-CPU läuft mit Radeon besser als mit GeForce

Vor allem diese 720p Tests bei einer 32 Kern CPU. :lol:

Interessant wäre gerade jetzt, 4K NV vs. AMD! Welche CPU bringt mehr und was bringen so massiv viele Kerne? Oder bringen die gar nichts und sind hinderlich? Genauso, wie gut skalieren NV und AMD Karten mit so vielen Kernen. Wäre auch eine sehr interessante Frage!

Wer sich so eine CPU kauft, den interessieren FPS vielleicht zu 10%! Der kann alles nebenbei machen und hat in Games keine Probleme. Aber Primär, kauft man sich so eine CPU um eben zu Arbeiten und viele Threads parallel am Laufen zu haben.
 
AW: Threadripper 2990WX: AMDs 32-Kerne-CPU läuft mit Radeon besser als mit GeForce

@Locuza: Woher kommt der Begriff Middleware in dem Zusammenhang. Ich finde den Begriff unsauber verwendet in diesem Fall.
 
AW: Threadripper 2990WX: AMDs 32-Kerne-CPU läuft mit Radeon besser als mit Georce

welcher Intel Prozessor hat denn 32C/64T ?



und warum hat der 2990WX mit32C/32T in z.B. Far Cry 5 genau so ne miese Performance wie der 2990WX 32C/64T während der 2950x 16C/32T wesentlich besser läuft?

HÄÄÄÄ???

Das ist doch genau das was ich geschrieben habe.

AB 32C/64threads stürzt die Performance bei NV Karten massiv ein.

Deshalb hat der 2990WX/Kernzahl halbiert, ne bessere Performance als der 2990WX mit voller Kernzahl.
Warum der 16 Kerner AMD nun noch etwas schlechter ist als der 32Kerner mit halbierter Kernzahl, keine Ahnung?

Und bzgl. dem Intel System mit 32Cores........das hätte man sich denken können, was das für ein System sein soll oder?

OC-Burner hat laut User-Profil ein Dual-Socket-System, 2x Intel Xeon E5 2696 v3 (Haswell), 2x 18C/32T bzw. insgesamt 36C/72T.

Und hast du den Link zu den Far Cry 5 Resultaten?

Danke :daumen:

dual Socket könnte ja auch wieder eigene Probleme einführen

würde mich interessieren, wie es auf einem monolitischen 32C/64T Intel Prozzis aussieht

aber da müssen wir wohl bis 2020 warten

:hmm:

Es spiegelt jedoch genau das wieder, was wir mit NV Karten und einem AMD 32 Kerner erleben.
Dass sobald du über die magische Grenze 32C/64T kommst, die Performance massiv einbricht.

Das das sowohl bei AMD Singlesocket / als auch bei Intel Dual Socket stattfindet.......ist ein Muster oder nicht?
 
AW: Threadripper 2990WX: AMDs 32-Kerne-CPU läuft mit Radeon besser als mit Georce

@Locuza: Woher kommt der Begriff Middleware in dem Zusammenhang. Ich finde den Begriff unsauber verwendet in diesem Fall.
Es kommt in vielen Berichterstattungen und Diskussionen vor, dass man Software im Bereich Gaming und Rendering, welche zusätzliche Funktionen bereitstellt und die Inputs der eigenen Anwendung verwendet, als Middleware bezeichnet wird.
Das deckt sich nicht unbedingt mit dem Verständnis einer Zwischenschicht in anderen Bereichen.
Ich sehe die Situation als schwammig an.

HÄÄÄÄ???

Das ist doch genau das was ich geschrieben habe.

AB 32C/64threads stürzt die Performance bei NV Karten massiv ein.

Deshalb hat der 2990WX/Kernzahl halbiert, ne bessere Performance als der 2990WX mit voller Kernzahl.
Warum der 16 Kerner AMD nun noch etwas schlechter ist als der 32Kerner mit halbierter Kernzahl, keine Ahnung?

Und bzgl. dem Intel System mit 32Cores........das hätte man sich denken können, was das für ein System sein soll oder?
[...]
Bei den PCGH-Benches unter Far Cry 5 sieht man das ein 2990WX mit 32 Kernen und 32 Threads (SMT Off) unter Far Cry 5 ähnlich desatrös performt, wie ein 2990WX mit 32 Kernen und 64 Threads.
Während der 2990WX mit halben Kernen, also 16C/32 Threads wesentlich besser performt, auch besser als der 2950X:
http://www.pcgameshardware.de/Ryzen...-267793/Tests/und-2950X-im-Test-1262448/2/#a1

Es ist also ein Beispiel, wo 64 Threads nicht die magische Zahl darstellen, ab wann der Nvidia-Treiber zusammenbricht.
Rise of the Tomb Raider wäre auch auffällig, falls PCGH das mit DX11 getestet hat und nicht DX12, denn dort ist der 2990WX mit 64Threads ~10% schneller, als mit SMT-Off (32Threads).
 
AW: Threadripper 2990WX: AMDs 32-Kerne-CPU läuft mit Radeon besser als mit Georce

lol@ riesiger Problemherd bei DX12, wo die Application sich um die Command-Buffer kümmert und praktische Beispiele auf keine generellen Probleme oder Auffälligkeiten bei Nvidia hinweisen.
Du findest sogar gegenteilige Befunde, Deus Ex: Mankind Divided, ein AMD Kooperationsspiel, lief mit DX12 richtig schlecht im CPU-Limit, Nvidia in dem Fall sogar besser:
Deus Ex Benchmark: DirectX 12 legt in Mankind Divided massiv zu - ComputerBase

Weiß der Teufel was da schief gelaufen ist, es soll deiner Propaganda-Schallplatte nur mal etwas Wind aus dem Segel nehmen.
Aber du stellst dich ja sowieso nie einer Diskussion.
Lass es einfach! In punkto Game Engines und APIs bist du genauso ein Laie wie ich. Nur weil du zwei Fachbegrife mehr als in Diskussionen einwerfen kannst, hast du nicht automatisch Recht.

Tomb Raider @ DX12 lief auf Ryzens unterirdisch mit dem Nvidia Treiber. Die wenigen Spiele, in denen es fähige Spielentwickler geschafft haben den DX11 Mainthread weitgehend zu eliminieren und Multicores extrem gut auszulasten, zeigen eine auffallend geringe Performance mit dem Nvidia Treiber, weil die Threadverschiebungen kontraproduktiv werden. AMDs Scheduler, der die Arbeit einfach so annimmt, wie sie vom Spiel kommt, wird dann schneller, da weniger Overhead im Treiber.

Die meisten DX12 Spiele, die mit AMD Hardware Auffälligkeiten zeigen (bzw. zeigten, da ggf. gepatcht), sind TWIMTBP DX11 Spiele mit angeflanschtem DX12:
Tomb Raider (Nvidia promoted) @ Ryzen mit Nvidia GPU @ DX12 - Beweis
The Division (Nvidia promoted) @ Ryzen mit Nvidia GPU @ DX12 - Beweis

Und dank RTX, was DX12 voraussetzt, wird Nvidia in der Zukunft genügend explicit API Promotion leisten müssen.
Interessiert mich an dieser Stelle nicht, was in Zukunft so alles kommt. Ja in Zukunft traue ich Nvidia zu, wirklich mal was für DX12 zu tun. Hier in der News geht es aber um einen Treiber, der die Architektur (den Infinity Fabric) einer CPU überlastet und durch Threadverschiebungen mehr Schaden anrichtet als er Performance generiert. Es wäre besser, wenn der Treiber garnichts in punkto CPU Last machen würde und man sich stattdessen auf zeitgemäße APIs festlegen würde. Die Konsolen machen es vor.

Und was du immernoch nicht verstanden hast, ist dass ich seit Jahren sage, ich will dass moderne APIs genutzt werden, weil sie für den Kunden nur Vorteile haben. Im Grunde ist es egal warum was schlecht performt. AMD performt auch oft genug schlecht. Muss ich das jetzt jedesmal dazusagen, damit du nicht aus deinem Loch gekrochen kommst?

Nvidia tut da richtig schreckliche Dinge durch Treiberaufwand bessere Performance rausquetschen zu wollen. :ugly:
Vorliegend tun sie genau das Gegenteil. :ugly: Und genau darum geht es: um die Inkonsistenz. AMD ist total konsistent: grottig in DX11, perfekt in DX12! Der Rest ist Game-Entwicklersache.

Man kann gerne das Gegenteil beweisen, vor allem legitime Resultate und Sachbefunde, wo die Probleme genauer erörtert werden und ob Nvidia bei ihrer Lösung Kompromisse eingeht, welche im Schnitt dann auch noch schlechter für die Kunden ist.
The stage is yours.
Haha was für ne Zeitverschwendung. Wenn ich einen wirklich produktiven Vortrag über Treibereigenheiten hören möchte, dann spreche ich ganz sicher nicht mit dir, sondern mit einem Programmierer (und ich kenne einige).
 
Zuletzt bearbeitet:
AW: Threadripper 2990WX: AMDs 32-Kerne-CPU läuft mit Radeon besser als mit GeForce

@Locuza: Hast du irgendwelche Programmiererfahrung. Irgendwelche kleineren Projekte, Mikrobenchmarks, irgendwas? Du verfügst über ein beeindruckendes Allgemeinwissen in dem diskutierten Bereich, was es dir erlaubt Zusammenhänge zu erkennen und gegebenenfalls Diskontinuitäten aufzudecken. Ich nenne es mal konzeptionelles Wissen. Solch in Wissen reicht schon aus, um Leute mit stark oberflächlichem Allgemeinwissen, wie das z.B. bei Schaffe der Fall ist, zu beeindrucken. Problematich wird's aber dann, wenn es ans Eingemachte geht. Genau das müssten wir aber hier tun.

Wir hatten das Thema ja schon in einem anderen Thread und auch per PN. Ich hatte dir Code Beispiele gezeigt, wo ein Custom Context verwendet wurde. Es war weit und breit kein Hinweis auf Vererbung oder auf ein Implementierungs-Contract (Interface) vorhanden. Trotzdem hast du gefragt, sinngemäß, wo das irgendwie einen Anhaltspunkt auf das von mir Behauptete liefern soll. Da musste ich insgeheim in die Tischkante beißen und brach die Diskussion ab. Gefühlt ist jeder zweite hier im Forum Informatik-Professor. Das macht Diskussionen schwierig.

Wir werden, das ist leider Tatsache, in der Sache ohne den Code nicht weiterkommen. Was uns bleibt, ist Plausibilisieren. Es ist in einem hohen Maße plausibel, dass Nvidia mit Custom Ansätzen die Konkurrenz behindert. Ist das böse? Nein, das Wettbewerb. Ist das Propaganda, wenn man darüber spricht? Nur, wenn man solche unangenehmen Tatsachen nicht wahrhaben will...
 
AW: Threadripper 2990WX: AMDs 32-Kerne-CPU läuft mit Radeon besser als mit Georce

Lass es einfach! In punkto Game Engines und APIs bist du genauso ein Laie wie ich. Nur weil du zwei Fachbegrife mehr als in Diskussionen einwerfen kannst, hast du nicht automatisch Recht.
Die Fachbegriffe sind auch völlig irrelevant, wenn man sie nicht kennt, kann man dank Googel nachschauen, ansonsten geht es nur darum meinen Standpunkt zu verstehen und seinen eigenen Standpunkt ausführen zu können.

Tomb Raider @ DX12 lief auf Ryzens unterirdisch mit dem Nvidia Treiber.
Und ist das bei jeder DX12 App im CPU-Limit bei Nvidia mit Ryzen der Fall?
Kann man "lief" als Vergangenheit verstehen oder ist das immer noch so bei Tomb Raider?

Die wenigen Spiele, in denen es fähige Spielentwickler geschafft haben den DX11 Mainthread weitgehend zu eliminieren und Multicores extrem gut auszulasten, zeigen eine auffallend geringe Performance mit dem Nvidia Treiber, weil die Threadverschiebungen kontraproduktiv werden. AMDs Scheduler, der die Arbeit einfach so annimmt, wie sie vom Spiel kommt, wird dann schneller, da weniger Overhead im Treiber.
Eine auffallend geringe Performance im CPU-Limit richtig? Welche Spiele sind das denn?

Die meisten DX12 Spiele, die mit AMD Hardware Auffälligkeiten zeigen, sind TWIMTBP DX11 Spiele mit angeflanschtem DX12 (besagtes Tomb Raider).
Und Deus Ex am Anfang, ein Gaming Evolved Titel mit AMD, passt da wie genau hinein?
Also kann man pauschal nicht behaupten, dass nur weil ein Spiel DX12 umsetzt, die CPU-Performance bei AMD immer fine and dandy ausfällt und bei Nvidia schlecht?

Interessiert mich an dieser Stelle nicht, was in Zukunft so alles kommt. Ja in Zukunft traue ich Nvidia zu, wirklich mal was für DX12 zu tun. Hier in der News geht es aber um einen Treiber, der die Architektur (den Infinity Fabric) einer CPU überlastet und durch Threadverschiebungen mehr Schaden anrichtet als er Performance generiert. Es wäre besser, wenn der Treiber garnichts in punkto CPU Last machen würde und man sich stattdessen auf zeitgemäße APIs festlegen würde. Die Konsolen machen es vor.
Du hast DX12-Promotion eingeworfen, ich habe nur erwähnt das sich das zwangsläufig ergeben wird, wenn Nvidia ihr RTX pushen möchte.
Und ich stimme von Anfang an zu, dass es Nvidias fail ist, dass bei so einem hohen Thread-Count etwas zusammenbricht.
Aber gibt es eine seriöse Einschätzung und eine Verhaltensanalyse wieso Nvidias Treiber bei einer so hohen Threadzahl Probleme hat?
Und könnte Nvidia ihr Verhalten nicht modifizieren pro Threadcount, denn ich würde nicht die Performance für die Hauptkunden mit 4-8 Kernen degradieren, nur um Performanceeinbrüche bei >32 Threads zu fixen.
Zu guter Letzt ist es die Entscheidung vom ISV welche API er verwendet, wieso ein Hardwarehersteller Kritik abbekommt ist für mich nur indirekt verständlich.

Und was du immernoch nicht verstanden hast, ist dass ich seit Jahren sage, ich will dass moderne APIs genutzt werden, weil sie für den Kunden nur Vorteile haben. Im Grunde ist es egal warum was schlecht performt. AMD performt auch oft genug schlecht. Muss ich das jetzt jedesmal dazusagen, damit du nicht aus deinem Loch gekrochen kommst?
Du solltest dein Scheduler-Zeug vielleicht mal weitflächig beweisen, denn "ein eigenes Scheduler-Süppchen", welches überall Probleme bereitet außer bei DX11-Spielen mit einer hohen Ein-Thread-Last nehme ich dir nicht einfach ab.

Haha was für ne Zeitverschwendung. Wenn ich einen wirklich produktiven Vortrag über Treibereigenheiten hören möchte, dann spreche ich ganz sicher nicht mit dir, sondern mit einem Programmierer (und ich kenne einige).
Das Zitat lädt jeden ein das Gegenteil zu beweisen, es schlägt nicht vor das du meinen Vortrag glauben musst.
Du kannst gerne die Programmierer einladen, welche sich mit der Materie auskennen oder zumindest deren Output wiedergeben.

[1] Hast du irgendwelche Programmiererfahrung. Irgendwelche kleineren Projekte, Mikrobenchmarks, irgendwas? Du verfügst über ein beeindruckendes Allgemeinwissen in dem diskutierten Bereich, was es dir erlaubt Zusammenhänge zu erkennen und gegebenenfalls Diskontinuitäten aufzudecken. Ich nenne es mal konzeptionelles Wissen. Solch in Wissen reicht schon aus, um Leute mit stark oberflächlichem Allgemeinwissen, wie das z.B. bei Schaffe der Fall ist, zu beeindrucken. Problematich wird's aber dann, wenn es ans Eingemachte geht. Genau das müssten wir aber hier tun.

[2] Wir hatten das Thema ja schon in einem anderen Thread und auch per PN. Ich hatte dir Code Beispiele gezeigt, wo ein Custom Context verwendet wurde. Es war weit und breit kein Hinweis auf Vererbung oder auf ein Implementierungs-Contract (Interface) vorhanden. Trotzdem hast du gefragt, sinngemäß, wo das irgendwie einen Anhaltspunkt auf das von mir Behauptete liefern soll. Da musste ich insgeheim in die Tischkante beißen und brach die Diskussion ab. Gefühlt ist jeder zweite hier im Forum Informatik-Professor. Das macht Diskussionen schwierig.

[3] Wir werden, das ist leider Tatsache, in der Sache ohne den Code nicht weiterkommen. Was uns bleibt, ist Plausibilisieren. Es ist in einem hohen Maße plausibel, dass Nvidia mit Custom Ansätzen die Konkurrenz behindert. Ist das böse? Nein, das Wettbewerb. Ist das Propaganda, wenn man darüber spricht? Nur, wenn man solche unangenehmen Tatsachen nicht wahrhaben will...
1. Effektiv nichts dergleichen, entsprechend ja, wenn es ums Eingemachte im Detail geht habe ich keinen Durchblick mehr.
2. Ich erinnere mich daran, aber es war vermutlich im Thread selber, laut Postfach habe ich keine anderen PNs von dir, außer den letzten Beiden und ich habe nie PNs gelöscht.
In die Tischkante musst du natürlich nicht beißen, wenn ich zu blind für den offensichtlichen Beweis bin, kannst du den Sachverhalt einfach weiter ausführen bis es hoffentlich für mich ersichtlich wird.
Ich lehne mich mal aus dem Fenster und behaupte das ich kein Troll bin, mitdem man seitenweise diskuttieren kann, nur um wieder am Ausgangspunkt zu landen, weil er nicht Argumente/Beweise akzeptieren möchte.
3. Bezüglich der Treiberimplementierung stehen meine Fragen nach wie vor offen, weswegen vermutet man das der DX11-Treiber nicht standardkonform ist und auf welche Art und Weise würde es dann ein Problem darstellen?
GameWorks ist ein anderes Thema.

Bezüglich der Propaganda geht es mir Pauschalaussagen, die immer wieder vorkommen, wo die Beweislage entweder nicht vorhanden ist oder zu selektiv ausfällt.
 
Zuletzt bearbeitet:
AW: Threadripper 2990WX: AMDs 32-Kerne-CPU läuft mit Radeon besser als mit GeForce

Gut, dann habe ich deine Reaktion weitaus negativer ausgelegt, als ich es hätte tun sollen. Wir können gerne später in dem alten Thread weiterdiskutieren. Ich informiere dich per PN, welcher das ist, falls du es nicht schon selbst siehst unter "Themen mit meinen Beiträgen".
 
AW: Threadripper 2990WX: AMDs 32-Kerne-CPU läuft mit Radeon besser als mit Georce

3. Bezüglich der Treiberimplementierung stehen meine Fragen nach wie vor offen, weswegen vermutet man das der DX11-Treiber nicht standardkonform ist und auf welche Art und Weise würde es dann ein Problem darstellen?

Das diskutieren wir besser noch hier, oder? Der Treiber hat ja nichts mit dem Standard zu tun, denn es ist die Schicht/Ebene hinter der API. Hatte ich irgendwo was Gegenteiliges formuliert? Ist mir gerade nicht bewusst... Nein, der Treiber ist, vorausgesetzt wir schließen Injection aus, nicht das "Problem". Ob wir Injection indes völlig ausschließen können, weiß ich natürlich nicht gesichert. Woher auch.
 
AW: Threadripper 2990WX: AMDs 32-Kerne-CPU läuft mit Radeon besser als mit GeForce

Ja, es ging um folgenden Abschnitt:

Ich: "Vermutlich mit dem entsprechenden Aufwand die API-Befehle auf mehrere Threads zu splitten, während die API Konformität eingehalten wird.
Nvidia hat an der Stelle wahrscheinlich viel Arbeit betreiben müssen, um zu schauen welche Befehle und Zusammenhänge (State-Control, Buffer-Updates etc.) getrennt werden können, ohne das es synchronisiert werden muss bzw. die Synchronisationskosten teurer sind, als die Vorteile dank mehrerer Threads."

Du: "Ja, Nvidia hat sehr viel investieren müssen dafür und es hat sich ja auch gelohnt. Aber hier gehen unsere Einschätzungen auseinander. Ich denke eben nicht, dass es dann noch mit dem Standard konform ist. Du solltest auch den massiven Einsatz von Intrinsic Functions in den Gameworks Libs nicht vergessen.

Es ist halt sehr schwierig nachzuweisen, wenn man den Code nicht hat."

Es ging nur um die Treiberimplementierung und Vorwürfe Nvidias Treiber würde sich nicht an den DX11-Standard halten und ein eigenes Süppchen kochen.
GameWorks wurde dann noch extra aus mir nicht ersichtlichen Gründen in die Diskussion eingeworfen.
 
AW: Threadripper 2990WX: AMDs 32-Kerne-CPU läuft mit Radeon besser als mit GeForce

Solch in Wissen reicht schon aus, um Leute mit stark oberflächlichem Allgemeinwissen, wie das z.B. bei Schaffe der Fall ist, zu beeindrucken.

Was meinst du hierbei nun konkret?
Ich studiere Wirtschaftsinformatik im.5ten Semester und bin so wie mir das scheint weit mehr Programmierer als Locuza das zu sein scheint, ich hab auch viele Dokumentationen bezüglich Directx11/12 überflogen nur fehlt mir die Zeit, Muße und auch das Interesse mich damit intensiv auseinanderzusetzen.

Ich schmunzel halt meistens wenn es wieder darum geht dass sich Nvidia nicht an den Standard hält, dies und das tun soll und ja das Thema behandle ich durchaus etwas oberflächlich, aus gutem Grund.

Ich persönlich habe noch nie einen nachvollziehbaren, belastbaren Beleg dafür gesehen, noch in keinem Forum.
Selbst die Hairworksgeschichte sehe ich mittlerweile keineswegs als Performancesabotage, die Hardware vs Softwarescheduler Theorie auch als hanebüchen.

Ich halte sogut wie alles für Verschwörungstheorien, auch die Story von wegen Nvidia läuft schlechter mit Ryzen Prozessoren.
Da hab ich genau Gegenteilige Erfahrung gemacht. ( Ausnahmen bestätigen die Regel, Tombraider zum.Bsp, wurde schon lange gepatched)

Genau das müssten wir aber hier tun.

Dann hau mal ganz konkret den Abschnitt heraus ( Codebeispiel) wo du denkst Nvidia würde sich hier vom Standard entfernen.
Vorher wäre es auch noch nötig genau zu definieren was Nvidia unter Direct x11 anders macht und was du gemeinhin als Standard definierst und wo das festgelegt sein soll.

Apropos Intrinsic functions in Gameworklibs.
So wie ich das sehe läuft der auch auf AMD GPUs ausführbare Code, was die meisten Gameworksfeatures einschliesst, gleich performant, als Beispiel genannt sei hier mal HBOA+.
 
Zuletzt bearbeitet:
AW: Threadripper 2990WX: AMDs 32-Kerne-CPU läuft mit Radeon besser als mit GeForce

@Locuza: Es ging mir dabei um die Dinge, die davor passieren. Der Treiber alleine wird diese Optimierungen nicht hinbekommen. Es bleibt außerdem noch die Möglichkeit, sich über Injection an die API dranzuhängen.

@Schaffe: Gut, dass ich nun weiß, wo du stehst. Du brauchst Hinweise? Warum ist eine Vega 64 mit Vulkan API nahezu auf Augenhöhe mit einer 1080 Ti? Unter DirectX 11 hingegen ist der Unterschied ziemlich groß. Nun könntest du sagen, dass die Vega Architektur auf Low Level APIs ausgelegt ist, aber warum ist dann die Performance mit der Frostbite Engine unter DirectX 11 so gut?

Ist das so schwer zu akzeptieren, dass Nvidia knallhart mit dem Wettbewerber umgeht? Intel hat das mit seinen Compilern genauso gemacht. Was hat das mit Verschwörungstheorien zu tun?

Und wieso reagieren so viele allergisch darauf, wenn man sagt, dass Nvidia sich nicht an den Standard hält. Das ist doch erstmal nur eine wertfreie Aussage. AMD könnte es doch genau so machen. Der Standard kann doch auch mangelhaft sein und muss sozusagen umgangen werden für bessere Produkte. Wenn AMD sich an den Standard hält, dann kann es auch einfach daran liegen, dass sie die Ressourcen nicht haben, um es besser zu machen.

Standardiserung hat erstmal einfach nur die Vorteile, dass mehere Parteien die selben Bedingungen vorfinden und Aufwände minimiert werden. Nvidia hat das halt in seine Richtung verschoben und dafür Aufwand investiert. Den werden sich mit Sicherheit nicht an AMD "verschenken".
 
Zuletzt bearbeitet von einem Moderator:
AW: Threadripper 2990WX: AMDs 32-Kerne-CPU läuft mit Radeon besser als mit GeForce

[...]
Apropos Intrinsic functions in Gameworklibs.
So wie ich das sehe läuft der auch auf AMD GPUs ausführbare Code, was die meisten Gameworksfeatures einschliesst, gleich performant, als Beispiel genannt sei hier mal HBOA+.
Nur weil das Endergebnis vergleichbar ist, heißt das natürlich nicht, dass Nvidia keinen optimierten Pfad für ihre GPUs verwenden könnte, während AMD Standard DX11 ausführen muss.
Aber wie gesagt, ich habe nicht mitbekommen, ob Nvidia für Herstellerübergreifende GameWorks-Module eigene Code-Pfade verwendet.

[1] @Locuza: Es ging mir dabei um die Dinge, die davor passieren. Der Treiber alleine wird diese Optimierungen nicht hinbekommen. Es bleibt außerdem noch die Möglichkeit, sich über Injection an die API dranzuhängen.

[2] @Schaffe: Gut, dass ich nun weiß, wo du stehst. Du brauchst Hinweise? Warum ist eine Vega 64 mit Vulkan API nahezu auf Augenhöhe mit einer 1080 Ti? Unter DirectX 11 hingegen ist der Unterschied ziemlich groß. Nun könntest du sagen, dass die Vega Architektur auf Low Level APIs ausgelegt ist, aber warum ist dann die Performance mit der Frostbite Engine unter DirectX 11 so gut?

Ist das so schwer zu akzeptieren, dass Nvidia knallhart mit dem Wettbewerber umgeht? Intel hat das mit seinen Compilern genauso gemacht. Was hat das mit Verschwörungstheorien zu tun?

Und wieso reagieren so viele allergisch darauf, wenn man sagt, dass Nvidia sich nicht an den Standard hält. Das ist doch erstmal nur eine wertfreie Aussage. AMD könnte es doch genau so machen. Der Standard kann doch auch mangelhaft sein und muss sozusagen umgangen werden für bessere Produkte. Wenn AMD sich an den Standard hält, dann kann es auch einfach daran liegen, dass sie die Ressourcen nicht haben, um es besser zu machen.

Standardiserung hat erstmal einfach nur die Vorteile, dass mehere Parteien die selben Bedingungen vorfinden und Aufwände minimiert werden. Nvidia hat das halt in seine Richtung verschoben und dafür Aufwand investiert. Den werden sich mit Sicherheit nicht an AMD "verschenken".
1. Der Kernpunkt von Anfang an war aber Nvidias Treiberverhalten bezogen auf die CPU-Performance und Lastverteilung, die in mehreren Spielen offensichtlich besser, als bei AMD abläuft.
Und wie die API-Befehle umgesetzt werden, hängt vom Treiber ab, er ist dafür verantwortlich.
Hier wird der Vorwurf nicht aufgeklärt, wieso Nvidias Umsetzung sich nicht an den Standard halten sollte.

2. Weil in der Regel Nvidias Treiber weniger CPU-Overhead erzeugt und scheinbar besser mit der internen Ressourcen-Verwaltung zurecht kommt, als AMD.
Bei Wolfenstein II profitiert AMD dann davon, dass der Entwickler sich um diese Dinge kümmern musste und noch exklusiv für AMD Shader Intrinsics zum Einsatz kommen, die von den Entwicklern verwendet wurden.
Bei mehreren DX11 Spielen dagegen sieht man Nvidia vorne, was kein festgeschriebenes Gesetzt ist, alle Spiele verhalten sich etwas anders und wenn ein Studio gute Optimierungsarbeit leistet oder hochkarätige Spiele auf den Markt bringt, dann wird das häufig noch mit extra Aufwand von den IHVs optimiert.

Bei Battlefield 4 sah es im CPU-Limit für AMDs Treiber damals gar nicht gut aus unter 720p:
Nvidia GeForce 337.50 im Test: Erste Eindruecke vom „Wundertreiber“ (Seite 3) - ComputerBase

Da Lag Nvidia schon früher über 20% in Führung, mit dem Treiber-Update 337.50 dann über 60%, während im GPU-Limit eine 290X mit Mantle und eine 780Ti gerade einmal 5% getrennt haben.

Um das noch einmal zu bekräftigen, was sind die Gründe für eine Einschätzung dafür, dass Nvidia sich nicht an den Standard hält?
Hier bei Spielen ohne Gamworks, die nichts anderes tun, außer Standard-DX11-Befehle heraus zu spucken und wo Nvidia stellenweise massiv im CPU-Limit Vorteile aufweist?
 
AW: Threadripper 2990WX: AMDs 32-Kerne-CPU läuft mit Radeon besser als mit GeForce

Wir kommen hier nicht weiter, denke ich. Lass uns demnächst in dem anderen Thread weiterdiskutieren. Ich informiere dich, falls du es nicht schon selbst mitbekommst.
 
AW: Threadripper 2990WX: AMDs 32-Kerne-CPU läuft mit Radeon besser als mit Georce

Da hab ich auch nicht wirklich dran geglaubt. Das spielt sich wenn dann alles in Größenordnungen ab die praktisch sowieso kaum relevant sind.
Ich meine mal ehrlich, fast die Hälfte der Spiele-PCs da draußen haben nochn ZWEI-Kerner als CPU, die überwältigende Mehrheit dürfte bei <=4 Kernen liegen.

Genau davon gehe ich auch aus.
Die meisten normalen PCs sind vermutlich Laptops mit bestenfalls i5 Dualcore mit SMT, das reicht zum flüssigen Surfen aus und auch für gelegendliches Spielen.

Das ist auch der Grund, warum man heute mit einem Hexacore mit SMT (selbst ohne SMT) bestens aufgestellt ist für die neusten Spiele, sofern die Grafikkarte ausreichend dimensioniert ist, selbst ein Quadcore mit SMT liefern kaum schlechtere Ergebnisse in Spielen, sieht man ja daran wie gut der i7-7700K immer noch da steht.

Wer kauft sich also einen Threadripper mit 32 Kernen zum Spielen? Wahrscheinlich überhaupt niemand oder nur jemand, der zu viel Geld hat und ein Bischen rumprobieren will, was das Teil so alles kann und wo es besser und wo vielleicht schlechter ist als die Mainstream-CPUs.
 
Zurück