AMD Ryzen: Bremsen Nvidia-GPUs die Performance?

Ich hab den (Hardwareunboxed Typ) mal auf deinen Beitrag aufmerksam gemacht und er sagt: What would you like me to do about this? Part 1 featured high quality setting but even with the GTX 1070 and Fury X we were GPU limited.

Total War: Warhammer hat beispielsweise eine Auflösungsskalierung. Auf 50 % (das ist glaube ich das Minimum, dann limitiert die CPU mit hoher oder Ultra-Einheitengröße mit einiger Gewissheit). In Rise of the Tomb Raider ist's etwas schwieriger. Was aber immer geht, ist die CPU zu untertakten. Mit zwei Gigahertz ist man mit einiger Gewissheit im CPU-Limit und dann sieht man auch, ob das Spiel skaliert und ob eine AMD-GPU tatsächlich potenzielle Vorteile hat.

Um's vorweg zu nehmen: Klar, kaum ein Spieler taktet seine CPU herunter. Aber bevor jemand schreibt, dass das ein unrealistisches Szenario ist: Wir verschieben lediglich das CPU-Limit, um den zu langsamen GPUs entgegen zu kommen. Hätten wir eine GPU die schnell genug rechnen könnte (und die kommt in Zukunft ganz bestimmt), würde sich das 1:1 auf die normalen oder sogar OC-Takte des Prozessors übersetzen.

Gruß,
Phil
 
kobu - nein, der Trieber ordnet nur die Drawcalls - das Scheduling wird noch immer 100% in hardware gemacht - geht auch garnicht anders.
Bitte informiere dich zuerst mal darüber was die Begriffe die du heir zu verwenden veruschst Beschreiben.
Der scheduler wurde verkleinert und vereinfacht - aber er ist noch immer ein vollwertiger Scheduler der nun eben gewisse extras nichtmehr besitzt.
So whatte Fermi noch harware um unterschiedliche Threads ohne konflikte gleichzeitig auf dem selben SM laufen zu lassen und dies in Echtzeit zu regulieren.



wenn wir das so zusammenfassen.
RyZen hat mehr Kerne, mehr insgesammte Rechenleistung, größeren Cache - und dennoch sacken die FPS gewaltig ab wenn eine Anwendung auf schnelle kommunikation zwischen den kernen angewiesen ist.
Ergo - nicht die schuld von irgendwem anderen sondern AMD.

Wenn mann mit vielen Kernen wirbt aber diese dann zum Problem werden ist das nicht schuld der Anwendungen sondern der Hardware.
Die ursache ist AMDs Architektur. AMD propagiert doch immer das viele Kerne besser sind (Grundsätzlich ja auch richtig) und das diese auch genützt werden sollen. nur sieht man hier eben das dies bei synchronisations-kritischen Anwendungen zu gehörigen Problemen führen kann. unter Dx11 hat Nvidia hervorangende Treiber die die hardware gut zu nutzen wissen. Wenn dann aber die hardware slebst einen Strich durch die Rechnung macht gibts eben Probleme.
Man sieht dies auch deutlich daran das dieses Problem mit anderen CPU-Architekturen nicht auftritt. Weder bei Broadwell-E noch bei der AMD-FX-Serie - was wiederum klar aufzeigt das es ein Problem der Zen-Architektur ist.
Deshalb hat auch der auf Zen Architektur basierende Intel 8 Kerner Probleme mit DX12 auf Nvidia...
Hmm...
 
Hm..
Ob es nun an "noch nicht auf Ryzen optimierten Treibern" liegt oder ob NVidia tatsächlich mit den Treibern ein Ausstechen der Konkurrenz (auch) im CPU-Sektor betreibt: beides wäre für mich ein reelles Szenario.

Bin ich schon zu abgebrüht? :hmm:
 
Hm..
Ob es nun an "noch nicht auf Ryzen optimierten Treibern" liegt oder ob NVidia tatsächlich mit den Treibern ein Ausstechen der Konkurrenz (auch) im CPU-Sektor betreibt: beides wäre für mich ein reelles Szenario.

Bin ich schon zu abgebrüht? :hmm:

Würde sagen ja bis du, da hat Nvidia ja nichts von wenn ihre Karten durch Ryzen ausgebremst werden.
Das einzige was sie davon hätten, ist das mehr leute zu Radeon karten greifen würden, wenn sie eine Ryzen CPU haben. Und das liegt sicher nicht in Nvidias interesse.
 
Findet euch einfach damit ab, Leute. Nvidia dominiert den GPU Markt und Nvidia mag DX12 nicht, da ihr Abstand zu AMD in DX11 größer ist als in DX12.
70% der Leute mit dedizierter GPU benutzen Nvidia. Und Nvidia ist besser unter DX11. Unter DX12 ist AMD besser. Aber niemand nutzt DX12, weil Nvidia unter DX11 besser ist. Und 70% der Leute haben ja Nvidia Karten und die sind schließlich besser unter DX11, warum dann DX12 nutzen.....
 
Findet euch einfach damit ab, Leute. Nvidia dominiert den GPU Markt und Nvidia mag DX12 nicht, da ihr Abstand zu AMD in DX11 größer ist als in DX12.
70% der Leute mit dedizierter GPU benutzen Nvidia. Und Nvidia ist besser unter DX11. Unter DX12 ist AMD besser. Aber niemand nutzt DX12, weil Nvidia unter DX11 besser ist. Und 70% der Leute haben ja Nvidia Karten und die sind schließlich besser unter DX11, warum dann DX12 nutzen.....

Selten so einen schmarrn gelesen. Zumal geht das auch irgendwie am thema vorbei, hier geht es ja nicht darum das DX12 schlechter auf Nvidia performt. Sondern das es da einbrüche bei der leistung gibt, bei der Kombination Nvidia + Ryzen + DX12.
Aber vermutlich hat Nvidia schon damals zu 980Ti Zeiten ein ryzen sample gehabt, und ihre GPUs und Treiber extra so entwickelt das das passiert....

Und übrigens: Ja, warum DX12 nutzen? Wer entscheidet das überhaupt, ob DX11, 12, oder Vulcan genutzt wird.

Nvidia? AMD?

Weder noch, sondern entwickler von Spielen und Engines. Und da DX12 und Vulcan alles andere als toll oder einfach ist zum entwickeln nimmt das ganze auch nicht so viel fahrt auf.

Die frage ist für den Entwickler da eher: Soll ich die extra Zeit und das extra Geld in eine DX12 und Vulcan unterstützung stecken, wenn es mir eigentlich kaum Vorteil bringt gegenüber DX11.
 
Na ja,

wenn du meinst das bleibt so, trotz Scopio, PS4 pro und AM4, kannst du das ja glauben, wenn ich in meine Excel Liste schaue, habe ich im Moment 12 Leute, die auf ein Angebot von mir mit Ryzen warten, 9 davon wollen max 300€ für eine Grafikkarte investieren, die bekommen nach momentaner Informationslage alle eine RX 480/580, da ich ohne Gewissensbisse keine GTX 1060 6G mit Ryzen empfehlen kann, der Rest wird von mir dahingehend beraten auf Vega zu warten und so lange ihe alte Grafikkarte weiter zu benutzen. Mit Vega wird neu bewertet.
 
Aber nach deiner Aussage sind Leute die sich Intel Kaufen anscheinend nur zu blöd es besser zu wissen..


Das die zu blöd sind sagst du jetzt, aber ein großteil ist recht ahnungslos, da zum einen zu sehr auf gekaufte tests Wert gelegt wird.
Und darüberhinaus die wenigsten selbst Systeme zusammenstellen oder gar Ahnung haben vom Übertakten und optimieren.


Ich spreche von der Masse an Nutzern die einfach Intel kaufen weil damit immer geworben wird ohne zu wissen das es gute Alternativen gibt.

Wenn ein AMD 8370, wie ich ihn noch nutze so grottig langsam wäre wie es in sämtlichen tests gezeigt wird, wie schaffe ich es dann immer der erste zu sein der auf Servern verbindet und warten muss.
3-5 Sekunden später kommen dann die tollen Intel User mit ihrer Hammer Hardware, das ich nicht lache.
Wie sag ich immer die Werbung ist alles. Denn viele verlassen sich einfach auf Propaganda und vertrauen blind ohne zu testen aus Zeitmangel oder Desinteresse.
 
Ich bin ziemlich sicher, dass NVidia ihren Treiber in naher Zukunft anpassen wird, so dass diese Performance Einbrüche auf Ryzen (ggü. Intel mit gleich vielen Kernen) nicht mehr auftritt. Alles andere macht aus NVidias Sicht eigentlich keinen Sinn.
 
naja, Nvidia hat vielleicht auch ein gewisses eigeninteresse das ryzen nicht eine ordentliche marktdurchdringung bekommen. Das beutete für AMD höhrer einnahmen, was dann wieder in forschung und entwicklung gesteckt werden kann. Somit stärkere konkurenz für NV
 
Das kann sich Nvidia nicht leisten da die OEMs die Ryzen Systeme verkaufen auch Nvidia Karten einbauen und verkaufen und somit Großkunden sind .Die verprellt man nicht.MVs preispolitik ist eins aber das kann ich mir Absolut nicht vorstellen.
 
naja, Nvidia hat vielleicht auch ein gewisses eigeninteresse das ryzen nicht eine ordentliche marktdurchdringung bekommen. Das beutete für AMD höhrer einnahmen, was dann wieder in forschung und entwicklung gesteckt werden kann. Somit stärkere konkurenz für NV
Das macht keinen Sinn. NVidia will sicher nicht die eigenen Kunden verprellen. Lasst bitte Eure Verschwörungstheorien stecken.
 
Na ja,

wenn du meinst das bleibt so, trotz Scopio, PS4 pro und AM4, kannst du das ja glauben, wenn ich in meine Excel Liste schaue, habe ich im Moment 12 Leute, die auf ein Angebot von mir mit Ryzen warten, 9 davon wollen max 300€ für eine Grafikkarte investieren, die bekommen nach momentaner Informationslage alle eine RX 480/580, da ich ohne Gewissensbisse keine GTX 1060 6G mit Ryzen empfehlen kann, der Rest wird von mir dahingehend beraten auf Vega zu warten und so lange ihe alte Grafikkarte weiter zu benutzen. Mit Vega wird neu bewertet.

Es bringt nichts auf Vega zu warten wenn man jetzt ne neue Grafikkarte will.

Und bitte nicht Scorpio, PS4 Pro, AM4 in einen topf werfen.

AM4 passt da schon mal gar nicht rein. Und vor allem vergisst du da eine sache: Scorpio und PS4 Pro sind standardisierte Systeme. Die haben nur eine CPU und eine GPU die auf dem jeweiligen System in frage kommt. Da ist es einfach für einen Entwickler mit einer low API zu Arbeiten.

Beim PC sieht das aufgrund etlicher Kombinationsmöglichkeiten zwischen CPU, GPU, Ram etc schon wieder ganz anderst aus. Und DX12 und Vulcan verlangt eigentlich das die Entwickler sich mit so ziemlich jeder Verfügbaren Grafikkarte auseinandersetzen, um für die Grafikkarte zu Optimieren. Das kennt man ja von Nvidia Treibern, und son bissl von AMD Treibern, wenn da für ein Spiel Optimiert wird. Das müssen jetzt halt die Spiele Entwickler machen.
Wenn ein AMD 8370, wie ich ihn noch nutze so grottig langsam wäre wie es in sämtlichen tests gezeigt wird, wie schaffe ich es dann immer der erste zu sein der auf Servern verbindet und warten muss.
3-5 Sekunden später kommen dann die tollen Intel User mit ihrer Hammer Hardware, das ich nicht lache.

Das hat eigentlich überhaupt nichts mit deiner CPU zu tun.

Ich verbinde auch immer als ersten mit meinem Xeon E3-1230v2.
Ugh, diese AMD FX, AMD Ryzen, und Intel i7 nutzer mit ihrer Hammer Hardware, das ich nicht lache.

Sollen sich alle mal nen brauchbaren Xeon E3 v2 kaufen.

Ach halt Multiplayer Spiele, das hat ja auch noch was mit Ethernet bzw WLan zuhause zu tun. Und mit dem verwendeten Router.. und verwendeten Switches, und dat Modem... dan noch die Leitung vom ISP, und des ISPs server, router und Switches etc etc.


Und btw: Eine gute Alternative ist oftmals nur augenscheinlich eine Gute Alternative, hier kommt es wieder auf den Verwendungszweck an. Und Der AMD FX war nie eine gute Alternative, Stromverbrauch, leistung etc. Allerhöchstens in einigen Speziellen fällen war der AMD FX eine gute Alternative, aber das war eher selten beim typischen Endverbraucher der fall.

Man könnte sich auch mal den Athlon anschauen, der war eine sehr gute Alternative zum Pentium 4, aber nicht wenn es um Medien encoding etc ging.
 
Zuletzt bearbeitet:
naja, Nvidia hat vielleicht auch ein gewisses eigeninteresse das ryzen nicht eine ordentliche marktdurchdringung bekommen. Das beutete für AMD höhrer einnahmen, was dann wieder in forschung und entwicklung gesteckt werden kann. Somit stärkere konkurenz für NV

Richtig...und wer momentan ne AMD Karte+Ryzen hat, für den wird zukünftig ne nVidia Karte nicht mehr infrage kommen...Darauf verzichtet nVidia gerne. Erst Hirn online schalten...denken...schreiben...denken...und seinen Schwachsinn am besten wieder löschen.
nVidia verzichtet bestimmt auf keinen einzigen Cent, der irgendwo zu holen ist...selbst wenn'n mit AMD ist.
 
Das war jetzt aber ein Schuss vor den eigenen Bug...

Optimieren für jede einzelne Graka:what: da verwechselst du low-level API mit Maschinencode, die Optimierungen​ für einzelne Grakas erfolgen über Treiber, die spiele-Programmierer können nur die Features direkter ansprechen...

Und Ladezeiten sind sehr stark von Festplatten abhängig wenn man da ne SSD mir ner normalen HDD vergleicht hat man da teilweise extreme Unterschiede...
 
Zuletzt bearbeitet:
supern00b, ich beziehe mich da durchaus auf erfahrungen von bekannten aus der Spielebranche. Und da muss man anscheinend deutlich mehr Optimierungs Arbeit leisten, und auch deutlich mehr Arbeit aufbringen als bei älteren APIs. (Man Optimiert ja auch teilweise schon etwas unter DX10 und DX11 für etwaige Grafikkarten, damit es da besser drauf läuft. Aber Aufwand bei DX12 und Vulcan ist anscheinend deutlich höher, und man hat auch sehr viel mehr codezeilen. Kann aber auch gut sein das die einfach nur schmarn reden bezüglich der Optimierung, und ich solte villeicht auch nciht pro Grafikkarte sagen, sondern pro GPU oder pro GPU familie.)

Vielleicht verschwindet das ja auch irgendwann mal, wenn die Engines besser DX12 und Vulcan unterstützen. Ich halte es jedoch für Zweifelhaft das sich DX12 und Vulcan sehr schnell verbreiten werden. Dafür liefert es einfach zu wenige Vorteile für den Entwickler. (Es bleibt nunmal so das es länger dauert bis bei DX12 oder Vulcan was auf den Bildschirm kommt, und Zeit ist nunmal Geld.)

So richtig vorteile von DX12 und Vulcan sehe ich momentan bei Spielen wie Star Citizen, wo man richtig auf die kacke haut mit draw calls. Aber bei einem Handelsüblichen Shooter ike weiß nicht ob wir es da wirklich brauchen.

DirectX hatte sich ja vor allem so behauptet weil es alles einfacher machte, (Anfangs eher schwieriger, aber Microsoft hat dan ja irgendwann mal kapiert das sie Direct3D einfacher machen müssen) und weil nicht jeder GPU Hersteller eigene extensions einführen konnte.

Und wenn man AMDs immer mal wieder gemeckere anschaut, dass es nicht sein kann dass man Treiber Optimierungen machen muss, hofft man da bei AMD wohl durchaus das man das bei DX12 und Vulcan nicht mehr machen muss, und die Arbeit auf Entwickler abwälzen kann. (Hätte ja auch durchaus seinen vorteil, man würde Millionen sparen die man stattdessen in die Entwicklung neuer Hardware Stecken kann, also durchaus nachvollziehbar.)
 
Alle von DaHell63 geposteten Benches bisher sind mit Intel-CPUs entstanden. Er löst wiederholt eine überflüssige wie themenfremde AMD-DX12 vs. Nvidia-DX12 Diskussion ohne Bezug auf Ryzen aus. Lasst euch nicht triggern und vom Thema abbringen.
 
Ich habe genau zwei Benchmarks gepostet (von aktuellen Spielen) um dem Spruch von wegen "schrottige DX12 Nvidia Karten" entgegenzuwirken das dem eben nicht so ist.
Dadurch löse ich natürlich wiederholt überflüssige Diskusionen aus.Ist klar, wenn man bei Amd wiederspricht ist der Teufel los.
Dadurch das die Benchmarks mit einem Intel entstanden sind, ist der Test natürlich wertlos.Mit einem Ryzen würden gaaaanz andere Ergebnisse rauskommen.Aber klar doch:lol::lol::lol:
 
Zuletzt bearbeitet:
Für dich vielleicht ein Witz, für andere die sich schon mehrere Threads und Benchmarks (HW-Magazine & youtube-Channels: Computerbase, Hardware unboxed, etc.) zu dem Thema angesehen haben aber (leider) Realität.

deal-gif.947611
 

Anhänge

  • deal.gif
    deal.gif
    667,3 KB · Aufrufe: 424
Zuletzt bearbeitet von einem Moderator:
die bekommen nach momentaner Informationslage alle eine RX 480/580, da ich ohne Gewissensbisse keine GTX 1060 6G mit Ryzen empfehlen kann, der Rest wird von mir dahingehend beraten auf Vega zu warten und so lange ihe alte Grafikkarte weiter zu benutzen. Mit Vega wird neu bewertet.

Das wundert mich ehrlichgesagt. Vor allem deswegen weil die reviews da keine Unterschiede messen. Die AMD RX480 ist in Kombinaion mit Ryzen in ein paar Directx12 Spielen in Full HD schneller, dafür in Directx11 langsamer. Techspot und PCGH haben hierzu Tests geliefert, zu sehen auch in der aktuellen PCGH Ausgabe. (Fury X vs GTX 1080 Ti, natürlich im CPU Limit)

Kurios dass du das nicht verbauen willst. Im Zweifel einfach mit der AMD Konfiguration Directx12 nutzen und mit der Nvidia Konfiguration den Directx11 Pfad auswählen und schon hatt es sich.
Ashes of the Singularity performt auf der GTX 1060 gleichschnell im CPU Limit. Gewissenbisse? Lächerlich.:rollen:

Ich bin sehr gespannt auf das was AMD mit der RX580 vorbereitet, die könnte vielleicht endlich mal die GTX 1060 in punko Full HD Leistung schlagen.
 
Zurück