AMD Ryzen: Bremsen Nvidia-GPUs die Performance?

Ja die schrottigen Nvidia -DX12 -Krüppel passen wirklich nicht zu ner geilen AMD CPU :D
Ich frage mich immer wieder wo die angebliche Überlegenheit (in reinen DX12 Spielen) von AMD ist?
Amd kann in DX12 mehr zulegen, aber von Überlegenheit sehe ich keine Spur.Eigentlich wie immer........Nvidia vorne dran und Amd imSchatten von Nvidia.
Gears of War.png Sniper Elite 4.png

Wenn man ganz böse ist kann man auch behaupten, dass eine 6 Jahre alte Intel CPU aus 2011/i7 3930k und eine 2 Jahre alte Nvida GPU/GTX 980ti immer noch reicht
um auch in modernen DX12 Spielen schneller als jede Amd Combi zu sein.
 
In jedem Bild ist die 480 "vor" der 1060... Verstehe dein Problem nicht? Wenn du größere "Balken" sehen möchtest musst du wohl auf andere DX12 only titel warten (die nicht mit Gameworks und oder bis zu 256x tesselieren) oder dir Doom + Vulkan angucken :D
 
@ Dahell63

Deine Grafiken in den Benchmarks sind toll, aber als kritischer Beobachter eine Frage:
Wieso ist in den ersten Test keine 1070 OC drinnen und im zweiten Test schon?

Beide liegen um die 50€ auseinander.

Ebenso tritt mit der Palit 980ti Superjestream eine 980ti an die 15-20% über den Referenztakt einer 980ti liegt.
und die auf 1341 mhz übertaktet bei einen Boost Referenz takt von 1002 mhz !
Palit gibt für die Grafikkarte nur eine Garantie wenn man sie mit maximal 1241 mhz betreibt...

Also einfach mal 30% Leistung bei der 980ti abstreichen...

Das gleiche gilt übrigens auch für die 1080ti

Während für die Fury X eine Referenztakt Grafikkarte antritt, obwohl sie schon sehr lange auf den Markt ist und es dort auch 20% OC varianten gibt...

Ich sage nicht das die 1080ti der Fury-X überlegen ist.
Ich nutze persönlich einen Xeon E3-1231 mit meiner Fury-X und diese Kombi liegt in den Reallife bedingungen vor einer 980 und auf Augenhöhe mit einer 1070.

Daher bitte bei diesen Benchmarks mal auf das Kleingedruckte achten, und ich muss leider deine Benchmarks dort als:
"Getürkt pro Nvidia" abhaken.

Ich stell mit halt die Frage:
Wieso tritt im Gears of War 4 keine gtx 1070 an und wieso treten hier überzüchtete
und übertaktete Grafikkarten gegen Referenztakt Karten an?

Die GTX 1070 und die 1080 sind gute Karten, aber hier werden die
AMD Karten schlechter dagestellt als sie tatsächlich sind.
 
In jedem Bild ist die 480 "vor" der 1060... Verstehe dein Problem nicht? Wenn du größere "Balken" sehen möchtest musst du wohl auf andere DX12 only titel warten (die nicht mit Gameworks und oder bis zu 256x tesselieren) oder dir Doom + Vulkan angucken :D
Es geht doch garnicht darum ob die GTX 1060 vor oder hinter der RX 480 ist.
Das kommt unter DX11 ja auch vor.Mal ist die eine mal die andere vorne(sind ja auch ziemlich gleich stark.
Nur frage ich mich wo die angebliche Überlegenheit von AMD ist, wenn Nvidia doch kein DX12 kann.
Gears of War ist doch DX12 only und bei Sniper Elite 4 ist der DX12 Render von haus aus dabei,nichts nachgepatcht.

Ich habe keine Probleme mit der AMD/NVIDIA Performance unter DX12, ich hab nur Probleme mit solchen sinnlosen Aussagen
Fossi777 Beitrag anzeigen
Ja die schrottigen Nvidia -DX12 -Krüppel passen wirklich nicht zu ner geilen AMD CPU

Die m.M.n nur dazu da sind um sinnlos Öl ins Feuer zu gießen.
Denn mein schrottiger DX12 Krüppel ist auch unter DX12 immer noch schneller als alles was AMD zur Zeit zu bieten hat, aber vielleicht kann er mir mit seinem hüftlahmen Pixelschupser das Gegenteil beweisen.

Edit:
@ Elkarlo77
Wirklich Ahnung von NVIDIA GPUs hast Du nicht, oder?
PCGH bencht mit ganz normalen Karten/Boosttaktraten, die auch so beim Händler zu kaufen sind.Getürkt ist da nichts.
Meine Karte booste auch mit 1418-1430MHz obwohl angeblich nur 1291MHz vorgesehen sind.
NVIDIA Inspector.png
Übertaktet ist da nichts, denn dann schauts so aus
NVIDIA GeForce GTX 980 Ti video card benchmark result - Intel Core i7-3930K Processor,Gigabyte Technology Co., Ltd. X79-UD3
Aber es immer leicht anderen was zu unterstellen,gelle?
Deiner Meinung nach muß ich meine Karte untertakten, denn was nicht sein kann darf nicht sein.
 
Zuletzt bearbeitet:
Schon mal nen Grdanken daran verschwendet, das die Nvidia Karten selbstständig so hoch takten bei ausreichender Kühlung? Gerade am Beispiel der Asus Strix GTX 1070 @ 1950Mhz.

Zeig mal ne Fury mit 20% OC ab Werk.
 
@ Shorty

Und schonmal überlegt was ich schrieb?

Der Boost Takt ist die vom Hersteller vorgebene Grenze.
Die Palit 980ti Superjestream hat einen maximalen Boost von 1241... wenn sie höher taktet dann wurde das Boostlimit hochgesetzt
und dann gibt der Hersteller (Palit) keine Garantie mehr !

Nvidia gibt schon ab 1075 mhz keine Garantie mehr.
Der Basis takt einer gtx 980 ti liegt bei 1002 mhz.

Ebenso gibt EVGA als maximalen Boost bei der GTX 1080 1847 an und hier wird eine 1080 mit 1911 losgeschickt.

Und eine 1070 mit 1950 wo der boost mit maximal 1835 angeben ist.

Also wurden das Boostlimit bei ALLEN Nvidia karten nachträglich über den schon Übertakteten Wert gesetzt.

und wie gesagt wieso tritt die 1070 nicht im Gears of War 4 test an???

Achja du wirst lachen Fury mit 20% ab werk gibs wie sand am Meer.
Eine Fury-X gibt es nicht aber die schaffen in einem guten Gehäuse auch 1185 mhz ;) und damit 12%.

Achja und die Fury OC (zb Sapphire Fury Nitro Tri-X )liegt auf den Niveau einer Fury-X
kostet aber nur 270 Euro. Wieso tritt die nicht an?
 
Zuletzt bearbeitet:
Du hast offenbar keine Ahnung wie der Nvidia Boost funktioniert. Die 1241Mhz ist der vom Hersteller "garantierte" Boost. In der Praxis kann die Karte von sich aus deutlich höher Boosten, wenn die Temperatur und das Powerlimit es erlaubt, ohne irgendwelche Regler zu bedienen.
Wieso bei GoW keine 1070 ist? Schau in den entsprechenden Test, sie hatten weniger Zeit oder die ist im bekannten Abstand unterhalb der 1080 einzuordnen.
 
Der Boost Takt ist die vom Hersteller vorgebene Grenze.
Die Palit 980ti Superjestream hat einen maximalen Boost von 1241... wenn sie höher taktet dann wurde das Boostlimit hochgesetzt
und dann gibt der Hersteller (Palit) keine Garantie mehr !

Nein, falsch, in jeder Hinsicht. Informier Dich bitte, bevor Du falsche Dinge verbreitest.

Es ist übrigens auch nicht der "garantierte" Boost, sondern der "typical" Boost, also der Wert, den nVidia als "im Normalbetrieb bei ausreichender Kühlung typischer Weise erreichbaren Takt" spezifiziert.

In vielen Fällen taktet die Karte aber mit Standardeinstellungen viel höher.
 
@ Shorty

Und schonmal überlegt was ich schrieb?

Der Boost Takt ist die vom Hersteller vorgebene Grenze.
Die Palit 980ti Superjestream hat einen maximalen Boost von 1241... wenn sie höher taktet dann wurde das Boostlimit hochgesetzt
und dann gibt der Hersteller (Palit) keine Garantie mehr !

Nvidia gibt schon ab 1075 mhz keine Garantie mehr.
Der Basis takt einer gtx 980 ti liegt bei 1002 mhz.

Ebenso gibt EVGA als maximalen Boost bei der GTX 1080 1847 an und hier wird eine 1080 mit 1911 losgeschickt.

Und eine 1070 mit 1950 wo der boost mit maximal 1835 angeben ist.

Also wurden das Boostlimit bei ALLEN Nvidia karten nachträglich über den schon Übertakteten Wert gesetzt.

und wie gesagt wieso tritt die 1070 nicht im Gears of War 4 test an???

Achja du wirst lachen Fury mit 20% ab werk gibs wie sand am Meer.
Eine Fury-X gibt es nicht aber die schaffen in einem guten Gehäuse auch 1185 mhz ;) und damit 12%.

Achja und die Fury OC (zb Sapphire Fury Nitro Tri-X )liegt auf den Niveau einer Fury-X
kostet aber nur 270 Euro. Wieso tritt die nicht an?

Nichts für ungut aber der Boost Takt ist immer der "typische " boost. Bei entsprechender Kühlung boosten die Karten automatisch höher bis sie ins Temperatur oder Power Limit kommen... Nach einer Aufheizphase stellt sich dann für gewöhnlich der Takt automatisch ein. Ohne Zutun des Nutzers!
 
Zuletzt bearbeitet:
Sorry @ All.

Mein Kenntnisstand von Boost 3.0 war noch das man einen Oberclock Bench
durchführt und dann die Graka diesen als neue TDP Obergrenze nimmt.
Und normalerweise der maximale Boost takt genommen wird.

So war es bei der Einführung von Boost 3.0
Inzwischen ist es offensichtlich automatisch ohne Nutzer eingabe, das war mir nicht bewußt.


Gruß
Elkarlo

Ps.: Vielleicht sollte man sich überlegen ob man wirklich alle 2 Jahre eine Karte ersetzen will.
Durch das Perma übertakten an 90% der Stabilitätsgrenze wird es schnell zum Hotspotting kommen.
 
Zuletzt bearbeitet:
Stand sowas je zur Diskussion ? Natürlich bremsen Nvidia Grafikkarten die AMD CPUS. Feinde und so ... wie kann man sowas denn in Frage stellen? *Achtung Ironie*

Gut das ich nur Intel und Nvidia nutze :lol:
 
Achja du wirst lachen Fury mit 20% ab werk gibs wie sand am Meer.
Eine Fury-X gibt es nicht aber die schaffen in einem guten Gehäuse auch 1185 mhz ;) und damit 12%.

Achja und die Fury OC (zb Sapphire Fury Nitro Tri-X )liegt auf den Niveau einer Fury-X
kostet aber nur 270 Euro. Wieso tritt die nicht an?

Selten so einen Schwachsinn gelesen...

Die Tri-X OC liegt bei 1040MHz, also ganze 4% Werks-OC! Und die Fury Nitro bei ganzen 1050MHz, wow 5%! Wir hätten auch noch die ASUS Strix, ganze 2% Werks-OC für 1020MHz Takt.
Nur die Fury Nitro erreicht damit den Standard-Takt(!) der Fury X, keine überbietet diese.

20% (1200MHz) schaffen übrigens nur die wenigsten Furys, egal ob X oder nicht. Die meisten limitieren zwischen 1.110 und 1.150MHz und sind dann auch nicht zwingend stabil in jeder Lage. Gerade Overwatch ist sehr empfindlich was GPU-OC angeht.
Leider tritt an der Stelle von Taktungen jenseits von 1100MHz noch ein weiteres Problem auf, bedingt durch einen Fehler/Bug in der Spannungsversorgung. Für höhere Taktungen werden Spannungen oberhalb der Serieneinstellung benötigt. Betreibt man Fury-Karten jedoch mit höheren Spannungen, sind die Leistungssprünge pro MHz Takt auf einmal schlechter. So kann ein 1085MHz OC mit leichtem undervolt mal eben in den meisten Spielen besser (+ zusätzlich sparsamer und kälter) laufen als ein 1140MHz OC mit +56mV offset. Wir sprechen hier von +50% Power Target und auch BIOS-Mods!
Wäre dieses Negative-Voltage-Scaling in Bezug auf Performance nicht, hätte die Fury in übertaktetem Zustand wesentlich bessere Chancen gegenüber der 980ti (die meisten laufen ja sogar eher mit 1450-1500MHz) gehabt.

Bei Dx11 und gtx 0180Ti/Titan X kann die GPU_Auslastung durchaus auf unter 70% fallen wie am beispiel Tombraider gut zu sehen ist - das mit Dx12 einwandfrei läuft.
Das DX12-Ergebnis mit einem Ryzen-Prozessor?
Es ist ja gerade das Problem, dass der nVidia-DX12-Treiber mit Ryzen so starke Einbußen hat.
 
Für mich liest sich das nur, als könne der nVidia-DX12-Treiber noch nicht an den DX12 von AMD ran bzw. kann nicht mit sovielen Kernen umgehen.

Scheint sich also langsam auszuzahlen, dass AMD eher auf DX12 als auf DX11 gesetzt hat.
 
Dann müssen ja alle total dämlich sein.

Does Ryzen Work Better With AMD GPUs? [Part 2] - YouTube

Die Unterschiede bei DX12 sind eklatant!


Sieht interessant aus, ist aber leider mit niedrigen Details entstanden. Das senkt zwar die GPU-Last, aber auch dramatisch die CPU-Last.... beispielsweise durch das deutlich niedrigere LoD und Detaillevel in Tomb Raider oder die minimalen Einheitengrößen bei TW: Warhammer (die Einheitengröße macht den größten Teil der CPU-Last in TW: Warhammer aus, zudem wird diese Last auf mehrere Threads verlagert. Der Tester hat also grade den interessantesten Aspekt für CPU-Messungen im Spiel praktisch deaktiviert).

Auch die Textur-Qualität spielt beim Streaming eine CPU-relevante Rolle. Das sind alles Elemente, die solche Messungen interessant machen und dafür sorgen, dass man in ein CPU-Limit gerät. Auch bei diesem Video ist wieder nicht klar, ob tatsächlich ein CPU-Limit vorliegt, zudem werden unzählige Drawcalls vor den Messungen entfernt, gerade der Punkt, den DX12 gegenüber DX11 bei Prozessormessungen interessant macht. Und außerdem auch bei der Lastverteilung bei Mehrkernprozessoren eine Rolle spielen. Das positive Abschneiden der AMD-GPUs in diesem Video könnte also im Grunde auch durch den Vorteil durch Async Compute der Radeons entstehen (wobei der Wegfall der Ambient Occlusion und die kurze Berechnungszeit der niedrigen Schatten eigentlich dagegen sprechen würde).

Für Prozessormessungen: 720p ist schon mal gut, wenn das nicht reicht, um in ein starkes CPU-Limit zu geraten (was durchaus vorkommt, selbst mit fetten GTX 1080 Tis oder Titan X's), sollten die GPU-lastigen Effekte deaktiviert werden (Post-Processing, AA, AF) und/oder die Auflösungsskalierung reduziert werden. Andere Optionen zu reduzieren ist kontraproduktiv, weil sie auch die CPU-Last (teils massiv) senken und das Multithreading torpedieren können.

Gruß,
Phil
 
Für mich liest sich das nur, als könne der nVidia-DX12-Treiber noch nicht an den DX12 von AMD ran bzw. kann nicht mit sovielen Kernen umgehen.

Scheint sich also langsam auszuzahlen, dass AMD eher auf DX12 als auf DX11 gesetzt hat.

Da hast du was falsch verstanden.
Wenn ein Programm nicht Ausgelegt ist mehr Threads zu nutzen dann heist das ncihts weiter als das es bei mehr Kernen keinen weiteren Leistungszuwachs gibt. Wenn aber das selbe Programm nur auf einer speziellen Hardware sogar Leistungseinbusen hat dann gibt es Probleme mit der Architektur.
Interresant ist hier allerdings das Nvidias Treiber sehr wohl mit mehr Kernen skaliert - ironischer weise als krasses gegenbeispiel zu AMD bei denen der fgrafik-Treiber rein Single-threaded arbeitet. man würde meinen das AMD die immer auf mehr Kerne setzen diese auch nutzen wollen...
Hinzuzufügen ist dazu noch das dieses Problem Ryzen spezifisch ist - es liegt nicht an der kernanzahl - da es weder bei den 6/8 kerner i7 noch bei der FX Serie auftritt.


Wenn man sich dann die eigenheiten von RyZen ansieht dann drängt sich schnell der Verdacht auf das das Problem mit dem InfinityFabric zusammenhängen könnte:
Nvidias Treiber läuft generll auf allen kernen und muss vor jedem Drawcall die Daten synchronisieren. Und genau da liegt das Problem denn es muss nun zwischen den CCX kommuniziert werden.
Zu testen wäre das recht einfach - per UEFI auf einen CCX limitieren und testen ob dann noch immer unterschiede in der Skallierung auftreten.


(edit: Und ja, ich lehne mich damit weit aus dem Fenster - meine Kristallkugel sollte noch genug empfangen)
 
Zuletzt bearbeitet:
Sieht interessant aus, ist aber leider mit niedrigen Details entstanden. Das senkt zwar die GPU-Last, aber auch dramatisch die CPU-Last.... beispielsweise durch das deutlich niedrigere LoD und Detaillevel in Tomb Raider oder die minimalen Einheitengrößen bei TW: Warhammer (die Einheitengröße macht den größten Teil der CPU-Last in TW: Warhammer aus, zudem wird diese Last auf mehrere Threads verlagert. Der Tester hat also grade den interessantesten Aspekt für CPU-Messungen im Spiel praktisch deaktiviert).

Auch die Textur-Qualität spielt beim Streaming eine CPU-relevante Rolle. Das sind alles Elemente, die solche Messungen interessant machen und dafür sorgen, dass man in ein CPU-Limit gerät. Auch bei diesem Video ist wieder nicht klar, ob tatsächlich ein CPU-Limit vorliegt, zudem werden unzählige Drawcalls vor den Messungen entfernt, gerade der Punkt, den DX12 gegenüber DX11 bei Prozessormessungen interessant macht. Und außerdem auch bei der Lastverteilung bei Mehrkernprozessoren eine Rolle spielen. Das positive Abschneiden der AMD-GPUs in diesem Video könnte also im Grunde auch durch den Vorteil durch Async Compute der Radeons entstehen (wobei der Wegfall der Ambient Occlusion und die kurze Berechnungszeit der niedrigen Schatten eigentlich dagegen sprechen würde).

Für Prozessormessungen: 720p ist schon mal gut, wenn das nicht reicht, um in ein starkes CPU-Limit zu geraten (was durchaus vorkommt, selbst mit fetten GTX 1080 Tis oder Titan X's), sollten die GPU-lastigen Effekte deaktiviert werden (Post-Processing, AA, AF) und/oder die Auflösungsskalierung reduziert werden. Andere Optionen zu reduzieren ist kontraproduktiv, weil sie auch die CPU-Last (teils massiv) senken und das Multithreading torpedieren können.

Gruß,
Phil

Ich hab den (Hardwareunboxed Typ) mal auf deinen Beitrag aufmerksam gemacht und er sagt: What would you like me to do about this? Part 1 featured high quality setting but even with the GTX 1070 and Fury X we were GPU limited.
 
Zurück