Nvidia Geforce RTX 3080: Welche CPU liefert die optimale Performance?

Man findet auch genug Beispiele im Netz oder auch Videos bei Youtube zum Thema PCIe 2.0 vs. 3.0. Es macht keinen Unterschied, da die Grafikkarten nie die gesamte Bandbreite der Boards auslasten können bzw. würden und sieht so auch nicht anders bei PCIe 4.0 aus. Hier ein Test von techpowerup zur 5700XT un 3.0 vs. 4.0

Ausreißer gibt es bei diversen Titel immer wieder, aber das ist eher die Ausnahme als die Regel. Glaub bei Doom 2016 oder Wolfenstein Youngblood ? war da doch irgendwas mit nem Antialiasing Modus, wo PCIe 4.0 mehr Leistung als wie unter 3.0 brachte, aber das sind halt wie gesagt Ausnahmen


und selbst unter PCIe 1.0 mit einer 5700XT ist der Unterschied noch marginal, wie man hier sieht:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zuletzt bearbeitet:
Nein, das Fazit bleibt natürlich nicht gleich. Es würde viel stärker in Vorschein treten, dass die Ryzens limitieren.
Denn man weiß nicht ab wann das Limit wirksam ist. Wenn man den 10900K Wert mit dem Wert für die 3080 vergleicht, ist nicht ersichtlich, ob hier die 3080 oder der zu Grunde liegende 3900X das Ergebnis beeinflusst.

Warum?
Oder besser gesagt, was soll falsch sein?
Du machst einen Auto Test auf einer Rennstrecke und dein Fazit ist, die Strecke limitiert das Auto. Kannst du dir selbst überlegen, wie sinnvoll das ist.

Lichtspieler, welche Framerate die 3080 im Extremfall mit der jeweiligen CPU erzeugen kann, ist doch gar nicht die Frage und soll auch nicht beantwortet werden!

Die Frage ist: In welcher Konstellation würde eine 3080 von der CPU eingebremst. Also bei welchem Spiel kann die CPU, selbst wenn die GPU nahezu keine Last erzeugen würde (also unendlich schnell wäre), nicht mehr so viel fps erzeugen, dass man mit dieser Framerate die 3080 in der gegebenen Auflösung noch voll auslasten könnte.

Und das beantwortet der Test voll und ganz!
Sehe ich nicht so, sofern der Wert der 3080 durch die CPU im Testsystem verfälscht ist. Wenn man letztlich doch wieder nur Schätzen und Vermuten kann, kann man sich so einen aufwändigen Test sparen. Auf der anderen Seite sind Spiele (und das ganze drumherum) extrem dynamisch und, meiner Ansicht nach, lohnt sich u.U. nicht einzelne Szene bis ins kleinste zu sezieren. Mir würde es reichen, wenn ich die CPU Fps aus dem CPU Test mit den GPU Fps aus dem Grafikkarten Test vergleichen kann. Damit habe ich die Extreme abgedeckt, was reicht um zu wissen wie Spiel und Hardware performen.
 
Man findet auch genug Beispiele im Netz oder auch Videos bei Youtube zum Thema PCIe 2.0 vs. 3.0. Es macht keinen Unterschied, da die Grafikkarten nie die gesamte Bandbreite der Boards auslasten können bzw. würden und sieht so auch nicht anders bei PCIe 4.0 aus. Hier ein Test von techpowerup zur 5700XT un 3.0 vs. 4.0

Ausreißer gibt es bei diversen Titel immer wieder, aber das ist eher die Ausnahme als die Regel. Glaub bei Doom 2016 oder Wolfenstein Youngblood ? war da doch irgendwas mit nem Antialiasing Modus, wo PCIe 4.0 mehr Leistung als unter 3.0 brachte, aber das sind halt wie gesagt Ausnahmen


und selbst unter PCIe 1.0 mit einer 5700XT ist der Unterschied noch marginal, wie man hier sieht:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Oh, sehr cooler Test, danke. Gleich mal abonniert den Typ. :D
 
PCGH hat damals bei der Einführung von PCIe3.0 gemessen und kan je nach Spiel auf ist egal und auf bringt doch etwas. Damals gab es Beispiele mit keinem Zuwachs und im Maximum 11%, bei den min Fps. ( War damals ein CoD Titel, wenn ich mich richtig erinnere. Es wird gewiss einen kleinen Unterschied geben früher, oder später...
Dieses Ergebnis zieht sich seit PCI im Grunde durch alle Testreihen. Wenn eine Grafikkarte durch ihre Anbindung limitiert wird, dann läuft sowieso schon etwas schief bzw. die Leistung ist dann sowieso im Keller. Einzig wie sich Direct Storage verhält, wäre ein neues Kriterium, ist aber noch Zukunftsmusik.
 
Sehe ich nicht so, sofern der Wert der 3080 durch die CPU im Testsystem verfälscht ist.

Werden sie ja nicht entscheidend, und wenn dann nur in einigen wenigen Spielen in FHD.

Es wurde ja nicht eine plain 3900x verwendet (wie man sofort sieht, wenn man mit den Einträgen unter 3900x in der Tabelle vergleicht) sondern die RAM-optimierte und übertaktete 3900x, die auch für alle anderen GPU Tests verwendet wird.

Selbst wenn die nicht immer ganz 100% zur 10900k aufschließt, verfälscht das das Ergebnis doch nicht ernsthaft. Im schlimmsten Falle wird eine Kleinigkeit an GPU Limitierung unter FHD in einigen Spielen 'unterstellt', wo keine ist. Aber das ist zu vernachlässigen, da der Unterschied zwischen der optimierten 3900x und der 10900k nun wirklich nicht so heftig ist.

Und da es auch Spiele gibt, bei denen die 3900x im Vorteil ist, welche CPU hätte man denn als Referenz nehmen sollen?
 
Werden sie ja nicht entscheidend, und wenn dann nur in einigen wenigen Spielen in FHD.

Es wurde ja nicht eine plain 3900x verwendet (wie man sofort sieht, wenn man mit den Einträgen unter 3900x in der Tabelle vergleicht) sondern die RAM-optimierte und übertaktete 3900x, die auch für alle anderen GPU Tests verwendet wird.
Aus dem Test:
Zum Einsatz kommt ein AMD Ryzen 9 3900XT, der mithilfe von schnellem Arbeitsspeicher mit einem IF-Takt von 1.800 MHz mit 32 GiB DDR4-3600 (Dual Ranked) betrieben wird. Die Powerlimits haben wir aufgehoben und alle Turbo-Modi maximiert. Die CPU läuft so zu jeder Zeit mit ihrer höchstmöglichen Taktfrequenz. In Full HD und oft auch in WQHD stößt die RTX 3080 dennoch an ein CPU-Limit.
Allein der letzte Satz sagt doch aus, dass die Erkenntnisse aus dem Test wieder vom Leser interpoliert werden muss. Es stellen sich folgende Fragen: 1. Wie weit liegt der übertaktete 3900XT hinter dem 10900? 2. Wie stark bremst der verwendete Prozessor die 3080? Auf diese Fragen bietet der Test keine Antwort.

Selbst wenn die nicht immer ganz 100% zur 10900k aufschließt, verfälscht das das Ergebnis doch nicht ernsthaft. Im schlimmsten Falle wird eine Kleinigkeit an GPU Limitierung unter FHD in einigen Spielen 'unterstellt', wo keine ist. Aber das ist zu vernachlässigen, da der Unterschied zwischen der optimierten 3900x und der 10900k nun wirklich nicht so heftig ist.
Wenn der Leser am Ende doch wieder "raten" muss, stellt das für mich den ganzen Test in Frage. Und ob es eine "Kleinigkeit" ist oder nicht, kann ich anhand der genannten Werte nicht nachvollziehen.

Und da es auch Spiele gibt, bei denen die 3900x im Vorteil ist, welche CPU hätte man denn als Referenz nehmen sollen?
Im Zweifel die Schnellste CPU fürs beste Ergebnis verwenden.
 
Vielen Dank für den Test. Allerdings spielt das für mich eher ne kleine Rolle. Ich spiele in WQHD mit einem Ryzen 3700X. Selbst WENN die CPU in bestimmten Fällen limitiert dürfte alles gut sein. Brauche keine 200 FPS. Mir reichen 60-100 um zufrieden zu sein. Ansonsten gibts da ja auch noch den Grafikregler :D
 
Die Messwerte der 3080 sind wahrscheinlich limitiert vom 3900X.
Ja aber das ist doch die Kernaussage dieses Tests dachte ich.
Die RTX3080 ist so krank schnell, dass selbst aktuelle CPUs diese Karte auf WQHD ausbremsen.
Auch Ryzen 8- und 12-Kerner mit ultra-optimiertem RAM oder der i9-10900K mit 5.3GHz OC werden in die Knie gezwungen.
Finde das ist etwas Positives. Man sollte es allerdings mehrfach erwähnen, damit es auch dem letzten Deppen klar wird.
Denn viele wollen es ja nicht wahrhaben, dass die RTX3080 so gut performt und labern stattdessen wirres Zeug bezüglich 'RAM wird bald irgendwann mal vollgehen' und 'viel Spaß mit reduzierten Details', 'bla blub'.
 
Das ging gestern wohl etwas unter, mir schleierhaft wieso das erst freigegeben musste. Daher hier nochmal, für alle die es interessiert.
 
Das ging gestern wohl etwas unter, mir schleierhaft wieso das erst freigegeben musste. Daher hier nochmal, für alle die es interessiert.
Fasse mal zusammen:
Mit dem 10900K ist man @WQHD 7% schneller unterwegs als mit einem Ryzen9 und @4K etwa 1,7% schneller.
FullHD würde ich weglassen. Die RTX3080 ist keine FullHD-Karte.

Klingt fair und erwartbar bezüglich Intel/AMD.
Man sieht, dass man mit der RTX3080 echt in ein krasses CPU-Limit laufen wird @WQHD.

https://tpucdn.com/review/nvidia-ge...00k/images/relative-performance_2560-1440.pnghttps://tpucdn.com/review/nvidia-ge...00k/images/relative-performance_3840-2160.png
 
Ja aber das ist doch die Kernaussage dieses Tests dachte ich.
Und was ist mit CPUs, die schneller sind? Welche davon limiteren?

Denn viele wollen es ja nicht wahrhaben, dass die RTX3080 so gut performt und labern stattdessen wirres Zeug bezüglich 'RAM wird bald irgendwann mal vollgehen' und 'viel Spaß mit reduzierten Details', 'bla blub'.
Ist zwar ein anderes Thema, aber schau dir mal das Video von Phil zu Crysis Remastered an. Dort sagt er, dass bei der 3080 Ruckler auftreten, die bei Karten mit mehr VRAM nicht auftreten.
 
Aus dem Test: Allein der letzte Satz sagt doch aus, dass die Erkenntnisse aus dem Test wieder vom Leser interpoliert werden muss. Es stellen sich folgende Fragen: 1. Wie weit liegt der übertaktete 3900XT hinter dem 10900? 2. Wie stark bremst der verwendete Prozessor die 3080? Auf diese Fragen bietet der Test keine Antwort.

Wenn der Leser am Ende doch wieder "raten" muss, stellt das für mich den ganzen Test in Frage. Und ob es eine "Kleinigkeit" ist oder nicht, kann ich anhand der genannten Werte nicht nachvollziehen.

Im Zweifel die Schnellste CPU fürs beste Ergebnis verwenden.

Die 10900k ist nicht generell die schnellste CPU! Also gibt es keine Möglichkeit, eine für jeden Fall schnellste CPU zu nehmen.

Hast Du ernsthaft Angst, Menschen können es nicht richtig einschätzen, wenn der Balken in FHD bei der 3080 kürzer ist als der bei einer 10900k und daraus nicht die richtigen Schlüsse ziehen? Es ist doch nicht die Frage, ob die 3080 schnell genug ist (das will der Artikel nicht beantworten) sondern ob der 10900k schnell genug ist. Und diese Frage wird nun eindeutig beantwortet!

Auch welche CPUs eben NICHT ausreichen.

und wir sind wieder dort toll gemacht pcgh ;) gute werbung für nv :D

Ach ja, unsere lieben Verschwörungstheoretiker und "ihr seid Biased" Rufer. Es ist so langweilig inzwischen.
 
Ist zwar ein anderes Thema, aber schau dir mal das Video von Phil zu Crysis Remastered an. Dort sagt er, dass bei der 3080 Ruckler auftreten, die bei Karten mit mehr VRAM nicht auftreten.
Jetzt komm nicht mit Crysis Remastered.
Der Detailgrad den du meinst heißt 'Can it run Crysis?' und der ist nur zum Trollen da.

Die Texturen sind absichtlich riesig und das Spiel ist auf dieser Stufe einfach nicht optimiert.
Hat man einfach rausgebracht um das Meme 'Can it run Crysis?' aufrecht zu halten.

Niemand erwartet, dass aktuelle Grafikkarten das Spiel auf dieser Stufe in den nächsten 2 Jahren flüssig mit 60 FPS darstellen können. Ich lege meine Hand dafür ins Feuer, dass die RTX3090 das auch nicht schafft. Und BigNavi erst recht nicht, weil Crytek mit Nvidia 'Best-Friends' ist.

By the way, das Spiel ist hart CPU-limitiert. Guck mal die Tests. Das Spiel läuft nur auf ein paar Threads.
 
Jetzt komm nicht mit Crysis Remastered.
Der Detailgrad den du meinst heißt 'Can it run Crysis?' und der ist nur zum Trollen da.

Die Texturen sind absichtlich riesig und das Spiel ist auf dieser Stufe einfach nicht optimiert.
Hat man einfach rausgebracht um das Meme 'Can it run Crysis?' aufrecht zu halten.

Niemand erwartet, dass aktuelle Grafikkarten das Spiel auf dieser Stufe in den nächsten 2 Jahren flüssig mit 60 FPS darstellen können. Ich lege meine Hand dafür ins Feuer, dass die RTX3090 das auch nicht schafft. Und BigNavi erst recht nicht, weil Crytek mit Nvidia 'Best-Friends' ist.

By the way, das Spiel ist hart CPU-limitiert. Guck mal die Tests. Das Spiel läuft nur auf ein paar Threads.
Läuft also wie früher schrott remaster hätte da wenigstens auf mehrkernoptimierung gehofft denn die physik spielerein sind ziemlich gut auch heute noch aber wenn nur ein Kern ackert kommt nichts bei rum.

Das beste kommt noch es wird sich zu den HZD als Vram spiel hinzufügen wirst sehen immer die gleichen mit immer den gleichen Bildern :lol:
 
Zurück