Radeon vs. Geforce im CPU-Limit: Bremst die RTX 3090 langsame CPUs aus? Test in 20 Spielen!

Darf ich dann meine wirklichen Einstellungen nutzen, oder muß ich 720p nehmen?
Das meine RX 6800 meist schneller als meine RTX 3070 unterwegs, weiß ich auch so.

Das ist zwar ein existentes, aber doch ein theoretisches Problem. Die Hardwarekonstellation wird nie vorkommen genausowenig Auflösung.
Es darf gerne einer mit einem R9 3900X/RX 5700 XT gegen mein Setup R9 3900X/RTX 3070 antreten. Wenn die RX 5700XT schon schneller als eine RTX 3090 ist sollte das ja kein Problem sein. Es gibt ja auch absolut CPU limitierte Spiele. Vielleicht beweiß Du mir das dann mal auch. Aber komm mir nicht mit 720p/low :D.

Falls, falls es wirklich jemanden gibt, der mit so einem Setup ( Low CPU+Highend Grafikkarte) spielt, dann ist das wohl eher ein hausgemachtes Problem.
Dir ist schon klar das es durchaus spiele gibt die auch in 1440p und 4k CPU limitiert sind..
Physik, Einheiten, Playercount (64+ Spieler auf ner Map) und was sonst noch alles so im Hintergrund dynamisch berechnet wird.

Die Aussage war nicht das die 5700xt schneller als die rtx3090 ist.. weil das ist sie faktisch nicht..
Sondern das die Karte im CPU Limit aufgrund des treibers besser performt und somit höhere FPS da sind.
Das sich beide Karten im CPU Limit langweilen.. (die rtx3090 mehr als die 5700xt) ist klar.

Der Nvidia Treiber selbst braucht mehr CPU Leistung als der von AMD.. diese Leistung fehlt der CPU dementsprechend..
Leistung womit die CPU andere Sachen (Physik, Einheiten, Player Aktualisierungen ect) schneller berechnen könnte.

Klar kann man das mit genug CPU Power ausgleichen (Leistung pro Kern)
Aber es gibt noch genügend Leute die noch eine alte CPU wie zb 7700k oder 2600x/2700x besitzen und nur Mal eben die GPU aufrüsten wollen /müssen.
Der allgemeine consens war bisher.. spare an der CPU und investiere in eine größere GPU
Auch macht dies bei aufrustempfehlungen einen Unterschied ausgehend von der vorhandenen CPU.. kann zb sein das man mit ner AMD karte gar nicht erst in ein CPU Limit kommt. Und somit eine Generation länger Freude an seiner CPU hat.

Desweiteren trifft dieses Problem nicht nur die neuen Ampere Karten.. auch Pascal und Touring (GeForce 1000 und 2000er reihe) sind betroffen

Ich würde ja gern dein Angebot zum Schwanzvergleich annehmen, aber leider bin ich Hardware mässig mit nem 5950x und ner 6800xt gehandycapt was CPU/GPU Limits angeht.
 
Zuletzt bearbeitet:
Mit etwas Glück hätte ich vielleicht auch eine 6900XT 500 Euro günstiger bekommen können, aber ich habe mich am Ende für meine neue 3080 Grafikkarte entschieden, weil mein Monitor zu seiner Zeit nicht billig war und ich damals unbedingt echtes G-Sync von Nvidia dabei haben wollte. Wobei es zu der Zeit noch kein G-Sync kompatibel gab, das kam erst etwas später dazu.

Zudem kam noch dazu, das meine 3080 Grafikkarte direkt von Werk aus ein Wasserkühler verbaut hat und ich bei AMD zum einen die Herstellergarantie mit dem Umbau verloren hätte und zum anderen auch noch solch ein Kühler dazu kaufen hätte müssen. Ganz davon abgesehen, das ich jetzt nichts umbauen musste und die neue Grafikkarte einfach einbauen konnte.

Ich spreche aber von den AMD Grafikkarten die gelegentlich direkt über AMD zu kaufen gibt. Denn die custom Modelle (RX 6900XT) hätte mich mehr als meine neue 3080 Grafikkarte gekostet.
 
Klar kann man das mit genug CPU Power ausgleichen (Leistung pro Kern)
Es reicht realistische Settings zu nehmen. 1440p/ultra, was ja nicht unrealistisch ist für eine RX 6800/RTX 3070, um meist ins GPU Limit zu kommen.
HWU beweist auch nur das was sie beweisen wollen. Wenn er zeigen will wie toll ein R5 3600 ist werden halt ultra Settings mit höheren Auflösungen genommen. Und schwupps ist ein R5 3600 in 1440p fast gleich auf mit einem 10900K.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Zumindest finde ich den Test realistischer als seinen medium Test.
 
Zuletzt bearbeitet:
Es reicht realistische Settings zu nehmen. 1440p/ultra, was ja nicht unrealistisch ist für eine RX 6800/RTX 3070, um meist ins GPU Limit zu kommen.
HWU beweist auch nur das was sie beweisen wollen. Wenn er zeigen will wie toll ein R5 3600 ist werden halt ultra Settings mit höheren Auflösungen genommen. Und schwupps ist ein R5 3600 in 1440p fast gleich auf mit einem 10900K.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Zumindest finde ich den Test realistischer als seinen medium Test.


Selbst auf Ultra settings hätte der 3600 nun mit der AMD karte eine CPU Auslastung von (Beispiel) 50% und mit der Nvidia Karte eine Auslastung von 70%

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Bei ca 16min siehst du die auslastungsunterschiede zwischen den beiden.. der Nvidia Treiber selbst hat eine deutlich höhere CPU Auslastung

Natürlich wirkt sich das auf die realen FPS solange nicht aus wie die CPU noch Leistungstreserven hat..
Low res/high FPS verschieben das ganze natürlich in Richtung CPU Limit.

Sprich
eine AMD karte (egal welche) macht im CPU Limit bei 100% Auslastung sagen wir 70 fps
Die Nvidia Karte (egal welche) macht nur 55 FPS

Um auf die 70fps der AMD karte zu kommen bräuchte die Nvidia Karte 115-120% CPU Auslastung.. was natürlich unmöglich ist.

Unter idealen Bedingungen (1440p high settings) wird man davon natürlich erst mal bei den stärkeren und neueren CPUs FPS mässig erstmal nix merken AUSSER halt eine größere CPU Auslastung.

Zb
R5 2600x + AMD karte = 70% Auslastung
R5 3600x + Nvidia Karte = 70% Auslastung
Beides im GPU Limit

Und das obwohl der 3000er ryzen schneller ist

Wobei man diese zusätzlich frei gewordene CPU Leistung natürlich auch anderweitig nutzen kann.. Hintergrund gedönst, streaming ect
 
Zuletzt bearbeitet:
Mich persönlich hat das Timing ein wenig aufgeregt. Wir hatten eine aktuelle Wiederaufnahme des Themas schon seit unzähligen Monaten auf dem Plan, aufgrund der Produktschwemme seit dem Herbst aber keine Zeit gefunden. Dann war es endlich soweit, Anfang März war der Artikel im Kasten und wartete darauf, zur Druckerei geschickt zu werden - und dann ging die im Grunde uralte Sache im Internet steil. Kann passieren. Am Ende haben wir aber alle etwas davon. :-)

MfG
Raff
Aufmerksame Leser konnten dass doch bereits aus den letzen Heften entnehmen(auch wenn da der Schwerpunkt nicht das Thema speziell war) und bereits bei der 5700 wurde das deutlich dass diese oft schneller im CPU Limit agiert als z.B.die 2080ti.
Darf ich dann meine wirklichen Einstellungen nutzen, oder muß ich 720p nehmen?
Das meine RX 6800 meist schneller als meine RTX 3070 unterwegs, weiß ich auch so.

Das ist zwar ein existentes, aber doch ein theoretisches Problem. Die Hardwarekonstellation wird nie vorkommen genausowenig Auflösung.
Es darf gerne einer mit einem R9 3900X/RX 5700 XT gegen mein Setup R9 3900X/RTX 3070 antreten. Wenn die RX 5700XT schon schneller als eine RTX 3090 ist sollte das ja kein Problem sein. Es gibt ja auch absolut CPU limitierte Spiele. Vielleicht beweiß Du mir das dann mal auch. Aber komm mir nicht mit 720p/low :D.

Falls, falls es wirklich jemanden gibt, der mit so einem Setup ( Low CPU+Highend Grafikkarte) spielt, dann ist das wohl eher ein hausgemachtes Problem.
Also in Anno landest du mit jedem Setting im CPU Limit mit den dicken Boliden in den Städten und der alten Welt.
 
Tjoah, Context is for Kings. Aber selbst wenn manche da Trittbrettfahrerei reininterpretieren, so lange Raff auf seine Arbeit stolz sein und hinter ihr stehen kann, ist doch alles in trockenen Tüchern, oder nicht? Recht machen kann man es ohnehin nicht jedem.
 
Naja, 100€ CPU und (theoretisch kostende) überteuerte 1400€ Karte sind wohl nicht gerade ein realistisches Szenario.
Trotzdem aber interessant, die Ergebnisse.
Bei igorslab.de findest du noch mehr Messungen, die auch günstigere GPUs abdecken.
Das Verhalten ist nicht auf Ampere vs. RDNA2 beschränkt.
Turing und RDNA1 zeigen ähnliches Verhalten und auch eine 3060 TI ist noch betroffen.
 
Naja, 100€ CPU und (theoretisch kostende) überteuerte 1400€ Karte sind wohl nicht gerade ein realistisches Szenario.
Trotzdem aber interessant, die Ergebnisse.
Naja, mit meinem aktuellen Setup (siehe Signatur) bin ich auch in 1440p mit höchsten Settings in den meisten Spielen, die ich habe, durchgehend CPU-limitiert. Ausnahmen sind dann sowas wie Cyberpunk, Horizon Zero Dawn, und witzigerweise Trine 4. Ist jetzt nicht unbedingt die aktuellste CPU, aber dennoch ein gutes Stück flotter als der 3100.

Nun hätte ich hier freiwillig auch nie eine 6900XT eingebaut, aber die gabs halt von der Arbeit, insofern...
 
Tja, woran es genau liegt darüber kann man sicher viel spekulieren.

Hab gestern ein älteres Video gesehen, wo es darum ging, wie Nvidia durch den Treiber die DrawCalls unter DX11 auf mehrere Kerne Verteilt hat. Der Verwaltungsaufwand kostet zwar Leistung, bringt dafür in DX11 unterm Strich aber viel Performance, weil die Kosten geringer als der Nutzen sind und der Main Thread nicht mehr blockiert. In DX12 scheint es aber unnötig zu sein und eher zu bremsen bzw. hat AMD hier diverse Vorteile. Ich hab zwar damals den "Wundertreiber" auch mitbekommen, aber dass man dafür jetzt unter DX12 schlechter dasteht als AMD ist schon witzig...

Egal, ich hoffe einfach mal, dass Nvidia hierauf aufmerksam wird und vielleicht noch Performance herausholt. Dann haben alle was davon.

Im Endeffekt interessiert die Performance im CPU limit doch uns alle. Das ist doch der einzige Grund, warum die meisten hier ne aktuelle CPU haben... Wäre das egal, würds auch ein 2600X oder 7700K tun.
Das CPU limit soll einfach möglichst weit weg vom GPU limit liegen. Je weiter desto besser und glatter die Frametimes.



EDIT: Text nochmal überarbeitet. Glaub ich war grad besoffen...
 
Zuletzt bearbeitet von einem Moderator:
Hättest du nicht.


edit: Bezüglich meiner Aussage, eines unserer Communitymitglieder hatte diesbezüglich Kontakt zu AMD Deutschland.

Quelle: https://tinyurl.com/4pk38k7a

Das Problem hierbei ist, dass es dir passieren kann, dass der nächste Mitarbeiter beim Kundendienst schon wieder eine andere Meinung vertritt.
Allerdings denke ich sowieso, dass es immer Garantie gibt solange es ersichtlich ist, dass durch einen Umbau keine Schäden entstanden sind (hier ist es natürlich klug umzubauen und nichts dazu zu sagen) und die Karte so aussieht wie vorher.
 
Als damals DX12 vorgestellt wurde, war das Hauptargument die Verringerung des CPU-Limits !
Wurde auch hier damals viel diskutiert.
Später dann kein Wort mehr davon! Heute lieber den dicksten 50-Kerner kaufen,damit das Grafikschätzchen auch ordentlich zu tun hat.
Gruß Yojinbo
 
ich fänds cool, wenn ihr mal valorant und cs:go in eure benchmarks mit aufnehmen würdet. hohe fps sind ja wohl immer gut in online shootern, laut LTT
 
Kein SAM aktiviert, was gerade bei kleinen Auflösungen extrem beschleunigt. Dass man nachwievor solche Probleme bei PCGH mit SAM hat (solange Nvidia nicht nachziehen kann). Man sieht, dass hier kein ernsthaftes Interesse besteht Aufklärung zu leisten. Der Harmonie willen wird ein möglichst ausgeglichenes Ergebnis angestrebt. Zudem mit einer völlig unsinnigen CPU-Wahl, damit die Relevanz in Frage gestellt werden kann.

Nehmt eine weitverbereitete CPU (Ryzen 3600/3700X o. ä.), aktiviert SAM, dann kann ich es euch ansatzweise abnehmen. Das Ergebnis wäre dann allerdings weniger prickelnd für Nvidia und hätte tatsächlich Praxisbezug (von mir aus auch nur mit einer RX 6800/RTX 3070 oder RX 6800 XT/RTX 3080). Uff.
 
Zuletzt bearbeitet von einem Moderator:
Zurück