UWQHD & WQHD Grafikleistung? Help :(

FloRida272

Schraubenverwechsler(in)
Hallo,

Ich hoffe im Bereich Monitor bin ich hier richtig :)

ich hab eine Frage bezüglich den beiden Auflösungs-Formaten.

WQHD = 2560x1440
Ultrawide WQHD = 3540x1440 oder 3440x1440 etc.

Jetzt meine Frage, eigentlich ist klar das Ultrawide WQHD aufgrund der höheren Auflösung mehr Grafikpower benötigt.

Aber wie viel mehr?

Die Leistung was eine Grafikkarte für 4K aufwenden muss im Vergleich zu WQHD ist ja gigantisch.

Verhält sich das dementsprechend auch zu Ultrawide?

Ich bin nämlich gerade dabei mir ein PC zusammen zustellen und würde mir gerne dazu einen UltraWide Monitor holen.

Nur mal als Beispiel der

LG UltraGear 45GR95QE-B​

Mega geiles Teil, aber leider unbezahlbar für mich :D.

Der hat ja eine Auflösung 3440x1440.

Der:

LG UltraGear 32GQ85X​

Dieser hat die WQHD-Auflösung.

Jetzt hab ich ne 4070. Würde ihr mir lieber zu einer WQHD-Auflösung raten oder reicht so eine Grafikkarte auch auch für die Auflösung eines LG Ultragear 45… mit 3440x1440. Wir gehen jetzt mal von Max. Details bei Games aus (ja raytracing ist bei ner 4070 nur mit aktivierten DLSS 3.0 möglich)

Ich weiß leider nicht wieviel mehr Grafikleistung Ultrawide WQHD im Vergleich zu normalen WQHD beansprucht.
 
Habe es mal vor ein paar Jahren mit Forza Horizon 4 ausgetestet und der Unterschied lag in diesem Spiel um die 30 - 40 FPS.
Also von etwa 100 FPS auf 130 - 140 FPS.
 
Zuletzt bearbeitet von einem Moderator:
Habe meinen 21:9 Monitor schon einige Jahre vor mir stehen und in allen Spielen bekomme ich mehr FPS raus, wenn ich die Auflösung auf 16:9 (2560x1440P) umstelle. Klar kann man keine bestimmte FPS ausmachen, aber UWQHD fordert eine etwas höhere Leistung.
Und die Aussage ist leider nutzlos, da ohne Basis fps kein Vergleich möglich ist.
Doch, die Basis war damals das angemerkte Spiel und die Settings die ich zu der Zeit gesetzt hatte. Der Vergleich wurde mit denselben Settings, aber mit unterschiedlicher Auflösung mittels CapFrameX gemessen. Meine Angaben dienten daher nicht als Grundsatz, sondern nur als Beispiel aus meinem Test von damals.
 
Zuletzt bearbeitet von einem Moderator:
Hier mal ein neuer Test von mir.

Die Settings in Shadow of the Tomb Raider sind nicht relevant, weil je nach Testlauf sich nur die Auflösung geändert hat. Aber auch hier sind etwas um die 30 FPS Differenz vorhanden. Und das habe ich auch in der Vergangenheit aus anderen Spielen genau so erkennen können. Natürlich darf man sich auf diese 30 - 40 FPS, was ich angegeben habe, nicht festsetzten, weil es ein Beispiel aus den Spielen von mir und meinem System kommt.

Aber als ich Forza Horizon 4 damals getestet habe, hatte ich noch einen 9900K Prozessor mit einer RTX 2080 Grafikkarte verbaut. Im heutigen Test ist ein 13900K und eine RTX 3080 Grafikkarte vorhanden. Mein Monitor ist aber seit damals immer noch derselbe.

3440x1440P mit DLSS​

Ashampoo_Snap_Freitag, 21. April 2023_18h46m02s_001_.png

2560x1440P mit DLSS​

Ashampoo_Snap_Freitag, 21. April 2023_18h42m04s_001_.png

3440x1440P ohne DLSS​

Ashampoo_Snap_Freitag, 21. April 2023_18h55m49s_001_.png

2560x1440P ohne DLSS​

Ashampoo_Snap_Freitag, 21. April 2023_18h59m34s_001_.png
 
Zuletzt bearbeitet von einem Moderator:
Doch, die Basis war damals das angemerkte Spiel und die Settings die ich zu der Zeit gesetzt hatte. Der Vergleich wurde mit denselben Settings, aber mit unterschiedlicher Auflösung mittels CapFrameX gemessen. Meine Angaben dienten daher nicht als Grundsatz, sondern nur als Beispiel aus meinem Test von damals.
Sag mal, willst du es nicht verstehen?
Ne Aussage "ich hab 40fps" ist nutzlos.
Das können vorher 20fps gewesen, aber auch 1000fps.
Und wenn du 30-40fps mehr hast, dann wären das vorher 300-400fps.
UWQHD braucht schon immer 10% mehr Leistung
 
Glaube, dass du das nicht verstehen möchtest, dass ich bisher in allen Spielen im Schnitt eine Differenz von 30 bis 40 FPS hatte. Was das jetzt mit deinen 300, 400 oder 1000 FPS zu tun haben soll, verstehe ich nicht! Schau dir mal meinen heutigen Test an, ein ganz anderes Spiel, als was ich zunächst als Beispiel benannt hatte und auch hier fallen die FPS mit solch einer Differenz aus.

Es handelt sich immer um dieselben Settings und einer Auflösung von 1440P. Der einzige Unterschied ist die Breite mit derselben Höhe und daher werden hier mit denselben Settings keine 300, 400 oder gar 1000 FPS als Differenz entstehen! Meine Angaben haben sich nur auf die Differenz bezogen und nicht was für FPS insgesamt erreicht werden! Zudem habe ich nur Beispiele mit meinem System im Zusammenhang, mit meinen dazu getestete Spiele benannt!

Ich weiß leider nicht wieviel mehr Grafikleistung Ultrawide WQHD im Vergleich zu normalen WQHD beansprucht.
Auch wenn unser lieber @JoM79 meine Beiträge nicht verstehen will, habe ich dir als Beispiele gezeigt, was es bei mir mit hohen Einstellungen mit unterschiedlicher Auflösung (21:9 vs. 16:9) als Differenz ausmachen würde.

Normalerweise dürfte ich gar keine Angaben zu FPS machen, weil sich manche Leute daran festbeißen.
Aber die neuen Tests sollten selbsterklärend sein.
 
Zuletzt bearbeitet von einem Moderator:
Wenn du in einem Titel 60fps in WQHD hast, hast du in UWQHD garantiert keine 30 bis 40fps weniger :schief:

Genau deshalb müssen solche Angaben immer in Prozent angegeben werden…

Ich verweise an der Stelle einfach mal auf den GPU Index von Raff. Da kannst du dich durch die Auflösungen klicken und hast einen vernünftigen Vergleich:
 
Warum antwortet ihr nicht direkt auf solche Fragen, dann könnte ich mir manche unnötige Diskussionen sparen.
 
Auch wenn unser lieber @JoM79 meine Beiträge nicht verstehen will, habe ich dir als Beispiele gezeigt, was es bei mir mit hohen Einstellungen mit unterschiedlicher Auflösung (21:9 vs. 16:9) als Differenz ausmachen würde.

Normalerweise dürfte ich gar keine Angaben zu FPS machen, weil sich manche Leute daran festbeißen.
Aber die neuen Tests sollten selbsterklärend sein.
Ich verstehe es schon, nur du anscheinend immer noch nicht.

Wenn dein Spiel in UWQHD 20fps hat, wirst du in WQHD keine 30-40fps mehr haben.

Deswegen meine Aussage, daß man für UWQHD 10% mehr Leistung braucht oder anders herum, WQHD hat 10% mehr fps als UWQHD.

War immer so, wird immer so.
Wenn du in einem Titel 60fps in WQHD hast, hast du in UWQHD garantiert keine 30 bis 40fps weniger :schief:

Genau deshalb müssen solche Angaben immer in Prozent angegeben werden…

Ich verweise an der Stelle einfach mal auf den GPU Index von Raff. Da kannst du dich durch die Auflösungen klicken und hast einen vernünftigen Vergleich:
Danke.
 
Ist ok, ihr habt recht, ich werde hier im Forum einfach nichts mehr mit beitragen.

Habe keine Lust mehr auf solche blöden Diskussionen. Habe einfach nur Beispielen aus zwei Spielen gezeigt und das sollte kein Grundsatz auf alle Systeme oder allen Spielen sein. Das könnte ich auch gar nicht, denn ich fange jetzt mit jedem Thema nicht an alles ins Detail auszutesten, sondern berichte wie es bisher bei mir war.

Aber anscheint habt ihr nichts Besseres zu tun, als andere, die nur helfen wollen, zu kritisiert.
Echt traurig, wenn man nicht mehr helfen kann, ohne sich dann danach doof anmachen lassen zu müssen.
 
Ist es wirklich so schwer zu verstehen, was eine relative Mehrleistung in % ist?
Die ist auch allgemein gültig, unabhängig wie viel fps man hat.
Du haust einfach raus, das der Unterschied bei dir in FH4 30-40fps waren.
Dann freut sich der Nutzer, weil er denkt, er habe anstatt 60fps auf einmal 90-100fps.
 
Ich hatte diese Differenzen in diesen Spielen, was willst du daran ändern? Ich kann keine Prozente angeben, weil ich dieses nicht ins Detail ausgetestet habe und habe daher einfach nur meine Differenzen benannt. Was ist daran so schwer zu verstehen?!

Habe nirgendwo widersprochen, dass eure Differenzen als Prozent falsch wären!
 
Zuletzt bearbeitet von einem Moderator:
Nochmal, ich verstehe was du sagen willst, nur ohne Bezugspunkt bringt einem das nix.
Dein Post mit unterschiedlichen Werten bringen was, weil man eben vergleichen kann.
Deswegen gibt man ja auch relative Werte in % an.
Da kann jeder hingehen und einfach anhand seines Basiswertes ausrechnen, wo er landen wird.
 
Nochmal, ich verstehe was du sagen willst, nur ohne Bezugspunkt bringt einem das nix.
Darf ich keine Beispiele mehr einstellen? Die ich im Schnitt erzieht habe?! Bezugspunkte sind mir egal, denn diese kannst du gerne als Ergänzung mit hinzufügen. Habe nur berichtet, was ich im Durchschnitt an Differenzen feststellen konnte.

Was ist daran so schwer zu verstehen?!
 
Zuletzt bearbeitet von einem Moderator:
Darf ich keine Beispiele mehr einstellen? Die ich im Schnitt erzieht habe?! Bezugspunkte sind mir egal, denn diese kannst du gerne als Ergänzung mit hinzufügen. Habe nur berichtet, was ich im Durchschnitt an Differenzen feststellen konnte.

Was ist daran so schwer zu verstehen?!
Nix, nur gibt es ohne Bezugspunkt auch keine Differenz.
Deswegen war dein erster Post nutzlos.
Deine Vergleichsbilder helfen einem dann weiter, weil die unterschiedlichen Werte vergleichen kann.
Aus der Differenz der beiden Werte erhältst du dann deinen relativen Unterschied in %.
Genau so funktioniert GPU Performance Index.
 
Nix, nur gibt es ohne Bezugspunkt auch keine Differenz.
Deswegen war dein erster Post nutzlos.
Eben nicht, da ich auch das Spiel dazu geschrieben habe, womit ich diesen Unterschied im Durchschnitt hatte!

Siehe!
Habe es mal vor ein paar Jahren mit Forza Horizon 4 ausgetestet und der Unterschied lag in diesem Spiel um die 30 - 40 FPS.

Aus der Differenz der beiden Werte erhältst du dann deinen relativen Unterschied in %.
Richtig, es obliegt aber meiner Entscheidung, ob ich diese Differenz in Prozent umrechnen möchte oder einfach ein Ergebnis von mir angebe!

Sorry, aber findest du nicht, dass du es etwas übertreibst oder muss es alles nach deine Nase gehen? Kannst du nicht einfach dein Beitrag hinzufügen, ohne andere User hierzu in unendliche Diskussionen zu verwickeln? Echt traurig, dass man hier manchmal soviel unnötig schreiben muss. Da überlegt man sich direkt, ob man das nächste Mal überhaupt noch was hinzufügt oder jemand versucht zu helfen.

Hätte ich gewusst, dass ich hier soviel herumdiskutieren muss, hätte ich mir lieber mein Beitrag dazu gespart. Du kannst daher noch schreiben was du willst, ich bin jedenfalls jetzt hier raus.
 
Zuletzt bearbeitet von einem Moderator:
Eben nicht, da ich auch das Spiel dazu geschrieben habe, womit ich diesen Unterschied im Durchschnitt hatte!
Und was soll das bringen?
Ich kann in dem Spiel 100fps oder 20fps haben in der gleichen Auflösung.
Das bringt mir also garnichts.

Sorry, aber findest du nicht, dass du es etwas übertreibst oder muss es alles nach deine Nase gehen? Kannst du nicht einfach dein Beitrag hinzufügen, ohne andere User hierzu in unendliche Diskussionen zu verwickeln? Echt traurig, dass man hier manchmal soviel unnötig schreiben muss. Da überlegt man sich direkt, ob man das nächste Mal überhaupt noch was hinzufügt oder jemand versucht zu helfen.

Hätte ich gewusst, dass ich hier soviel herumdiskutieren muss, hätte ich mir lieber mein Beitrag dazu gespart. Du kannst daher noch schreiben was du willst, ich bin jedenfalls jetzt hier raus.
Warum muss es nach meiner Nase gehen und warum willst du mir vorschreiben was ich machen soll?
Es geht auch nicht nach meiner Nase, sondern einfach um den falschen Ansatz.
Es hilft niemanden, siehe Beispiel oben mit 20 und 100fps.

Nimmt der User nämlich seine Ausgangsposition und die ist dann 60fps und nicht deine 150fps, dann kauft er sich vielleicht keinen UWQHD, weil er denkt, er hat dann nur noch 20-40fps.
Real werden es aber 50-55fps sein und deswegen hilft ihm der Wert absolut nichts.
 
Wir gehen jetzt mal von Max. Details bei Games aus (ja raytracing ist bei ner 4070 nur mit aktivierten DLSS 3.0 möglich)
Ich weiß leider nicht wieviel mehr Grafikleistung Ultrawide WQHD im Vergleich zu normalen WQHD beansprucht.

Ich sags mal so.
Man bekommt jede Graka klein, wenn man nach "MAX" giert. Vor allem wenn man sich mal klar macht, was wirklich die Leistung frisst. Die Auflösung ist das nämlich nicht unbedingt, sondern die Regler für Anti-Aliasing. Wenn man lernt die zu benutzen, dann ist auch 4k in Reichweite^^
Ich würde den Monitor so fett wie möglich kaufen, in der Regel überlebt er mehrere Grafikkarten.

Das übliche: Hier mal die 4090 in RDR2, alle Regler die ich finden konnte ganz rechts. Oder was bedeutet für dich dieses unsägliche "Max Detail"?

rdr2_2022_10_29_16_576bf72.jpg


Das schöne am "großen" Monitor ist: Er kann auch alle kleineren Auflösungen (Pixelgenau).
Der "kleinere" Monitor kann zwar auch viele größere Auflösungen, aber nie Pixelgenau^^

Ich hab meinen ersten 4K-Monitor mit einer Maxwell-Grafikkarte betrieben, und bin nicht davon gestorben^^
 
Nimmt der User nämlich seine Ausgangsposition und die ist dann 60fps und nicht deine 150fps, dann kauft er sich vielleicht keinen UWQHD, weil er denkt, er hat dann nur noch 20-40fps.
Real werden es aber 50-55fps sein und deswegen hilft ihm der Wert absolut nichts.
Ich habe in diesen Spielen 30 - 40 FPS Differenz und was willst du jetzt daran machen? Mir verbieten, meine Ergebnisse mit meinem System einzustellen?! Habe sogar dazu geschrieben, dass es Ergebnisse mit meinem System sind und man sich nicht an meine Angaben festsetzten soll.

Natürlich darf man sich auf diese 30 - 40 FPS, was ich angegeben habe, nicht festsetzten, weil es ein Beispiel aus den Spielen von mir und meinem System kommt.
 
Zuletzt bearbeitet von einem Moderator:
Zurück