[Diskussion] High End auf Full HD

Habe ich das Thema falsch angepackt und mehr in die technische Richtung fragen sollen? Denke langsam ja. Es gab ja eine Zeit lang die Frage bei den Monitoren, ob man viel Shooter spielt und dann auf 144hz verwiesen wurde. Sollte man die Frage jetzt nicht so stellen, ob man bei einem solchen Bildschirm nicht auch 144fps haben will?

Vielleicht ist eine kurze klare Frage einfacher zu beantworten. Wann ist eine High End Karte auf Full HD zu viel, wenn ich folgendes will:

a) 144fps bei 144hz
(b) downsampling nutzen)
c) möglichst alle Regler nach rechts (sinn oder nicht bitte hier gerade nicht beachten)
d) konstante 60fps bei 60hz

einzeln, Kombinationen oder alles zusammen.
 
Wäre hier an einer guten Diskussuin wirklich interessiert und scheue keine Kritik :daumen:
Es hängt natürlich immer an den Präferenzen des Fragenden, welche Karte tatsächlich etwas für ihn ist. Auch selbst wenn in FullHD mehr als 60 FPS erwünscht sind, ist eine High End Karte nicht immer zielführend, da möglicherweise die CPU fürs gewünschte Spiel zu langsam ist. Daher wird als vernünftiger Mittelweg gern die R9 390 empfohlen, Preis und Leistung stimmen einigermaßen überein. Klar findet man auch Wege eine 980Ti oder eine Fury X unter FullHD voll zu beschäftigen, der Aufpreis zur 390 ist jedoch für den gewonnenen Nutzen für die meisten Spieler zu klein oder sogar gar nicht vorhanden (wie das genannte Wow Beispiel zeigt).
 
Du hast echt Glück, dass man in der Schule nicht für Fragestellungen benotet wurde/wird.

Jetzt packst du schon wieder etliche verschiedene Szenarien in eine Frage und selbst wenn man alles berücksichtigt gibt es keine Sinnvolle Antwort.
Eine High-End Karte kann bei 60hz und 60fps sowohl völlig unterfordert, als auch überfordert sein, ist doch abhängig von dem was man zockt.
Das gilt auch für 144hz und nur weil dein Monitor 144hz kann, muss man keine 144fps haben, alles über 60fps lohnen 144hz.

Sag doch mal konkret was du in Zukunft damit anstellen willst, du kannst das Thema nicht in seiner Gesamtheit pauschal erschlagen.
 
Ab, um 70 FPS hat man kein bzw fast kein Tearing aber das geht dann in Richtung G-Sync usw. Da mußt du dich aber mit jemanden anderen unterhalten der das in der Praxis versteht oder dich hier im Suchmodus durchlesen.
MfG.wolflux
 
Anstellen will ich nichts, es geht ja nicht um meine Wünsche. Du triffst es mit deinem Satz "Das gilt auch für 144hz und nur weil dein Monitor 144hz kann, muss man keine 144fps haben, alles über 60fps lohnen 144hz." echt gut. Ich sag ja selbst immer, dass es auf jeden selbst ankommt, ob und ab wann er was merkt, so allgemeine Aussagen sind für mich irreführend. Wer sagt das, dass "man" schon ab 60fps was davon hat? Sind das deine eigenen Erfahrungen oder ein Test von einem Magazin? Was wenn ich erst bei 100fps was merke, dann wäre ich ja ganz schän angeschmiert, wenn ich die 100fps bei 144hz nicht zusammen bekomme. So mein ich das.
Mir ist schon klar, dass man das selbst ohne noch nie gesehen zu haben selbst nicht sagen kann. Ich habe schon geschrieben, dass man solche persönlichen Präferenzen bereits kennt oder erst finden muss. Gehen wir davon aus ich habe mir für einen 144hz Bildschirmen entschieden und du empfiehlst mir eine Grafikkarte die hier 80fps schafft, weil für 100fps wäre die doppelt so teuer und 60fps bin ich ja drüber. Jetzt steht alles vor mir und ich merk keinen Unterschied zu früheren 60hz.

edit: Dass man ab 70fps kein Tearing mehr hat ist auch sowas, also ich habs noch, wäre wieder angeschmiert. Versteht ihr? Ich will euch ja nichts, aber das sind doch alles Dinge die abgesehen von der Hardware(Technik) jeder anders wahrnimmt.
 
Wie du schon sagst, persönliche Erfahrungswerte, wenn du dich so sorgst, dass du mit subjektiven Empfehlungen daneben liegst, bleibt nur in Laden gehen und selber testen.

@ Wolle: Tearing entsteht immer dann, wenn die Grafikkarte mehr Bilder liefert als der Monitor anzeigen kann.
Warum nun 70fps kein bzw. wenig Tearing erzeugen sollen entzieht sich mir gänzlich, gehen wir von 60hz aus, hat man bei 70fps wahrscheinlich Tearing (ohne Doppelpuffer / Sync Applikationen) und hat man einen Monitor mit mehr als 60hz hat man garkein
Tearing in diesem Beispiel.
 
Womit wir bei einem technischen Aspekt sind, der der Aussage "144hz lohnen sich schon unter 144 FPS" doch genau in die Karten spielt.
Und das hat nichts mit irgendwelchen Empfinden zu tun.
Tearing tritt eben erst dann wieder auf wenn die FPS deutlich über 144 liegen. Schafft meine Grafikkarte also beispielsweise "nur" 70 oder 80 FPS so tritt Tearing bei einem 60 FPS Monitor auf, wenn ich VSync nicht hinzuschalte.
Habe ich aber einen Monitor, der 144hz Bildwiederholrate hat, tritt das Bildzereißen (Tearing) eben nicht auf.

Ergo ist die Aussage 144hz lohnen sich auch dann wenn man keine 144hz erreicht sogar aus diesem technischen Grund schonmal Pauschal richtig, subjektives Empfinden hin oder her.
 
Zudem hat man prinzipiell einen geringeren Inputlag, welcher sich mit jedem Frame (über 60) verringert.
Das jedoch ist nur für Programer und diese die meinen dazu zu gehören interessant.
 
Siehste, alles wieder aufgefrischt.
Danke euch Jungs, aber ob unser junger Freund das verstanden hat, um was ging es jetzt nochmal?
Ach ja, also ich bin für Highend und keine
Inputlags oder irgendwelches Tearing auf meiner Mattscheibe :wall: Wer hat das Thema eigentlich mit dem Tearing angefangen, ach das war ja ich, hm verwirrend dieser Thread ;)
Gääähnnn, Gute Nacht....
MfG.wolflux
 
Zuletzt bearbeitet:
Tearing tritt eben erst dann wieder auf wenn die FPS deutlich über 144 liegen. Schafft meine Grafikkarte also beispielsweise "nur" 70 oder 80 FPS so tritt Tearing bei einem 60 FPS Monitor auf, wenn ich VSync nicht hinzuschalte.
Habe ich aber einen Monitor, der 144hz Bildwiederholrate hat, tritt das Bildzereißen (Tearing) eben nicht auf.
Warum? Bildausgabe von Grafikkarte und Monitor sind nur dann synchronisiert, wenn irgendeine Art von Synchronisierung (Gsync, Vsync, Freesync) eingestellt ist. So kann Tearing auch bei 144FPS mit einem 144Hz Panel ohne Vsync auftreten, nur ob man das sehen kann, ist die andere Frage.
 
Wie immer gilt: Es kommt darauf an ;)

Meine Ti bekomme ich ohne Probleme in 1080p klein, wenn ich im Witcher die Enthusiast-Settings bis ins Maximum fahre. Dafür langweilt sie sich in MGSV sogar stellenweise in 1800p =) Es liegt einfach an jedem selbst, zu entscheiden was er braucht, gerne hätte und wie er es einsetzt - ob das dann immer sinnvoll ist, ist eine andere Frage und liegt im Auge des Betrachters. Aber wir sollten nicht vergessen: Es ist jedem selbst überlassen, was er mit seinem Geld anstellt ;)
 
Bei tearing und 120/144Hz kommt es auch drauf welcher Monitor es ist.
Es gibt welche die haben relativ viel tearing und dann wieder welche die haben haben so gut wie keins.
Das kann man halt so nicht verallgemeinern.

@topic
Klar macht High-End auf FHD Sinn, aber die meisten fragen immer nur danach was gespielt.
Das jemand aber vielleicht versucht immer 144fps bei 144Hz zu haben, da denkt kaum jemand dran.
 
So gut wie tearing hatte ich beim XL2430T, das bestätigt auch Prad im Test.
Nicht so gut was der Eizo FG2421.
Der Acer GN246HLBbid (hoffentlich die richtige Bezeichnung) kommt bei Prad auch nicht so gut weg.
Der Asus VG248QE soll auch wenig tearing haben.
 
Jeder Monitor hat einen sweet spot in dem tearing am geringsten ist. Diesen zu finden und alles so einzustellen ist oft schier unmöglich :/

Klar macht High-End auf FHD Sinn, aber die meisten fragen immer nur danach was gespielt.
Das jemand aber vielleicht versucht immer 144fps bei 144Hz zu haben, da denkt kaum jemand dran.
Meine Reder, ich denke das wird aufgrund des boomenden 4k Marktes stark in den Hintergrund geschoben, da bei 4k keiner an 120+fps denkt.
 
Zurück