• Hallo Gast,

    du hast Fragen zum PCGH-Abo oder zur Bestellung eines (Sonder)hefts von PC Games Hardware? Dann wirf einen Blick auf unser PCGH Abo-FAQ mit Antworten zu den wichtigsten Fragen. Hilfreich bei der Suche nach dem nächstgelegenen Händler, bei dem die aktuelle PC Games Hardware ausliegt, ist die Website Mykiosk. Gib dort deine Postleitzahl und PC Games Hardware (Magazin/DVD/Spezial/Sonderheft) in die Suchfelder ein und dir werden die Verkaufsstellen in deiner Nähe aufgezeigt. Wenn du PCGH digital (über App, Tablet, Smartphone oder im Webbrowser) lesen willst, haben wir eine entsprechende Anleitung für dich zusammengestellt.

Feedback Eure Meinung zur PCGH-Ausgabe #269 (03/2023)

Feedback-Threads

Welche Artikel der Ausgabe 03/2023 haben dir zugesagt?

  • Special: So viel VRAM braucht es wirklich

    Stimmen: 24 85,7%
  • Test: Geforce RTX 4070 Ti

    Stimmen: 13 46,4%
  • Praxis: Geforce-Treiber erklärt - Teil 2

    Stimmen: 13 46,4%
  • Praxis: Radeon-6000-Effizienzguide

    Stimmen: 14 50,0%
  • Test: AMD Ryzen 7000 ohne X

    Stimmen: 15 53,6%
  • Test: Intel Core i5-13400F

    Stimmen: 12 42,9%
  • Test: Intel Core i9-13900KS

    Stimmen: 6 21,4%
  • Info: Displays der Zukunft

    Stimmen: 12 42,9%
  • Test: 4× B650(E) Platinen - Teil 2

    Stimmen: 11 39,3%
  • Sonstiges (bitte kurz im Thread schreiben)

    Stimmen: 1 3,6%

  • Anzahl der Umfrageteilnehmer
    28
  • Umfrage geschlossen .

PCGH_Richie

Redakteur
Teammitglied
Hallo liebe PCGH-Community!

Die Ausgabe 03/2023 (#269) ist ab Mittwoch, den 01. Februar im sehr gut sortierten Einzelhandel verfügbar (schaut mal hier bei euch in der Umgebung nach der PC Games Hardware) und kann digital bereits ab Freitag, den 27. Januar bezogen werden. Natürlich verzichten wir auch beim aktuellen Heft nicht auf den zentralen Feedback-Sammelthread. Hier dürft ihr eure Meinung zum Heft gerne uns teilen. Unsere Aufmerksamkeit ist euch gewiss, wir diskutieren jeden Input intern und antworten nach Möglichkeit.

Sollte euer Stammkiosk nicht zur Verfügung stehen, könnt ihr das Heft auch bestellen – entweder gedruckt oder digital. Weitere Links findet ihr im Promo-Artikel ganz unten.

Eure Anregungen in Form von Lob, Kritik und allgemeinem Feedback sind bei uns immer herzlich willkommen, schließlich lebt dieses Heft von euch und für euch! Wohl formulierter Input wird von der Redaktion zudem gerne gelesen, anschließend reflektiert und soweit wir können, auch zügig beantwortet. Bedenkt jedoch bitte, dass selbst PCGH-Redakteure nicht 24 Stunden am Tag im Dienst sind, jedes Schaltjahr auch mal Urlaub haben oder (zum Glück noch seltener) krank im Bett liegen könnten. Auch wenn wir nicht auf jedes einzelne Posting eine Antwort schreiben, wir lesen euer Feedback, also haut gerne in die Tasten! :-)

In dem Sinne, eine spannende neue Ausgabe und viel Spaß beim Lesen!
Eure PCGH-Redaktion
 
Danke Richard. Der V-Sync / G-Sync Beitrag ist super geworden. (Inkl. Bilder und Diagramme ) perfekt. (So hatte ich mir das gewünscht)

Rest muss ich erstmal noch lesen und studieren.

War’s Fazit bei Blurbusters nicht das man ca 3 FPS unter den Max Hz. bleiben sollte und so G-Sync / V-Sync (auf ON und nicht auf fast) / -3 FPS Limit die beste Latenz erreicht ?

Ohne FPS Limit wird das V-Sync Maximum kurzzeitig überschritten bzw. die V-Sync Funktion ausgelöst und wenn dieses eingreift und soll das unnötigen Lag verursachen ?

Edit, natürlich ein 3. Teil…
 
Zuletzt bearbeitet:
Danke Richard. Der V-Sync / G-Sync Beitrag ist super geworden. (Inkl. Bilder und Diagramme ) perfekt. (So hatte ich mir das gewünscht)

Rest muss ich erstmal noch lesen und studieren.

War’s Fazit bei Blurbusters nicht das man ca 3 FPS unter den Max Hz. bleiben sollte und so G-Sync / V-Sync (auf ON und nicht auf fast) / -3 FPS Limit die beste Latenz erreicht ?

Ohne FPS Limit wird das V-Sync Maximum kurzzeitig überschritten bzw. die V-Sync Funktion ausgelöst und wenn dieses eingreift und soll das unnötigen Lag verursachen ?

Edit, natürlich ein 3. Teil…

Ich finde das Thema auch spannend. Je höher die Frames, desto wahrscheinlicher ist auch das plötzliche "zu schnelle" Berechnen einzelner Bilder (im Text etwa vereinzelt 6,0 ms). Wenn die minimale Scanout-Zeit des Monitors unterschritten wird (also das Display nur alle 6,9 ms ein Bild überhaupt reinladen kann), dann kommt es auch mit G-Sync zum Tearing. Durch dazugeschaltetes Vsync wird dieser eine zu schnell berechnete Frame (6,0 ms im Beispiel) GPU-seitig solange zurückgehalten, bis das vorherige Bild komplett angezeigt wurde (ergo minimales Abwarten von 0,9 ms in dem Gedankenspiel). Diese Varianz entsteht beispielsweise gern bei plötzlichen Lastwechseln, etwa Ingame bei ruckartigen Bewegungen. Das Framelimit von 2 (Minimum) bis 4 Frames unterhalb der Monitorfrequenz kann da aber helfen, damit G-Sync auch aktiv bleibt.

Vsync als Zusatz ist mit G-Sync ein netter Bonus, aber je nach Programm und User-Szenario kann Vsync auch zur Latenz-Quelle werden, nämlich wenn G-Sync nicht aktiv läuft – mehr dazu steht im Artikel. Für keinerlei Tearing sollte G-Sync mit Vsync aktiviert werden (praktisch kein Latenzunterschied/minimalst), aber ohne G-Sync schlägt die volle Härte des originalen Vsyncs zu, je nachdem, welche Vsync-Methode man wo aktiviert hat und ob das Programm/das Betriebssystem die variable Refresh-Rate auch annimmt.

Das ist einer der Gründe, warum ich im zweiten Teil besonders die Overlay-Indikatoren in den Vordergrund gestellt habe. G-Sync und Vsync ein kann die Latenz verschlechtern, wenn G-Sync gar nicht aktiv läuft. Neben dem Beispiel mit GTA 5 und dem VLC-Player im Vollbildmodus käme etwa auch eine verrutschte Vsync-Einstellung zum Zuge: Sollte man in Cyberpunk 2077 unter den Vsync-Optionen nicht die maximale Frequenzzahl des Monitors wählen, sondern etwa 72 statt 144 gewählt haben, so schaltet sich G-Sync ab. Das merkt aber nicht unbedingt jeder sofort, weshalb zumindest das normale G-Sync-Label (oben links in grün) für die erste Zeit empfehlenswert ist. Für Erfahrene gäbe es eben auch noch die erweiterte Anzeige über den Nvidia Profile Inspector, aber hier würde ich nur temporäres Ausprobieren empfehlen (die Anzeige ist nicht für den Alltag gedacht und wird mehrfach/ pro Programm angezeigt). Die beste Latenz ohne Tearing ist nur mit G-Sync und Vsync zu erreichen. Man kann auch valide auf Vsync verzichten, dann wird man aber evtl. ein vereinzeltes Zerreißen der Bilder vor sich haben. Der Latenzunterschied hält sich mit aktiviertem G-Sync so oder so zurück. Die Ergebnisse der Messung sind noch innerhalb des Messtoleranzbereichs, normalerweise würde die niedrigste Latenz innerhalb dieser drei Szenarien bei G-Sync an und Vsync aus zu erwarten sein.

TLDR: Für Tearing freies Spielen sollte man G-Sync und Vsync einschalten, das Framelimit ca. 3 Fps unter die maximale Frequenz des Monitors setzen und darauf achten, dass G-Sync mit den eigenen Programmen(einstellungen) auch aktiv bleibt. Mehr dazu (mit Fokus darauf) findet man auch in diesem Artikel, da sind gute Illustrationen dabei (vor allem für das Verständnis, wann Vsync zurückhält/für mehr Latenz sorgt), für die ich im Heft keinen Platz mehr hatte.
 
Zuletzt bearbeitet:
Bombe… danke dir…
Das G-Sync sich ausschalten kann, wenn die Hz falsch gewählt werden, wusste ich gar nicht . Merke schon, son Bericht + Forums Upgrade… muss ich noch paar mal lesen zum kompletten Durchblick.
 
Zuletzt bearbeitet:
Bombe… danke dir…
Das G-Sync sich ausschalten kann, wenn die Hz falsch gewählt werden, wusste ich gar nicht . Merke schon, son Bericht + Forums Upgrade… muss ich noch paar mal lesen zum kompletten Durchblick.

Persönlich empfehle ich deshalb lieber das Vsync im Control Panel einzuschalten, ehe man warum auch immer G-Sync sonst überschreibt (Cyberpunk war nur ein Beispiel). Am Ende des Tages spielt es aber kaum eine Rolle, solange man alles im Blick hat. Oder man setzt auf (Teil-)Tearing, das ist jedem selbst überlassen und hängt auch von der Empfindlichkeit ab. Es kann komplex werden, aber aktiviertes G-Sync ist in jedem Fall eine tolle Sache.
 
So hab ich’s bisher immer gemacht.
Im Control Panel V-Sync AN, G-Sync Vollbildmodus und mittels RTSS das Limit auf 237… ingame dann immer Vollbildmodus, v-Sync off, 240 Hz…

So hatte ich die Ursprungsempfehlung damals schon verstanden.
 
So hab ich’s bisher immer gemacht.
Im Control Panel V-Sync AN, G-Sync Vollbildmodus und mittels RTSS das Limit auf 237… ingame dann immer Vollbildmodus, v-Sync off, 240 Hz…

So hatte ich die Ursprungsempfehlung damals schon verstanden.

Beim RTSS-Framelimit gab es Komplikationen mit Nvidia Reflex, zumindest konnte ich in Messungen eine höhere Latenz E2E und der geschätzten PC-Latenz durch Frameview feststellen. Sprich: In Spielen wie Cyberpunk 2077 (Edit: vor dem DLSS-3-Update) gibt es keinen Latenzunterschied zwischen den Framelimit-Methoden, in Darktide dagegen schon, wenn man Nvidia Reflex aktiviert. Ohne war die Latenz dagegen exakt gleich. Vielleicht lässt sich das mit einem Update oder einer Option fixen, aber der Framelimiter im Treiber ist absolut alltagstauglich (siehe Framelimit-Methoden im Vergleich). Es kann also einen praktischen Unterschied machen, wie man sein Framelimit fixiert.
 
Zuletzt bearbeitet:
Ah sauber, dann muss ich da mal was umstellen. - saubere Arbeit Richard du bist richtig drin in der Materie… danke
 
Nachtrag.... (MW 2, Multiplayer, WQHD, 240 Hz, DLSS Q)

Rechts oben G-Sync grün = gut ?
Links unten steht bei Tearing - rot das ist aber auch wiederum gut ?

Krass ist, dass mit G-Sync und Reflex die max FPS nie über 225/230 rum kommen. (Eingestellt unlimitiert und im Treiber 237) Wird der Treiber-Overhead sein ?

Grüße
 

Anhänge

  • 1.jpg
    1.jpg
    1,6 MB · Aufrufe: 29
Zuletzt bearbeitet:
Nachtrag.... (MW 2, Multiplayer, WQHD, 240 Hz, DLSS Q)

Rechts oben G-Sync grün = gut ?
Links unten steht bei Tearing - rot das ist aber auch wiederum gut ?

Krass ist, dass mit G-Sync und Reflex die max FPS nie über 225/230 rum kommen. (Eingestellt unlimitiert und im Treiber 237) Wird der Treiber-Overhead sein ?

Grüße

Genau, Tearing = no zeigt an, dass eine Form von G-Sync mit Vsync eingeschaltet ist und kein Zerreißen des Bildes vorliegen müsste. G-Sync oben rechts in Grün zeigt an, dass G-Sync gerade in dem Programm aktiv läuft. Ähnlich ist es bei der erweiterten Anzeige unten links (die ich nur zu Testzwecken empfehle), bei den VRR-Variablen (Variable Refresh Rate). Der kleinere Performance-Unterschied rührt wahrscheinlich durch Nvidia Reflex. Du könntest den zusätzlichen Boost ausschalten und mit einfachem Nvidia Reflex nochmal beobachten. In manchen Spielen reagieren die Fps deutlich empfindlicher als bei anderen, aber das weicht von System zu System (mit Lastszenario, Einstellungen, GPU) ab. Selbst mit 7 Fps niedrigerer Bildrate würde ich Reflex aktiviert lassen (zumindest ohne Boost). Um einen groben Indikator von der Latenz und den Unterschieden zu sehen, könntest du auch Frameview von Nvidia selbst probieren (siehe Abschnitt zu Framelimit-Methoden, rechts Seite).
 
Apropos G-sync: Ich habe bei meinem Monitor immer die Hz-Anzeige aktiviert. So fällt mir sofort auf, wenn G-sync nicht aktiv ist.
 
Apropos G-sync: Ich habe bei meinem Monitor immer die Hz-Anzeige aktiviert. So fällt mir sofort auf, wenn G-sync nicht aktiv ist.

Richtig, die OSD-Anzeige des Monitors kann auch ein solider Indikator sein (ist aber nicht immer genau). Wenn der Monitor bei seinen etwa 144 Hz auch dort statisch verbleibt, statt die Frequenz mit der Bildrate zu synchronisieren, dann ist G-Sync aller Wahrscheinlichkeit nicht aktiv. :daumen:
 
Genau, Tearing = no zeigt an, dass eine Form von G-Sync mit Vsync eingeschaltet ist und kein Zerreißen des Bildes vorliegen müsste. G-Sync oben rechts in Grün zeigt an, dass G-Sync gerade in dem Programm aktiv läuft. Ähnlich ist es bei der erweiterten Anzeige unten links (die ich nur zu Testzwecken empfehle), bei den VRR-Variablen (Variable Refresh Rate). Der kleinere Performance-Unterschied rührt wahrscheinlich durch Nvidia Reflex. Du könntest den zusätzlichen Boost ausschalten und mit einfachem Nvidia Reflex nochmal beobachten. In manchen Spielen reagieren die Fps deutlich empfindlicher als bei anderen, aber das weicht von System zu System (mit Lastszenario, Einstellungen, GPU) ab. Selbst mit 7 Fps niedrigerer Bildrate würde ich Reflex aktiviert lassen (zumindest ohne Boost). Um einen groben Indikator von der Latenz und den Unterschieden zu sehen, könntest du auch Frameview von Nvidia selbst probieren (siehe Abschnitt zu Framelimit-Methoden, rechts Seite).
Reflex hat mein Monitor mit diesem Overlay Ding und diesen Modul da.

Könnte ich ja genau so mal wieder gucken was es mir da so auswirft/Anzeigt.

Aber im Schnellcheck hat es mir ja so jetzt gezeigt das alles soweit passt.

Meist zocke ich in letzter Zeit eh fast ausschließlich bei 240hz und 120 FPs lock zum Strom sparen…
 
Das Fazit bezüglich der Ryzen 7000 CPUs ist gelinde gesagt einfach nur falsch.
Als der 7900 am 03. 01. bei Geizhals zum ersten Mal gelistet wurde betrug der Preis € 500,40. Zu diesem Zeitpunkt wurde für den 7900X 498,00 Euro verlangt. Also war auch schon zum Zeitpunkt als der Artikel geschrieben wurde ersichtlich, dass ein 7900 ohne X keine gute Wahl wäre.

Und den Verbrauch des stärkeren Prozessors kann man im UEFI relativ leicht begrenzen, sodass sich die Effizienz gut verbessern lässt.
Dazu gibt es auch Artikel im Netz, wie den von Igorslab: https://www.igorslab.de/amd-ryzen-9-7950x-in-schneller-und-sparsamer-gaming-und-workstation/
Und wenn dann mehr Leistung gebraucht wird, ist diese noch immer verfügbar.

Warum sollte dann jemand die schwächere CPU kaufen, wenn man die stärkere für einen sogar minimal niedrigeren Preis kaufen kann?
 
Also @PCGH_Raff der 4070ti Test plus Zusatzberichte sind echt gut. Super, ich mag auch die grün/gelb/roten Matrixen und die ganze Benchmark-übersichtsseite.

Auch sehr gut der „So viel Grafikspeicher brauchen sie“-Artikel.
 
Zuletzt bearbeitet:
Ich vermisse die richtigen Produkttests von Grafikkarten, bei denen beispielsweise nicht ein Foto der jeweiligen Karte einen Großteil des Berichts ausmachen. Gute Bilder zu den Karte kann man zu Hauf im Internet ansehen, anders als gute Tests.
Im Vergleich zu Torstens Mainboard Tests sind die Produktests von Grafikkarten seit Ampere in einer ganz anderen (niedrigeren) Liga. Daneben ist die Produktauswahl auch noch sehr überschaubar.
So sehe ich es als Notwendigkeit an, andere Quellen für eine Kaufentscheidung bei Grakas mit einzubeziehen.

Edit:
Persönlich empfehle ich deshalb lieber das Vsync im Control Panel einzuschalten, ehe man warum auch immer G-Sync sonst überschreibt (Cyberpunk war nur ein Beispiel). Am Ende des Tages spielt es aber kaum eine Rolle, solange man alles im Blick hat. Oder man setzt auf (Teil-)Tearing, das ist jedem selbst überlassen und hängt auch von der Empfindlichkeit ab. Es kann komplex werden, aber aktiviertes G-Sync ist in jedem Fall eine tolle Sache.
Letzten Ende ist es aber so, merkt man es nicht, merkt man es nicht. ;-)
 
@PCGH_Raff Eine kleine Frage habe ich noch. Die RTX 3000/4000er haben doch diesen ECC Speicher…? Wie konntest du ermitteln welches Vram OC was gebracht hat und ab wann es dann durch die Fehlerkorrektur zu nem schlechteren Ergebnis kam ?

Würde gerne meine 4070ti ans Maximum tunen ohne groß die Power-/Voltagelimits aufreißen zu müssen…
Ich vermisse die richtigen Produkttests von Grafikkarten, bei denen beispielsweise nicht ein Foto der jeweiligen Karte einen Großteil des Berichts ausmachen. Gute Bilder zu den Karte kann man zu Hauf im Internet ansehen, anders als gute Tests.
Im Vergleich zu Torstens Mainboard Tests sind die Produktests von Grafikkarten seit Ampere in einer ganz anderen (niedrigeren) Liga. Daneben ist die Produktauswahl auch noch sehr überschaubar.
So sehe ich es als Notwendigkeit an, andere Quellen für eine Kaufentscheidung bei Grakas mit einzubeziehen.
Hm als Beispiel hat Techpowerup immer ein PCB Teardown / Kühleranalyse und ne MHz / OC Analyse. Sehr geil aber aufwendig. Ich fände sowas z.b. auch cool aber ob das machbar ist ?

Ich versuche auch so immer zu schauen wie sich FE, TUF, Strix und co unterscheiden.
 
Zuletzt bearbeitet:
Das Fazit bezüglich der Ryzen 7000 CPUs ist gelinde gesagt einfach nur falsch.
Als der 7900 am 03. 01. bei Geizhals zum ersten Mal gelistet wurde betrug der Preis € 500,40. Zu diesem Zeitpunkt wurde für den 7900X 498,00 Euro verlangt. Also war auch schon zum Zeitpunkt als der Artikel geschrieben wurde ersichtlich, dass ein 7900 ohne X keine gute Wahl wäre.
Und als der 7900X auf den Markt kam, hat die CPU 658 Euro gekostet. Und jetzt? Natürlich zählten die Tagespreise zur Abgabe. Und ob eine CPU eine gute Wahl ist, oder nicht, entscheidet doch nicht allein der Preis. Gerade beim 7900 ist noch ein Kühler dabei, der ebenfalls Geld kostet. Und wenn man sich heute mal den Preisunterschied zwischen X und non-X ansieht (Beispiel 5600), dann dürfte es nicht mehr lange dauern, bis die CPUs günstiger werden.
Und den Verbrauch des stärkeren Prozessors kann man im UEFI relativ leicht begrenzen, sodass sich die Effizienz gut verbessern lässt.
Ja, das geht bei jeder CPU. Man kann die Limits auch erhöhen. Was tut das zur Sache? Wir testen ja, was die CPU ab Werk liefert, nicht, was sie liefern könnte.
Und wenn dann mehr Leistung gebraucht wird, ist diese noch immer verfügbar.
Ich kann einen 7900 auch ohne Limit betreiben :ka:
Warum sollte dann jemand die schwächere CPU kaufen, wenn man die stärkere für einen sogar minimal niedrigeren Preis kaufen kann?
Weil er die effizientere CPU ab Werk haben möchte? Oder eine Fertig-Lösung, die ohne Kompromisse mit dem beigelegten Kühler direkt einsatzbereit ist? Gerade der 7900X bekleckert sich nicht mit Ruhm, die CPU ist viel zu ineffizient im Vergleich.
 
Ich habe vor Weihnachten noch meine 2070 Super gegen eine 6800 XT und den 3700X gegen einen 5700X (absichtlich, da ich eine 65W-CPU wollte) getauscht, da besonders die GPU-Preise endlich mal in ein halbwegs normales Fenster gekommen sind.

Da ich in 4K mit FSR und FPS-Cap auf 60Hz spiele, benötige ich in Summe sogar weniger Strom als vorher, da die 6800 XT weitaus weniger schuften muss als die 2070 Super. Noch dazu betreibe ich CPU und GPU mit leichtem UV, was zusätzlich auch noch um einiges weniger an Wärme erzeugt.

Das mit "weniger Strom" ist aber relativ, weil man ja doch mal Geld reinstecken musste und wahrscheinlich wird sich das ohnehin nicht rechnen. Aber wozu geht man arbeiten.
 
Zurück