News Kaputte Geforce-Karten bei Diablo 4: Blizzard bestätigt Untersuchung durch Nvidia

Frage :

Wie viele und welche Grafikkarten ( Übertaktet , Sofwarestand ?! ) gehen jeden Monat kaputt bei anderen Games als Diablo 4 ?!

Ich mache das jetzt schon sehr sehr lange und hatte noch nie eine Karte die aufgrund eines Games defekt wurde !

Meiner Meinung nach ist das mit aktuellem Software Stand einer @Stock Karte gar nicht möglich .
New World war auch berüchtigt dafür:
 
Das ist das offizielle AMD Statement: "Do not use any sort of frame capping with FreeSync. The frame time analysis algorithms that govern FreeSync, FRTC or other methods will conflict and break both solutions. Its unnecessary. Heres why:

The only time youd want to turn off vsync with FreeSync is if the apps FPS can go way above your monitors max refresh and you want the lowest possible input latency at the expense of a little tearing at high framerates. FRTC is the antithesis of this, so it doesnt make sense to use FRTC in this case.

If youre not trying to get the lowest possible input latency, or the apps FPS stays inside your monitors DRR window on the regular, then leaving vsync enabled will cap your framerate anyways. FRTC is redundant.

FRTC is for people with regular ol monitors who are playing low-demand games running in the hundreds of FPS, which just burns power and runs the fan faster than necessary."

Er führt das dann noch mit Beispielen aus etc. Aber da steht ganz deutlich: VSync ja, Frame Limiter nein.

ob man das auch auf G-Sync anwenden kann/soll, weiß ich nicht. Aber auch wenn nicht, ist es sicher interessant.
Ich habe keine AMD-Grafikkarte (mehr) und habe auch nur geschrieben, wie ich es bei mir mache - kürzlich auch noch zusätzlich hier (der zweite Post ist mit Quellen):

Wenn es um Latenzmessungen und die Quantifizierung vom Inputlag geht, kann ich diesen Channel hier empfehlen (leider nicht mehr aktiv der gute Mann):
Der hat sehr viele Videos zu dem Thema gemacht.

Ansonsten noch diese Seite: https://blurbusters.com/

PCGH hat auf jeden Fall auch mal Letenzmessungen gemacht. Da finde ich aber gerade keine aktuelle Quelle.

FPS-Limiter sind immer sinnvoll. Wer kompetitiv spielt, nutzt in der Regel sowieso eine Nvidia-Grafikkarte, weil diese hinsichtlich der Latenz, diese zu messen und der Möglichkeiten sie maximal gering zu halten, überlegen sind. Wenn man nur Singleplayer oder zum Spaß an der Freude spielt, dann ist es vollkommen egal, ob AMD oder Nvidia. Aus den genannten Gründen einfach in der priorisierten Reihenfolge (im Spiel > im Treiber > via RTSS) ein Framelimit rein und fertig (also ich mache das so, ob wer anders das so macht, ist mir egal). :)
 
Zuletzt bearbeitet:
Ok, habs mir doch angetan. Hab mir die Xbox Series X Version gezogen. Was soll ich sagen, ohmann! Jetzt gefällts mir auch noch! Verdammter Mist! Es läuft so dermaßen gut auf der Xbox. Die Sprecher auf Englisch, der HAMMER! Das hat mich von 0 sofort wieder komplett Reingezogen. Jemand n Tipp wo ich gut Vorbestellen kann ?
 
Bei "Journey to the savage Planet" greift z. B. auf meinem System nur der VSync als FPS Limiter im Ladebildschirm, Chill und FRTC funktionieren erst, wenn das Menü erscheint.
 
Wenn es um Latenzmessungen und die Quantifizierung vom Inputlag geht, kann ich diesen Channel hier empfehlen (leider nicht mehr aktiv der gute Mann):
Der hat sehr viele Videos zu dem Thema gemacht.

PCGH hat auf jeden Fall auch mal Letenzmessungen gemacht. Da finde ich aber gerade keine aktuelle Quelle.

FPS-Limiter sind immer sinnvoll. Wer kompetitiv spielt, nutzt in der Regel sowieso eine Nvidia-Grafikkarte, weil diese hinsichtlich der Latenz, diese zu messen und der Möglichkeiten sie maximal gering zu halten, überlegen sind. Wenn man nur Singleplayer oder zum Spaß an der Freude spielt, dann ist es vollkommen egal, ob AMD oder Nvidia. Aus den genannten Gründen einfach in der priorisierten Reihenfolge (im Spiel > im Treiber > via RTSS) ein Framelimit rein und fertig (also ich mache das so, ob wer anders das so macht, ist mir egal). :)
Auf was basierst du deine Schlussfolgerung AMD VS NV Latenzvergleich?
 
Du schreibst die Latenz sei immer besser auf NVidia Karten.
Nein, das habe ich nicht gesagt. Das wäre per se ja auch Quatsch.

Oder ist es weil NV Messmöglichkeiten anbietet?
Genau. Man hat bei Nvidia einfach mehr Möglichkeiten um die Latenz zu messen und halt Reflex, was es so bei AMD nicht gibt. Das kann bei professionellen Spielern schon relevant sein. Daher nutzen diese in der Regel auch Nvidia-GPUs. Als Singleplayer-Gamer ist das sicher nicht so wichtig un nur nice to have.
 
was es so bei AMD nicht gibt
Ich stör ja nur ungern, aber:

1680614140350.png


Was ist das dann? :ka:
 
Ich will ja nicht dumm sterben ^^
Hast du da zufällig schnell nen (guten) link parat? =)

Wusste tatsächlich nicht, dass es bei NVidia anscheinend 2 verschiedene(?) Dinge gibt, die die Latenz beeinflussen?

Reflex muss in der Anwendung implementiert sein. Ich hoffe echt das AMD da noch ein Gegenstück liefert...

Edit:
Das hier dürfte die relevante Grafik sein:
1680616177670.png
 
Zuletzt bearbeitet:
Wusste tatsächlich nicht, dass es bei NVidia anscheinend 2 verschiedene(?) Dinge gibt, die die Latenz beeinflussen?
Anti-Lag (AMD) und ULLM (Nvidia) tun ja praktisch nichts anderes, als dass sie automatisch ein paar FPS unterhalb der eingestellten Bildwiederholfrequenz vom Monitor die Framerate automatisch cappen (insofern V-Sync aktiv ist), beispielsweise bei 116 FPS @ 120 Hz oder bei 138FPS @ 144 Hz.

Das funktioniert bei Nvidia allerdings nur bei DirectX 9-11 Anwendungen, bei DirectX 12 und Vulkan tut es das nicht. Ich wusste auch mal warum das so ist, kann es aber gerade nicht mehr sagen. Kann man bestimmt googlen, wenn einen das interessiert. Ich persönlich nutze das gar nicht, sondern nur selbst festgesetzte FPS-Limits in Kombination mit V-Sync und G-Sync (und Reflex insofern verfügbar).

Ansonsten hat das @blautemple schon hinreichend beantwortet. Reflex ist etwas anderes. ^^
 
Zuletzt bearbeitet:
Anti-Lag (AMD) und ULLM (Nvidia) tun ja praktisch nichts anderes, als dass sie automatisch ein paar FPS unterhalb der eingestellten Bildwiederholfrequenz vom Monitor die Framerate automatisch cappen (insofern V-Sync aktiv ist), beispielsweise bei 116 FPS @ 120 Hz oder bei 138FPS @ 144 Hz.
Ne, das stimmt so nicht. Wenn du dir einmal den Test anschaust, so ging die AMD Karte auf 218 fps hoch, obwohl sie an einem 75 Hz Bildschirm hing.

Edit
Oder war sie am 240 Hz Schirm? Jetzt bin ich selbst unsicher.
 
Zurück