Was bei mir so in etwa bis vor 3 Monaten war.aus Zeiten übrig geblieben als es noch kein G-Sync/Freesync gab.
Was bei mir so in etwa bis vor 3 Monaten war.aus Zeiten übrig geblieben als es noch kein G-Sync/Freesync gab.
Man kann doch im Nvidia-Treiber ein maximales Framelimit setzen, das sollte eigentlich auch im Menü greifen und dem entgegenwirken, bei mir macht es das zumindest...Ber ehrlich, wenn man doch mittlerweile weiß, dass in seltenen Fällen sehr hohe fps zu kaputten Grafikkarten führen können (und NVidia das offenbar nicht hardwareseitig lösen kann...) wo ist das Problem, einen Framelimiter einzubauen? Von mir aus bei 500fps.
Quatsch. Es sind auch einige AMD Karten (6900XT) betroffen.Was ich nicht verstehe ist warum nur Nvidia Karten davon betroffen sind?
Wenn in den Spiel-Menüs zu hohe FPS generiert werden, muß AMD doch auch davon betroffen sein.
Haben die Nvidia Karten dann zu hohe Spannungen? Oder schlechtere Kühlungen?
Oder man hätte zumindest die Möglichkeit geben können vor oder während dieser Menus auf die Optionen zugreifen zu können und selbst ein Limit oder Vsync einzustellen. Ich mag es grundsätzlich nicht wenn Spiele starten, ohne das ich Zugriff auf die Optionen hatte. Das war schon vor Jahrzehnten eine Unsitte.Das hätte man seitens Blizzard eleganter lösen können - eben den Framerate-Limit gleich ins Spiel für die Menüs oder für den Warteschlangen-Bildschirm einbauen.
Man kann doch im Nvidia-Treiber ein maximales Framelimit setzen, das sollte eigentlich auch im Menü greifen und dem entgegenwirken, bei mir macht es das zumindest...
Sind Aufkommende bzw. Artefakte im allgemeinen bei GPUs nicht ein Indiz für ein Problem bein Ram?Hielt ich auch für eine Idiotie.
Bis zu dem Zeitpunkt seit dem meine 6900 XT während Diablo angefangen hat Artefakte auszuspucken und jetzt auch in anderen Games hervorbringt.
Wie unwahrscheinlich ist das bitte? Vorallem weil die Artefakte bereits im Menü begonnen haben.
Ich habe leider erst danach von den auftretenden Defekten erfahren, sonst hätte ich das natürlich gemacht.Deswegen wieder meine Empfehlung: jeder sollte bei seinen Treibern, ob NVIDIA oder AMD egal, in den Treibern die maximale FPS auf die Hertz Zahl seines Monitors zwingend begrenzen. Bspw. 120 Hertz Monitor = 120 Fps. Spiele gehen gerne mal in diversen Bereichen wie Menüs etc. wenn die Entwickler das nicht abfangen, gerne mal bis 1000 oder 2000 FPS hoch. Solche Spitzen sind und können tödlich sein. Wird hier irgendwo genau so wieder der Fall sein. Ansonsten kann eine Software keine Hardware zerstören.
Es geht aber um die viel zu hohen FPS in den Menüs. Die sollen die Grafikkarten killen.Das Game läuft bei mir mit 85-100W mit 98 Fps bei max Grafiksettings und Dlss Quality in 3440x1440. In Cutscenes hab ich immer 33Fps gesehen auf dem osd.
Ist doch im NVidia-Treiber schon vorhanden. Man muß da nur einen sinnvollen Wert eintragen:Konnte bei Diablo 2 mit dem 25 fps cap nicht passieren *SCNR*
Ber ehrlich, wenn man doch mittlerweile weiß, dass in seltenen Fällen sehr hohe fps zu kaputten Grafikkarten führen können (und NVidia das offenbar nicht hardwareseitig lösen kann...) wo ist das Problem, einen Framelimiter einzubauen? Von mir aus bei 500fps.
Solche Limiter sind ja in vielen Spielen (beispielsweise auch D2R...) sowieso vorhanden, sie stehen nur halt ab Werk auf unbegrenzt. Ein simples "default = 240fps" oder noch besser "default = Refreshrate TFT" oder von mir aus auch "2x Refreshrate TFT" und wer will kann anheben würde schon reichen um die allerallermeisten Systeme zu schützen (deren Benutzer niemals sowas einstellen/ändern).
Naja, default war das bei mir auf "Aus" gestellt... spricht auf unlimitiert. Habe das gestern ganz schnell auf 120Hz geändert (das was mein Display kann), bevor mir solche Gurkensoftware noch meine teure Hardware zerschießt.Man kann doch im Nvidia-Treiber ein maximales Framelimit setzen, das sollte eigentlich auch im Menü greifen und dem entgegenwirken, bei mir macht es das zumindest...
Anhang anzeigen 1421766
Also entweder da sind welche ohne Framelimt unterwegs und haben daher ihre eigene Karte abgeschossen, oder aber es funktioniert in D4 nicht korrekt.
Du hast schon die anderen Posts von mir später im Thread gesehen...?Ist doch im NVidia-Treiber schon vorhanden.