BigBoymann
BIOS-Overclocker(in)
Wo schreibe ich etwas anderes?Die Latenzerhöhung durch FG wird fast komplett durch Reflex ausgeglichen.
Ich schreibe, dass es keine Verbesserung gibt!
Auch das schreibe ich so!Sagen wir Du spielst ein Spiel mit nativ 60 FPS. Wenn Du jetzt FG einschaltest, dann hast Du plötzlich 100+ FPS bei fast gleicher Latenz.
Aber was ist eben mit einem Spiel mit weniger als 30 fps? Hier habe ich dann plötzlich 50fps und gleichbleibend schlechte Latenzen!
Folgend mal eine Werbegrafik von NV, im Kleingedruckten steht dann was von FG. Wie gesagt, die Kritik sehe ich ebenso bei AMD, Intel und eigentlich jedem anderen Konzern, hier geht es aber nunmal gerade um NV. Hier will NV aber bewusst 5,2 fache Performance dran schreiben um dem Kunden ein "WOW" zu entlocken, welches so aber eigentlich nicht gerechtfertigt ist. (wie schon geschrieben, ich verstehe es auch nicht, weil die Karten, gerade 4080/4090 sind so unfassbar gut im Vergleich zur Konkurenz, drei Charts, absolute Leistung, Effizienz und RT Leistung hätten doch mehr als ausgereicht um die Dominanz der beiden am Markt zu zeigen)Korrekt. Wurde auch nie so beworben wenn ich mich Recht erinnere. Ich meine sogar dass Nvidia gesagt hat dass sie FG ab 50-60 FPS aufwärts empfehlen.
Ich sehe schon einen immensen Unterschied zwischen Treibern, die ja im normalen Fall (es soll ja immer mal Cheattreiber gegeben haben) die Auslastung der GPU verbessern sollten und eben Einstellungen die die Auflösung beeinflussen oder aber eben "Doppelbilder schätzen".Ist ja nur Software, man müsste also immer mit den Auslieferungs-Treibern testen?
Wieso? Ich schreibe immer und überall, dass NV aktuell mit der 4080/4090 vorne liegt und ich diese beiden Karten klar empfehlen würde. Genauso schreibe ich auch, dass mir persönlich der Abstand und die Preisgestaltung mißfallen, was ich aber nicht als Machenschaft oder so abtue, sondern es als normale Folge des Marktes sehe, dennoch muss man damit doch nicht glücklich sein, oder? Die 4070 (Ti) ist mir persönlich nicht gefällig, zu teuer, zu wenig VRAM im Vergleich zur AMD Konkurenz. Dafür natürlich besseres Featureset, was zum Beispiel 4080 gegen XTX den deutlichen Ausschlag zur 4080 gibt. Aber bei der 4070 ist mir die RT Leistung schon zu gering um noch in den Ring geworfen zu werden.Das Fähnchen dreht sich....
Aber das ist eben alles persönliche Meinung.
Hä?und dreht sich.... Da wird natürlich sofort relativiert wenn man mit Fakten ankommt.
Verstehe deinen Ansatz jetzt gerade nicht, bzw. bezog ich mich da auf AMD (falls du Sorge hast ich komme aus dem roten Lager), weil der Voruser zuerst den 7800X3D genannt hatte. Das gleiche gilt aktuell bei Grafikkarten und CPUs genauso. Eine 4090 würde ich preislich gar nicht angreifen, schweineteuer aber das waren die Titans auch und eben dies ist eine 4090 in meinen Augen. Auch hier, wird eben ein Regal höher gegriffen, aber der Name genutzt um in den Mainstream zu kommen. Intel macht das gleiche, ein 13900K wäre vor einiger Zeit noch eine Extreme CPU gewesen, bzw. hätte in der Form nie das Licht der Welt gesehen.
Mein Ansatz war, ja es wird alles teurer, aber gerade aktuell ist es in der Hardwarelandschaft auch so, dass vormals über dem Mainstream gelagerte Produkte in den Mainstream gelangen, bzw. Halo Produkte als "normales LineUp Mitglied" behandelt werden. Sei es AMD, NV, Intel oder sonstwer. Insofern muss man die teilweise sprunghaften Anstiege bei allen Herstellern etwas relativieren.
Naja, es ist ein Mehrwert, können wir uns vorerst darauf einigen?Aber es ist ein nicht zu ignorierender Mehrwert. Hast du Framegeneration in letzter zeit mal ausprobiert, also objektiv?
ja aktuell habe ich im Schlepptop ne 4070 und mit Starfield habe ich den DLSS Mod inkl. FG ausprobiert, wie ich schon beschrieb ändert das leider nur was an den Durchschnitts FPS (keine Sorge, keine Messung nur Gefühl und OSD), nicht aber an den MinFPS und den damit verbundenen Stutterings. Ich muss Starfield erst in den spielbaren Bereich bringen (mit DLSS-Q und entsprechend reduzierten Details), dann bringt FG etwas und macht es eben alles ein bisßchen flüssiger. Gebe aber allerdings auch zu, dass ich in Starfield gar nicht so empfindlich auf wenig FPS reagiere, 40-45 fps ergeben für mich aktuell schon ein spielbares Gefühl ab. Insofern habe ich dann 65-70 fps mit FG und merke schon ein etwas geschmeidigeres Bild.
Wie gesagt, ich will den Mehrwert nicht wegdiskutieren. Siehe obiges Beispiel meinerseits, Mehrwert ja, aber eben keine echte Performance! Ist ja das einzige was ich die ganze Zeit sagen will, das Spiel muss spielbar sein, reicht die GPU nicht dafür aus, wird FG es nicht besser machen. Daher sind FG FPS für mich eben keine echten FPS. Nach aktuellem Stand (wie gesagt, meine Übersicht ist subjektiv und am Ende nur gering (Starfield und Diablo IV; wo ich aber soviele FPS habe, dass ich mit und ohne FG schon schwer konzentriert auf den Bildschirm starren muss um einen Unterschied wahrzunehmen) ist es ein Zubrot.Ohne DLSS und FG sagen wir 29-37Fps. Dann mit DLSS Q 39-51 Fps und mit DLSS Q + FG sind es 57 - 74.
Wenn (was bei FG so aber eben nicht ist) die Qualität der Bildausgabe verbessert wird, was eben oftmals subjektiv ist und nur sehr schwer nachzuvollziehen ist, dann komme ich dem Begriff "Performance" schon sehr sehr nahe. Problem ist aber eben, dass es keine objektive Vergleichsbasis gibt.Doch. PCGH hat mehrfach Bildvergleiche angestellt und dabei zuletzt auch wieder festgestellt das DLSS Q nicht selten besser aussieht, als nativ. Dabei dann auch noch mehr Fps... Also verbesser es die Performance!
Nö, einen 7800X3D würde ich auch schon in den Bereich der Exoten packen, bis 7700X ist in meinen Augen absoluter Mainstream, den würde ich bspw. meinem 2600k damals in etwa gleich einordnen. 399 USD hat der zum Release gekostet, ein 2600k lag bei 317 USD, sind also "nur" 26% mehr. Finde ich nicht so erschreckend, wie man beim Blick auf den 600-700 EUR teuren aktuellen Flagship. Im übrigen gab es ja auch früher schon absurde Preise, man denke mal zurück an die ersten Pentium EE oder BEs der AMD AThlon Reihe.Uff, ist mir Latte.
Sehe ich auch eher als Exot und nicht Mainstream, denke hier ist der 13600k und 7700X so am oberen Ende des Mainstreams, ein 7700X mit gestapeltem 3D Cache halte ich auch eher für out of Mainstreanm.Aber der 7800X3d ist natürlich Mainstream.
Wie erklärst du dann, dass doch sehr viele Triple A Titel das nicht so wichtig nehmen? Ich erkläre es damit, dass bisher nur die HighEnd Riege abseits des Mainstream wirklich genug Leistung bieten. Daher halte ich RT auch immer noch für eine Randerscheinung, bin mir aber absolut sicher, dass es sich durchsetzen wird und immer wichtiger werden wird. Ähnlich wie bspw. PhysX seinerzeit.Hier nochmal ein Link, der neutraler aufzeigt, welche Spiele mit RT sind und das auch in 2023.