AW: Nvidia soll sich zu Radeon Image Sharpening und Radeon Anti Lag geäußert haben
BF5 nutzt pre rendered frames, ist eigentlich bekannt..
Wichtig wäre zu wissen, welche Einstellungen Battlefield 5 nutzt und wie diese vergleichbar sind.
Vorher bringt das gar nichts, sich darüber zu streiten, die Implementierung in BVF kann durchaus etwas anders sein.
Belanglos ist lediglich dass was du schreibst.
Ja, das denk ich mir, du klatscht einfach einen Benchmark hin und behauptest irgendetwas, ob das stimmt oder überhaupt vergleichbar ist, interessiert dich ja eh nicht.
Würdest du dich auch nur etwas mit der Thematik auskennen,dann wäre dir klar, dass pre rendered frames eine API unabhängige Technik ist.
Weniger prerendered Frames geben dir immer weniger Inputlag, aber erst einmal muss man wissen, wie diese Einstellung von Battlefield 5 vorgenommen wurde und was sie für Variablen enthält und damit ist auch dein Argument Nvidia würde diese Einstellung mehr Performance kosten mit einem Spiel bei BF5 überhaupt nicht abgetan, das kann ganz unterschiedliche Gründe haben, wieso die Radeon ohne FFR +5% Punkte schneller rechnet.
Auf der anderen Seite profitieren die Spieler aber eher von FFR. Wie das jetzt genau mit den Prerendered Frames im Nvidia oder AMD Treiber vergleichbar ist, muss man erst einmal sehen, Dice kann das Spiel auch darauf ausgelegt haben.
Du hast nichts von den besten Frametimes wenn dein Inputevent merklich hinterherhänget, das sind nämlich 2paar Schuhe.
Du hast auch nichts von wenig Inputlag wenn die Frames zwar schnell kommen, das aber ungleichmäßig.
Vergleich das mit Crossfire im CPU Limit, furchtbar. Deshalb wurde Framepacing eingeführt.
Zudem steigt mit mehr pre rendered frames idR auch das (dann merkliche!) nicro-stuttering.
Und da soll es also nicht relevant sein, welche genaue Einstellung BV5 mit ihrer Engine einstellt und verwaltet?
Gibts da irgendwo eine Quelle oder Link? Eher führen weniger preendered Frames zu micro-stuttering und Drops, mehr führen eher zu mehr Inputlag, aber gleichmäßig verteilten Frames, es ist also genau umgekehrt, also wirf mir doch nicht vor mich nicht auszukennen, wenn du diesen Denkfehler machst.
Du nennst sowas hier Mindeststandards einer Diskussion? Oder wieso verteidigst du ihn?
Immer noch besser als einfach zu lügen, so wie du das machst.
Jemand weißt dich zurecht auf einen Fehler hin, belegt es mit Quelle und du fängst dann an die Person die dich darauf hingewiesen hat mit "Schmarrer" anzusprechen und irgendwelche Bildchen zu posten.
Man kann Fehler auch einräumen ohne persönlich zu werden.
Seine Tonalität ist ja wohl eindeutig provokativ. Mit so jemandem kann man nicht diskutieren. .
Die Tonalität hier in diesem Forum ist generell provokativ, fast alle Beiträge von den üblichen Verdächtigen sind das.
Manchmal muss man sich hier jetzt zusammenreißen, weil offenbar gar niemand mehr an einer offenen Diskussion interessiert ist.
...dann kann man dich auch nicht mehr ernst nehmen. Wenn es dir ausreicht, dass jemand in den allermeisten Fällen richtig liegt und sonst nur Mist schreibt, bitte. Muss ich mir ja nicht antun.
Ja, er hat leider zu oft völlig recht.
Das mit den Schafen passt recht gut. Äußert sich AMD gibt es Lobpreisungen, äußert sich Nvidia gibt es Shitstorm.
Wenn ich von ZeroZerp lesen muss, dass Spielehersteller RT Features wie in Metro downgraden, damit die RT Gegner nicht die beleidigte Leberwurst spielen, dann frage ich mich schon, was eigentlich los ist und ob es noch die Gamer-Community gibt, oder ob Fortschritt nur dann gut ist, wenn es von einem gewissen IHV kommt.
So also ein paar Beispiele.
Ab da habe ich aufgehört zu lesen.
Der neue Grafikkarten-Testparcours - ComputerBase
Computerbase 4K Frametimes GTX 1080 vs Vega 64.
FPS Vega 64 +5%
Frametimes aus dem 99,8 Percentil umgerechnet in FPS +4% zur GTX 1080.
Also streng genommen hat die 1080 in 4K die leicht besseren Frametimes, auch wenn das Messungenauigkeit ist.
Ich sehe da keinen Anlass anzunehmen AMD habe die Besseren.
Und ja, fairerweise muss man auch sagen, gibt es durch aus Titel wo nV die besseren Frametimes hat, z.B. bei Anno.
Denke aber die Marschrichtung weswegen ich ansprach ob vll der Grund der besseren Frametimes der bisher unbekannte wert der "maximum prerendered frames" ist, und daher interessant ist das in Zukunft zu beobachten, ist klar geworden - zumindest hoffe ich es. Und CB ist ja nun nicht gerade dafür bekannt das AMD zugeneigteste Blatt zu sein ...
Es hält sich die Waage und nein CB ist nicht Anti AMD oder Anti Nvidia oder sonst irgendwas.
Solange GPU´s kein generelles Frametime Problem haben, bringt es eh null diese Graphen anzuschauen.
Ich kann mich mal an die 7970 erinnern, die hatte damals Probleme, wurden aber gefixed.