AW: Call of Duty: Infinite Warfare - Erste Performance-Eindrücke und Grafikkarten-Benchmarks
CB schreibt erst, dass Karten mit wenig Speicher garnicht einbrechen (logisch, da Auto-Low-Texture Quality wie PCGH auch festgestellt hat). Dann steht die Fury X im Bench vor der 980. Noch weiter unten schreiben sie aber, dass die 980 trotzdem besser läuft, weil's auf der Fury mit hohen Texturdetails dauernd ruckelt. Am Ende weiß kein Mensch, was die dem Leser eigentlich vermitteln wollen.
.
Doch, man weiß was damit gemeint ist, weil CB es ja extra auch noch dazu geschrieben hat.
Die FPS sind sehr gut, aber es treten dennoch immer mal wieder Ruckler auf, da der V Ram an seine grenzen stößt. Dieses macht bei gleicher V-Ram Größe den nVidia Karten aber etwas weniger aus, da diese den Speicher etwas effektiver nutzen oder verwalten.
Ganzen Artikel lesen du musst, wenn erleuchtet werden du willst.
Zum Thema - Auto-Low-Texture Quality -
-------------------------------------------------
Hier sehe ich aktuell schon, und vor allem in Zukunft erhebliche Probleme bezüglich sachlichen Benchmarks auf uns zukommen.
Es besteht einfach ein ungeahntes potential zum schummeln, welches ja nicht nur explizit dafür genutzt werden muss, um mangelnden V-Ram auszugleichen (was ja sinnvoll ist) , sondern auch bei genügend Speicher verwendet werden kann, um sich prozentuale Vorteile bei den Framerates zu sichern.
Welches Magazin testet denn wirklich bis ins Minimalste Detail ob Beispielsweise eine nVidia Karte wirklich bis ins kleinste Detail exakt die selbe Menge an Datenvolumen in allen angezeigten Pixelanhäufungen berechnet, im Vergleich zum Amd Pendant und umgekehrt? Wer Testet im Detail die Unterschiede in der tatsächlich ausgegeben Bildqualität?
Ich rede hier nicht von offensichtlichen Tricksereien, sondern von Dingen die kaum bis fast gar nicht auffallen (die mit bloßem Auge vor dem Monitor so nicht sichtbar sind, oder auffallen), aber prozentual Rechenleistung sparen.
Leistungsunterschiede von mindestens 10% sollten da doch allein durch solche Auto-Low-Texture Quality Tricksereien möglich sein.
Und es hilft auch nicht das Argument, wenn man den Unterschied nicht sieht, dann ist doch alles gut, denn es geht ja um sachliche Benchmarks und Vergleiche.
Und wenn ich zwei Grafikkarten in ihrem Leistungsvermögen vergleiche, dann möchte ich gefälligst auch, dass beide Karten exakt den selben Rechenaufwand betreiben müssen, unabhängig davon ob ich es sehe, oder nicht.
Man müsste um dieses sachlich zu analysieren aber wirklich jeden Effekt, jede Szene, jede Textur bis ins minimalste Detail und mit vielfacher Vergrößerung unter den Grafikkarten vergleichen um diese Rechentricks überhaupt zu bemerken. Wie gesagt, es geht hier um 5- 10% Bereiche, welche aber für Käufer und das Image einer Firma schon entscheidend sein können.
Ich hätte in der Zukunft gerne mal Test, in denen bis ins letzte Detail die wirklich tatsächlich ausgegebene Bildqualität von Nvidia und Amd Karten aufgezeigt und analysiert wird. Bin mir fast sicher das es da Heutzutage, je nach Spiel Unterschiede gibt, sofern man nur mal genau genug hinsehen und untersuchen würde. Und mit genau Untersuchen meine ich nicht, einfach nur auf den Bildschirm gucken und das gesehene vergleichen, sondern wirklich ins Detail zu gehen.
Das Thema der tatsächlichen ausgegeben Bildqualität der unterschiedlichen Grafikkarten interessiert mich sehr, erst recht seit dem Aufkommen von Auto-Low-Texture-Qualiy. (seit VW wissen wir, für prozentuale Vorteile wird getrickst was möglich ist, und das vornehmlich in Bereichen, die nicht auf dem ersten Blick auffallen) .
Mich verwundert es eh das in den letzten Jahren die Auflösung immer wichtiger wurde, aber die tatsächlich ausgegebene Bildqualität irgendwie kaum Betrachtung findet. (außer bei Clipping Effekten natürlich, ist ja auch einfach diese zu sehen und zu testen). Ich will eine Pixel für Pixel Analyse, und dann den Vergleich.
Auto.Low-Texture-Quality, ich traue dir nicht.