Call of Duty: Infinite Warfare - Erste Performance-Eindrücke und Grafikkarten-Benchmarks

AW: Call of Duty: Infinite Warfare - Erste Performance-Eindrücke und Grafikkarten-Benchmarks

komisch.
Bei so ziemlich allen anderen Redaktionen stampfen die Roten die Grünen in den Boden.
Sicher das bei euch die AMD Treiber in Ordnung sind ?

die anderen benches sind unreal da sie die volen settings nutzen und das für gamer nicht spielbar ist. ein 2 faches taa ist anscheinen dder beste kompromiss deshalb hat pcgh auch so gebencht. gehst jau auch nicht ingame und sstellst 8xmsaa ein oder? nihmst auch vorher 1620p dsr und max 2x msaa
 
AW: Call of Duty: Infinite Warfare - Erste Performance-Eindrücke und Grafikkarten-Benchmarks

35% Leistungsunterschied zwischen GTX970 und GTX980. Interessant...
 
AW: Call of Duty: Infinite Warfare - Erste Performance-Eindrücke und Grafikkarten-Benchmarks

Komischer Bench hier :what:.
 
AW: Call of Duty: Infinite Warfare - Erste Performance-Eindrücke und Grafikkarten-Benchmarks

Gar kein schlechtes Grafikmenu (unter dem Namen ResolutionScale setzt sich SSAA anscheinend doch endlich mal durch, dass man das noch erleben darf!) und die Szenen im Eis sehen optisch auch ganz gut aus. :daumen:
 
AW: Call of Duty: Infinite Warfare - Erste Performance-Eindrücke und Grafikkarten-Benchmarks

Weiß nicht, woran das hier liegen könnte. Bei anderen Benchmarks läuft Fiji einwandfrei und deutlich besser, gerade Verglichen mit der 1060. Dasselbe gilt für die 480. Nur mal für FullHD, ab WQHD wird der Unterschied noch deutlicher (und in UHD schiebt sich die Fury X dann auch vor die 1070, was aber u.U. allerdings sicherlich auch am VRAM liegen dürfte)

Anhang anzeigen 924428

Anhang anzeigen 924429
Zwei mögliche Erklärungen für die Abweichung:

- PCGH bencht mit OC Modellen. Wenn du hier bei PCGH bei den Geforces 15% abziehst (das ist das OC im Schnitt), dann reihen sie sich in etwa wie in deinen Links ein.
- Dass die Fury X in anderen Benches verglichen mit der 480 besser performt könnte entweder an einer CPU lastigen Szene von PCGH liegen - Polaris hat leichte Overhead Verbesserungen erfahren - oder aber in der Szene von PCGH bricht die Fury X durch ihren geringen VRam ein und andere Testszenen sind weniger fordernd. Die 970 verliert gegenüber der 980 ja auch etwas an Boden. Normal müsste sie 25% langsamer sein (beide takten hier gleich mit 1316 MHz). Sie liegt aber 35 bis 40% hinter der 980.
 
Zuletzt bearbeitet von einem Moderator:
AW: Call of Duty: Infinite Warfare - Erste Performance-Eindrücke und Grafikkarten-Benchmarks

PCGH will den Streamingeinfluß mit dem Deaktivieren von bestimmten Details so gering wie möglich halten, damit Karten mit viel VRAM (ab 8GB) nicht benachteiligt werden, da sie mehr (bzw. alle) Details darstellen und damit auch mehr berechnen müssen als die VRAM-"Eunuchen", die sich mit der Darstellung von weniger Details höhere Frames erschleichen. Also grundsätzlich eine löbliche Sache von PCGH. Ich bin mir nur nicht sicher, ob man am Ende nicht zum Teil sogar das Gegenteil erreicht bzw. die Vergleichbarkeit noch stärker verzerrt.

Im Prinzip bekommt man nur ab 8GB auf Dauer die vollen Details zu sehen, alle anderen Karten stellen halt irgendwas dar. Das sind also die moderenen PC-Features, Streaming, Multi-Res Shading (auch ausserhalb von VR) und Co.
Die geilste Ironie dabei ist momentan die parallele Lästerei über die nicht nativen 4K der PS4 Pro / MS Scorpio.
 
Zuletzt bearbeitet von einem Moderator:
AW: Call of Duty: Infinite Warfare - Erste Performance-Eindrücke und Grafikkarten-Benchmarks

Im Benchmark auf Computerbase ist die RX 480 18-20% schneller als die 1060, die R9 390 sage und schreibe 45% schneller als die 970. Schon interessant, dass hier völlig andere Ergebnisse rauskommen. Die mit dem höheren Takt der Custom Modellen sicherlich nicht zu erklären sind.
 
AW: Call of Duty: Infinite Warfare - Erste Performance-Eindrücke und Grafikkarten-Benchmarks

Im Benchmark auf Computerbase ist die RX 480 18-20% schneller als die 1060, die R9 390 sage und schreibe 45% schneller als die 970. Schon interessant, dass hier völlig andere Ergebnisse rauskommen. Die mit dem höheren Takt der Custom Modellen sicherlich nicht zu erklären sind.
CB schreibt erst, dass Karten mit wenig Speicher garnicht einbrechen (logisch, da Auto-Low-Texture Quality wie PCGH auch festgestellt hat). Dann steht die Fury X im Bench vor der 980. Noch weiter unten schreiben sie aber, dass die 980 trotzdem besser läuft, weil's auf der Fury mit hohen Texturdetails dauernd ruckelt. Am Ende weiß kein Mensch, was die dem Leser eigentlich vermitteln wollen. :ugly:

Zudem: Die PCGH Szene hat eine hohe CPU Last, daher brechen die Radeons weg. Steht inzwischen auch im Artikel:
Die CPU-Auslastung einzelner Threads unseres Achtkerners (8C/16T) ist teilweise sehr hoch, dennoch haben AMD-GPUs Auslastungsprobleme: In unserem Benchmark und 720p kommt die AMD R9 Fury X gerade einmal auf 82,3 Fps im Schnitt, die Bildraten schwanken zudem stark, im Minimum liegen gerade einmal 67 Fps an. [...] Ganz anders sieht es dagegen mit der GTX 1080 aus, obwohl hier die sehr hohe Last auf dem letzten Kern ins Auge springt. Diesen Umstand bemerkten wir bereits beim Spielen bzw. Evaluieren der Performance in Ultra HD. Eventuell stehen die festgestellten miesen Frametimes mit der potenten Nivida-GPU @ Ultra HD hierauf zurück.

Dass Nvidia die gute Overhead Performance durch Verschieben der CPU-Threads erreicht, ist ja bekannt. Es gibt aber auch (sehr wenige) Szenarien in denen das kontraproduktiv ist.
 
AW: Call of Duty: Infinite Warfare - Erste Performance-Eindrücke und Grafikkarten-Benchmarks

Noch weiter unten schreiben sie aber, dass die 980 trotzdem besser läuft, weil's auf der Fury mit hohen Texturdetails dauernd ruckelt.

Absolut unmöglich! Die Fury hat doch HBM !!!!!! :ugly:
 
AW: Call of Duty: Infinite Warfare - Erste Performance-Eindrücke und Grafikkarten-Benchmarks

Also ihr bencht nicht mit maximalen Details? Was für ein Blödsinn.:what:
 
AW: Call of Duty: Infinite Warfare - Erste Performance-Eindrücke und Grafikkarten-Benchmarks

Verstehe ich das richtig? "Alte" AMD GPUs liefern etwas weniger FPS als die Nvidia Pendants, aber selbst auf der 1080 ruckelt es? Laufen die AMDs denn trotz niedrigerer FPS "sauber"?
 
AW: Call of Duty: Infinite Warfare - Erste Performance-Eindrücke und Grafikkarten-Benchmarks

Stellt sich noch die Fragen, ob man ein "provoziertes" CPU-lastiges Szenario (durch Deaktivieren von GPU-fordernden Details) in einem GPU-Benchmark überhaupt haben möchte?
 
AW: Call of Duty: Infinite Warfare - Erste Performance-Eindrücke und Grafikkarten-Benchmarks

Uff, also ich kann nur sagen, dass ich in MW-Remaster immer wieder deutliche Framerate-Einbrüche habe auf 45fps. Ohne DSR, ohne die preloading-Sachen. Selbst ohne HBAO und ohne filmic AA. Das ist schon heftig. Liegt's an meiner cpu...?

Die Grafik ist nett, aber nicht bahnbrechend.
 
AW: Call of Duty: Infinite Warfare - Erste Performance-Eindrücke und Grafikkarten-Benchmarks

Entweder der Game Ready Treiber von AMD (16.11.1) gilt bisher nur für Polaris. Oder aber Hawaii und Fiji versacken im Gegensatz zu Polaris gnadenlos im CPU Overhead. Oder beides...

Die 970 lässt mal wieder Federn. Die 980 ist überproportional schneller.

Call of Duty Infinite Warfare: Performance Analysis | techPowerUp

CoD: Infinite Warfare: Benchmarks mit vielen FPS und hohem Speicherbedarf (Seite 2) - ComputerBase

Call of Duty Infinite Warfare: Performance Analysis | techPowerUp

Denke einfach da hat was nicht gestimmt.
Die AMD Karten liegen bei den meisten Webseiten deutlich vor den Nvidia kontrahenten
 
AW: Call of Duty: Infinite Warfare - Erste Performance-Eindrücke und Grafikkarten-Benchmarks

Stellt sich noch die Fragen, ob man ein "provoziertes" CPU-lastiges Szenario (durch Deaktivieren von GPU-fordernden Details) in einem GPU-Benchmark überhaupt haben möchte?

Die Texturdetails werden ja automatisch reduziert, ohne dass man etwas dagegen machen kann. Wir reduzieren aktiv gar nichts.


Unsere Benchmarks sind in Ordnung, keine Sorge. Da wir die von den Grafikkarten automatisch gesetzten Boosts dazuschreiben, kann man auch nachvollziehen, wie stark sich das jeweilige Modell übertaktet – das vermisse ich bei den meisten anderen Tests. Und: Wir testen mit 16:1 HQ-AF, das sorgt ebenfalls für Unterschiede.

MfG,
Raff
 
AW: Call of Duty: Infinite Warfare - Erste Performance-Eindrücke und Grafikkarten-Benchmarks

Also Technisch ist sowohl COD IW als auch MWR eine reine Katastrophe, FPS lock.. nur VAC als Cheatschutz. Framedrops trotz neuen AMD 16.11.2 Treiber (den PCGH noch gar nicht in den news hat)
es sieht trotz hoher einstellung einfach nur Matschig aus.. als wäre ich auf einmal kurzssichtig
Maus is tierisch schwammig weil man die Mausbeschleunigung nicht ausschalten kann... die Maus an sich kann man nichtmals vernünftig einstellen

zum glück hat ich noch keine 2 std runter also hab ich es noch bei Steam storniert bekommen
 
AW: Call of Duty: Infinite Warfare - Erste Performance-Eindrücke und Grafikkarten-Benchmarks

GTX 1070 70-80% schneller als die GTX 970. :what:
 
AW: Call of Duty: Infinite Warfare - Erste Performance-Eindrücke und Grafikkarten-Benchmarks

Aber natürlich ist der Benchmark von PCGH unrealistisch :schief:

-Wie kommen sie auch dazu mit Karten/Taktraten zu benchen die so jeder zu Hause hat...................total unrealistisch.
-Dann legen sie auch noch offen mit welchen Einstellungen getestet wird...............................................großer Fehler.
-Zum Schluß zeigen sie uns auch noch die Benchmarkszene, damit man das auch nachstellen und überprüfen kann......................das geht ja mal gar nicht.
Call of Duty: Infinite Warfare - Die PCGH-Benchmarkszene "Black Skies" im Video

Da ist der Test von CB natürlich viel realistischer.
Kennt einer die Szene mit der getestet wurde, oder die Taktraten?
Taktraten für die GTX 980 ti und der GTX 980 bei CB
CB.PNG .........hat doch so jeder zuhause :lol:

Aber anscheinend müssen wir unsere Karten auf CB Werte untertakten, damit das Weltbild wieder stimmt :ugly:

Ps.:
Beitrag könnte leichte Spuren von Ironie beinhalten
 
AW: Call of Duty: Infinite Warfare - Erste Performance-Eindrücke und Grafikkarten-Benchmarks

CB schreibt erst, dass Karten mit wenig Speicher garnicht einbrechen (logisch, da Auto-Low-Texture Quality wie PCGH auch festgestellt hat). Dann steht die Fury X im Bench vor der 980. Noch weiter unten schreiben sie aber, dass die 980 trotzdem besser läuft, weil's auf der Fury mit hohen Texturdetails dauernd ruckelt. Am Ende weiß kein Mensch, was die dem Leser eigentlich vermitteln wollen. :ugly:

.

Doch, man weiß was damit gemeint ist, weil CB es ja extra auch noch dazu geschrieben hat.
Die FPS sind sehr gut, aber es treten dennoch immer mal wieder Ruckler auf, da der V Ram an seine grenzen stößt. Dieses macht bei gleicher V-Ram Größe den nVidia Karten aber etwas weniger aus, da diese den Speicher etwas effektiver nutzen oder verwalten.
Ganzen Artikel lesen du musst, wenn erleuchtet werden du willst. ;)


Zum Thema - Auto-Low-Texture Quality -
-------------------------------------------------

Hier sehe ich aktuell schon, und vor allem in Zukunft erhebliche Probleme bezüglich sachlichen Benchmarks auf uns zukommen.
Es besteht einfach ein ungeahntes potential zum schummeln, welches ja nicht nur explizit dafür genutzt werden muss, um mangelnden V-Ram auszugleichen (was ja sinnvoll ist) , sondern auch bei genügend Speicher verwendet werden kann, um sich prozentuale Vorteile bei den Framerates zu sichern.

Welches Magazin testet denn wirklich bis ins Minimalste Detail ob Beispielsweise eine nVidia Karte wirklich bis ins kleinste Detail exakt die selbe Menge an Datenvolumen in allen angezeigten Pixelanhäufungen berechnet, im Vergleich zum Amd Pendant und umgekehrt? Wer Testet im Detail die Unterschiede in der tatsächlich ausgegeben Bildqualität?
Ich rede hier nicht von offensichtlichen Tricksereien, sondern von Dingen die kaum bis fast gar nicht auffallen (die mit bloßem Auge vor dem Monitor so nicht sichtbar sind, oder auffallen), aber prozentual Rechenleistung sparen.
Leistungsunterschiede von mindestens 10% sollten da doch allein durch solche Auto-Low-Texture Quality Tricksereien möglich sein.
Und es hilft auch nicht das Argument, wenn man den Unterschied nicht sieht, dann ist doch alles gut, denn es geht ja um sachliche Benchmarks und Vergleiche.
Und wenn ich zwei Grafikkarten in ihrem Leistungsvermögen vergleiche, dann möchte ich gefälligst auch, dass beide Karten exakt den selben Rechenaufwand betreiben müssen, unabhängig davon ob ich es sehe, oder nicht.

Man müsste um dieses sachlich zu analysieren aber wirklich jeden Effekt, jede Szene, jede Textur bis ins minimalste Detail und mit vielfacher Vergrößerung unter den Grafikkarten vergleichen um diese Rechentricks überhaupt zu bemerken. Wie gesagt, es geht hier um 5- 10% Bereiche, welche aber für Käufer und das Image einer Firma schon entscheidend sein können.

Ich hätte in der Zukunft gerne mal Test, in denen bis ins letzte Detail die wirklich tatsächlich ausgegebene Bildqualität von Nvidia und Amd Karten aufgezeigt und analysiert wird. Bin mir fast sicher das es da Heutzutage, je nach Spiel Unterschiede gibt, sofern man nur mal genau genug hinsehen und untersuchen würde. Und mit genau Untersuchen meine ich nicht, einfach nur auf den Bildschirm gucken und das gesehene vergleichen, sondern wirklich ins Detail zu gehen. :D


Das Thema der tatsächlichen ausgegeben Bildqualität der unterschiedlichen Grafikkarten interessiert mich sehr, erst recht seit dem Aufkommen von Auto-Low-Texture-Qualiy. (seit VW wissen wir, für prozentuale Vorteile wird getrickst was möglich ist, und das vornehmlich in Bereichen, die nicht auf dem ersten Blick auffallen) . ;)

Mich verwundert es eh das in den letzten Jahren die Auflösung immer wichtiger wurde, aber die tatsächlich ausgegebene Bildqualität irgendwie kaum Betrachtung findet. (außer bei Clipping Effekten natürlich, ist ja auch einfach diese zu sehen und zu testen). Ich will eine Pixel für Pixel Analyse, und dann den Vergleich.

Auto.Low-Texture-Quality, ich traue dir nicht. :D
 
Zuletzt bearbeitet:
Zurück