uk3k
Software-Overclocker(in)
Hab heute mal Interesse halber eigene Benchmarks mit BF4 angefertigt, das Ergebnis überascht eigentlich nicht, dafür jedoch eine ganz andere Erkenntis.
Spiel:
Battlefield 4 Patch Stand 03.04.2014
5760x1080; Ultra-Preset
System:
Siehe Signatur; Catalyst 14.2 Beta 2; Treiber Default
Gebencht wurden folgende Kombinationen je einmal mit DX11 und einmal mit Mantle:
3.2 GHz ohne SMT + 1000MHz GPU Takt
3.2 GHz ohne SMT + 1100MHz GPU Takt
4.0 GHz ohne SMT + 1000MHz GPU Takt
4.0 GHz ohne SMT + 1100MHz GPU Takt
4.0 GHz mit SMT + 1000MHz GPU Takt
4.0 GHz mit SMT + 1100MHz GPU Takt
Benchmarkszene:
Leerer 32 Slot Server, Karte Golf of Oman, immer ca 60s nach Mapstart.
Spawn im Russischen Havok, Innenansicht, Start auf ca. 50m Höhe, in der Höhe bleibend Flug über "F" > "C" > "US Base" und wieder zurück.
Datenerfassung beide Renderpfade:
Consolen-Tool perfoverlay.framefilelogenable 1
Berechnung Durchschnitts-FPS:
Anzahl Ergebnisse / (Summe Ergebniswerte/1000)
Berechnung Durchschnitt Frametimes:
Summer Ergebniswerte / Anzahl Ergebnisse
Da meine Ergebnisse selbst bei "nur" 3.2GHz ohne SMT von denen bei 4.0GHz + SMT innerhalb der Messtoleranz abweichen mach ichs kurz:
GPU @ 1000MHz:
DX11: 57,28 FPS | avg. Frametime: 17,46ms
Mantle: 61,66 FPS | avg. Frametime: 16,22ms
GPU @ 1100MHz:
DX11: 60,78 FPS | avg. Frametime: 16,45ms
Mantle: 66,22 FPS | avg. Frametime: 15,10ms
Bis hier hin folgere ich aus den Ergebnissen (natürlich nur auf einem leeren Server):
Selbst wenn der i7 3930k auf 3.2GHz ohne SMT oder Turbo läuft, steckt man mit 2 R9 290 noch im GPU-Limit. Das Spricht auf alle Fälle für die Leistung der CPU. Darüber hinaus, bringt Mantle bei nicht ausgelastetem Prozessor nur magere 3,5% Mehrleistung. Darüber hinaus stemmen beide R9 290 Online-Shooter-taugliche Bildraten, selbst bei 3x FullHD-Auflösung.
Wie bereits nicht nur ich festgestellt habe, liegen die angezeigten FPS beim Spielen mit der Mantle-API meistens unter denen der DX-API. Jedoch behaupten alle Benchmarks etwas gegenteiliges. Selbst wenn man die absoluten Durchschnittswerte der einzeln ermittelten Frames betrachtet, liegen die Frametimes mit Mantle immer unter denen von DX11, was logischerweise auch in durchschnittlich höheren FPS resultiert:
Kürzere Berechnungsdauer >> Mehr Bilder pro Sekunde
Ich habe mir nun mal die Mühe gemacht und "grobe" Frametime-Diagramme aus meinen Messwerten angelegt, dabei ist mir nun endlich des Rätsels Lösung offenbar geworden:
Wenn man die Frameverläufe beider APIs vergleicht, sieht man dass DirectX über lange Zeitspannen hinweg sogar deutlich niedrigere Framelaufzeiten als Mantle hat, jedoch auch sehr viele Spikes mit extrem hohen Framezeiten.
Diese "Ausreiser" zählen nun logischerweise mit in den Durchschnitt hinein, was zur Folge hat, dass DirectX am Ende weniger Durchschnitts-FPS liefert obwohl die absolute Framerate während des Benchmark oder eben dem Spielen meistens höher als bei Mantle ist.
Bei Mantle hingegen ist der Frameverlauf sehr gleichmäßig, jedoch liegt das Grundniveau viel höher und dank der fehlenden Spikes ergibt sich am Ende eine im Durchnitt niedrigere Framelaufzeit und somit höhere Durchnitts-FPS.
€: Anders Ausgedrückt: Mantle liefert eigentlich gar nicht mehr FPS, sondern nur stabilere Bildraten was durch die gängigen Messverfahren in einem besseren Ergebnis resultiert
Zur Veranschaulichung:
Ob dieses Phänomen nur Multi-GPU-Systeme betrifft weiss ich nicht genau, auf alle Fälle fällt es da dank eh schlechter Framesynchronisation eher auf als bei Single-GPUs. Wenn jemand mag kann er ja gerne eine ähnliche Auswertung mit einer einzelnen GPU fahren. Vielleicht auch PCGH? Natürlich wären Ergebnisse auf einem randvollen Server auch spannend, jedoch finde ich, lässt sich das sehr schlecht reproduzieren
Warscheinlich erzähl ich hier niemandem etwas wirklich neues, jedoch ist mir das Thema in der Art und Weise betrachtet noch nicht über den Weg gelaufen. Falls ich völligen Bullshit zusammengereimt hab, bin ich natürlich über Korrekturen erfreut
Wer Interesse hat, meine kompletten Ergebnisse und Unterlagen im Anhang als Zip Datei.
€2: Im Text vergessen: Vom früher vorhandenen und nach wie vor oft verdächtigten SMT-Bug bin ich ganz offensichtlich nicht betroffen
mfg
Spiel:
Battlefield 4 Patch Stand 03.04.2014
5760x1080; Ultra-Preset
System:
Siehe Signatur; Catalyst 14.2 Beta 2; Treiber Default
Gebencht wurden folgende Kombinationen je einmal mit DX11 und einmal mit Mantle:
3.2 GHz ohne SMT + 1000MHz GPU Takt
3.2 GHz ohne SMT + 1100MHz GPU Takt
4.0 GHz ohne SMT + 1000MHz GPU Takt
4.0 GHz ohne SMT + 1100MHz GPU Takt
4.0 GHz mit SMT + 1000MHz GPU Takt
4.0 GHz mit SMT + 1100MHz GPU Takt
Benchmarkszene:
Leerer 32 Slot Server, Karte Golf of Oman, immer ca 60s nach Mapstart.
Spawn im Russischen Havok, Innenansicht, Start auf ca. 50m Höhe, in der Höhe bleibend Flug über "F" > "C" > "US Base" und wieder zurück.
Datenerfassung beide Renderpfade:
Consolen-Tool perfoverlay.framefilelogenable 1
Berechnung Durchschnitts-FPS:
Anzahl Ergebnisse / (Summe Ergebniswerte/1000)
Berechnung Durchschnitt Frametimes:
Summer Ergebniswerte / Anzahl Ergebnisse
Da meine Ergebnisse selbst bei "nur" 3.2GHz ohne SMT von denen bei 4.0GHz + SMT innerhalb der Messtoleranz abweichen mach ichs kurz:
GPU @ 1000MHz:
DX11: 57,28 FPS | avg. Frametime: 17,46ms
Mantle: 61,66 FPS | avg. Frametime: 16,22ms
GPU @ 1100MHz:
DX11: 60,78 FPS | avg. Frametime: 16,45ms
Mantle: 66,22 FPS | avg. Frametime: 15,10ms
Bis hier hin folgere ich aus den Ergebnissen (natürlich nur auf einem leeren Server):
Selbst wenn der i7 3930k auf 3.2GHz ohne SMT oder Turbo läuft, steckt man mit 2 R9 290 noch im GPU-Limit. Das Spricht auf alle Fälle für die Leistung der CPU. Darüber hinaus, bringt Mantle bei nicht ausgelastetem Prozessor nur magere 3,5% Mehrleistung. Darüber hinaus stemmen beide R9 290 Online-Shooter-taugliche Bildraten, selbst bei 3x FullHD-Auflösung.
Wie bereits nicht nur ich festgestellt habe, liegen die angezeigten FPS beim Spielen mit der Mantle-API meistens unter denen der DX-API. Jedoch behaupten alle Benchmarks etwas gegenteiliges. Selbst wenn man die absoluten Durchschnittswerte der einzeln ermittelten Frames betrachtet, liegen die Frametimes mit Mantle immer unter denen von DX11, was logischerweise auch in durchschnittlich höheren FPS resultiert:
Kürzere Berechnungsdauer >> Mehr Bilder pro Sekunde
Ich habe mir nun mal die Mühe gemacht und "grobe" Frametime-Diagramme aus meinen Messwerten angelegt, dabei ist mir nun endlich des Rätsels Lösung offenbar geworden:
Wenn man die Frameverläufe beider APIs vergleicht, sieht man dass DirectX über lange Zeitspannen hinweg sogar deutlich niedrigere Framelaufzeiten als Mantle hat, jedoch auch sehr viele Spikes mit extrem hohen Framezeiten.
Diese "Ausreiser" zählen nun logischerweise mit in den Durchschnitt hinein, was zur Folge hat, dass DirectX am Ende weniger Durchschnitts-FPS liefert obwohl die absolute Framerate während des Benchmark oder eben dem Spielen meistens höher als bei Mantle ist.
Bei Mantle hingegen ist der Frameverlauf sehr gleichmäßig, jedoch liegt das Grundniveau viel höher und dank der fehlenden Spikes ergibt sich am Ende eine im Durchnitt niedrigere Framelaufzeit und somit höhere Durchnitts-FPS.
€: Anders Ausgedrückt: Mantle liefert eigentlich gar nicht mehr FPS, sondern nur stabilere Bildraten was durch die gängigen Messverfahren in einem besseren Ergebnis resultiert
Zur Veranschaulichung:
Ob dieses Phänomen nur Multi-GPU-Systeme betrifft weiss ich nicht genau, auf alle Fälle fällt es da dank eh schlechter Framesynchronisation eher auf als bei Single-GPUs. Wenn jemand mag kann er ja gerne eine ähnliche Auswertung mit einer einzelnen GPU fahren. Vielleicht auch PCGH? Natürlich wären Ergebnisse auf einem randvollen Server auch spannend, jedoch finde ich, lässt sich das sehr schlecht reproduzieren
Warscheinlich erzähl ich hier niemandem etwas wirklich neues, jedoch ist mir das Thema in der Art und Weise betrachtet noch nicht über den Weg gelaufen. Falls ich völligen Bullshit zusammengereimt hab, bin ich natürlich über Korrekturen erfreut
Wer Interesse hat, meine kompletten Ergebnisse und Unterlagen im Anhang als Zip Datei.
€2: Im Text vergessen: Vom früher vorhandenen und nach wie vor oft verdächtigten SMT-Bug bin ich ganz offensichtlich nicht betroffen
mfg
Anhänge
Zuletzt bearbeitet: