Halo Infinite (PC) im Technik-Test: Performanter DX12-Shooter mit Edelgrafik [Benchmark-Liveticker]

Ich bin den Bench jetzt mal falsch herum gefahren, also den Berg hoch statt runter. Weg ist das GPU-Limit ^^

1639176299597.png


Und der fiese Nachladeruckler am Schluss ist auch weg:

1639176354933.png


Richtig/Falsch herum:
1639176413795.png
1639176427637.png


Raff, kann/darf ich den Berg hoch benchen? :D Berg runter ist nur für Grafikkarten gut, aber nicht für CPUs ...
 
Man muss allerdings sagen, für 2021 und solche eine Szene mit viel Weitsicht und Streaming 6 Threads im Grunde so schnell wie 24, das ist echt mager.
 
Ich bin den Bench jetzt mal falsch herum gefahren, also den Berg hoch statt runter. Weg ist das GPU-Limit ^^

Raff, kann/darf ich den Berg hoch benchen? :D Berg runter ist nur für Grafikkarten gut, aber nicht für CPUs ...

LOL. Von mir aus. "Falsch rum" ist halt aus Fps-Sicht "falsch", weil das besser läuft. Aber wenn's hilft. Als Standardtest sollten wir auf jeden Fall so weit spielen, dass man einen Gleiter spawnen lassen und herumfliegen kann. Zumindest ausprobieren, ob man das mit der Höhe reproduzierbar kriegt (daran scheiterten wir z. B. damals in GTA 5). Checke ich noch am WE. Machste mit? :D Ich weiß aber nicht, wie viel Tapferkeit man dafür farmen muss.

MfG
Raff
 
Falsch wäre für mich im GPU-Limit zu testen, das bringt nichts. Ich hab den Berg runter ja nur weniger Fps, weil die GPU im Weg steht. Das Spiel unterstützt offenbar auch kein echtes Vollbild, ich bin daher über die Auflösung vom Desktop runter + minimale Auflösungsskalierung im Spiel, aber viel macht das auch nicht aus, leider.

Ich teste morgen mal eine Handvoll CPUs mit der 3090 richtig und falsch herum. Wenn selbst eine 6900 XT meinen kleinen Sechskerner nicht richtig auslasten kann, dann sehe ich bei Alder Lake + 3090 schwarz. Schauen mer mal :)
 
Man muss allerdings sagen, für 2021 und solche eine Szene mit viel Weitsicht und Streaming 6 Threads im Grunde so schnell wie 24, das ist echt mager.
Check bitte mal die PCGH-Szene. Da hat's viel mehr Streaming-Last. Deinem geringen Delta zwischen Average und P1 entnehme ich, dass das noch der Spaziergang ist.

Falsch wäre für mich im GPU-Limit zu testen, das bringt nichts. Ich hab den Berg runter ja nur weniger Fps, weil die GPU im Weg steht. Das Spiel unterstützt offenbar auch kein echtes Vollbild, ich bin daher über die Auflösung vom Desktop runter + minimale Auflösungsskalierung im Spiel, aber viel macht das auch nicht aus, leider.

Ich teste morgen mal eine Handvoll CPUs mit der 3090 richtig und falsch herum. Wenn selbst eine 6900 XT meinen kleinen Sechskerner nicht richtig auslasten kann, dann sehe ich bei Alder Lake + 3090 schwarz. Schauen mer mal :)
Die 3090 wird dich auf jeden Fall zurückhalten. Das ist aber kein "echtes" GPU-Limit, sondern Overhead.

MfG
Raff
 
Wollte auch gerade schreiben, bei "falsch herum" werden es zwischen RX 6900XT und RTX 3090 im CPU -Limit mehr als 22% sein. 22% ist die Differenz bereits in FullHD.
Die 3090 wird dich auf jeden Fall zurückhalten. Das ist aber kein "echtes" GPU-Limit, sondern Overhead.
Over Herd^^ oder Ofen aus, Zuhaus
 
Zuletzt bearbeitet von einem Moderator:
Okay, ich mache da jetzt keine Diskussion draus, ich nehme die Original-Szene. Die erste CPU, weil ich sie gerade aufgebaut habe, ist dann offiziell gebencht, ein 11400F. Der ist zu zwei Prozent im GPU-Limit gewesen, ziemlich genau da fängt es also an ^^
 
Performant und Edelgrafik? Habt ihr gesoffen?
Dachte ich auch die Grafik ist nicht gerade Wow und frisst Leistung ohne Ende.
Das Ding ist Scheiße Programmiert und hat keine State of the Art Grafik.

Dynamische Auflösung haben die Konsolen am PC gib es das nicht.
Digital Foundry ist auch nicht gerade begeistert davon.

Die Open World wirkt außerdem nicht durch dacht und schön ist sie nicht gerade.
Die Story Level sind da wesentlich besser und da ist es dann von Grafik und Leistung auch deutlich besser.
 
Okay, ich mache da jetzt keine Diskussion draus, ich nehme die Original-Szene.
Wem tut das weh, dass da jetzt so irrational gehandelt wird? Nein ich korrigiere, eher sinnlos.
Starkes GPU-Limit mit der RX 6800 XT.
87% der Zeit im GPU-Limit, gäbe es nicht die Spikes, wären es fast 100%.

Seid mir net bös', aber das sind doch keine CPU-Benchmarks. Warum hält man da fest dran? Sowas versteh ich nicht. Dabei ist die Lösung so einfach, Berg auf statt Berg ab...
Die ganzen Romane und Artikel ala "warum testen wir 720p" und "optimal wären 16x9", wie soll man das noch ernstnehmen, wenn hier bewusst, sehenden Auges gegen die Wand gefahren wird? Da stimmt doch etwas nicht.
 
Zuletzt bearbeitet von einem Moderator:
Far Cry 6 ist auch ein AMD Spiel und Alder Lake deklassiert Ryzen.
Zeitgleich sieht man aber auch wie sinnfrei es ist auf teuren, seltenen DDR5-RAM zu setzen nur um am Ende 2 % zu gewinnen. :ugly:
Da frage ich mich, warum so viele User warten und nicht einfach DDR4-4000 RAM kaufen. Am Ende ist es doch so, wie es immer war: DDR3-1866 auf DDR4-2133 war auch sinnlos oder gar kontraproduktiv, genau wie vorher DDR2-1066 auf DDR3-1066. ;)
:kaffee:
Ich denke in Zukunft mal über DDR5-RAM nach, wenn 6000 MT/s die schnelle, günstige Massenware ist wie derzeit DDR4-3200.
 
Zuletzt bearbeitet:
Vollkommen abstrus gewählte Überschrift. Bei einem Titel, der für das gebotene wirklich schlecht performed... (Vergleicht mal mit Mexodus EE, das läuft mit InfiniteBounceGI und sonstigem Raytracing nur unwesentlich langsamer)
Ist das so?:what: Dann sag mir doch einmal wie viele fps eine 1080ti in WQHD macht in "Mexodus", oder in 1080p eine Vega 56. Oder geht das etwar gar nicht und war entsprechend leicht auf nur eine Sorte Karten zu optimieren? Hmm...:nicken:
 
Warum sie 720p "testen"?
Weil sie nicht verstehen das max_drawcalls/frame nicht bedeutet max_drawcalls/time.
;)
Wenn OpenSuse versucht schlau zu sein... :D Ist letztlich das gleiche wie mit der Shading Rate von MEEE. Am Ende haben Philipp und ich auf Twitter gezeigt mit RenderDoc und Scaling Tests, dass die Shading Rate neben anderen Effekten eben doch 1:1 die Renderskalierung definiert/beeinflusst.

Und jetzt haben wir hier einen weiteren Versuch: "Weil sie nicht verstehen das max_drawcalls/frame nicht bedeutet max_drawcalls/time." Na, dann erklär' doch mal, was dieser "Umstand" mit 720p, also der Auflösung zu tun hat? Es geht am Ende um ein CPU-Limit, weil man ja CPUs testen will. Was du meinst, geht in die Richtung Low Settings, was ja dazu führt, dass zwar die Drawcalls pro Frame sinken, aber die Frames pro Sekunden steigen, so dass die Drawcalls pro Time gleich bleiben können, theoretisch. Aber, auch für Low Settings braucht es in der Regel eine niedrige Auflösung und zweitens verhält sich das keinesfalls proportional.

Es tut mir leid OpenSuse, aber deine Aussage ist weder eine fachliche Kritik noch ein Argument in irgendeiner Form, es ist schlicht mal wieder eine Nebelkerze, um irgendwie schlau zu wirken.

Ich denke in Zukunft mal über DDR5-RAM nach, wenn 6000 MT/s die schnelle, günstige Massenware ist wie derzeit DDR4-3200.
Aus Preis-Leistungssicht ist das sehr vernünftig. Es gibt im Moment keinen wirklich guten Grund auf DDR5 zu setzen. Fürs Gaming ist gut getunter DDR4-4000 fast genauso schnell. Für Gamer macht DDR5 keinen Sinn. Wenn man das letzte bisschen aus diversen Anwendungen rausquetschen will, kann es Sinn machen, aber für Privatanwender auch eher nicht.

Dann sag mir doch einmal wie viele fps eine 1080ti in WQHD macht in "Mexodus", oder in 1080p eine Vega 56. Oder geht das etwar gar nicht und war entsprechend leicht auf nur eine Sorte Karten zu optimieren?
Wo du Recht hast, hast du Recht. ^^
 
Zuletzt bearbeitet von einem Moderator:
Wem tut das weh, dass da jetzt so irrational gehandelt wird? Nein ich korrigiere, eher sinnlos.

Die ganzen Romane und Artikel ala "warum testen wir 720p" und "optimal wären 16x9", wie soll man das noch ernstnehmen, wenn hier bewusst, sehenden Auges gegen die Wand gefahren wird? Da stimmt doch etwas nicht.
Verstehe mich nicht falsch, aber das hast du nicht zu entscheiden. Wir arbeiten hier als Team und wir haben bei Halo den Fall, dass Raff schon viel früher als ich Zugang zum Spiel erhalten hat. Entsprechend hat er mehr Erfahrung damit (das hat er auch so, weil er mindestens zehn Jahre länger diesen Job macht, als ich). Ich vertraue daher auf sein Urteilsvermögen. Was ich gemacht habe, war eine Alternative anzubieten, nicht mehr und nicht weniger. Wir testen übrigens öfter Spiele und machen CPU-Benchmarks, die nicht immer zu 100 Prozent im CPU-Limit sind, es gibt einfach viele, die den Fokus sehr viel stärker auf die Grafikkarte legen – Halo Infinite ist auch so ein Fall. Die Information, dass man in bestimmten Titeln mit einer RTX 3090 wegen des Overhead stärker ins GPU-Limit, ist auch nichts Neues, allerdings können wir nicht einfach so die CPU-Test-GPU tauschen (warum das so ist, habe ich oft genug erklärt).

Du hast an meinen Zahlen oben sicher aber auch gesehen, dass der Unterschied in dieser Szene, trotz partiellem GPU-Limit, minimal ausfällt: 7 Prozent mehr Fps, 5 Prozent höhere P1 – das war an dieser nicht der 68-prozentige GPU-Limit-Einfluss, den ich erwartet hätte, was ist mit dir? Und da mein kleiner 5600X stark optimiert ist und das Spiel offenbar nur wenig mit zusätzlichen Kernen anfangen kann, bildet dieser Wert schon das obere Ende ab. Anders formuliert: Die schnellsten Prozessoren am Markt landen partiell im GPU-Limit bei Halo Infinite, auch mit der schnellsten Grafikkarte. Das ist bei AC Valhalla ebenso. Bei Horizon Zero Dawn auch. Auch bei Cyberpunk 2077. Mächtigere CPUs zeigen sich abseits einer Kernoptimierung dann eben in besseren Frametimes, was auch etwas wert ist.
 
Die geht automatisch an, wenn du ein minimales Bildratenziel einstellst (also z.B. 30, 60 oder bei 144 Hz auch 72 Fps). Dann sollte man allerdings auch ein maximales Bildratenziel eingeben (oder eventuell Vsync zuschalten, das habe ich aber nicht ausprobiert – da muss dann außerdem der Grafikkartentreiber entsprechend konfiguriert sein, also Vsync="anwendungsbasiert"), sonst haut's einem die dynamische Auflösung auf das Minimum runter (ich nehme an, das sind 50 % der gesetzten Auflösung, vielleicht auch ein bisschen mehr, Pixel hab ich nicht gezählt).

aso ok danke. nein die minimum und maximum habe ich aus gestellt nur vsync an. also natürlich 60hz 4k.das schaffe ich nicht immer von daher reichen 60hz erstmal ;-)
 
Hardwareunboxed haben gerade ihr Bench-Video zum Spiel veröffentlich und einfach mal komplett andere Ergebnisse parat.

Und genau das sehe ich als Grund, warum viele lieber bei Community-Benchmarks mitmachen, wenn die Spiele einen integrierten Benchmark haben. Du kannst dir immer eine Szene rauspicken, wo bestimmte Hardware besonders gut abschneidet und am Ende des Tages haben alle komplett andere Werte raus und es gibt einfach keine Konsistenz.

Welche Werte spiegeln denn nun wieder, welche Spielerfahrung ich mit meinem System erwarten kann?
 
Die CPU-Benchmarks müssen leider warten. Da ist ein Tor in der Live-Version, was einfach zu ist, beim Raff in der Review-Version aber wohl offen war:

Anhang anzeigen 1381562
Da muss ich aber durch, sonst komme ich nicht nur Bench-Szene :kaffee:
Es gibt keinen Schalter und bei uns weiß niemand, wie man es öffnet. Ich muss wohl noch etwas weiter spielen. :ka:


Vielleicht ist es ja ein DRM-Schutz um das teil nicht auf zu vielen PCs in 24 Stunden zum laufen zu bekommen. Wäre wenigstens mal eine nette Idee anstatt einfach im Launcher eine Aktivierungssperre zu sehen.:ugly:
 
Zurück