Anthem: Auf der Xbox One X in UHD

30fps als shooter = für mich absolut unspielbar. Die Jaguar wird im CPU Limit hängen...Bulldozer eben, der will angeschoben werden. Hier hatten damals Sony und MS eine absolute Fehlentscheidung getroffen, zumal ja Haswell bereits in den Startlöchern stand.

Wenn man schon ein wenig rumpisst, dann sollte das ganze Hand und Fuß haben.

Die Jaguararchitektur ist kein Bulldzozer, sondern eben ein Jaguar, der Atomkonkurrent von AMD und damit etwas eigenständiges. Mit einer Intel CPU wäre man wohl etwa 200-300€ (für einen zweikern i3 oder einen vierkern i5) teurer weggekommen , da Intel einerseits gepfefferte Preise verlangt und man andererseits das ganze nicht mit einem Chip hätte realisieren können, sondern CPU und GPU hätte trennen müssen, inklusive separatem RAM. Bei AMD standen damals nur die Bulldozer- und die Jaguarchitektur zur Verfügung. Der Bulldozer war zwar viel schneller (pro Takt und Kern doppelt so schnell und doppelt so hoch taktbar), braucht aber auch sehr viel Platz, was auf massive Einsparungen bei der GPU oder getrennte CPU und GPU hinausgelaufen wäre.

Auch wenn ich die CPU Leistung mies finde, die Entscheidungen von Sony und MS hatten Hand und Fuß. Nach der PS3 und X-Box 360 hatte man High End Hardware eben abgeschworen und das zu recht.
 
Playstation 1 8W (kein Witz)
PS2 24W (auch kein Witz)
Xbox 64W
XB360 170W
PS3 190W
PS4140W
Xbox One 120W
Xbox One X 170W
PS4 Pro 175W

Konsolen konnten immer wieder große Leistungssprünge hinlegen, weil die Chips einfach auch mehr Strom verbrauchen durften. Wobei bei den jetzig verbauten Kühlern 200W eine Schallmauer sind.

Die Aufteilung der Chips in CPU typische und GPU typische Bereiche ist entsprechend dem was sich verkauft und das ist gute Grafik. Wären nicht 3D Shooter mit aufwändiger Grafik der Megahype, sondern rundenbasierende Strategiespiele mit Symbolgrafik würde das bestimmt genau anders herum aussehen. Am Beispielt des angehängten XboX One X Chips sieht man, dass die CPU am rechten Rand nur so viel wie nötig bekommt und der Rest ist Grafikkern. In der Summe dann bitte nicht mehr Hitze als man aus dem Gehäuse abführen kann und dann ist Ende der Debatte.

Microsoft-Xbox-One-X-Scorpio-Engine-Hot-Chips-29-02 (1).png

Mögliche Anbieter:
AMD = x86 CPU Kerne und DX12 GPU
Nvidia = ARM CPU Kerne + DX12 GPU + Nvidia Special Cores
Intel = x86 CPU Kerne und keine GPU im Programm wirklich.
 
Anthem interessiert mich zwar nicht, aber ich persönlich finde es absolut beeindruckend wenn eine 400€ Konsole natives 4K30 / HDR / High-Settings schafft, während eine Grafikkarte die alleine mehr kostet stets unter die 60fps einbricht in 4K und somit das Spielerlebnis kaum besser macht. Da wäre mich für mich die 400€ Konsole definitiv die deutlich bessere Wahl.



Richt. Genau so sehe ich das auch.:daumen::daumen::daumen:
Die Leute vergessen oft den Preis der Konsole und das diese günstiger ist als eine Starke Grafikkarte ist, mit der man überhaupt an 4k 30fps denken kann.
 
Das ist doch alles Schrott...

28, 30 oder mir wegen 40 FPS sind doch Katastrophal nervig.

Egal wie "hübsch" das Bild ist...
Dann lieber FullHD und ordentlich FPS.
(ordentlich ist für meinen Geschmack AB 60 FPS, besser 100+)

Da spiele ich lieber gar nicht.
(Ich kenne den Vergleich nur zu gut, habe hier ne PS4 stehen auf der meine Freundin zockt.)

Hut ab wer sich sowas antut und gut finden kann.
Für mich ist das nichts mehr.

Mal von den FPS abgesehen, sind auch oft die Details massiv reduziert und Ladezeiten ewig lang um die paar FPS überhaupt zu erreichen.
Zuhause haben wir beide die letzten Assassins Creed Teile, und da sieht das Bild auf der PS4 viel!!! schlechter aus als auf dem PC, bei miesen FPS und Schnellreise Ladezeiten jenseits von gut und böse...
Und ganz schlimm: die Lautstärke, sowas nerviges.

Finanziell zwar sehr günstiges zocken im Vergleich zum PC, aber mit teils sehr geringer Qualität teuer erkauft.
Nee ich möchte sowas nicht mehr, da verzichte ich lieber ganz wenn das nötig sein sollte...
(nur meine Meinung- ich gönne es jedem der Spaß mit seiner Konsole hat)
 
Zuletzt bearbeitet:
wir benchen grad (für einen Heft-Artikel), danach braucht's schon einen Ryzen 7 2600 (@Stock) für 60 Fps (allerdings Ultra-Details, ein bisschen ginge da sicherlich noch mit Detailverzicht).

Gruß,
Phil

Sollte der Day One Patch am 22.02.2018 nicht auch ggf. mehr Performance bringen? Ist dann heute schon der richtige Zeitpunkt zum benchen?
 
[...] (nur meine Meinung- ich gönne es jedem der Spaß mit seiner Konsole hat)
Jemand mit 2 Stk. RTX 2080Ti wird auch dir seinen Spaß gönnen, und der würde auch nie wieder mit einer einzelnen GTX 1080 zocken wollen. Full HD selbst mit 60fps wäre für mich dafür wieder ein absolutes No-Go weil man die Pixel zählen kann wenn man 4K gewohnt ist und einfach alles potthässlich aussieht. Es soll halt jeder machen wie er will. :daumen: Wenn ich auf meiner Xbox One X ein Forza 7 in nativen 4K und 60fps zocke inkl. HDR dann weiß ich warum ich mich so entschieden habe. Die Konsole ist auch flüsterleise.
 
Full HD selbst mit 60fps wäre für mich dafür wieder ein absolutes No-Go weil man die Pixel zählen kann wenn man 4K gewohnt ist und einfach alles potthässlich aussieht.

Ich respektiere und verstehe deine Meinung, wenn man einmal was gewohnt ist... Wobei non stable 30 FPS schon ne teilweise Ruckelorgie sein können wenn die Drops oft sind.

Auch die 60 FPS waren für mich nur das Minimum in meiner Argumentation.
Ich selbst habe ein 240 Hz Display und will diesen Augen Luxus nicht mehr missen besonders bei schnellen Spielen/Bildwechseln.
G-Sync (allg. eine Sync Tech.) gebe ich genauso nicht mehr freiwillig her. Ich freue mich über jedes FPS :)
240 Müssen nicht sein aber 144 sollten es bei mir schon sein.
Ich zocke auch am liebsten Multiplayer Shooter und da kann man die Konsolen schon alleine vom Gameplay her in die Tonne treten.
(Wenn man es vom PC schon gewohnt ist)
 
Zuletzt bearbeitet:
Ich habe einen PC mit i7-8700K, 32GB RAM und GTX 1070 (habe einen Screenshot mit GeForce Experience und meinem Profil im Hintergrund https://abload.de/img/1aik1k.jpg) - Monitor war ein Asus ROG PG279Q (1440p, 165Hz, G-Sync) Wenn ich jetzt auf der Xbox One X mit 60fps zocke vermisse ich gar nichts. Mit meiner 1070 kann ich die neuesten Spiele die mich interessieren sowieso nie mit 60fps in 4K oder 1440p zocken. Da müsste man wieder aufrüsten. Deswegen muss man immer abwiegen was man persönlich haben will. :) Mein neuer 4K Monitor unterstützt Freesync 2, HDR und hat ein natives 10-Bit-Panel. Das ist für mich persönlich besser. Ich zocke aber auch kaum online und vor allem keine Shooter. Dort braucht man schon 100fps+ am besten. In Rennspielen sind 60fps sehr von Vorteil. Formel 1, Forza+Horizon, Dirt Rally etc. laufen alle mit 60fps auf der Konsole also so wie ich es will. Von daher keine Probleme.
 
Mit meiner 1070 kann ich die neuesten Spiele die mich interessieren sowieso nie mit 60fps in 4K oder 1440p zocken. Da müsste man wieder aufrüsten.

Das liegt einfach daran, dass du die Details nicht reduzierst. Bei den Konsolen nehmen dir die Entwickler die Entscheidung ab un reduzieren sie für dich. So kommst du auf 4K, obwohl die X-Box One X nur etwa so stark wie eine GTX 1050Ti ist.
 
Beides falsch, Settings auf Konsolen entsprechen ca. High des PCs (sagen die Leute bei digital foundry auch im Video) und eine Xbox One X hat Leistung eines PCs zwischen GTX 1060 und 1070. CPU ist in 4K sowieso egal da alles im GPU Limit verweilt.
 
Beides falsch, Settings auf Konsolen entsprechen ca. High des PCs (sagen die Leute bei digital foundry auch im Video)

Redest du von Anthem oder allgemein ? Also bei AC hat das auf der Konsole nichts mit High auf PC zu tun. + Viel Matsch Texturen wie wenn ganz ohne AF.
Das hängt teils sehr vom Game ab. Nativ FullHD oder 4K ist ja oft schon das Problem zusätzlich.

Und wenn die Qualität von Anthem High entspricht dann ist sie sehr teuer erkauft mit den paar FPS.
(Falls teils 28 FPS stimmen wie behauptet)
 
Bei Metro Exodus und Anthem sagt digital foundry dass es High entspricht, ja.

Außerdem hast du oben geschrieben dass deine Freundin eine PS4 hat. Wir sind hier im One X-Thread und die ist technisch klar besser als eine Standard PS4.
Trotzdem unterscheidet es sich natürlich von Spiel zu Spiel. Wenn die Entwickler aber einigermaßen fähig sind, ist es meist Medium oder High der PC-Version.
(Ich kenne den Vergleich nur zu gut, habe hier ne PS4 stehen auf der meine Freundin zockt.)
 
Außerdem hast du nicht oben geschrieben dass deine Freundin eine PS4 hat? Wir sind hier im One X-Thread und die ist technisch klar besser als eine Standard PS4.

Verzeihung, ich wusste nicht das es mir dann generell verboten ist hier zu kommentieren.
Ist ja nicht so das ich auch viel bei Freunden mitbekommen habe...

Meine Güte....

Armselig
 
Zuletzt bearbeitet:
Beides falsch, Settings auf Konsolen entsprechen ca. High des PCs (sagen die Leute bei digital foundry auch im Video) und eine Xbox One X hat Leistung eines PCs zwischen GTX 1060 und 1070. CPU ist in 4K sowieso egal da alles im GPU Limit verweilt.

Na also, da haben wir doch schon die Erklärung.

Zwischen "Ultra" und "sehr hoch" sind es, je nach Spiel, meist zwischen 50 und 100% Leistungsgewinn, die Ultradetails fressen einfach extrem viel Leistung, dennoch wollen viele (incl. mir) nicht davon lassen. Zwischen "sehr hoch" und "hoch" sind es dann meist auch nochmal 50% und mehr, die man an Leistung gewinnt. Bei den Konsolen schaltet man solche Details herunter, die man wenig sieht (z.B. die Darstellung in der Ferne, da geht es teils schon Richtung mittel und läßt die Details auf sehr hoch, die eher wenig Leistung fressen, dafür aber gut sichtbar sind. Allen voran die Texturen, wo die X-Box One X durch ihre 12GB RAM auftrumpfen kann. Von daher reduziere einfach mal die Details auf hoch oder sehr hoch und du wirst sehen, dass die Spiele auf dem PC sehr viel schneller laufen werden.

PS: Eine X-Box One X liegt mit ihren 6 TFLOPS etwas unterhalb der RX 580 und die Karte liegt zwischen der GTX 1050Ti und GTX 1060. Bei der CPU sieht es noch schlechter aus, ein Jaguarkern ist wesentlich weniger als halb so stark wie der Kern eines i7 oder Ryzen, sprich da kann die X-Box X nur mit Zweikern CPUs mithalten (und das auch nur im Multithreading).
 
"Da auf Konsolen noch alles von klassischen 2,5-Zoll-Festplatten mit 5.400 Umdrehungen pro Minute geladen wird, sind große Datenmengen ebenso ein Problem wie viele kleine Zugriffe.

Da bleibt nur zu hoffen, dass die Hersteller bei der nächsten Generation das Konzept nachbessern. Bei der Playstation 4 kann man zumindest das Laufwerk tauschen, bei der Xbox One lässt sich Zusatzspeicher anschließen. Am schicksten wäre wohl ein fixer interner Speicher für das Betriebssystem und ein bisschen Nutzerdaten sowie ein individuell bereitstellbares Datengrab für Spieldaten."



Sehr schöner Artikel, top geschrieben. Das sind übrigens auch meine Wünsche für die neuen Konsolen, Andreas Link.
 
Ja theoretische Daten kann man leicht runterrattern, haben aber mit der Praxis nichts zu tun.
Die One X performt nun mal in manchen Spielen selbst besser als eine GTX 1060 - Burnout Paradise Remake in 4K ist ein Beispiel davon.
Zitat digital foundry: "Surprisingly the Xbox One X performs more stable and better overall than the GTX 1060"
Während die 1060 öfter unter 60fps einbricht @ max. bleibt die One X stabiler und performt besser. So viel zum Thema teraflops auf dem Papier.
 
Ja theoretische Daten kann man leicht runterrattern, haben aber mit der Praxis nichts zu tun.
Die One X performt nun mal in manchen Spielen selbst besser als eine GTX 1060 - Burnout Paradise Remake in 4K ist ein Beispiel davon.
Zitat digital foundry: "Surprisingly the Xbox One X performs more stable and better overall than the GTX 1060"
Während die 1060 öfter unter 60fps einbricht @ max. bleibt die One X stabiler und performt besser. So viel zum Thema teraflops auf dem Papier.

Der Punkt ist, dass Konsolenspiele von Hand angepasst werden, sprich der Vergleich hinkt eigentlich immer, da es bei den Konsolen keine Detailregler gibt, an denen man drehen könnte. Die Entwickler haben ein Ziel, z.B. 30 FPS@4K, wenn es langsamer läuft, dann dreht man die Details solange runter, bis es passt, das kann man auf dem PC übrigens auch machen.
 
Man hat aber die PC-Version als perfekten Vergleichspunkt. Wenn die Schatten, die Weitsicht, die Texturen, die Effekte genauso aussehen wie die PC-Version @ High dann kann man die Performance sehr gut vergleichen. Wenn man mit einer 800€ teuren RTX 2080 auf Ultra keine konstanten 60fps halten kann (selbst in 1440p) dann steht der Performance-Verlust nunmal in keinem Verhältnis zum relativ kleinen optischen Gewinn. Zwischen Ultra und High gibt es meist nur wenige Unterschiede, das weiß ich weil ich selbst einen PC habe mit i7-8700K und GTX 1070. Ultra liest sich halt immer schön und die meisten wollen alle Regler nach rechts, aber in der Praxis ist es fast schon egal.
 
Man hat aber die PC-Version als perfekten Vergleichspunkt. Wenn die Schatten, die Weitsicht, die Texturen, die Effekte genauso aussehen wie die PC-Version @ High dann kann man die Performance sehr gut vergleichen. Wenn man mit einer 800€ teuren RTX 2080 auf Ultra keine konstanten 60fps halten kann (selbst in 1440p) dann steht der Performance-Verlust nunmal in keinem Verhältnis zum relativ kleinen optischen Gewinn. Zwischen Ultra und High gibt es meist nur wenige Unterschiede, das weiß ich weil ich selbst einen PC habe mit i7-8700K und GTX 1070. Ultra liest sich halt immer schön und die meisten wollen alle Regler nach rechts, aber in der Praxis ist es fast schon egal.

Man kann es eben nicht vergleichen, weil man die Einstellungen nicht kennt. Auf dem PC gibt es ein paar grobe Stufen, auf den Konsolen kann alles in winzigen Schritten eingestellt werden. Wenn man z.B. die Distanz, in der einfachere Schatten oder Texturen benutzt werden, von 100% auf 92% runterdreht, dann wird das so nicht sehen, es sei denn man weiß exakt, worauf man zu achten hat und provoziert solche Situationen, das ganze reduziert die benötigte Leistung aber um über 15% . Genau das sind dann die Dinge, an denen bei den Konsolen sehr gerne dreht. Im übrigen ist es schön, dass du meine These, bezüglich der Ultra Details bestätigst. Sie kosten viel und bringen wenig, also läßt man sie auf den Konsolen (sofern es keinen gigantischen Leistungsüberschuss gibt) so gut wie immer weg, auf dem PC bietet man die Option hingegen an und dann wundern sich Leute, warum ihre Karten mit 4K Probleme haben.
 
Zurück