Playstation 4 und Xbox One: Video vergleicht Next-Gen-Grafik der beiden Konsolen

PS: Wo ist denn die Cloudleistung der Xbox One!?:D

Wäre doch mal ein interessanter Versuch.
Wenn Eurogamer schon gewisse Situationen nachstellen will, würde mich mal interessieren was man aus Cloudunterstützung rausholen kann.
Problematisch an diesem Test, man bräuchte Entwickler die da was auf die Beine stellen.
 
Offensichtlich ist da gar nix. Du rätst genauso ins Blaue wie ich auch. Oder hast du so ne Kiste bei dir zuhause rumstehen? Das Blöde ist ja leider, dass man es als Aussenstehender niemals an einer Sache (Bandbreite, Shader-, Pixel-, Texturleistung) festmachen kann, da die PS4 ja wirklich durch die Bank überlegen ist. Du stellst gerade eine Behauptung auf, die so schnell nicht widerlegt werden kann.

Und da sind sicher nicht nur zum Spaß 32 ROPs in der Kiste. AMD wird mit Sicherheit dazu geraten haben, dass das System mit nur 16 ROPs nicht optimal ausbalanciert wäre. Es geht hier ja auch darum, potenzielle Flaschenhälse zu beseitigen und bei einer Spielkonsole hast du im Idealfall nur einen Flaschenhals und das ist Rechenleistung.
Nun, jedenfalls sehe ich bei PC-Benchmarks das die Auswirkungen sich mehr als in Grenzen halten.
Da muss die Third-Party schon etwas Besonderes machen, um die Xbox One GPU speziell durch die geringere Pixelfüllrate in die Knie zu zwingen ;)
Ich sehe aber ganz klar deutlich mehr Rechenleistung die sich so auch mehr oder weniger ganz durchsetzt und wenn die Xbox One irgendwo einstecken muss, dann ist das primär der niedrigeren Rechenleistung zu verdanken.
 
Kommen ja auch schon zum Release Games raus, die diese Auflösung auf beide Konsolen haben.

Der Unterschied:

Sonys 1st Parties legen direkt mit next gen Techniken wie Physically Based Rendering los, Microsofts "1080p/60FPS" Titel wie zB Forza verlassen sich dagegen vollständig auf pre-baked Lighting. Vermutlich hat sogar The Last of Us eine komplexere Beleuchtung als Microsofts next gen Spiele.

Ich sehe aber ganz klar deutlich mehr Rechenleistung die sich so auch mehr oder weniger ganz durchsetzt und wenn die Xbox One irgendwo einstecken muss, dann ist das primär der niedrigeren Rechenleistung zu verdanken.

Komisch, ich sehe ganz deutlich das alles besser ist: Shaderleistung, Texturleistung, Pixelleistung und Bandbreite. Sony hätte auch einfach 14 CUs und 16 ROPs mit 1000MHz nehmen können. Dann hätten sie zwar auch mehr Rechenleistung gehabt, aber die Textur- und Pixelleistung wäre deutlich geringer ausgefallen. Das Design für das sich Mark Cerny entschieden hat, macht auf mich dagegen einen deutlich besser ausbalancierten Eindruck. Die PS4 hat für die vorhandene Rechenleistung von allem genug. Die Xbox vermutlich auch, aber die PS4 hat eben mehr.
 
Wäre doch mal ein interessanter Versuch.
Wenn Eurogamer schon gewisse Situationen nachstellen will, würde mich mal interessieren was man aus Cloudunterstützung rausholen kann.
Problematisch an diesem Test, man bräuchte Entwickler die da was auf die Beine stellen.

Genau daran würde es scheitern, der Software^^
Das einzig vernünftige was man heranziehen könnte wären Onlinespiele, aber hier fehlt dann halt der Vergleich zu einer reinen Offlineversion.

Aber egal wie man das sieht, in Sachen Grafik (um was es ja letzlich im Artikel geht) kann man da nicht wirklich zulegen. Vielleicht in Punkten wie der KI, aber der heilige Gral wird das sicher nicht.
 
@locuza

Ganz genau so interpretiere ich das auch. Theoretische Mehrleistung lässt sich halt oft in der Praxis nicht eins zu eins in Performancezugewinn umrechnen und das zeigt der Test ansatzweise und relativiert die Mehrleistung so um 50%.

MfG
 
Ganz genau so interpretiere ich das auch. Theoretische Mehrleistung lässt sich halt oft in der Praxis nicht eins zu eins in Performancezugewinn umrechnen und das zeigt der Test ansatzweise und relativiert die Mehrleistung so um 50%.

Du hast genau gar nix verstanden. :wall:

Die PS4 hat durch die Bank von allem mehr und das kann durch die in diesen Benchmarks verwendeten GPUs nicht abgebildet werden. Egal was, die echte PS4 macht alles besser und zwar um 40 bis 50 Prozent. Die von Eurogamer verwendete virtuelle PS4 nicht.
 
Du hast genau gar nix verstanden. :wall:
Die PS4 hat durch die Bank von allem mehr und das kann durch die in diesen Benchmarks verwendeten GPUs nicht abgebildet werden. Egal was, die echte PS4 macht alles besser und zwar um 40 bis 50 Prozent. Die von Eurogamer verwendete virtuelle PS4 nicht.

Ich glaube, du hast ihn nicht verstanden :wall:
Denn mit der Aussage, dass sich theoretische Mehrleistungen oftmals nicht 1:1 in der Praxis umsetzen lassen, hat er vollkommen recht.
Übrigens finde ich deine Art zu diskutieren etwas daneben. Es ist nicht nötig, dass du andere Leute ständig so angehst, nur weil du meinst es besser zu wissen.:daumen2:
 
Komisch, ich sehe ganz deutlich das alles besser ist: Shaderleistung, Texturleistung, Pixelleistung und Bandbreite. Sony hätte auch einfach 12 CUs und 16 ROPs mit 1000MHz nehmen können. Dann hätten sie zwar auch mehr Rechenleistung gehabt, aber die Textur- und Pixelleistung wäre deutlich geringer ausgefallen. Das Design für das sich Mark Cerny entschieden hat, macht auf mich dagegen einen deutlich besser ausbalancierten Eindruck. Die PS4 hat für die vorhandene Rechenleistung von allem genug. Die Xbox vermutlich auch, aber die PS4 hat eben mehr.
Es wäre in diesem Beispiel nur die Pixelleistung deutlich geringer gewesen. ;)
Bei 1 Ghz wäre die ganze GPU schwächer ausgefallen, ALU und Texelleistung skalieren eben 1 zu 1.
Bei 1.2 Ghz wäre die Lösung von der ALU und Texelleistung genauso ausgefallen, wie jetzt die PS4 GPU.
Würde bloß natürlich mehr Abwärme produzieren und Strom süffeln, von schlechten yields gar nicht zu sprechen.

Ich möchte den 32 ROPs auch gar nicht die Daseinsberechtigung abreden, aber es ist nachvollziehbar wieso ich da kaum einen Flaschenhals sehe.
Ich stimme voll zu, dass die PS4 von allem etwas mehr ist und damit halt auch natürlich ein gutes Stück besser.
Mich würden die Auswirkungen von 176 GDDR5 vs. DDR3 + eSRAM deutlich mehr interessieren, als die von 32 ROPs, wo ich erst einmal keinen besonderen Pluspunkt sehe. (Das man damit durchaus etwas anfangen kann, kann ich mir vorstellen, aber für MP-Titel und ohne witzige Filteralgos sehe ich da wenig Potential)
 
Zuletzt bearbeitet:
Der Ton macht die Musik, Jungs, an beiden Standpunkten ist was dran, trotzdem ruhig bleiben (ist ein emotionales Thema, ich weiß ;)). Man kann die theoretisch vorhandene Mehrleistung nicht 1:1 umrechnen, weil es je ne nach Software eben Verluste geben und Potential brachliegen wird. Trotzdem ist die PS4 derart viel leistungsfähiger, dass davon etwa in der Praxis ankommen muss und auch wird (was uns dieser Schwachsinnstest hier ja auch suggerieren möchte, wenn auch die Methode fachlich idiotisch ist).
Immerhin hat PCGH die Verlinkung dieser Nullnummer eines gebracht: Aufeinander rumhackende User und viele, viele Klicks.:D
 
Trotzdem ist die PS4 derart viel leistungsfähiger, dass davon etwa in der Praxis ankommen muss und auch wird

Im Falle der Multi-Plattform Games hoffe ich das zwar, bin da aber etwas skeptisch.:(
Ob EA, Ubi, Activision und wie sie alle heißen, sich wirklich die Mühe machen, die Mehrleistung der PS4 auszunutzen, ist für mich recht fraglich.
 
Bei Exklusivtiteln besteht daran keine Frage, bei Multiplattformtiteln kann man befürchten, dass für die XBOne programmiert und für PS4 und PC portiert wird. Idealerweise sollten die Spiele wohl auf die PS4 ausgerichtet und für die XBone angepasst werden (so wie aktuell i.d.R. umgekehrt der Fall); eine Ausrichtung auf PC und dann Portierung für die Konsolen ist dank der Kapitalisierung des Spielemarktes in fast allen Fällen wohl nicht mehr zu erwarten.
 
@locuza

Ganz genau so interpretiere ich das auch. Theoretische Mehrleistung lässt sich halt oft in der Praxis nicht eins zu eins in Performancezugewinn umrechnen und das zeigt der Test ansatzweise und relativiert die Mehrleistung so um 50%.

MfG
Wobei das Beispiel 7770 vs. 7870 zeigt, dass es bis zu 90% skalieren kann, wenn der Rest der GPU in einer Balance steht.
Die Xbox One hat eben ein frickeliges Memory-System, um vollen Durchsatz zu erreichen muss der Programmierer eben geschickt seine Daten und Berechnungsroutinen aufsplitten.
Ist es klar das die meisten Sachen auch gar keine Wahl haben, über die 68 GB/s DDR3 zu gehen, bei der PS4 flutscht munter alles durch die 176 GB/s.
Das ist 160% mehr Bandbreite.

Ich erlaube mir einfach mal extrem grob zu sein und sage einfach mal das am Ende ein Großteil der zusätzlichen Rechenleistung der PS4 auch ankommt.
Deswegen erwarte ich einige % mehr Skalierung, als beim Eurogamer Beispiel, wo nur die Rechenleistung sich unterscheidet, was auf die PS4 und Xbox One so aber nicht zutrifft.
 
Denn mit der Aussage, dass sich theoretische Mehrleistungen oftmals nicht 1:1 in der Praxis umsetzen lassen, hat er vollkommen recht.

Eben weil irgendetwas limitiert. Die HD7790, die Locuza ins Spiel gebracht hat, hat zum Beispiel mehr Textur- und Shaderleistung als eine HD7850, aber dafür weniger Bandbreite und Pixelleistung. Kein Wunder das sowas nicht optimal skaliert! Die PS4 hat aber wirklich alles durch die Bank besser, ganz gleich ob Bandbreite, Shaderleistung, Pixelleistung oder Texturleistung. Überall ist sie deutlich überlegen. Aufgrund der Tatsache das Konsolenspiele ordentlich optimiert werden, darf man also fest davon ausgehen, dass die PS4 ihren Vorteil von 40 bis 50 Prozent Mehrleistung auch in der Praxis ausspielen wird.

Es wäre in diesem Beispiel nur die Pixelleistung deutlich geringer gewesen. ;)
Bei 1 Ghz wäre die ganze GPU schwächer ausgefallen, ALU und Texelleistung skalieren eben 1 zu 1.
Bei 1.2 Ghz wäre die Lösung von der ALU und Texelleistung genauso ausgefallen, wie jetzt die PS4 GPU.
Würde bloß natürlich mehr Abwärme produzieren und Strom süffeln, von schlechten yields gar nicht zu sprechen.

Ich habs kurz nach dem Schreiben auf 14 CUs editiert. Guckst du oben. Wurde aber nicht mehr vom Forum als Edit erfasst.

Du sagst es liegt eh alles nur an der Rechenleistung. Eine ähnliche Rechenleistung hätte Sony eben auch mit weniger CUs/ROPs und mehr Takt erreichen können. Sony hat sich aber für weniger Takt und mehr CUs/ROPs entschieden mit dem Ergebnis, dass die PS4 nicht nur mehr Rechenleistung, sondern darüberhinaus auch mehr Pixel- und Texturleistung hat. Es ist einfach ein viel runderes und ausbalancierteres System. Die Gefahr, dass etwas anderes als die Rechenleistung limitiert, ist beim Design der PS4 sehr gering.
 
Im Falle der Multi-Plattform Games hoffe ich das zwar, bin da aber etwas skeptisch.:(
Ob EA, Ubi, Activision und wie sie alle heißen, sich wirklich die Mühe machen, die Mehrleistung der PS4 auszunutzen, ist für mich recht fraglich.

Vorallem EA, die sogar einen Exklusivvertrag mit Microsoft abgeschlossen haben, werden dies zu verhindern wissen.
 
Das ist alles andere als ein guter Vergleich, da diese beiden GPUs ganz unterschiedliche Taktraten haben: Die 7870 taktet mit 1000MHz, die 7950 mit 800MHz. Kein Wunder das die 7950 nicht 1:1 mit steigender Shader-Zahl skaliert. Taktbereinigt wird es aber wieder ganz anders aussehen.
Beide GPUs wurden im Test auf 600Mhz Core Clock und 1375Mhz GDDR5 RAM getaktet.

PS: Wo ist denn die Cloudleistung der Xbox One!?:D
Die wird sich wohl in etwas zwischen der Cloudleistung einer Kartoffel und der Cloudleistung von Sim City bewegen.:)


:lol:, HSA mit komplett unterschiedlichem Speicher (GDDR5 vs. DDR3) können sie eh nicht vergleichen, aber hey, man nehme einfach eine 7850 und eine 7870 XT, perfekt.:haha: Der "Test" ist absolut belanglos (was auch sonst), einen PC kann man nicht mit einer Konsole mit komplett anderer Architektur vergleichen. Oder laufen auf Geforce 7900 und Ati X1800 etwa noch aktuelle Spiele - nö, sie starten i.d.R. erst gar nicht.:ugly: Meine Güte, dieses inhaltsleere Leistungsvergleichen bei den neuen Konsolen nimmt groteske Züge an...:schief:
CPU technisch ist es die gleiche Grundarchitektur und bei AMD erwarte ich nach den Leistungen der letzten Jahre im CPU Bereich keinen Quantensprung. Zumal hier ein i7 benutzt wurde um den CPU als Flaschenhals auszuschließen.
Im GPU Bereich ist der Vergleich auch teilweise möglich und kann zumindest zeigen, was schon vorher jeder geahnt hat. Die PS4 wird allein durch die ROhleistung besser sein als die Xbox One, aber sicherlich nicht 1:1 Rohleistung in reelle Leistung.

Dies ist doch nur ein abstrakter Test und jemand, der jetzt glaubt die Konsolen werden selbst aktuelle Spiele nicht in 1080p auf 60 FPS schaffen hat wohl ganz vergessen, dass beim PC ein ziemlicher Overhead durch DirectX und die stark generalisierten Treiber existiert.
 
nur mal grunsätzlich, die perfomance skaliert sehr viel besser mit takt als mit mehr recheneinheiten. ist auch logisch denn zum einen steigt der verwaltungsaufwand zum anderen steigt die latenz, selbst wenn man bus und caches stark vergrößert (was in der realität seltener der fall innerhalb einer architektur ist, da schweineteuer, die logik explodiert genauso wie der benötigte space), was zusätzlich probleme bei der auslastung verursacht. daher kann die ps4 vermutlich nicht ihre ganze power auf den tv zaubern. aber man hat die vorteile immer genug einheiten vorrätig zuhaben sodass komplexe szenarien/grafik nicht von vorneherein abgelehnt werden müssen, man muss z.b. nur den detailgrad, die menge an objekten, usw usf reduzieren. der andere vorteil ist blöd geschätzt 10% - max 20% mehr perfomance/höherer detailgrad/ mehr fps.

das bringt mich zum nächsten punkt. wieviele von euch wissen können mittlerweile bei einem gängigen x86 chip gar nicht mehr alle transistoren schalten weil dafür die wärmeabfuhr zu gering wäre, und konsolen haben erfahrungsgemäß eine enge tpd. das heißt die frage ist nicht wer die meisten einheiten hat, ok darum geht es auch, von nix kommt nix, sondern wer die tpd am besten auslastet, wer die klügsten abläufe hat. sony steht da mit dem holzhammer, denn solange die tpd noch nicht erreicht ist, hat man mehr einheiten zur freien verfügung. ms hat aber schon mit der letzten xbox gezeigt das sie das know how besser an die entwickler gebracht haben.

zur speicheranbindung ist sony vermutlich klar im vorteil, obwohl wir erst mal sehen müssen wie gut die entwickler den ram strukturieren, oder ob es nicht doch zu prioritätsinkompatiblitäten kommt. ms hat hier mmn am anfang die nase vorn, da das esram prinzip aus der 360 übernommen wurde und jeder entwickler weiß wie es am besten funktioniert, third party studios dürften sich da bei der ps4 erst mal mehr arbeit machen müssen.
 
Jop, selbst mit einem HSA-System mit Windows drauf wäre ein Test belanglos, da für die Konsolen die Architektur ganz anders ausgenutzt werden wird. Die aktuellen Spiele sind auf die veralteten Konsolen XB360 und PS3 ausgelegt, d. h. man hat nicht mal Material, um einigermaßen zielführend zu testen. Denn bloß weil es x86 basierte CPUs und GCN-Karten sind, heißt es nicht, dass man einfach einen PC zusammenstellen und dann Werte vergleichen kann, was an sich grundsätzlich zum Scheitern verdammt ist. Allein GDDR5 und DDR3 + eSRAM zu vergleichen (wie hier geschehen, mit bestehender PC-Hardware) ist mangels Vorhandensein derartiger Technik mMn absolut nicht möglich.;)
 
Zuletzt bearbeitet:
nur mal grunsätzlich, die perfomance skaliert sehr viel besser mit takt als mit mehr recheneinheiten. ist auch logisch denn zum einen steigt der verwaltungsaufwand zum anderen steigt die latenz, selbst wenn man bus und caches stark vergrößert (was in der realität seltener der fall innerhalb einer architektur ist, da schweineteuer, die logik explodiert genauso wie der benötigte space), was zusätzlich probleme bei der auslastung verursacht. daher kann die ps4 vermutlich nicht ihre ganze power auf den tv zaubern. aber man hat die vorteile immer genug einheiten vorrätig zuhaben sodass komplexe szenarien/grafik nicht von vorneherein abgelehnt werden müssen, man muss z.b. nur den detailgrad, die menge an objekten, usw usf reduzieren. der andere vorteil ist blöd geschätzt 10% - max 20% mehr perfomance/höherer detailgrad/ mehr fps.

das bringt mich zum nächsten punkt. wieviele von euch wissen können mittlerweile bei einem gängigen x86 chip gar nicht mehr alle transistoren schalten weil dafür die wärmeabfuhr zu gering wäre, und konsolen haben erfahrungsgemäß eine enge tpd. das heißt die frage ist nicht wer die meisten einheiten hat, ok darum geht es auch, von nix kommt nix, sondern wer die tpd am besten auslastet, wer die klügsten abläufe hat. sony steht da mit dem holzhammer, denn solange die tpd noch nicht erreicht ist, hat man mehr einheiten zur freien verfügung. ms hat aber schon mit der letzten xbox gezeigt das sie das know how besser an die entwickler gebracht haben.

zur speicheranbindung ist sony vermutlich klar im vorteil, obwohl wir erst mal sehen müssen wie gut die entwickler den ram strukturieren, oder ob es nicht doch zu prioritätsinkompatiblitäten kommt. ms hat hier mmn am anfang die nase vorn, da das esram prinzip aus der 360 übernommen wurde und jeder entwickler weiß wie es am besten funktioniert, third party studios dürften sich da bei der ps4 erst mal mehr arbeit machen müssen.

Der eSRAM hat nix mit der Xbox360 zu tun. Bei der alten Konsole wurden die auf einem Daughter Die befindlichen ROPs mit 256GB/s an den eDRAM angebunden. Bei der Xbox One wird die gesamte GPU mit 109GB/s an den eSRAM angebunden. Während der eDRAM der 360 nur als Framebuffer verwendet wurde, sind für den eSRAM auch ganz andere Einsatzmöglichkeiten denkbar. In erster Linie gilt es für die Studios aber die mieserable DDR3 Bandbreite von 68GB/s zu kompensieren.

Ich denke man sollte sich bei beiden Konsolen generell keine Gedanken um die Wärmeabfuhr machen. Vor acht Jahren haben die das mehr oder weniger auch hinbekommen, okay Microsoft vielleicht nicht mit dem RROD Desaster, aber dennoch werden beide Konsolen mit deutlich geringerer TDP ausgeliefert. 100W sind für die Xbox im Gespräch und ich denke bei der PS4 werden es auch maximal um die 130W sein.

Mit dem Holzhammer geht Sony übrigens auch nicht vor: PS4 Systemarchitekt Mark Cerny hat erklärt, dass die PS4 so konzipiert ist, dass sie GPU Compute ohne Leistungseinbußen für die Render Performance ermöglichen soll. Dazu verfügt die GPU über 8 asynchrone Compute Engines und 64 parallele Compute Queues. Sobald Teile der GPU innerhalb eines Frames bei bestimmten Aufgaben nicht optimal ausgelastet werden (was bei modernen GPUs angeblich ständig vorkommt, zum Beispiel beim rendern der Shadow Maps), stopfen die 8 ACEs diese Löcher mit Compute Kerneln. Dadurch soll eine optimale Auslastung des Systems mit einem ordentlichen Boost für die Compute Leistung erreicht werden, ohne das die Entwickler Abstriche bei der Grafik machen müssen. Richtig interessant wird das aber erst, da die 8 Jaguars mit der GPU aufgrund der koheränten Caches und des unified RAMs Hand in Hand arbeiten können.
 
Eben weil irgendetwas limitiert. Die HD7790, die Locuza ins Spiel gebracht hat, hat zum Beispiel mehr Textur- und Shaderleistung als eine HD7850, aber dafür weniger Bandbreite und Pixelleistung. Kein Wunder das sowas nicht optimal skaliert! Die PS4 hat aber wirklich alles durch die Bank besser, ganz gleich ob Bandbreite, Shaderleistung, Pixelleistung oder Texturleistung. Überall ist sie deutlich überlegen. Aufgrund der Tatsache das Konsolenspiele ordentlich optimiert werden, darf man also fest davon ausgehen, dass die PS4 ihren Vorteil von 40 bis 50 Prozent Mehrleistung auch in der Praxis ausspielen wird.



Ich habs kurz nach dem Schreiben auf 14 CUs editiert. Guckst du oben. Wurde aber nicht mehr vom Forum als Edit erfasst.

Du sagst es liegt eh alles nur an der Rechenleistung. Eine ähnliche Rechenleistung hätte Sony eben auch mit weniger CUs/ROPs und mehr Takt erreichen können. Sony hat sich aber für weniger Takt und mehr CUs/ROPs entschieden mit dem Ergebnis, dass die PS4 nicht nur mehr Rechenleistung, sondern darüberhinaus auch mehr Pixel- und Texturleistung hat. Es ist einfach ein viel runderes und ausbalancierteres System. Die Gefahr, dass etwas anderes als die Rechenleistung limitiert, ist beim Design der PS4 sehr gering.
Die 7790 war aber nur ein pures Beispiel für 16 vs. 32 ROPs, man kann sich ebenso die 7770 anschauen.
Bei 1080p, no AF no AA = +57% für die 7850, bei 1080p 4xAA und 16x AF = 55% Vorteil.

Und was genau ändern 14 CUs? Bei 1 GHz wären das dennoch fast genau soviel Rechen- und Texturleistung.
Ich weiß nicht worauf du hinweisen möchtest?
Nur die Pixelleistung wäre anders gewesen.
Die Lösung wäre aber in den meisten Fällen genauso schnell.
Sie hätte sogar ein gutes Stück weniger die-size verbraucht.
Wenn ich mir gerade die Verbrauchswerte einer 7870 vs. 7950 anschaue und ebenso einer 7790 vs. 7850 sehe ich auch nur paar % weniger Effizienz.
Aber da kommen schon so Sachen wie Temperatur, yield, Spannung, shrinking usw. mit hinein, weswegen man mehr Breite und weniger Mhz auch attraktiver eingeschätzt haben kann.
Ein weiterer Nachteil der Lösung hätte auch sein können, dass die Arbeitsverteilung mit den 8 ACEs nicht mehr so fein wäre, aber der Raster- und Dreiecksdurchsatz wäre dafür 20% höher gewesen.
Auch nicht schlecht.

Die 32 ROPs sehe ich als nett für neue AA-Methoden und als möglichen Puffer, wenn man nicht direkt darauf abzielt, dann sind 32 ROPs kein gamechanger.
 
Zurück