Playstation 4 und Xbox One: Video vergleicht Next-Gen-Grafik der beiden Konsolen

@arino

Da hast du Recht, allerdings sind ja beide gpus von den jeweiligen Nachteilen betroffen, was somit nichts an der Kernaussage, dem Leistungsunterschied, ändert. :-)

MfG
 
Nur weil der Chip der selbe ist, heisst es ned dass es die Leistung wiederspiegelt.

Nicht einmal das ist hier der Fall. Für diese Benchmarks wurden Chips gewählt, die mit den Prozessoren in den Konsolen überhaupt nichts zu tun haben.

Da hast du Recht, allerdings sind ja beide gpus von den jeweiligen Nachteilen betroffen, was somit nichts an der Kernaussage, dem Leistungsunterschied, ändert. :-)

Sind sie nicht. Die PS4 hat im rechten Leben 100% mehr ROPs als die Xbone. In diesem Test haben beide gleichviele ROPs. Gerade für Kantenglättung und Auflösung spielen die ROPs eine entscheidende Rolle.
 
Das Ergebnis war abzusehen, da in der PC Welt (bei den Konsolen kann das wieder ganz anders aussehen) die GCN Architektur bisher grottig über die Shader skaliert. Sehr schön sieht man das am Vergleich HD7870 (1280 Shader) vs. HD7950 (1792 Shader). Der Leistungsunterschied zwischen beiden ist in der Realität weitaus geringer als es die technischen Daten erwarten lassen würden.
 
Das Ergebnis war abzusehen, da in der PC Welt (bei den Konsolen kann das wieder ganz anders aussehen) die GCN Architektur bisher grottig über die Shader skaliert. Sehr schön sieht man das am Vergleich HD7870 (1280 Shader) vs. HD7950 (1792 Shader). Der Leistungsunterschied zwischen beiden ist in der Realität weitaus geringer als es die technischen Daten erwarten lassen würden.

Das ist alles andere als ein guter Vergleich, da diese beiden GPUs ganz unterschiedliche Taktraten haben: Die 7870 taktet mit 1000MHz, die 7950 mit 800MHz. Kein Wunder das die 7950 nicht 1:1 mit steigender Shader-Zahl skaliert. Taktbereinigt wird es aber wieder ganz anders aussehen.
 
Das ist alles andere als ein guter Vergleich, da diese beiden GPUs ganz unterschiedliche Taktraten haben: Die 7870 taktet mit 1000MHz, die 7950 mit 800MHz. Kein Wunder das die 7950 nicht 1:1 mit steigender Shader-Zahl skaliert. Taktbereinigt wird es aber wieder ganz anders aussehen.
Danke Captain Obvious. :schief:

Ich bin durchaus in der Lage den Leistungsunterschied taktbereinigt zu vergleichen (du auch?). Bei gleichem Takt müsste die 7950 ca. 30% schneller sein. Das ist sie oftmals (die Spiele skalieren hier sehr unterschiedlich) aber nicht.

Sieht man ja auch im Video. Tomb Raider profitiert viel mehr als Metro.
 
Ich bin durchaus in der Lage den Leistungsunterschied taktbereinigt zu vergleichen.

Offensichtlich nicht.

Sowohl 7870 als auch 7950 verfügen beide über 32 ROPs. Letztere sind entkoppelt von den GCN CUs und skalieren dementsprechend nicht mit der Anzahl der Shader-Einheiten. Bei gleichem Takt verfügen beide GPUs über die gleiche Pixelfüllrate. Limitiert diese, kann die 7950 ihren Vorteil der höheren Shader- und Texturleistung nicht mehr ausspielen. Ab Werk besitzt die 7870 und sogar die 7850 deswegen auch eine höhere Pixelfüllrate als die 7950.

Genau aus diesem Grund ist dieser Test ja auch so dämlich: Die PS4 verfügt über 32 ROPs, die Xbone aber nur über 16 mickrige ROPs. Richard Leadbetter bencht für beide Systeme aber mit GPUs die je über 32 ROPs verfügen.
 
Wie, hä?Selbst meine 6870 hat mit 1120 Shadern vs. 768 ja schon theoretisch mehr Power als die Xbox.:what:
Also sowohl theoretisch, als auch praktisch ist eine 6870 ein gutes Stücks stärker, als eine vergleichbare GCN-GPU wie in der Xbox One.
Die Xbox One hat allerdings dann auf ihrer Seite eSRAM, welches bei der Bandbreite hilft, eine low-level-api usw.
Also praktisch PC 6870 vs. Xbox One ist dann schon ganz anders zu bewerten.

Bullshit! Seit wann hat die Xbone genauso viele ROPs wie die PS4? :wall:
Ein Nachteil, welcher potentiell nicht so stark ins Gewicht fallen muss.
Für den vollen Durchsatz der 16 ROPs kann man den eSRAM missbrauchen, die PS4 hat laut Gipsel vermutlich eh nicht genug Bandbreite, um ganze 32 ROPs auszulasten.
Wenn man sich Vergleiche anschaut zwischen einer 7790 und einer 7850, dann merkt man auch das 4xMSAA und 1080P keinen ROP Vorteil zu triggern scheinen.
Der Prozentuale Abstand ist praktisch der gleiche.
Nun das gilt für das PC Szenario, aber immerhin sieht man das der Durchsatz durchaus in Ordnung ist mit 16 ROPs.

AMD Radeon HD 7790 im Test (Seite 2) - ComputerBase

Das Ergebnis war abzusehen, da in der PC Welt (bei den Konsolen kann das wieder ganz anders aussehen) die GCN Architektur bisher grottig über die Shader skaliert. Sehr schön sieht man das am Vergleich HD7870 (1280 Shader) vs. HD7950 (1792 Shader). Der Leistungsunterschied zwischen beiden ist in der Realität weitaus geringer als es die technischen Daten erwarten lassen würden.
Nein, pauschal ist das so falsch.
GCN skaliert ab der 7950/70 so schlecht, weil das Front-End im Gegensatz zu Pitcairn das gleiche ist (Zwei Rasterizer/Geometry-Engines), allerdings der Shader-Body extrem zulegt.
Die Arbeitsverteilung funktioniert prinzipiell mit steigender ALU-Anzahl nicht so gut, wenn dann pro Rasterizer und Geometry-Engine noch deutlich mehr ALUs dran hängen, dann erst Recht nicht.

Guck dir mal Cape Verde vs. Pitcairn an:
Test: AMD Radeon HD 7870 und HD 7850 (Seite 5) - ComputerBase

Eine 7870 ist exakt eine 7770 mal zwei.
Die Skalierung beträgt ~90%
 
Ein vielleicht gut gemeinter Test, denn man mit PC Komponenten vielleicht sogar durchführen könnte. Allerdings streuen die HW Daten zwischen den Desktop- und eigentlichen Konsolen GPUs hier viel zu stark. Mit anderen Worten ist der Vergleich unsinnig. Das die PS4 ihre Mehrleistung nicht nur auf dem Papier ausspielen kann, sollte aber ohnehin jedem halbwegs informierten klar sein. Dazu muss man eigentlich keine solche Tests fahren.

PS: Wo ist denn die Cloudleistung der Xbox One!?:D
 
Ein Nachteil, welcher potentiell nicht so stark ins Gewicht fallen muss.
Für den vollen Durchsatz der 16 ROPs kann man den eSRAM missbrauchen, die PS4 hat laut Gipsel vermutlich eh nicht genug Bandbreite, um ganze 32 ROPs auszulasten.
Wenn man sich Vergleiche anschaut zwischen einer 7790 und einer 7850, dann merkt man auch das 4xMSAA und 1080P keinen ROP Vorteil zu triggern scheinen.
Der Prozentuale Abstand ist praktisch der gleiche.
Nun das gilt für das PC Szenario, aber immerhin sieht man das der Durchsatz durchaus in Ordnung ist mit 16 ROPs.

AMD Radeon HD 7790 im Test (Seite 2) - ComputerBase

Du vergisst bei diesen Benchmarks, dass die 7790 mit 1000MHz erheblich schneller taktet als die HD7850 mit 860MHz. Deswegen ist die Pixelfüllrate der HD7850 auch nur 70% höher als die der 7790 obwohl sie 100% mehr ROPs hat. Darüberhinaus zeigen die von dir verlinkten Benchmarks sehr deutlich, dass sich die HD7850 mit steigendem AA deutlich absetzen kann: Bei 4xMSAA sind es gerade mal 20%, bei 8xMSAA sind es aber bereits 35%. Bei steigender AA Last und Auflösung würde es sicher noch drastischer werden. Der Benchmark kann die Auswirkungen der ROPs ohnehin nicht fair wiedergeben, da die 7790 aufgrund des höheren Taktes auch eine höhere Texturleistung hat als die 7850. Das spielt hier ebenfalls mit rein.

Selbst wenn die ROPs der PS4 nicht die ganze Zeit 100%ig ausgelastet werden können, die der Xbox aber schon, so hat die PS4 in diesem Bereich einen erheblichen Vorteil. Auf NeoGAF behaupten einige User mit sehr guten Kontakten das Sony 1920x1080 als dauerhaftes Ziel für die ganze Gen ausgerufen hat, Microsoft langfristig aber nur 1440x810 anpeilt. Generell machst du hier den gleichen Fehler wie Leadbetter indem du hier mit PC Benchmarks argumentierst. Wenn die PS4 eine hohe Pixelfüllrate besitzt, dann werden die Entwickler diese auch konsequenz ausnutzen und sei es nur um vernünftiges Multisampling drüberzubügeln.

Die PS4 deklassiert die Xbox One durchgängig bei Bandbreite, sowie Shader-, Textur- und Pixelleistung und das wird man am Ende auch auf dem Bildschirm sehen.
 
Zuletzt bearbeitet:
Der Test bringt nichts, weil hier die spezifischen Konsolenmerkmale (bei PS4 GDDR5, bei XBOX eSRAM) ebenso fehlen, wie Optimierung der Games, die speziellen Treiber und Schnittstellen.

Den ersten seriösen Test gibt es erst, wenn beide Konsolen nebeneinander stehen und das selbe Spiel zeigen.
 
Du vergisst bei diesen Benchmarks, dass die 7790 mit 1000MHz erheblich schneller taktet als die HD7850 mit 860MHz. Deswegen ist die Pixelfüllrate der HD7850 auch nur 70% höher als die der 7790 obwohl sie 100% mehr ROPs hat. Darüberhinaus zeigen die von dir verlinkten Benchmarks sehr deutlich, dass sich die HD7850 mit steigendem AA deutlich absetzen kann: Bei 4xMSAA sind es gerade mal 20%, bei 8xMSAA sind es aber bereits 35%. Bei steigender AA Last und Auflösung würde es sicher noch drastischer werden. Der Benchmark kann die Auswirkungen der ROPs ohnehin nicht fair wiedergeben, da die 7790 aufgrund des höheren Taktes auch eine höhere Texturleistung hat als die 7850. Das spielt hier ebenfalls mit rein.

Selbst wenn die ROPs der PS4 nicht die ganze Zeit 100%ig ausgelastet werden können, die der Xbox aber schon, so hat die PS4 in diesem Bereich einen erheblichen Vorteil. Auf NeoGAF behaupten einige User mit sehr guten Kontakten das Sony 1920x1080 als dauerhaftes Ziel für die ganze Gen ausgerufen hat, Microsoft langfristig aber nur 1440x810 anpeilt. Generell machst du hier den gleichen Fehler wie Leadbetter indem du hier mit PC Benchmarks argumentierst. Wenn die PS4 eine hohe Pixelfüllrate besitzt, dann werden die Entwickler diese auch konsequenz ausnutzen und sei es nur um vernünftiges Multisampling drüberzubügeln.

Die PS4 deklassiert die Xbox One durchgängig bei Bandbreite, sowie Shader-, Textur- und Pixelleistung und das wird man am Ende auch auf dem Bildschirm sehen.
8xMSAA steht eben nicht zur Debatte, da die Optik/Performance deutlich schlechter ist.
Ebenso geht es auch nicht über 1080p hinaus.
Das ist eben mein Punkt, bis zu dieser Grenze scheinen 16 ROPs ausreichend zu sein, jedenfalls bei einer PC-Umgebung, klar das bei einer Konsolenumgebung man mehr mit der Balance spielt, aber wie vorher gesagt hat die Xbox One hier auch Möglichkeiten den Nachteil halbwegs auszugleichen.
Es mag ausreichend genug sein, bis zu der Auflösung und der AA-Modi, welche die Konsolenleute im Kopf haben.

Und was willst du mir mit den TMUs andrehen? Darauf herumreiten, dass die 7790 1% !!!!!!1111 einself mehr Texeldurchsatz hat? :ugly:

Ich lehne mich gar nicht an die Skalierung vom Eurogamer an, ich wollte nur sagen, dass einige Eckdaten der PS4 auch nicht so reinhauen, wie man sich vielleicht anfangs vorstellen würde.

Die PS4 GPU ist nicht mehr durchgängig besser, als die der Xbox One.
Dank 53 Mhz mehr, DEKLASSIERT die Xbox One GPU die PS4 GPU beim Dreiecksdurchsatz total. :P
 
Die PS4 GPU ist nicht mehr durchgängig besser, als die der Xbox One.
Dank 53 Mhz mehr, DEKLASSIERT die Xbox One GPU die PS4 GPU beim Dreiecksdurchsatz total. :P

Damit die Xbox die Shader- und Texturleistung der PS4 erreicht müsste die GPU schon mit 1200Mhz takten. Für die gleiche Pixelfüllarte bräuchte Microsoft schon 1600Mhz Taktfrequenz. Ich denke das verdeutlicht, dass diese 53MHz Takterhöhung einer reiner Marketing Gag war. :lol:

Aber um das noch mal klaruzustellen: Selbst wenn die PS4 die ROPs mit den 176GB/s nicht immer 100%ig auslasten kann, so geben sie der PS4 doch einen erheblich Vorteil gegenüber der Xbox und diesen Vorteil werden die Studios auch ausnutzen. Die 1st Parties natürlich rigoros, die 3rd Parties sicher nicht ganz so konsequent. Aber ich denke gerade bei den Erfahrungen die man diese Gen machen konnte, werden sich viele zweimal überlegen, ob sie sich eine Konsole kaufen wollen, die bei Auflösung und Kantenglättung klar im Nachteil ist. Vor allem wenn diese Konsole auch noch 100€ mehr kostet. Sony will 1080p mit vernünftigem AA um jeden Preis erzwingen und 32 ROPs sind da einfach die sichere Variante. Wenn dadurch sicher gestellt ist, dass die PS4 in dieser Beziehung niemals ausgebremst werden kann - warum nicht? Bei den 16 ROPs der Xbox würde mir da jetzt schon ein wenig mulmig werden.
 
Macht kein Sinn. Wie ein Kommentar schon beschrieben hat, erst, wenn beide Konsolen nebeneinander das selbe Spiel, an der selben Stelle abspielen, kann man eventuell Leisungsunterschiede sehen.

Ich bin der Meinung, dass die Spiele sich grafisch nicht wirklich unterscheiden, bis auf die PS4-Exclusives, die werden ein Tacken besser aussehen, siehe The Last Of Us, Heavy Rain oder Uncharted.
 
Ich bin der Meinung, dass die Spiele sich grafisch nicht wirklich unterscheiden, bis auf die PS4-Exclusives, die werden ein Tacken besser aussehen, siehe The Last Of Us, Heavy Rain oder Uncharted.

Eine anonyme Quelle hat dem Forbes Magazin gesteckt, dass man den Unterschied bereits bei den Launch Titeln sehr deutlich sehen wird:

Forbes schrieb:
In talking to a developer who wished to remain anonymous, gamers will see a difference on Day One when they compare third party PS4 games to Xbox One head-to-head. The developer told me the PS4 is 40 percent more powerful than Xbox One and games like Call of Duty Ghosts will be noticeably different out of the gate.

Sony PlayStation 4 Launch Edition Already Sold Out At Amazon - Forbes

Die 40% mehr Leistung für die PS4 würden übrigens auch perfekt zu 853MHz Takt der Xbox passen. 40% bei gleicher Architektur ist schon richtig viel. Dagegen ist der Leistungsunterschied zwischen PS3 und Xbox360 ein Witz.
 
Die Third-Party Hersteller werden immer auf den kleinsten gemeinsamen Nenner kommen, da wird für die PS4 keine extra bessere Grafik gemacht, zuviel Aufwand.
 
Die Third-Party Hersteller werden immer auf den kleinsten gemeinsamen Nenner kommen, da wird für die PS4 keine extra bessere Grafik gemacht, zuviel Aufwand.

Nein. Das war noch nie so und wird auch nie so sein. Die 3rd Parties gehen immer den Weg der maximalen Profitoptimierung. Die Zeiten haben sich geändert: Sony hat den Cell für immer verbannt.
 
Damit die Xbox die Shader- und Texturleistung der PS4 erreicht müsste die GPU schon mit 1200Mhz takten. Für die gleiche Pixelfüllarte bräuchte Microsoft schon 1600Mhz Taktfrequenz. Ich denke das verdeutlicht, dass diese 53MHz Takterhöhung einer reiner Marketing Gag war. :lol:

Aber um das noch mal klaruzustellen: Selbst wenn die PS4 die ROPs mit den 176GB/s nicht immer 100%ig auslasten kann, so geben sie der PS4 doch einen erheblich Vorteil gegenüber der Xbox und diesen Vorteil werden die Studios auch ausnutzen. Die 1st Parties natürlich rigoros, die 3rd Parties sicher nicht ganz so konsequent. Aber ich denke gerade bei den Erfahrungen die man diese Gen machen konnte, werden sich viele zweimal überlegen, ob sie sich eine Konsole kaufen wollen, die bei Auflösung und Kantenglättung klar im Nachteil ist. Vor allem wenn diese Konsole auch noch 100€ mehr kostet. Sony will 1080p mit vernünftigem AA um jeden Preis erzwingen und 32 ROPs sind da einfach die sichere Variante. Wenn dadurch sicher gestellt ist, dass die PS4 in dieser Beziehung niemals ausgebremst werden kann - warum nicht? Bei den 16 ROPs der Xbox würde mir da jetzt schon ein wenig mulmig werden.
Naja, ein purer Marketinggag ist es dann nicht. Auch wenn 6,6% praktisch kaum etwas an den Ergebnissen drehen werden, so ist das dennoch sicherlich nicht verwerflich.

Ich mache es mal grob: Die PS4 hat 40% mehr Rechenleistung, ich nehme mal grob eine mögliche Skalierung von 90%, bleiben grob 36% mehr Speed übrig.
Aufgrund der Benchmarks und des eSRAMs bin ich als zuversichtlich das mir bei 16 ROPs nicht mulmig wäre.
Wenn es die PS4 Settings nicht halten kann, dann offensichtlich wegen der fehlenden Rohleistung und weniger aufgrund vom mangelnden Pixeldurchsatz.
 
Selbst wenn die ROPs der PS4 nicht die ganze Zeit 100%ig ausgelastet werden können, die der Xbox aber schon, so hat die PS4 in diesem Bereich einen erheblichen Vorteil. Auf NeoGAF behaupten einige User mit sehr guten Kontakten das Sony 1920x1080 als dauerhaftes Ziel für die ganze Gen ausgerufen hat, Microsoft langfristig aber nur 1440x810 anpeilt. Generell machst du hier den gleichen Fehler wie Leadbetter indem du hier mit PC Benchmarks argumentierst. Wenn die PS4 eine hohe Pixelfüllrate besitzt, dann werden die Entwickler diese auch konsequenz ausnutzen und sei es nur um vernünftiges Multisampling drüberzubügeln.

Hast du für die 1440x810er Auflösung eine Quelle? Davon habe ich noch nichts gelesen.
 
Wenn es die PS4 Settings nicht halten kann, dann offensichtlich wegen der fehlenden Rohleistung und weniger aufgrund vom mangelnden Pixeldurchsatz.

Offensichtlich ist da gar nix. Du rätst genauso ins Blaue wie ich auch. Oder hast du so ne Kiste bei dir zuhause rumstehen? Das Blöde ist ja leider, dass man es als Aussenstehender niemals an einer Sache (Bandbreite, Shader-, Pixel-, Texturleistung) festmachen kann, da die PS4 ja wirklich durch die Bank überlegen ist. Du stellst gerade eine Behauptung auf, die so schnell nicht widerlegt werden kann.

Und da sind sicher nicht nur zum Spaß 32 ROPs in der Kiste. AMD wird mit Sicherheit dazu geraten haben, dass das System mit nur 16 ROPs nicht optimal ausbalanciert wäre. Es geht hier ja auch darum, potenzielle Flaschenhälse zu beseitigen und bei einer Spielkonsole hast du im Idealfall nur einen Flaschenhals und das ist Rechenleistung.

Hast du für die 1440x810er Auflösung eine Quelle? Davon habe ich noch nichts gelesen.

Ich glaube der User Thuway hat das behauptet. Der hat nachgewiesenerweise Zugang zu Insiderquellen.
 
Zurück