Mark Cerny: Playstation 4 nach dem letzten Meeting mit 8 GiB GDDR5 ausgestattet

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Mark Cerny: Playstation 4 nach dem letzten Meeting mit 8 GiB GDDR5 ausgestattet

Der Chefentwickler der Playstation 4 gibt preis, dass die Playstation 4 erst nach dem letzten Hardwarearchitektur-Meeting - also praktisch in letzter Sekunde - mit einem 8.192 MiB großen GDDR5-Speicher ausgestattet wurde. Eigentlich wollte Sony der Next-Gen-Konsole lediglich einen 4.096 MiB großen Hauptspeicher spendieren.

[size=-2]Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und NICHT im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt. Sollten Sie Fehler in einer News finden, schicken Sie diese bitte an online@pcgameshardware.de mit einem aussagekräftigen Betreff.[/size]


lastpost-right.png
Zurück zum Artikel: Mark Cerny: Playstation 4 nach dem letzten Meeting mit 8 GiB GDDR5 ausgestattet
 
War 'ne gute Entscheidung :daumen:

Aber angeblich soll doch die PS4 nur 5GB GDDR5 RAM für Spiele zur Verfügung stellen, der Rest geht ans System oder irgendwie so war das.
Wie würde das bei 4GB aussehen ?
 
Aber angeblich soll doch die PS4 nur 5GB GDDR5 RAM für Spiele zur Verfügung stellen, der Rest geht ans System oder irgendwie so war das. Wie würde das bei 4GB aussehen ?

Besser optimiert :ugly:

Ne ich muss auch sagen, war wohl die bessere Entscheidung mehr RAM zu verbauen, von daher hat der Mann eine gute Idee gehabt :D
 
War 'ne gute Entscheidung :daumen:

Aber angeblich soll doch die PS4 nur 5GB GDDR5 RAM für Spiele zur Verfügung stellen, der Rest geht ans System oder irgendwie so war das.
Wie würde das bei 4GB aussehen ?

Ja bisher zumindest. Wobei ich denke, dass da einfach nur verdammt viel Puffer drin ist, welcher dann noch freigeschalten wird. Mal schauen wie es in 1-2 Jahren ausschaut. Ich denke da wird dann mehr zur Verfügung stehen.
 
War 'ne gute Entscheidung :daumen:

Aber angeblich soll doch die PS4 nur 5GB GDDR5 RAM für Spiele zur Verfügung stellen, der Rest geht ans System oder irgendwie so war das.
Wie würde das bei 4GB aussehen ?

Bei 4GB halt 1GB fürs System. Jetzt hat man den Speicher für die Entwickler vergrößert und hat gleichzeitig genug Puffer für mögliche Features, würde mich nicht wundern wenn über die Gen der reservierte Speicher auf 1 GB fällt.
 
also ich kann man kaum vorstellen, dass die nur 4GB ram verbauen wollten... ich denke mal die hätten dann vll nen stärkeren ARM chip mit 1-2GB ddr3 verbaut.
Ich glaub ansonsten säh xbox vs ps anders aus mit wirklich nur 4gb ram...
 
Jap, es hieß ja weites gehend zunächst eher 4 GB RAM. ;)

Wenn man bedenkt, dass die PS3 bloß mit 256 MB! für das System auskommen musste. Davon 50 MB für das OS. Das sind schon Welten. :D
(bzw. 256 MB DRAM Arbeitsspeicher + 256 MB GDDR3-VRAM)

War auch sehr überrascht, als es dann hieß 8 GB RAM und dann auch noch GDDR 5. :wow:
 
Zuletzt bearbeitet:
Wer weiß, wieviel Sony aufgrund dieser Entscheidung zuschießen muss...
Aber gelohnt hat sie sich. Mit 4 GB hätte man die X1 heute gerade noch an die Wand spielen können, aber in 2-3 Jahren wäre es für die Entwickler vermutlich aufwendiger gewesen, überhaupt mit dem Speicher der PS4 auszukommen, als das Bandbreitenmischmasch der X1 optimal zu nutzen.

Ich für meinen Teil habe sowieso nie verstanden, warum die Konsolen so kleine Arbeitsspeicher hatten. Schwachpunkte an ALLEN anderen Stellen kann man versuchen, irgendwie auszumanövrieren. Ein Bisschen vorberechnen hier, vereinfachte Physik und KI da - wenn man es geschickt macht, merkt es niemand. Aber wehe, einem geht der Speicher aus...
 
Wer weiß, wieviel Sony aufgrund dieser Entscheidung zuschießen muss...
Aber gelohnt hat sie sich. Mit 4 GB hätte man die X1 heute gerade noch an die Wand spielen können, aber in 2-3 Jahren wäre es für die Entwickler vermutlich aufwendiger gewesen, überhaupt mit dem Speicher der PS4 auszukommen, als das Bandbreitenmischmasch der X1 optimal zu nutzen.

Ich für meinen Teil habe sowieso nie verstanden, warum die Konsolen so kleine Arbeitsspeicher hatten. Schwachpunkte an ALLEN anderen Stellen kann man versuchen, irgendwie auszumanövrieren. Ein Bisschen vorberechnen hier, vereinfachte Physik und KI da - wenn man es geschickt macht, merkt es niemand. Aber wehe, einem geht der Speicher aus...

Also da schon ne gtx880m 8gb vram hat kann der preis von gddr5 gar net mehr so krass sein :D
Und ja der kleine speicher war besonders für die ps3 ein problem. Die xbox360 hatte immerhin unified memory 512mb (und 32mb esram) wo die entwickler sich das zu recht legen konnten. Ich denk der ps3 hätten 512mb hauptspeicher sehr gut getan geht man vorallem mal davon aus dass der Cell potenter als die 360 cpu ist.
Auch wenn ich sehe dass die ps vita selbst mehr ram aufweist ubd da kann mir sony nicht erzählt dass die vita mehr rechenleistung aufweist. Aber naja ps3 ist halt ne krücke die man technisch versaut hat.
Ich hoffe dass demnächst vll noch ein jaguar core und 1gb mehr zur verfügung stehen :)
 
Nein, die Xbox 360 hatte doch meines Wissens nach 10mb eDRAM. Die Xbox One besitzt 32mb eSRAM! ;)

Zudem ist der Cell Prozessor, wenn man sich die Mühe macht schon ziemlich potent. Nur halt leider nicht ganz so einfach. :D
 
Zuletzt bearbeitet:
Nein, die Xbox 360 hatte doch meines Wissens nach 10mb eDRAM. Die Xbox One besitzt 32mb eSRAM! ;)

Zudem ist der Cell Prozessor, wenn man sich die Mühe macht schon ziemlich potent. Nur halt leider nicht ganz so einfach. :D
Ja hab ich vertan die specs solch alter hardware hab ich auch net genau im kopf :D joa dass der cell was drauf hat hab ich auch gesagt und dass dem mehr ram net geschadet hätten ;)
 
Ich kann mir auch vorstellen, dass neben dem genannten Grund von Cerny ein weiterer Aspekt wichtig war:

Industriespionage.

Eine unbedachte Äußerung eines Mitarbeiters und alles landet immer sofort im Netz, was natürlich der Konkurenz in die Karten spielt.

Ein weiterer Aspekt:
Dass die CIA/NSA ganz gerne im Namen der eigenen Wirtschaft in fremden Mülltonnen wühlt, ist ja längst bekannt. MS dachte sicherlich, dass die durch den doppelten RAM (unter der Annahme, die PS4 bekäme nur 4 GiB spendiert) die Konkurenz toppen würden.


Wäre ich ein Technologiekonzern, würde ich es genauso machen. Jahrelang würde ich suggerieren, den Fokus nicht auf die Leistung zu legen und wenn sich die Konkurenz dann schön ausruht und irgendwelche Dümpelhardware auf den Markt schmeist, hau ich die hinterher kurz und klein. :devil: Das klappt aber auch nur, wenn es glaubwürdig ist. Würde Nvidia jetzt behaupten, man verabschiede sich vom High-End-Markt, würde denen das wohl keiner abkaufen. :ugly:


Insgesamt war es aber die richtige Entscheidung von Sony, etwas Geld in die Hand zu nehmen und entsprechend zu investieren.
 
M$ wiegte sich sicherlich in Sicherheit - aber ich wüsste ehrlich gesagt auch nicht, wie sie hätten reagieren sollen. 16 GB DDR3 hätten der X1 nicht geholfen, mehr SRAM hätte ein Redesign des kompletten Chips erfordert. Ein PCB-Redesign und Einsatz von GDDR5 hätte sicherlich den Preisrahmen gesprengt.
 
M$ wiegte sich sicherlich in Sicherheit - aber ich wüsste ehrlich gesagt auch nicht, wie sie hätten reagieren sollen. 16 GB DDR3 hätten der X1 nicht geholfen, mehr SRAM hätte ein Redesign des kompletten Chips erfordert. Ein PCB-Redesign und Einsatz von GDDR5 hätte sicherlich den Preisrahmen gesprengt.

Man hätte kurzfristig einen bereits auf dem Markt befindlichen, dedizierten Grafikchip zusätzlich auf die Platine packen und auf AMDs CrossFireX-Technik zurückgreifen können (wie diese bspw. in vielen Laptops mit APU + dedizierte GPU genutzt wird). Die technik ist bereits vorhanden, ~ausgereift und wäre sicherlich schnell und einfach zu implementieren gewesen. Der Aufpreis für einen zusätzlichen dedizierten Mid-Range-Chip wie z.B. Cape Verde wäre sicherlich nicht all zu hoch ausgefallen. Schließlich bezahlen die ja auch nicht den Endkundenpreis und die restlichen Komponenten (SpaWa, RAM, usw.) waren ohnehin längst für den APU eingeplant. Das bereits entwickelte Gehäuse hätte sicherlich auch eine effiziente Kühlung ermöglicht.

Das wäre eine Möglichkeit gewesen, die drohende technische Niederlage zumindest in einen Gleichstand umzuwandeln. Die fehlenden 50% Grafikleistung hätte man somit sicherlich noch aufholen oder ggf. sogar überholen können.

Dann hätte man sagen können "tjaja, die Konkurenz hat zwar auch 8 GiB RAM, aber haben die auch zwei Grafikchips? Nay!!"
 
Zuletzt bearbeitet:
CrossFireX ist alles andere als ausgereift, wenn man diversen Tests glauben kann, und bei vergleichbarer Gewinnspanne resultiert auch der gleiche Endkundenpreis. Und in das bestehende Gehäuse hätte eine quasi Verdoppelung der PCB-Komponenten garantiert nicht gepasst, von den Auswirkungen auf die Entwicklungsumgebung (keinen vereinheitlichten Speicher mehr, unterschiedliche Latenzen zwischen CPU und Shadereinheiten,...) ganz zu schweigen. Der Umstiegt auf GDDR wäre im Vergleich lächerlich einfach gewesen.
 
CrossFireX ist alles andere als ausgereift, wenn man diversen Tests glauben kann, und bei vergleichbarer Gewinnspanne resultiert auch der gleiche Endkundenpreis. Und in das bestehende Gehäuse hätte eine quasi Verdoppelung der PCB-Komponenten garantiert nicht gepasst, von den Auswirkungen auf die Entwicklungsumgebung (keinen vereinheitlichten Speicher mehr, unterschiedliche Latenzen zwischen CPU und Shadereinheiten,...) ganz zu schweigen. Der Umstiegt auf GDDR wäre im Vergleich lächerlich einfach gewesen.

Was die Anzahl der Komponenten auf dem PCB angeht: Da wäre imo nicht viel dazugekommen. Zumindest nichts, was nicht noch gepasst hätte. In meinem Lappy steckt auch ein APU + dedizierte GPU und alles passt auf eine vergleichbar kleine Platine. Denn wie gesagt, für den APU ist ohnehin bereits alles erforderlich. Da hätte man für die Spannungsversorgung der dedizierten GPU ggf. einfach nur ein paar Leitungen mehr einplanen müssen.

Was die Entwicklungsumgebung angeht: Sowohl Sony als auch MS wollten ihre Konsolen einfach nur so schnell wie möglich auf den Markt bringen. Das sieht man sehr gut daran, dass auf beiden Plattformen noch gefühlte 90% aller Softwarefeatures fehlen. Den zusätzlichen Grafikchip hätte man zur Not vorerst schlummern lassen und dessen Einbindung in das OS für das erste Update auf Platz 1 der Prioritätenliste gesetzt.

Ich denke, dass CrossfireX schon einigermaßen ausgereift ist. Zumindest in meinem Lappy funktioniert es recht gut. MS ist nicht gerade ein Softwarezwerg. Ich traue denen durchaus zu, dass die das mit AMDs Unterstützung recht schnell einigermaßen fehlerfrei hinbekommen hätten. Schließlich müssen die sich nur auf ein einziges Hardwaresystem mit einem einzigen Betriebssystem konzentrieren (naja genaugenommen sind es 3 Betriebssysteme, aber nicht alle davon kommen afaik beim Spielen zum Einsatz). Wie das mit dem Speicheradressraum gewesen wäre, weiß ich nicht. Ggf. wäre der zweite Grafikchip ausschließlich für Postprocessing, KI-Berechnungen, Physik oder andere GPGPU-Aufgaben während des Spielens verwendet worden. Dann wäre die Rechenlatenz zweitrangig und dennoch würde der eigentliche Grafikchip sehr stark entlastet werden.

Für den Umstieg auf GDDR hätte man afaik den Speichercontroller im Prozessor völlig neu designen müssen, oder?
 
Hätte MS auf Kinect und den "TV TV" Fokus verzichtet und die 500€ in Hardwareleistung investiert...ja hätte.
Statt den Crossfire Mist hätten sie einfach eine Stärkere GPU nehmen sollen und statt für DDR3 und den micrigen esram hätten sie GDDR5 Ram nehmen sollen. Für 500€ wäre das sicherlich kein Problem gewesen.

Zur PS4 kann ich nur sagen das die 8GB GDDR5 die richtige Entscheidung war. Mit der Zeit wird auch mit sicherheit das OS soweit optimiert das es sehr viel weniger verbraucht und somit mehr Ressourcen für Spiele übrig bleiben.
Was ich mich Frage ist ob es nicht sinnvoll gewesen wäre stingnormale 2 GB DDR3(kosten nicht die Welt) fürs OS einzubauen und die 8GB GDDR5 Ram komplett für Spiele zu lassen?
 
Die schlauste Kombi wäre in meinen Augen, eine potente ARM CPU mit 1-2 GB DRR3 Ram für OS Filme und Download. So wäre der Stromverbrauch im Idle und bei Filmen sehr niedrig aber naja nun ist es wie es ist ^^ Beide Konsolen sind schon okay so wie sie sind aber ihr habt recht, Luft nach oben gab es!
 
Was die Anzahl der Komponenten auf dem PCB angeht: Da wäre imo nicht viel dazugekommen. Zumindest nichts, was nicht noch gepasst hätte. In meinem Lappy steckt auch ein APU + dedizierte GPU und alles passt auf eine vergleichbar kleine Platine. Denn wie gesagt, für den APU ist ohnehin bereits alles erforderlich. Da hätte man für die Spannungsversorgung der dedizierten GPU ggf. einfach nur ein paar Leitungen mehr einplanen müssen.

Du brauchst zusätzliche Leitungen, zusätzliche Spannungswandler, ein entsprechend stärkeres Netzteil, zusätzliche Speicherchips und natürlich deren Interface auf dem PCB. Wenn man entsprechend investiert, ist das auf vergleichbar großen Platinen ggf. möglich - aber es wäre zumindest deutlich teurer geworden, hätte trotzdem ein komplettes Redesign des PCBs erfordert und für den zusätzlichen Kühler wäre dann immer noch kein Platz gewesen.

Ein KO-Kriterium hatte ich beim ersten Post aber noch vergessen:
Ohne PCIe gibt es gar keine Möglichkeit, einen zusätzlichen Chip anzubinden.

Wie das mit dem Speicheradressraum gewesen wäre, weiß ich nicht. Ggf. wäre der zweite Grafikchip ausschließlich für Postprocessing, KI-Berechnungen, Physik oder andere GPGPU-Aufgaben während des Spielens verwendet worden. Dann wäre die Rechenlatenz zweitrangig und dennoch würde der eigentliche Grafikchip sehr stark entlastet werden.

Das stimmt zwar, hätte der X1 aber bei ihrem derzeitigen Leistungsproblem überhaupt nicht geholfen, denn noch läuft nur die Grafik auf dem GPU-Teil.

Für den Umstieg auf GDDR hätte man afaik den Speichercontroller im Prozessor völlig neu designen müssen, oder?

Da selbst Kaveri zumindest die Ansteuerung 1:1 übernommen hat, ist stark davon auszugehen, dass der Speichercontroller die Fähigkeit ohnehin schon hat. DDR3 und GDDR5 sind einander sehr ähnlich, im wesentlichen ginge es um den höheren Takt. Da Speichercontroller ihrerseits schon nicht wahnsinnig groß sind, würde ich davon ausgehen, dass es für AMD günstiger war, überall einen DDR&GDDR5-tauglichen Controller zu verbauen, als zwei getrennte zu entwickeln. Für den Einsatz von GDDR hätte "nur" das Routing auf des Speicherinterfaces für den höheren Takt optimiert werden müssen (-> wieder ein neues PCB, aber zumindest können 80% der Fläche unverändert bleiben) und die zu verbauenden Speicherchips wären halt deutlich teurer geworden.
 
Zurück