Playstation 4: Als "Omni" mit 4K-3D-Brille ab Herbst 2013 im Handel?

AW: Playstation 4: Als "Omni" mit 4K-3D-Brille ab Herbst 2013 im Handel?

Ich wäre vorsichtig damit, den Cell jetzt schon abzuschreiben. Es ist durchaus denkbar, dass wir Teile dieser Architektur in der PS4 wiedersehen werden. Ein IBM Sprecher hat sogar ofiziell behauptet (und das nach der Einstellung des PowerXCell 8i HPC Chips), dass wir Teile dieser Architektur in der PS4 sehen werden. Das Konzept des Cells könnte extrem von AMDs HSA Know-How profitieren.

Seit 2010 geistert das Patent von Sonys Cell 2.0 durchs Netz: Der neue Cell soll dabei kein einzelner Chip mehr sein, sondern wie ein AMD Prozessormodul (zB Bulldozer Modul mit zwei Integer-Kernen und 256Bit FPU) eingesetzt werden. Ein Cell Modul besteht dabei aus einem stark überarbeiteten PPE und nur noch vier SPEs mit einem deutlich verbessertem Speichermanagement. Die Taktrate bleibt bei 3,2Ghz. Die finale HSA APU würde aus vier Cell Modulen und einer GCN iGP bestehen. Das fertige Multi Chip Module würde sich aus einem Interposer mit daraufbefindlicher APU und stacked memory (höchstwahrscheinlich DDR4) zusammensetzen. Insgesamt reden wir hier von einer HSA (Cell Module) in einer HSA (APU), die durch Emulation (?) einer virtuellen Maschine die Bedienunfsfreundlichkeit von High-Level Code erreichen soll, so zumindest die Theorie.

Die aktuellen Leaks zum Alpha-Devkit der PS4 sprechen von einer APU mit vier Kernen und 3,2Ghz, würden also die Theorie einer HSA APU mit vier Cell Modulen unterstützen
Ich wäre vorsichtig, meine Phantasie so sehr anzuregen.
Wie viel die-space verbraucht so ein Cell 2.0 Modul? 1 PPE+ 4 SPEs, die aufgebohrt wären, sicher deutlich mehr Performance bringen, aber pro Einheit wohl auch sicher mehr Platz verschwenden, da die Register und caches aufgebohrt werden und sonstige Datenpfade.
Der Cell in der PS3 verbraucht bei 45nm noch ~115mm². Selbst wenn ich das FlexIO großzügig berechne, so wird das am Ende bei 32nm kein kleiner Zwerg und davon sollen jetzt 4 Stück rein, 4 PPEs + 16 SPEs?
Das ist doch purer Quatsch.
Nebenbei sprechen die Dev-Kits von Llano und Trinity, was mal gar nicht wie ein Cell klingt, ebenso stempelt die Gerüchte-Küche jedes kleine Bauteil als selbständigen Kern ab, wer würde da jemals ein "Cell Modul" als einen Kern bezeichnen?
Auch wenn durch HSA der Overhead zwischen der Kommunikation auf nahezu 0 sinkt, würde ich lieber mein Budget für eine GPU reinhauen und nicht für das Zusammenspiel zwischen GPU und SPEs bei FP-Operationen.

Ich vergrabe die Idee liebend gerne.


Die Konsolenhersteller sind nicht dumm.
Das mit dem Dumm, darüber könnten wir noch Absatzweise diskutieren ;)

Noch mal: Konsolen sind keine PCs. Ein x86 Prozessor wird da zu 100% nicht drinnen stecken, auch bei Microsoft nicht. Darauf sollte jeder alleine kommen können, wenn er einfach mal ein wenig nachdenkt. Sollten die neuen Konsolen mit einer AMD Architektur ausgeliefert werden (zB das PPE im oben angesprochenen Cell Modul, oder die vielen kleinen Kerne in der XBox), dann wird es sich dabei um einen reinen AMD64-Prozessor handeln, der von dem ganzen 32Bit Legacyschrott befreit wurde. Es macht keinen Sinn, dass du bei 50 bis 100 Mio Einheiten irgendeinen Balast in den Chips rumschleppst, denn du gar nicht brauchst. Mal angenommen ein reiner 64Bit Prozessor spart in der Produktion (zB durch weniger Fläche, kleinere Kühlung, kleineres Netzteil, etc) fünf Euro pro Einheit gegenüber einem mit unnötigen Dingen vollgestopften x86-Prozessor, rechne dir mal aus wie viel der Konsolenhersteller spart wenn er 100 Mio Geräte verkauft. Wir reden hier über eine halbe Milliarde Euro.
Die Frage ist, wie viel macht der Legacy-Teil mittlerweile aus und wie viel kann man davon einfach so "heraus lösen"? Das low-power-potential drückt es auf jeden Fall, aber je größer die CPU sein darf und je kleiner der Fertigungsprozess, desto kleiner ist auch der Prozentsatz, denn der Code auch an Platz und Strom verbraucht.
Warum passt denn eigentlich Intel z.B. ihre Atom-Reihe nicht extra dafür an?
Irgendwo steht wohl das Kosten/Nutzen-Prinzip nicht ganz so richtig bzw. die Machbarkeit davon.
Was ist mit der Xbox 1? Hat da jemand die x86-ISA gerupft? Man hat den Prozessor soweit ich weiß nur bei den Parametern angepasst, wie Cache oder Takt, ansonsten hat man alles so gelassen, wobei man hier für ein geschlossenes System auch Schaltungen hätte einsparen können.
5 Euro halte ich dabei maßlos übertrieben, falls man an der ISA einsparen würde, (der Atom beim Razer schlägt sich ordentlich), da würden keine Wattzahlen herausspringen, die die Temperatur und den Verbrauch so hochsteigen lassen würde, dass ich dafür extra mehr in Kühlung investieren müsste.
 
Zuletzt bearbeitet:
AW: Playstation 4: Als "Omni" mit 4K-3D-Brille ab Herbst 2013 im Handel?

@Hevioso: Endlich mal einer, der die Konsolen-Hardware nicht 1:1 mit der PC-Hardware vergleicht und sie nicht den PC-Üblichen Ballast wie den x86 Befehlssatz von 1978(!) mit sich rumschleppen müssen. Ich bin zwar in erster Linie PC-Gamer, freue mich aber auch, wenn die neuen Konsolen meinen PC (wird vorher nochmal aufgerüstet) erstmal deftig in die Knie zwingen... Warum auch nicht? Der Sprung in der Grafikqualität dürfte sehr ordentlich ausfallen und auch im Spieldesign wird's dann neue Möglichkeiten geben, wenn die Levels nicht mehr so begrenzt dargestellt werden müssen etc...

Kann uns doch nur Recht sein, oder seh ich das falsch? Muß man zur Not eben nochmal aufrüsten, war ja dafür in letzter Zeit nicht umbedingt zwingend nötig, mit meinem Setup von vor gut drei Jahren (i7-920, 12Gb Ram, HD5870) könnte ich immer noch ohne Probleme spielen.

In ein paar Jahren können PC-Gamer dann wieder über die lahmen Konsolen meckern. Vorher meckern sie dann wahrscheinlich darüber, daß die spiele nicht ordentlich auf den High-End-Kisten laufen... Oder meckern, daß Spiel XY konsolenexklusiv bleibt.
 
Zuletzt bearbeitet:
AW: Playstation 4: Als "Omni" mit 4K-3D-Brille ab Herbst 2013 im Handel?

Naja warten wir mal ab wenn sie erscheint was sie bringt. Ich bin ja skeptisch ob es das geld Am Ende wert ist. PC ist und bleibt elite
 
AW: Playstation 4: Als "Omni" mit 4K-3D-Brille ab Herbst 2013 im Handel?

Ich denke es wird sehr interessant, was die Konsolen technisch bringen werden, was sie noch zusätzlich an Service und Peripherie anbieten und wie es mit MP-Titeln aussehen wird.
 
AW: Playstation 4: Als "Omni" mit 4K-3D-Brille ab Herbst 2013 im Handel?

Einfach mal die TDPs von Konsolen anschauen?
Weil du nicht im Konjunktiv schreibst muss ich das als Milchmädchenrechnung bezeichnen.
Ein Satz ohne Konjunktiv ist also eine Milchmädchenrechnung? Das wär mir eine neue Bedeutung des Wortes...
Wir wissen doch gar nicht, was für Hardware in der Konsole steckt, also kannst du auch nicht wissen, wie schnell sie ist.
Nein, man weiß ja noch nichtmal ob die HW x86 basierend sein wird. Aber man weiß, wieviel Energie sie verbrauchen wird...:
Die Xbox360 und PS4 konnten damals sehr gut mit den High-End PCs konkurrieren, man kann also davon ausgehen, dass es bei den neuen Konsolen ähnlich aussehen wird. Aber genaueres wissen wir erst, wenn die verbaute Hardware bekannt ist.
Kann man aufgrund einer einfachen Sache nicht:
Damals haben die besseren GPUs nicht mal 150+´Watt gebraucht (die Radeon 1950XT hatte eine TDP von 135 Watt, das wäre heutzutage gerade mal eine Midrange-Performancekarte), sondern eine ganze Konsole (Afair hatte die Xbox eine GESAMTE TDP von 150W)
Mehr dazu übrigens hier, ist teilweise interessant, wie sich der Stromverbrauch bei Grafikkarten entwickelt hat:
http://www.3dcenter.org/blog/leonidas/leistungsaufnahme-aelterer-und-neuer-grafikkarten
(meine erste 3D Grafikkarte hatte noch einen Verbrauch unter 5 Watt)
Somit wars auch nicht so schwer eine Highend GPU zu verbauen wie das heute ist. Man hat zwar immer noch die 60 -70 Watt für GPU zur Verfügung, nur ist das heute weniger als damals.
Man muss bei diesen 150W der Konsole einfach miteinberechnen, dass da CPU (50Watt? was geht sich da groß aus) GPU (50Watt), RAM, Platten, Komponenten, Chipsatz etc etc ausgehen muss.

Und dann vergleicht man das ganze mit einem 400-500 Watt PC von heute: rein die theoretische HW Leistung der Konsole wird einfach 2 Jahre zurückliegen.
Ich denke es wird sehr interessant, was die Konsolen technisch bringen werden, was sie noch zusätzlich an Service und Peripherie anbieten und wie es mit MP-Titeln aussehen wird.
Auf die Services wär ich auch gespannt:
Wenn etwa die PS4 endlich mal einen BD Brenner integriert und ein paar Features zum Aufnehmen (vom TV Programm oder Spielen oder so) mitnimmt, das ganze also nicht nur als Konsole sondern eben auch TV Rekorder verwendet werden könnte...
Oder die weiteren Features wie 3D und Co ausbaut die schon in der PS3 drin sind.
Diverse andere Features die sie als art HTPC auch funktionieren lassen.
uvm bei uns an der Uni liefen mal einige PS3s gelustert als "Supercomputer"
 
Zuletzt bearbeitet:
AW: Playstation 4: Als "Omni" mit 4K-3D-Brille ab Herbst 2013 im Handel?

Kann man aufgrund einer einfachen Sache nicht:
Damals haben die besseren GPUs nicht mal 150+´Watt gebraucht (die Radeon 1950XT hatte eine TDP von 135 Watt, das wäre heutzutage gerade mal eine Midrange-Performancekarte), sondern eine ganze Konsole (Afair hatte die Xbox eine GESAMTE TDP von 150W)

Und dann vergleicht man das ganze mit einem 400-500 Watt PC von heute: rein die theoretische HW Leistung der Konsole wird einfach 2 Jahre zurückliegen.
Die Xbox 360 und die PS3 haben 180-200 Watt verbraucht, dementsprechend waren auch die Netzteile dimensioniert.
XBOX 360 vs PS3 (and Wii) - Power Consumption Report - hardCOREware.net

Was ist eigentlich die "reine theoretische HW Leistung"?
TFLOPs sind es wohl nicht, oder liegt eine HD 7770 2 Jahre zurück, weil sie im Gegensatz zu Tahiti nur 1 TF schafft und nicht deren ~4?
Ist es das Hardware featureset?
Da könnten die Konsolen ebenfalls mit der Zeit gehen und mit HSA und stacked ram, wären sie auch voraus und das für eine lange Weile.
 
AW: Playstation 4: Als "Omni" mit 4K-3D-Brille ab Herbst 2013 im Handel?

Wie viel die-space verbraucht so ein Cell 2.0 Modul?

Der Cell in der PS3 verbraucht bei 45nm noch ~115mm².

Zukünftige Derivate der Cell Architektur werden alle in 22nm gefertigt werden. 32nm wurden von Sony und IBM bewusst übersprungen. Ich sehe kein Problem dabei, vier 22nm Cell 2.0 Module in eine APU zu pflanzen.

Interessant wird es aber erst richtig, wenn man sich mal Gerüchte aus dem Jahr 2008 genauer zur Brust nimmt: Damals behauptete Fudzilla in Erfahrung gebracht zu haben, dass IBM zusammen mit AMD an 22nm Chips arbeitet, die im Jahr 2012 für ein noch unbekanntes Projekt verfügbar sein sollen...
 
AW: Playstation 4: Als "Omni" mit 4K-3D-Brille ab Herbst 2013 im Handel?

Zukünftige Derivate der Cell Architektur werden alle in 22nm gefertigt werden. 32nm wurden von Sony und IBM bewusst übersprungen. Ich sehe kein Problem dabei, vier 22nm Cell 2.0 Module in eine APU zu pflanzen.
Leider bietet niemand 22nm an, außer Intel.
 
AW: Playstation 4: Als "Omni" mit 4K-3D-Brille ab Herbst 2013 im Handel?

Die Xbox 360 und die PS3 haben 180-200 Watt verbraucht, dementsprechend waren auch die Netzteile dimensioniert.
XBOX 360 vs PS3 (and Wii) - Power Consumption Report - hardCOREware.net
200 Watt gut :)
Immer noch ein bisschen hinter einem heutigen PC, zumal meine Graka schon 150 Watt braucht und "nur" Midrange ist.

Was ist eigentlich die "reine theoretische HW Leistung"?
TFLOPs sind es wohl nicht, oder liegt eine HD 7770 2 Jahre zurück, weil sie im Gegensatz zu Tahiti nur 1 TF schafft und nicht deren ~4?
Naja es geht ja nicht nur um die TF, auch GP, GT etc der Graka, Bandbreite. Letztere wird hoch sein, wenn man wieder spezielles RAM verwendet wie schon in der Vergangenheit. Umgekehrt war grade die bandbreite bei der PS4 schwach.
Ist es das Hardware featureset?
Featureset wird recht modern sein beim Release, vielleicht sogar wieder mit Technologien die dem PC am Anfang gar nicht zur verfügung stehen oder nicht genutzt werden (wie bei der Xbox Tesselation)
 
Zuletzt bearbeitet:
AW: Playstation 4: Als "Omni" mit 4K-3D-Brille ab Herbst 2013 im Handel?

200 Watt gut :)
Immer noch ein bisschen hinter einem heutigen PC, zumal meine Graka schon 150 Watt braucht und "nur" Midrange ist.

Naja es geht ja nicht nur um die TF, auch GP, GT etc der Graka, Bandbreite. Letztere wird hoch sein, wenn man wieder spezielles RAM verwendet wie schon in der Vergangenheit. Umgekehrt war grade die bandbreite bei der PS4 schwach.

Featureset wird recht modern sein beim Release
High-End Rohleistung wird es natürlich nicht sein.
XDR war übrigens gar nicht schnell bei der PS3. Er war nur ~ 2 GB/s schneller, als der GDDR3-Speicher.
Lag auch daran, dass er mit 64-Bit angeschlossen war und der GDDR3 mit 128-Bit, dass Ergebnis ist dann natürlich ungefähr das gleiche.
Was vermutlich reinkommt bei der PS4 ist stacked ram, DDR4 ist speziell dafür angepasst, allerdings stellt sich natürlich die Frage, ob ein anderer Speicher auch möglich wäre.

Ich denke mal von der GPU Rohleistung her wird es 7770-7850 Level sein.
Eine Custom-Lösung die ungefähr die Charakteristikas der beiden trifft, niedrig getaktet, was einiges an Strom spart und wohl paar oder alle Techlevels der HD8000 Serie.
 
Zuletzt bearbeitet:
AW: Playstation 4: Als "Omni" mit 4K-3D-Brille ab Herbst 2013 im Handel?

Leider bietet niemand 22nm an, außer Intel.

Stand heute. Die Produktion von 22nm/20nm Chips wird bei den Auftragsfertigern derzeit hochgefahren, Ende 2013 werden die Chips für den Massenmarkt verfügbar sein, perfekter Zeitpunkt für die Next Gen Konsolen.

Wie bereits gesagt: Für so etwas wie eine Spielekonsole, die eine Lebensdauer von sehr vielen, vielen Jahren haben wird, macht es Sinn, wenn man in den ersten Monaten, in denen man sowieso den geringsten Teil an Geräten verkauft, Verluste macht, also pro Chip ein paar Euro mehr auf den Tisch legt, dafür aber auf lange Sicht die bessere Performance abliefern kann.

Selbstverständlich ist das alles nur Spekulatius, aber die Möglichkeit besteht. ;)
 
AW: Playstation 4: Als "Omni" mit 4K-3D-Brille ab Herbst 2013 im Handel?

Ich denke mal von der GPU Rohleistung her wird es 7770-7850 Level sein.
Jap, wär auch meine Schätzung gewesen.
Stand heute. Die Produktion von 22nm/20nm Chips wird bei den Auftragsfertigern derzeit hochgefahren, Ende 2013 werden die Chips für den Massenmarkt verfügbar sein, perfekter Zeitpunkt für die Next Gen Konsolen.
Nur, dass Konsolen niemals auf einen neuen, Massenfertigungsprozess basieren, sondern auf einen der schon min. 1 Jahr erprobt ist.
War auch bei Xbox und PS3 so
Wie bereits gesagt: Für so etwas wie eine Spielekonsole, die eine Lebensdauer von sehr vielen, vielen Jahren haben wird, macht es Sinn, wenn man in den ersten Monaten, in denen man sowieso den geringsten Teil an Geräten verkauft, Verluste macht, also pro Chip ein paar Euro mehr auf den Tisch legt, dafür aber auf lange Sicht die bessere Performance abliefern kann.

Selbstverständlich ist das alles nur Spekulatius, aber die Möglichkeit besteht. ;)
Wie bereits gesagt: diese Generation strebt man das scheinbar nicht mehr an (stimmen die Gerüchte von wegen APU & CO statt Eigenentwicklung etc).
Außerdem hat man halt ein Limit vom Energieverbrauch her, man wird also sowieso nicht die großen Kaliber einbauen
 
AW: Playstation 4: Als "Omni" mit 4K-3D-Brille ab Herbst 2013 im Handel?

Stand heute. Die Produktion von 22nm/20nm Chips wird bei den Auftragsfertigern derzeit hochgefahren, Ende 2013 werden die Chips für den Massenmarkt verfügbar sein, perfekter Zeitpunkt für die Next Gen Konsolen.

Wie bereits gesagt: Für so etwas wie eine Spielekonsole, die eine Lebensdauer von sehr vielen, vielen Jahren haben wird, macht es Sinn, wenn man in den ersten Monaten, in denen man sowieso den geringsten Teil an Geräten verkauft, Verluste macht, also pro Chip ein paar Euro mehr auf den Tisch legt, dafür aber auf lange Sicht die bessere Performance abliefern kann.

Selbstverständlich ist das alles nur Spekulatius, aber die Möglichkeit besteht. ;)
Ich sage eindeutig nein, will natürlich niemanden seine Meinung abschlagen ;)

1 Jahr bevor die Konsole den Massenmarkt betritt, muss schon grob alles mehr oder weniger in trockenen Tüchern sein und die Chips ihre ersten Ballonfahrten gehabt haben.
Erst jetzt damit zu testen, ist viel zu spät.
Kleine Chips haben es natürlich deutlich einfacher bei der Validierung, aber für eine Konsole und größere Chips geht niemand das Risiko ein oder versucht das.

Ansonsten kommst du schon langsam in Erklärungsnot wieso die Wiiu auf 40/45nm setzt und nicht auf 32nm und 28nm ;)
Dabei hat sie nur eine TPD von 75 Watt und kleinere Prozessoren.
 
Zuletzt bearbeitet:
AW: Playstation 4: Als "Omni" mit 4K-3D-Brille ab Herbst 2013 im Handel?

Ein Satz ohne Konjunktiv ist also eine Milchmädchenrechnung? Das wär mir eine neue Bedeutung des Wortes...
Ich habe vorsichtig versucht zu schreiben, dass du Unsinn schreibst, weil du keine Ahnung haben kannst was genau für Hardware in der PS4 steckt. Du schreibst gerne deine Meinung im Indikativen (nach dem Motto: Meine Vermutung ist richtig) und das solltest du versuchen zu vermeiden.

Einfach mal die TDPs von Konsolen anschauen?
Nein, man weiß ja noch nichtmal ob die HW x86 basierend sein wird. Aber man weiß, wieviel Energie sie verbrauchen wird...:
Und dann vergleicht man das ganze mit einem 400-500 Watt PC von heute: rein die theoretische HW Leistung der Konsole wird einfach 2 Jahre zurückliegen.
Dein problem ist, dass du PC Hardware und Konsolenhardware 1:1 vergleichst, auch wenn deine Vermutung über den Stromverbrauch meiner Meinung nach richtig ist (150-200W). Wie gesagt, die PS4 setzt Gerüchtenzugfolge auf HSA. Wenn die Konsole auf HSA setzt dann wird die CPU auch nicht mit 4GHz takten (eher 2GHz, vielleicht auch weniger Kerne), da die GPU die meisten Berechnungen übernehmen würde.

20W AMD CPU (28nm A10 Abwandlung (z.B. ohne x86 und MMX Befehlsätze), 2GHz, 1 Modul)
160W AMD GPU (8970 Abwandlung (keine DP-Einheiten, usw.), HSA fähig)
20W Sonstiges (inkl. Stacked Memory)

Diese Konsole würde 200W verbrauchen und hätte mit einem MCM sehr geringe Latenzen (und richtig Dampf). Man kann also viel mehr aus einer Konsole rausholen, schon alleine deshalb, weil man auf Rückwärtskompatiblität nicht achten muss. Das sollte aber lediglich nur ein Beispiel sein, ich habe keine Ahnung wie die Hardware in der Konsole aussehen wird.
 
AW: Playstation 4: Als "Omni" mit 4K-3D-Brille ab Herbst 2013 im Handel?

Dein problem ist, dass du PC Hardware und Konsolenhardware 1:1 vergleichst, auch wenn deine Vermutung über den Stromverbrauch meiner Meinung nach richtig ist (150-200W). Wie gesagt, die PS4 setzt Gerüchtenzugfolge auf HSA. Wenn die Konsole auf HSA setzt dann wird die CPU auch nicht mit 4GHz takten (eher 2GHz, vielleicht auch weniger Kerne), da die GPU die meisten Berechnungen übernehmen würde.

20W AMD CPU (28nm A10 Abwandlung (z.B. ohne x86 und MMX Befehlsätze), 2GHz, 1 Modul)
160W AMD GPU (8970 Abwandlung (keine DP-Einheiten, usw.), HSA fähig)
20W Sonstiges (inkl. Stacked Memory)

Diese Konsole würde 200W verbrauchen und hätte mit einem MCM sehr geringe Latenzen (und richtig Dampf). Man kann also viel mehr aus einer Konsole rausholen, schon alleine deshalb, weil man auf Rückwärtskompatiblität nicht achten muss. Das sollte aber lediglich nur ein Beispiel sein, ich habe keine Ahnung wie die Hardware in der Konsole aussehen wird.
Das Ziel ist es die GPU für parallele Aufgaben zu verwenden und die CPU für serielle, für jeden Anwendungsfall die optimale processing unit.
Eine CPU sollte auch einen sehr schnellen Durchsatz haben bzw. hoch getaktet sein, leider beißen sich hier die Konzepte zwischen CPU und GPU, weswegen man bei der Fertigung bei den Transistoren Kompromisse eingehen muss.
Ansonsten würden sie wohl sehr gerne CPUs mit über 3 Ghz fertigen.

2ghz bei einem Piledriver/Steamroller-Custom-Abkömmling sind aber zu wenig und ein Modul sowieso.
4 logische Kerne müssen schon das Minimum sein und ab 3Ghz würde ich da auch ansetzen wollen, ansonsten ist das wieder eine total verkrüppelte CPU-Wahl.

Ein High-End-GPU-Die kann man ausschließen.
So eine Lösung müsste man so sehr auseinander rupfen, dass am Ende immer ein Mittelklasse Chip herauskommt, also nimmt man gleich den Mittelklasse-Chip als Basis.

Eine 200 Watt TPD wird wohl nicht mehr verwendet werden. Als Bauchgefühl habe ich so maximal 175 Watt und 150 Watt als Target. Wobei das auch sehr schwer zu bewerten ist. HSA und stacked ram sparen sehr viel Energie ein.
150 Watt könnte schon als Maxmimum gelten und wird wohl der beste educated guess sein.

Aber mit stacked ram und HSA, junger Vater, was da effektiv herauskommen kann, wird die Effizienzwerte in Sachen Performance und Stromverbrauch eines PCs in Grund und Boden blamieren müssen.
Mit so einer Konstellation ist man eigentlich das erste mal so fernab eines PC-Systems das die direkte Vergleichbarkeit absolut nicht mehr gewährleistet ist bzw. noch viel, viel grober wird.
 
AW: Playstation 4: Als "Omni" mit 4K-3D-Brille ab Herbst 2013 im Handel?

Was hilft die beste Technik, wenn ständig nur noch stupide sogenannte AAA Titel veröffentlicht werden ...

Bester First-Person-Shooter der aktuellen Generation? Metroid Prime 3.
Bestes Jump'n'Run? Super Mario Galaxy 3 & Donkey Kong Country Returns.
Bestes RPG? Xenoblade Chronicles.
Bestes Casual-Game? Wario Ware Smooth Moves.

Warum? Beispiel Xenoblade: Bei einem derart gigantischen Umfang (größer als die letzten drei FF zusammen ...) schießen die Produktionskosten auf aktueller Hardware extrem in die Höhe -> man muss spielerisch auf Nummer sicher gehen um die Kosten durch hohe Verkäufe einzuspielen -> es kommt ein typisches 08/15 "Hollywood" Game dabei raus ohne jegliche Innovationen.

Beispiel Metroid Prime 3: Der durchschnittliche CoD/Halo/Uncharted-Käufer würde nach dem ersten Level den Controller frustriert in die Ecke donnern ... Eben ein innovatives, relativ schwieriges "Hardcore Game".
 
AW: Playstation 4: Als "Omni" mit 4K-3D-Brille ab Herbst 2013 im Handel?

Was hilft die beste Technik, wenn ständig nur noch stupide sogenannte AAA Titel veröffentlicht werden ...

Warum? Beispiel Xenoblade: Bei einem derart gigantischen Umfang (größer als die letzten drei FF zusammen ...) schießen die Produktionskosten auf aktueller Hardware extrem in die Höhe -> man muss spielerisch auf Nummer sicher gehen um die Kosten durch hohe Verkäufe einzuspielen -> es kommt ein typisches 08/15 "Hollywood" Game dabei raus ohne jegliche Innovationen.
Der Fluch einer besseren Technik würde ich das nennen. Es würde z.B. niemanden daran hindern Xenoblade, im Falle eines simplen grafischen Gerüst, einfach in 1080p zu rendern mit entsprechendem AA/AF.
Macht halt niemand, weil man die Rohleistung der GPU viel lieber in grafische Effekte reinsteckt und sonstigem Kram, um sich abzuheben, weil der sichtbare Unterschied so wesentlich größer ist.
Dann ist eine gewisse Messlatte gesetzt und die anderen Devs meinen, man müsste ebenfalls ungefähr das gleiche leisten.
Bessere Technik zwingt keinen Entwickler direkt high-level-graphics and content bereit stellen zu müssen, komischerweise machen das aber viele zwanghaft.

Der Rest deines Beitrags ist ansonsten sehr subjektiv und unterstellt zum Teil.
 
AW: Playstation 4: Als "Omni" mit 4K-3D-Brille ab Herbst 2013 im Handel?

Ich habe vorsichtig versucht zu schreiben, dass du Unsinn schreibst, weil du keine Ahnung haben kannst was genau für Hardware in der PS4 steckt. Du schreibst gerne deine Meinung im Indikativen (nach dem Motto: Meine Vermutung ist richtig) und das solltest du versuchen zu vermeiden.
Das ist nicht meine Meinung, sondern eine fundierte annahme, da ist ein Unterschied Freundchen.



Dein problem ist, dass du PC Hardware und Konsolenhardware 1:1 vergleichst, auch wenn deine Vermutung über den Stromverbrauch meiner Meinung nach richtig ist (150-200W).
Mein "Problem" ist ganz ein anderes :D
Absolut nirgends sage ich, dass die Effizienz von Konsolen dieselbe ist wie die von PCs, ganz im Gegenteil, mir ist völlig klar, dass die Infrastruktur der Konsolen viel mehr aus der Hardware rausholen, wie man aus einem PC rausholt - schon allein wegen der 1000en verschiedenen Hardwarekonfiguration wird man einen PC niemals dorthinoptimieren können.
Letzten endes beruhen sich die Annahmen auf der Tatsache, dass Konsolenhardware bis zur PS3/Xbox allein schon von der Rohleistung mit einem PC mithalten konnte - während diese Generation hier von der Rohleistung 2 Jahre zurück sein wird.
Völlig irrelevant wieviel man letztendes rauskitzeln kann, das Potential der kommenden Konsolengeneration ist einfach geringer als das einer PS3 und Xbox 360 war.
und dein Problem ist, dass du diese Punkte schlichtweg nicht verstehst, worum es mir da geht.

Wie gesagt, die PS4 setzt Gerüchtenzugfolge auf HSA. Wenn die Konsole auf HSA setzt dann wird die CPU auch nicht mit 4GHz takten (eher 2GHz, vielleicht auch weniger Kerne), da die GPU die meisten Berechnungen übernehmen würde.
was zu begrüßen wäre, aber da sich eben nicht jeder Prozess auf die GPU verlagern lässt, völlig egal wie toll die Architektur dahinter ist.
Es wäre jedoch für AMDs Zukunft wichtig, wenns so kommt und wenn man doch Spiele ordentlich dafür optimieren könnte.

20W AMD CPU (28nm A10 Abwandlung (z.B. ohne x86 und MMX Befehlsätze), 2GHz, 1 Modul)
LOL genau ohne x86? AMD hat niemals die Ressourcen mal eben eine neue Architektur und einen neuen Befehlssatz auf die Beine zu stellen. ARM vielleicht - damit schießt man sich halt im x86 Bereich gehörig ins Knie.
160W AMD GPU (8970 Abwandlung (keine DP-Einheiten, usw.), HSA fähig)
Das wird so nicht kommen.
Hmm 20 Watt für RAM alleine wär schon wenig bei schnellem RAM, zumal Stacked Mem hin oder her, viel Speicher wird auch diese Konsole nicht haben). 20 Watt also für RAM, Chipsatz, Komponenten (Platte, Laufwerk, Verbrauch Kondensatoren und Co, Controller...) nö.
FALLS Stacked Memory in Verwendung kommt, ist dieser ja außerdem trotzdem noch lansamer als der eDram der PS3
Diese Konsole würde 200W verbrauchen und hätte mit einem MCM sehr geringe Latenzen (und richtig Dampf). Man kann also viel mehr aus einer Konsole rausholen, schon alleine deshalb, weil man auf Rückwärtskompatiblität nicht achten muss.
Warum sollte man auf Rückwärtskompatibilität nicht achten? Das ist ein riesiger Pluspunkt bei einer Konsole, wenn ich eine durch die andere vollständig ersetzen kann. Auch die PS3 sowie Xbox 360 hatten eine gewisse Rückwärtskompatibilität.
Was hilft die beste Technik, wenn ständig nur noch stupide sogenannte AAA Titel veröffentlicht werden ...

Bester First-Person-Shooter der aktuellen Generation? Metroid Prime 3.
Bestes Jump'n'Run? Super Mario Galaxy 3 & Donkey Kong Country Returns.
Bestes RPG? Xenoblade Chronicles.
Bestes Casual-Game? Wario Ware Smooth Moves.

Warum? Beispiel Xenoblade: Bei einem derart gigantischen Umfang (größer als die letzten drei FF zusammen ...) schießen die Produktionskosten auf aktueller Hardware extrem in die Höhe -> man muss spielerisch auf Nummer sicher gehen um die Kosten durch hohe Verkäufe einzuspielen -> es kommt ein typisches 08/15 "Hollywood" Game dabei raus ohne jegliche Innovationen.

Beispiel Metroid Prime 3: Der durchschnittliche CoD/Halo/Uncharted-Käufer würde nach dem ersten Level den Controller frustriert in die Ecke donnern ... Eben ein innovatives, relativ schwieriges "Hardcore Game".

Vielleicht kann gerade das bessere Hardware beenden:
Endlich mehr Power für Künstliche Intelligenz oder bessere Physik, es hätte tatsächlich seinen Vorteil die zusätzlichen Cores einer iGPU für eines der beiden zu benutzen.
Auch wenn ich nicht unbedingt daran glaube, denn die Hardware stellt zwar jetzt keine Einschränkungen mehr dar für die Entwickler (oder halt:weniger), aber die Formel eines erfolgreichen AAA Titels ist immer schon gewesen "möglichst einfach und spektakulär sein) - ergo wird ein COD niemals ein komplexer Shooter mit toller Physik und AI sein. De facto gab es zerstörbare Welten schon vor 10 Jahren, gute KI auch. Aber das ist halt kein Fokus in deR Entwicklung. Auch diverse andere, kreative Konzepte, Götterspiele usw... wird es wohl nicht so häufig geben. Eigentlich gibts total kreative Spiele ja auch heute, nur werden sie selten zu einer Bekanntheit wie COD kommen. Mir hat erst neulich ein Freund ein paar Gameplayvids von Spielen auf der PS3 geschickt, die absolut beeindruckend sind, etwas weit weg von unseren derzeitigen Standardgames - und dennoch hat man nie was davon gehört.
 
Zuletzt bearbeitet:
Zurück