Playstation 4: Kommt Sonys neue Konsole noch Weihnachten 2013?

sry bin auch echt nicht mehr ganz fit. steamroller 2 decoder pro fpu, iwie so. is für heute dann auch mein letzter beitrag.das mit der verbindung interessiert mich aber auch, ohne den hsa-teil hätte ja crossfire oder oder eine art sli bridge gereicht. so muss ja auf fast alle cpu komponenten zugegriffen werden was mir imm so erscheint als bräuchte es einen extremen last level cache ring cache um apu und gpu, aber irgendwie kein plan wie das funktionieren soll. am ehesten könnte ich mir noch einen co prozessor wie zu 386 486 zeiten denken der prioritäten managment und cache zuweißung übernimmt, aber der macht das ganze ja auch nicht unaufwendiger, ansonsten muss man die anbindung ja soweit ausbauen das ein großteil der in fragmenten berechneten daten extrem schnell zum jeweiligen ort verschoben werden und dann im llc wieder zussamengefügt werden kann, denn ansonsten bremst es sich doch selber aus soweit ich das richtig verstanden habe?
Dann ein kleiner Überblick:
http://www.xbitlabs.com/images/news/2009-11/amd_bulldozer_scheme.jpg

Bei Bulldozer gibt es einen Decoder-Block der bis zu 4 Instruktionen decodieren kann und den Einheiten bereit stellt.
Bei Steamroller bekommt jeder Integer-Core seinen eigenen Decoder spendiert:
http://ht4u.net/news2/news_images/amd_hotchips_2012_steamroller_1.jpg

AMD sagt aber nichts darüber aus, wie viele Instruktionen so ein Decoder bereitstellen kann.
Anandtech spekuliert auf jeweils 4 Instruktionen pro Decoder, hardware.fr spekuliert mit 3 Instruktionen und laut Optimierungshandbuch verändert sich das maximale Output gar nicht. Scheint statt 1x4 jetzt wohl 2x2 zu werden.
Also man schneidet das Maximum ab, weil bei Bulldozer kann ein Integer-Core mit bis zu 4 Instruktionen gefüttert werden, wenn der zweite inaktiv ist, bei Steamroller wird dieses Maximum nicht mehr existieren, aber auch kein Worst-Case, wo sich beide Integer-Cores um die Ressourcen und die Verteilung "prügeln".
Ist schon aber eine Weile her, dass ich das letzte mal das Zeug gelesen habe, vielleicht gibt es dazu mittlerweile mehr.

Zu dem Rest:
Ich verstehe nicht ganz genau, was du sagen willst bzw. worüber du nachfragen tust.
Was meinst du mit ohne HSA-Teil hätte eine Bridge gereicht? Für was denn?

Das mit dem Ring ist so: Die GPU von Sandy-Bridge kann den L3 benützen, um irgendwelche Daten zu cachen, anstatt über den Hauptspeicher zu gehen DDR3 z.B.
Das spart Zeit und Bandbreite, weil so ein Cache natürlich deutlich schneller arbeitet und auch in der Nähe ist, womit man zackige Zugriffszeiten hat.
Llano oder Trinity machen das gar nicht.
Die GPU speichert glaube ich alle ihre Sachen beim Hauptspeicher.

Woher du das ganze Zeug mit dem ausbremsen hast, keine Ahnung.
Am Ende eines Rendering werden alle Daten wichtigen Daten für das Bild zusammengefügt, dabei gibt es natürlich viele Datenansammlungen und viel fragmentiertes Zeug, weswegen hohe Bandbreiten wichtig sind bzw. benötigt werden.
Ein Grund weswegen z.B. die Xbox 360 10mb eDRAM angeschlossen an das Back-End hat, welcher ungefähr ~190Gb/s output liefert.
Da wird also das Bild extrem schnell zusammengeführt.
DDR3 hat ja so durchschnittlich im Dual-Channel 25 Gb/s Sekunde und eine GPU z.B. Kepler 680 GTX hat auch seine 192Gb/s für die gesamte GPU.
 
@Hevioso
Hab alle deine Posts gelesen, auch die in den anderen Threads. Scheint so als würdest du dich Intensiv mit der Matereie auseinandersetzen.
Du machst einen sehr Seriösen Eindruck und deine Aussagen (dein Wissen) bezüglich der Hardware sind sehr glaubwürdig.
Würde mir nichts mehr Wünschen das Sony genauso denkt wie du und deine Ideen und Vorstellungen bezüglich der PS4 in die Tat umsetzt.:hail:

Das Problem ist, das all die Informationen die zur Zeit im Internet rumgeistern, immer noch nur Gerüchte und Spekulationen sind.
Wer sagt das Sony zu 100% auf AMD setzt? Vielleicht die GPU aber die CPU kann trotzdem eine andere sein, wie schon gesagt bisher alles nur Gerüchte.

Ich persönlich hab einfach das Gefühl das die PS4 nicht viel besser sein wird als die PS3, jedenfalls nicht so gut wie du dir das Vorstellst, nur aus dem Grund weil Sony Finanziel nicht mehr so gut aufgestellt ist werden sie an der Konsole Sparen wo es nur geht um mehr Gewinn zu machen. (nur meine bescheidene Meining)
 
Das Problem ist, das all die Informationen die zur Zeit im Internet rumgeistern, immer noch nur Gerüchte und Spekulationen sind.
Wer sagt das Sony zu 100% auf AMD setzt? Vielleicht die GPU aber die CPU kann trotzdem eine andere sein, wie schon gesagt bisher alles nur Gerüchte.

Ich persönlich hab einfach das Gefühl das die PS4 nicht viel besser sein wird als die PS3, jedenfalls nicht so gut wie du dir das Vorstellst, nur aus dem Grund weil Sony Finanziel nicht mehr so gut aufgestellt ist werden sie an der Konsole Sparen wo es nur geht um mehr Gewinn zu machen. (nur meine bescheidene Meining)
Charlie hat für gewöhnlich halbwegs verlässliche Infos dazu.
Auch von anderen Seiten scheint man das gewusst zu haben.
Die Devkits sprechen ebenfalls dafür.

Bei der Xbox Next wurde scheinbar erst einmal mit Power geplant, aber dann verworfen und jetzt setzt man "anscheinend" auch auf AMD. Aber da ist alles etwas wirrer.

Und in wie fern sollte die PS3 nicht so viel besser als die PS3 werden?
Die PS3 schneidet von der Leistung relativ schlecht ab, dass war teils Geld zum Fenster rausgeschmissen.

Sony ist zwar angeschlagen, aber ein riesiger Konzern, anders als bei AMD hat Sony wohl kaum Probleme Kapital herzubekommen.
Wenn es für Sony sich rentieren sollte und das mehr oder weniger sicher, dann wird man da nicht unbedingt geizen müssen.
 
Ich weiss das meine Frage zur Zeit keiner beantworten kann, aber was denkt ihr wer wird die bessere Hardware abliefern Microsoft oder Sony?

Die Xbox Next wird warscheinlich auch ein BlueRay Laufwerk haben somit ist man auf Sony schon nicht mehr angewiesen.
Die Xbox Next könnte auch DirectX 11 unterstützen was ein grosses Plus gegenüber der PS4 wäre. Leider ist es doch so das heutzutage Multiplatform Titel primär auf der Xbox entwickelt werden um dann schlecht auf die PS3 portiert zu werden. BF3 läuft und sieht besser aus auf der Xbox (habs auf beiden Platformen gezockt)

Hatte immer nur die Playstation Zuhause, sollte das mit den Portierungen auf der Next Gen so weitergehen überlege ich mir vielleicht die Xbox zu holen.
 
Explizit steht da wohl nur bei dir etwas.
Es steht dort als erweiterte Möglichkeit, was man mit der APU anfangen könnte.
Diese Möglichkeiten würde auch schon Pitcairn liefern können, wenn man general compute von den Shadern per ACE übernimmt und den Rest für die Grafik reserviert.
Wo ist der Unterschied das von einer IGPU zu übernehmen, außer das die Abstufungen mit der zusätzlichen GPU wohl weniger flexibler wären.
Die ACEs verbrauchen auch wenig die-size, falls mehr davon benötigt werden.

Erweiterte Möglichkeit? Es ist die Kernaussage der gesamten Präsentation! Es geht hier nur darum, wie die Zukunft von GPGPU in Videospielen aussieht, softwareseitig als auch hardwareseitig. Für die Next Gen ist dieses offizielle Dokument vermutlich einer der wichtigsten Anhaltspunkte um auf die Hardware der Next Gen zu schließen. Die PlayStation 3 wird sogar explizit erwähnt und zwar im Zusammenhang mit der APU + GPU Kombination, welche AMD auch zukünftig für Hardcore-Gaming empfiehlt.

Ich muss zugeben: Ich weiß nicht, ob die ACEs das kompensieren können was erst mit der 4th-Gen HSA kommen wird. Aber man kann als Aussenstehender sehr leicht zu dem Schluß kommen: Nein, sie können es nicht. Diese Präsentation ist vom Fusion Developer Summit im Juni 2012. Zu diesem Zeitpunkt war die gesamte GCN-Produktpalette bereits auf dem Markt, also auch GPUs mit den von dir angesprochenen ACEs. Und trotzdem behauptet AMD, dass die effektivste, am besten programmierbarste und latenzärmste Lösung APU + GPU sei oder HSA 4th Gen sei.

Warum sollten AMD sowas behaupten, wenn die Lösung des Problems doch bereits jetzt schon greifbar nahe ist. Ich denke du irrst dich in dieser Sache. Wenn die ACE das könnten, dann wüsste AMD das selber und sie würden nicht so einen Mist auf die Folien schreiben.
 
Patent: United States Patent Application: 0120320068

Wurde im Sommer angemeldet. Was haltet ihr davon ? Architecturally distinct ? Deutet auf 2 unterschiedliche GPUs hin.

Dieses Patent bezieht sich auf die Zusammenarbeit von low power GPUs (zB etwas Smarphonemäßigem) und high power GPUs (zB in der PS4) mit unterschiedlicher Architektur. Dieses Patent ist in der Tat sehr interessant, auch wenn es etwas anderes beschreibt als wir hier gerade diskutieren.

Zum einen könnte es meine These unterstützen, dass Sony extra Hardware nur für das OS einbaut, also ein paar ARM Kerne, ein paar GiB langsamen Speicher und eine PowerVR Grafik. Die PowerVR-Grafik könnte dank diesem Patent mit einer dicken GCN-GPU zusammenarbeiten, zum Beispiel wenn für eine spezielle OS-Aufgabe Leistung fehlt, oder um Dinge wie Ladebildschirme von der PowerVR Grafik darzustellen um Strom zu sparen. Es ist aber auch denkbar, dass es hier um die Kommunikation eines Handhelds mit der PS4 geht, also entweder die Vita oder ein Vita-ähnlicher Controller für die neue Konsole. Eine günstige PowerVR-Grafik hätte genug Kraft um Chats, Inventar und Maps darzustellen, aber um so etwas Wii-mäßiges wie zB in Zombie U darzustellen, braucht man die Power der dedizierten GPU.
 
Ich weiss das meine Frage zur Zeit keiner beantworten kann, aber was denkt ihr wer wird die bessere Hardware abliefern Microsoft oder Sony?

Wie definierst du "besser"? Am meisten Rechenleistung? Am einfachsten zu programmieren? Das beste Featureset? Diese Frage wird dir im Vorfeld niemand beantworten können. Man kann allerdings ein paar Dinge vermuten.

Ich vermute, dass die Grafikpower und das Featureset von XBox720 und PS4 ziemlich gleich sind, denn dafür werden alleine die 3rd-Party Entwickler sorgen. Mehr Rechenleistung generell erwarte ich bei Microsoft, allerdings bin ich davon überzeugt, dass diese zusätzliche Power nicht in den Spielen ankommt, sondern für Kinect verwendet wird. Das was Kinect machen soll braucht - sofern man es gut machen möchte - ne ganze Menge Rohleistung. Mein Problem mit Microsoft ist generell, dass sich diese viel zu sehr auf den US-Markt konzentrieren und mit Sony, Apple und Google an mehreren Fronten kämpfen müssen. Ich sehe die Gefahr, dass Microsoft mit Dingen wie Smartglass und Kinect zwar ein tolles Multimediahub auf die Beine stellt, aber dafür die Core-Gaming Features vernachlässigt.

Bei beiden Herstellern kann man Multiprozessortechnologie erwarten, das heißt, dass nicht mehr wie in der PS3 ein Cell alles macht, sondern für jeden Einsatzbereich ein hochspezialisierter Prozessor zum Einsatz kommt. Das erhöht die Performance und spart Strom. Wieviele Prozessoren davon heterogen Aufgebaut werden (also zum Beispiel in einer APU), kann man nicht sagen. Dementsprechend ist die maximale theoretische Rechenleistung der neuen Konsolen auch mit Vorsicht zu genießen: Nicht jedes FLOP und nicht jeder Prozessor wird für die Videospiele verwendet werden, das ist sicher.

Von einer Sache bin ich aber fest überzeugt: Sony wird aus der Vergangenheit gelernt haben und Hardware verwenden, die für die Entwickler keinen unnötigen Mehraufwand darstellt. Ich denke nicht, dass Sony mit der Spieleperformance Probleme kriegen wird, ganz im Gegenteil. Ich denke Sony wird alles dafür tun um wieder Leadplatform für 3rd-Parties zu werden, so wie zu PS2-Zeiten. Ich sehe Sonys Probleme eher bei der Peripherie, einfach weil ich nicht weiß, was die für Extra-Features mitliefern werden. Vielleicht machen sie was mit Augensteuerung, vielleicht haben sie Move verfeinert, vielleicht nutzen sie ein Tablet wie Nintendo, vielleicht machen sie was mit VR-Brille oder -Helm ...ich habe keine Ahnung. Aber sie müssen was machen und sie werden auch etwas machen. Genug Patente diesbezüglich besitzen sie ja. Sony hat in Sachen Controllertechnologie das größte Know-How von allen drei Herstellern, nur haben sie dieses Know-How immer an Konkurrenz wie Nintendo lizensiert und nicht selber genutzt. Wenn sie wollen, dann könnten sie. Sie müssen sich nur mal trauen.

Man schaue sich alleine mal die VITA an. Das ist mit Abstand die beste Konsole die Sony je gebaut hat. Sie haben sie zwar für einen stark schrumpfenden Markt gebaut, aber das ändert ja nichts an der Qualität dieser Konsole. Die VITA ist genial, sie ist ein absolut perfekt ausbalanciertes Stück Hardware: Sie hat viel Rechenleistung aber sie ist trotzdem leicht zu programmieren, sie hat tolle Features wie den Touchscreen und das Touchpad, alle Materialien und Bauteile sind extrem hochwertig und dieses Teil hat einfach ein tolles Design. Wenn Sony dieses Niveau auch mit der PS4 erreicht und eine perfekt ausbalancierte Konsole abliefern kann, dann werden die richtig erfolgreich sein. Die VITA hat mich sehr positiv gestimmt, auf das was man von Sony erwarten kann.

@Hevioso
Hab alle deine Posts gelesen, auch die in den anderen Threads. Scheint so als würdest du dich Intensiv mit der Matereie auseinandersetzen.
Du machst einen sehr Seriösen Eindruck und deine Aussagen (dein Wissen) bezüglich der Hardware sind sehr glaubwürdig.
Würde mir nichts mehr Wünschen das Sony genauso denkt wie du und deine Ideen und Vorstellungen bezüglich der PS4 in die Tat umsetzt.:hail:

Ich hab viel weniger Ahnung als man denken mag. Ich kann mich nur gut verkaufen... :D
 
Zuletzt bearbeitet:
Was hat Sony nur vor ?


Sony patent uncovered: “Dynamic Content Switching Between Architecturally Distinct GPUs” | Gamechup | Video Game News, Reviews, Features, Guides


Patent: United States Patent Application: 0120320068

Wurde im Sommer angemeldet. Was haltet ihr davon ? Architecturally distinct ? Deutet auf 2 unterschiedliche GPUs hin.
Wenn dieses Patent zum Einsatz kommt, dann ist es eine APU+GPU Kombination. Es beschreibt aber erst einmal nur wie man 2 unterschiedliche GPUs einsetzen kann.

Erweiterte Möglichkeit? Es ist die Kernaussage der gesamten Präsentation! Es geht hier nur darum, wie die Zukunft von GPGPU in Videospielen aussieht, softwareseitig als auch hardwareseitig. Für die Next Gen ist dieses offizielle Dokument vermutlich einer der wichtigsten Anhaltspunkte um auf die Hardware der Next Gen zu schließen. Die PlayStation 3 wird sogar explizit erwähnt und zwar im Zusammenhang mit der APU + GPU Kombination, welche AMD auch zukünftig für Hardcore-Gaming empfiehlt.

Ich muss zugeben: Ich weiß nicht, ob die ACEs das kompensieren können was erst mit der 4th-Gen HSA kommen wird. Aber man kann als Aussenstehender sehr leicht zu dem Schluß kommen: Nein, sie können es nicht. Diese Präsentation ist vom Fusion Developer Summit im Juni 2012. Zu diesem Zeitpunkt war die gesamte GCN-Produktpalette bereits auf dem Markt, also auch GPUs mit den von dir angesprochenen ACEs. Und trotzdem behauptet AMD, dass die effektivste, am besten programmierbarste und latenzärmste Lösung APU + GPU sei oder HSA 4th Gen sei.

Warum sollten AMD sowas behaupten, wenn die Lösung des Problems doch bereits jetzt schon greifbar nahe ist. Ich denke du irrst dich in dieser Sache. Wenn die ACE das könnten, dann wüsste AMD das selber und sie würden nicht so einen Mist auf die Folien schreiben.
Die Aussage ist, dass sich Gamer auch weiterhin eine dedizierte kaufen werden und das mit der APU diese als Beschleuniger eingesetzt werden kann. Fertig aus.
Die PS3 wird in dem Kontext als Vergleich genannt, wo die SPUs natürlich als Co-Prozessoren eingesetzt werden, dass wären halt in dem Fall die SIMD-Einheiten der APU, wobei hier geschrieben wird das mit den SIMD-Einheiten der GPU die CPU entlastet werden soll.
Asymmetrisches Crossfire haben wir aber auch schon heute.

Da wird aber mit keiner Silbe 4th Generation erwähnt und eine Kombinationen der 3rd Generationen, die auf das gleiche Ergebnis kommt oder ähnliches.
Ebenso wird nicht erwähnt das es die latenzärmste Lösung und am einfachsten zu programmierbare Lösung ist.
Aber das herbeiziehen von Informationen die dort nicht stehen, überlasse ich dir.

AMD hält die Folie sehr "allgemein". Das wird von APIs gesprochen, Software, Treiber, das Zusammenspiel von mehreren Einheiten usw.
Da geht niemand darauf ein, was jetzt schon möglich ist oder was gerade fehlt.

Ich weiss das meine Frage zur Zeit keiner beantworten kann, aber was denkt ihr wer wird die bessere Hardware abliefern Microsoft oder Sony?

Die Xbox Next wird warscheinlich auch ein BlueRay Laufwerk haben somit ist man auf Sony schon nicht mehr angewiesen.
Die Xbox Next könnte auch DirectX 11 unterstützen was ein grosses Plus gegenüber der PS4 wäre. Leider ist es doch so das heutzutage Multiplatform Titel primär auf der Xbox entwickelt werden um dann schlecht auf die PS3 portiert zu werden. BF3 läuft und sieht besser aus auf der Xbox (habs auf beiden Platformen gezockt)

Hatte immer nur die Playstation Zuhause, sollte das mit den Portierungen auf der Next Gen so weitergehen überlege ich mir vielleicht die Xbox zu holen.
Wer genau besser bei der Hardware sein wird, kann dir hier niemand sagen.
In wie fern hat eig. das Blu Ray Laufwerk mit Sony und angewiesen zu tun?
So oder so wird man Sony etwas Lizenzgebühren zahlen müssen.
Das hätten sie auch jetzt mit der Xbox 360 machen können.
Die Xbox Next wird eine spezielle API unterstützen und die PS4 ebenso, direkt wird keine von beiden DX11 benutzen.
Es ist nicht direkt als Plus zu werten, ein Plus könnte sein, dass MS als Software-Unternehmen und als langjähriger API Mitentwickler für die Entwickler eine bessere API bereit stellen kann, dass ist aber nur eine Spekulation.
Das mit dem Portierungen ist übrigens schwer.
Die PS3 hat eine schwächere GPU, der Speicher ist wenig flexibel einstellbar und der Cell braucht viel Liebe, um richtig ausgequetscht zu werden, pure "Unfähigkeit und billige Portierungen" wie häufig unterstellt wird, finden in dem Ausmaß sicherlich gar nicht statt.
Mit einer anderen Hardware-Kombination kann es hier für Sony wieder ganz anders aussehen.

Von einer Sache bin ich aber fest überzeugt: Sony wird aus der Vergangenheit gelernt haben und Hardware verwenden, die für die Entwickler keinen unnötigen Mehraufwand darstellt. Ich denke nicht, dass Sony mit der Spieleperformance Probleme kriegen wird, ganz im Gegenteil. Ich denke Sony wird alles dafür tun um wieder Leadplatform für 3rd-Parties zu werden, so wie zu PS2-Zeiten.
Die PS2 war aber auch nicht unbedingt ein gutes System, bezogen auf die Hardware. Leaderschaft wird nicht durch die beste oder einfachste Hardware sichergestellt.

Man schaue sich alleine mal die VITA an. Das ist mit Abstand die beste Konsole die Sony je gebaut hat. Sie haben sie zwar für einen stark schrumpfenden Markt gebaut, aber das ändert ja nichts an der Qualität dieser Konsole. Die VITA ist genial, sie ist ein absolut perfekt ausbalanciertes Stück Hardware: Sie hat viel Rechenleistung aber sie ist trotzdem leicht zu programmieren, sie hat tolle Features wie den Touchscreen und das Touchpad, alle Materialien und Bauteile sind extrem hochwertig und dieses Teil hat einfach ein tolles Design. Wenn Sony dieses Niveau auch mit der PS4 erreicht und eine perfekt ausbalancierte Konsole abliefern kann, dann werden die richtig erfolgreich sein. Die VITA hat mich sehr positiv gestimmt, auf das was man von Sony erwarten kann.
Die Vita ist auch zum Teil das "normalste" in der Funktionsweise was Sony wohl neben der PSP jemals gebaut hat.
Das war jetzt keine außerordentliche Meisterleistung von Sony allein.
Stacked-Ram ist das "einzig" Besondere an der Vita.
Zum Rest, jep edles Stück und ein eig. sehr gutes Paket, gute Hardwareabstimmung, guter Display, gute Verarbeitungsqualität.
Sony rafft bloß nicht wie man sich IPs sichern sollte und lässt das Spieleangebot auf der Vita verhungern.
Die Verkaufszahlen sind sehr schlecht, die 3DS deklassiert das Ding in dem Sinne total.

Gewinnen tut in der Branche der, der dem Kunden die besten Spiele zur Verfügung stellen kann.
Nintendo hat hier aggressiv die Final Fantasy Teile, Monster Hunter, Dragonquest und weitere für sich.
Sony hat in Japan den Markt einfach von Nintendo erobern lassen.
Außerhalb der Japanwelt sieht es auch nicht bedeutend besser aus.
 
Die Aussage ist, dass sich Gamer auch weiterhin eine dedizierte kaufen werden und das mit der APU diese als Beschleuniger eingesetzt werden kann. Fertig aus.
Die PS3 wird in dem Kontext als Vergleich genannt, wo die SPUs natürlich als Co-Prozessoren eingesetzt werden, dass wären halt in dem Fall die SIMD-Einheiten der APU, wobei hier geschrieben wird das mit den SIMD-Einheiten der GPU die CPU entlastet werden soll.
Asymmetrisches Crossfire haben wir aber auch schon heute.

Asymmetrical Crossfire geht heute schon, klar, aber das interessiert keinen. SLI und Crossfire ist sowieso totaler Blödsinn und in einer Konsole wird sowas niemals eingesetzt werden. Wichtig für eine Konsole ist der andere Punkt und zwar "Dedicate the on-die GPU to Compute Algorithms". Das ist was ganz anderes als Asymmetrical Crossfire und wird heutzutage eben noch nicht gemacht, bzw nur in ganz, ganz eingeschränktem Maße. Adobe Photoshop erlaubt sowas ein klein wenig, aber das ist kein Videospiel. In dieser Präsentation geht es aber ausdrücklich um GPGPU in Videospielen. Deswegen ist diese Präsentation auch so interessant für die Next Gen.

Da wird aber mit keiner Silbe 4th Generation erwähnt und eine Kombinationen der 3rd Generationen, die auf das gleiche Ergebnis kommt oder ähnliches.
Ebenso wird nicht erwähnt das es die latenzärmste Lösung und am einfachsten zu programmierbare Lösung ist.
Aber das herbeiziehen von Informationen die dort nicht stehen, überlasse ich dir.

Ich denke du liest dir das nicht richtig durch oder hast Verständnisschwierigkeiten mit der englischen Sprache.

Da steht doch eindeutig, dass eines der größten Probleme für GPGPU in Videospielen der Copy Overhead ist. Der Kopiervorgang alleine braucht mehr Zeit als die Berechnung des Prozessors, weswegen das ganze System nur durch das andauernde hin und herkopieren der Daten stillgelegt wird. Solange das der Fall ist, macht die Verwendung von GPGPU in Videospielen nur sehr wenig bis gar keinen Sinn. Die Lösung für dieses Problem nennt AMD auch gleich und das sind ein koheränter Speicherpool und einheitliche Adressräume für CPU und iGP. Diese beiden Features sind die Grundvorraussetzungen für den Erfolg der HSA in Videospielen. Das führt uns dann zu dieser Präsentation, ebenfalls vom Fusion Developer Summit im Juni 2012: HSA Overview

Dort wird die Entwicklung der HSA in vier Stufen eingeteilt. Die erste Generation ist die physikalische Integration von CPU und GPU auf einem Die, zB wie bei Llano. Die zweite Generation beschreibt weitere Verbesserungen wie GPU Compute C# Support und HSA MMUs, das betrifft Trinity. Die dritte Generation der HSA stellt einheitliche Adressräume für CPU und GPU und voll-koheränten Speicher zur Verfügung (klingelts?), das betrifft Kaveri und Kabini. Die vierte Generation führt GPU Context Switching und Graphics Pre-Emption ein, das wird aber erst mit der 20nm HD9000 Grafik passieren.

Das heißt im Klartext, dass die Verwendung einer HSA in einer Spielekonsole nur dann Sinn macht, wenn es sich dabei um eine HSA der dritten Generation handelt, denn sonst kannst du GPGPU in Games total vergessen. Die ganzen Next Gen Engines strotzen aber nur so vor lauter GPGPU-Algorithmen und deswegen wird GPGPU auf den Next Gen Konsolen eine extrem wichtige Rolle spielen. Das führt uns dann wieder zu der Sache, die ich dir jetzt bestimmt schon vier oder fünfmal versucht hab klar zu machen:

Für GPGPU in Videospielen braucht man also mindestens eine APU der dritten HSA Generation mit einheitlichen Adressräumen und koheräntem Speicher in Kombination mit einer dedizierten GPU, da die einzelne iGP mit Game Code und GPGPU-Algorithmen nicht gleichzeitig fertig wird, bzw dabei viel zu viele Federn lässt, oder eine einzelne APU der vierten HSA Generation mit Graphics Pre-Emption und Context Switching, die mit Game Code und GPGPU-Algorithmen gleichzeitig fertig werden kann. Da die vierte HSA Gen aber für 2014/2015 geplant ist, ist der Einsatz von APU+GPU in der PS4 viel wahrscheinlicher.
 
Zuletzt bearbeitet:
Ich denke du liest dir das nicht richtig durch oder hast Verständnisschwierigkeiten mit der englischen Sprache.

[1] Da steht doch eindeutig, dass eines der größten Probleme für GPGPU in Videospielen der Copy Overhead ist. Der Kopiervorgang alleine braucht mehr Zeit als die Berechnung des Prozessors, weswegen das ganze System nur durch das andauernde hin und herkopieren der Daten stillgelegt wird. Solange das der Fall ist, macht die Verwendung von GPGPU in Videospielen nur sehr wenig bis gar keinen Sinn. Die Lösung für dieses Problem nennt AMD auch gleich und das sind ein koheränter Speicherpool und einheitliche Adressräume für CPU und iGP. Diese beiden Features sind die Grundvorraussetzungen für den Erfolg der HSA in Videospielen. Das führt uns dann zu dieser Präsentation, ebenfalls vom Fusion Developer Summit im Juni 2012: HSA Overview

[2] Dort wird die Entwicklung der HSA in vier Stufen eingeteilt. Die erste Generation ist die physikalische Integration von CPU und GPU auf einem Die, zB wie bei Llano. Die zweite Generation beschreibt weitere Verbesserungen wie GPU Compute C# Support und HSA MMUs, das betrifft Trinity. Die dritte Generation der HSA stellt einheitliche Adressräume für CPU und GPU und voll-koheränten Speicher zur Verfügung (klingelts?), das betrifft Kaveri und Kabini. Die vierte Generation führt GPU Context Switching und Graphics Pre-Emption ein, das wird aber erst mit der 20nm HD9000 Grafik passieren.

[3]
Das heißt im Klartext, dass die Verwendung einer HSA in einer Spielekonsole nur dann Sinn macht, wenn es sich dabei um eine HSA der dritten Generation handelt, denn sonst kannst du GPGPU in Games total vergessen. Die ganzen Next Gen Engines strotzen aber nur so vor lauter GPGPU-Algorithmen und deswegen wird GPGPU auf den Next Gen Konsolen eine extrem wichtige Rolle spielen. Das führt uns dann wieder zu der Sache, die ich dir jetzt bestimmt schon vier oder fünfmal versucht hab klar zu machen:

[4] Für GPGPU in Videospielen braucht man also mindestens eine APU der dritten HSA Generation mit einheitlichen Adressräumen und koheräntem Speicher in Kombination mit einer dedizierten GPU, da die einzelne iGP mit Game Code und GPGPU-Algorithmen nicht gleichzeitig fertig wird, bzw dabei viel zu viele Federn lässt, oder eine einzelne APU der vierten HSA Generation mit Graphics Pre-Emption und Context Switching, die mit Game Code und GPGPU-Algorithmen gleichzeitig fertig werden kann. Da die vierte HSA Gen aber für 2014/2015 geplant ist, ist der Einsatz von APU+GPU in der PS4 viel wahrscheinlicher.
Ich denke du hast Probleme damit Sachen korrekt wiederzugeben. Da steht immer noch nichts von der 4th Generation oder das APU+GPU das latenzärmste wäre oder die 4th Generation, ebenso steht da auch nichts von "die leichteste Programmierung" dass sind einfach Sachen die du dir dazu dichtest, weil sie dir logisch erscheinen und das mit 4th etc. holst du dir aus der normalen HSA Roadmap.
Die Folie hält sich aber nicht explizit an diese HSA-Roadmap, das gleichst du nur mit der Roadmap ab, weil da einige Features genannt werden die auf der allgemeinen HSA Roadmap erst ab der dritten Generation erreicht werden soll und später werden Features von der vierten Generation genannt, dass trennst du alles bei dir, die Folie macht das aber nicht, sondern nennt einfach alle Vorteile ohne einen konkreten Bezugspunkt zu haben.
An dieser Stelle will ich gar nicht sagen das du unrecht hast, aber das Zeug was du meinst steht nicht bei den Folien, sondern sind deine eigenen Abgleichungen.

1. Absatz, nichts neues?
2. Absatz auch nichts neues.
3. Auch nichts neues
4. Bei der 4th Generation wird eingezeichnet, dass bei der System-Integration auch die dedizierte sich dazugesellen soll:
http://techreport.com/r.x/amd-fad-2012/hsa-feature-roadmap.jpg

Haben wir da nicht ein Problem, so etwas soll doch erst ab den Volcanic Islands stattfinden? :schief:
Ohne gemeinsamen Adressraum hättest du wieder einen Copy-Overhead, ein gemeinsamer Adressraum auf einer APU ist wieder etwas anderes, als ein gemeinsamer Adressraum bei einer APU+GPU und mit zusätzlichem kohärenten Speicher.
Auf einer Konsole ist das ganze wieder ganz anders, hier kann ich einen gemeinsamen Speicher verbauen und die Controller und Memory Units ganz anders verdrahten, als auf dem PC und das Feature was auf dem PC erst 2014 vorgesehen ist, auch schon früher realisieren.
Das gleiche kann man auch nur mit einer einzigen APU machen, Copy-Overhead wäre so oder so weg, was hier stören würde wäre einzig alleine die Tatsache das GCN ein Performance Hit bekommt, falls von Grafik auf GPGPU umgestellt wird, weil er ja laut HSA-Roadmap kein Context-Switching beherrschen sollte, was er aber durch die ACEs schon tut und was ist eig. mit GCN2, da werden zusätzliche HSA-Features mit dabei sein, sind die Irgendwo auf der Roadmap eingezeichnet oder sind das gar die Sachen, die AMD bei 2014 einzeichnet, die fertigen Produkte bei AMD hinken ja bisher 1 Jahr hinter den aktuellen GPU-Architekturen zurück.
Und das ist die Sache die ich meine.
Da stehen nur grobe Anhaltspunkte und was man bieten will. Da steht nichts darüber, welche Architektur benötigt wird, ob man das von der Hardware schon theoretisch könnte, aber nicht die Tools bisher dafür entwickelt hat usw.
Das ganze HSA Zeug setzt auf CPU, GPU, Northbridge und Southbridge.
Ich kann von der nicht direkt ableitet, woran es aktuell mangelt.
 
Lies dir diese beiden Sachen durch, von vorne bis hinten:

GPGPU algorithms in games
HSA Overview

Beide Folien stammen vom selben Event (Fusion Dev Summit) welches im Juni 2012 stattfand. Diese beiden Folien sind also topaktuell und aufeinander abgestimmt

Da steht genau das drin was ich dir jetzt zig mal gesagt habe:

How to deal with a saturated GPU? (auf den slides vorher wird erklärt, dass eine zu sehr ausgelastete (saturated) GPU die Latenzen negativ beeinflusst. Das passiert anscheinend vor allen Dingen bei DirectX Code. Low Level APIs können das sicher auch anders lösen, aber das erinnert dann doch stark an die heterogene Cell Architektur, bei der der Code für die SPEs mit perfektem Timing abgestimmt werden muss. Um sowas zu vermeiden, nennt AMD zwei Lösungen)

-> A second GPU: (man nutzt einfach eine dedizierte GPU für das Grafikrendering)
- dedicate the APU to Compute (also die iGP nur für GPGPU verwenden)
- virtually no latency (dadurch das die dedizierte GPU nur mit Grafikrendering beauftragt wird, sind die Latenzen für die GPGPU-Algorithmen viel geringer, da diese nur auf der iGP ausgeführt werden)

ODER

-> HSA Feature "Graphics Pre-Emption" (also das Zeug was mit der HSA 4th Gen kommt, siehe andere Folie von Juni 2012)
- Context Switching on the GPU (eines dieser Features)
- Can be used on both discrete GPUs or on the APU (heißt im Klartext, dass du die GPGPU-Algorithmen problemlos auf einer diskreten GPU oder einer APU mit diesen Features laufen lassen kannst, aber das wichtige ist: Es kann auf einer einzigen APU laufen ohne das die Latenzen dabei in die Höhe schnellen)

-> Choose the solution best suited for your need (Das heißt man wählt entweder eine Kombination aus APU und GPU, oder eine einzelne APU mit 4th Gen HSA Featureset, um latenzarm GPGPU in Games anzuwenden)


Insgesamt kann man diese Präsentationen so zusammenfassen:

GPGPU Performance einer APU:

2nd Gen HSA APU -> GPGPU erzeugt Copy Overhead -> scheiß Performance (deswegen macht sowas laut Folie nur für visuelle Dinge Sinn, die direkt bei der GPU ausgegeben werden und nicht mehr zur CPU zurück müssen)
3rd Gen HSA APU -> GPGPU erzeugt kein Copy Overhead -> gute Performance (CPU und GPU greifen auf die selben Daten zu, kein verschicken notwendig)

Zusammen mit Game Code:

3rd Gen HSA APU -> kein Copy Overhead, aber iGP kommt nicht mit GPGPU und Game Code gleichzeitig klar -> scheiß Performance (oder aufwendige Optimierung notwendig)
3rd Gen HSA APU + dedizierte GPU -> kein Copy Overhead, APU macht nur GPGPU, dedizierte GPU macht nur Game Code -> gute Performance (keine aufwendige Optimierung notwendig)
4th Gen HSA APU -> kein Copy Overhead kommt gut mit GPGPU und Game Code klar -> gute Performance
 
Zuletzt bearbeitet:
Ich sehe die Sache klassisch auf dem PC:

1) APU (CPU + GPU) macht Computing und wird synchronisiert mit der GPU, wobei hier natürlich Latenzen entstehen und ein Kopieroverhead, da am am PC kein gemeinsamer Adressraum zuerst sichergestellt werden kann, was erst später irgendwie gemacht wird.

2) Ich habe später selber die Wahl, wo ich was laufen lasse, da ein gemeinsamer Adressraum bereitgestellt wird und ich per Context-Switching auch problemlos mein Zeug nur auf einer GPU laufen lassen kann.

Bei einer Konsole würde ich das anders sehen, da ich hier keine zwei verschiedene Verbindungen habe (PCIE/HyperTransport/Intel Zeug) und auch keine 2 Speicherpools (GDDR5+DDR3) und auch sonst flexibler bei der Lösung bin.
Hier kann ich natürlich kreativer sein und das wäre auch deiner Idee eher zuträglich, da hier die IGPU wirklich sinnvoll GPGPU übernehmen kann, falls die GPU selber kein context switching beherrscht. (Was ich wie gesagt bezweifle, ich meine GCN ist schon flexibel genug dafür.)
So eine Idee sehe ich aber nicht konkret vor mir, nur wenn eine GPU selber nicht groß genug ausfallen kann.
Die Lösung wäre bei so einer Idee 7750 + 7850?
Wäre ich aus Sony-Sicht kein unbedingter Fan davon.
 
Zwischen APU und dedizierter GPU entsteht kein Copy Overhead, da die dedizierte GPU NUR Grafikrendering macht. Der Copy Overhead würde wenn überhaupt innerhalb der APU, also zwischen CPU und iGP enstehen, aber das wird durch den koheränten Speicher und die gemeinsamen Adressräume verhindert. Die APU ist als in sich Hauptprozessor zu verstehen.
 
Bei visuellen Dingen sieht es ja wie folgt aus: CPU gibt Befehl -> GPU rendering (egal ob Grafik oder GPGPU) -> Bildausgabe. Laut AMD entsteht da kein Copy Overhead oder nur sehr wenig. Deswegen funktioniert sowas wie PhysX ja auch jetzt schon für visuelle Dinge (zB Partikel). Das Problem an dieser Methode ist laut AMD aber, dass eine GPU alleine mit gleichzeitiger Berechnung von GPGPU-Algorithmen und Grafikrendering überfordert ist und dadurch die Latenzen ansteigen.

Wenn du nicht visuelle Dinge mit GPGPU berechnen willst, dann hast du folgendes Szenario: CPU gibt Befehl -> GPU rendering (GPGPU) -> zurück zur CPU -> CPU gibt Befehl -> GPU rendering (GPGPU) -> zurück zur CPU -> usw. Dabei entsteht laut AMD der Copy Overhead, weil dieses ganze hin und her mehr Zeit in Anspruch nimmt als diese Sachen überhaupt zu berechnen. Mit der dritten HSA Gen können die CPU und die iGP auf die Daten zugreifen, ohne das alles rumkopiert werden muss. Das heißt man kann die iGP in der APU für gut parallelisierbaren General Purpose Code einsetzen, die x86 Kerne der CPU für laufzeitintensiven General Purpose Code.

Das ist der Sinn der HSA.
 
Ich sage es mal so:
APU (CPU + 7750 512 Shader) + 7750 512 Shader wäre eine dumme Lösung gegenüber einer 7850-Lösung, wo 1024 Shader zum Einsatz kommen.
Das wäre nur sinnvoll, wenn man es wirklich nicht schafft eine größere GPU mit der CPU zu verheiraten und mehr processing power haben will und deswegen noch mit einer Diskreten erweitert.
Dann hätte man aber eine 2.5-2.9 TFLOPs GPU-Lösung.
Wenn Sony sich das leisten will, ein komplizierteres Design in Kauf nimmt, von mir aus.
Ich halte es wie gesagt für eher für unwahrscheinlich und werfe lieber meine große APU rein, schließlich will ich jetzt auch bei meinen Würfeln bleiben.
In einem Jahr verliere ich dann von mir aus in Scham, falls es eine APU+GPU Kombi wird. ;)
 
Warum denn 7750 als dedizierte GPU? Das ist doch total unterdimensioniert. Ich rechne eher mit sowas:

Custom-APU (4 x 3,2Ghz OoO x86-64 + HD8*** 384 Shader) + Custom-GPU (HD8*** 1280 Shader)

Zusammen irgendwas um die 2,5 TFLOP, also die "magische" Marke, die Epic Games für die 1080p Darstellung ihrer Samaritan Demo ausgegeben hat. Das alles auf nem Interposer mit 4GB stacked RAM, verbunden durch TSVs und mit über 200GB/s Bandbreite. Dazu noch ein paar weitere Prozessoren (ARM, PowerVR, etc) und zusätzliche 4GB Speicher mit unter 50GB/s für OS und andere Features. Dann noch ein 8x Quad-Layer BluRay Slot-in Laufwerk mit HD4K und 3D Tauglichkeit und eine austauschbare 500GB HDD, sowie HDMI 2.0 und USB 3.0. Im Idle würde der Stromverbrauch unter 10W bleiben, während dem Spielen unter 200W.

Ausgeliefert wird nicht mit Dual-Shock 4, sondern mit irgendeinem ganz neuen und ganz coolen Feature (irgendwas mit PlayStation-Eye, oder Tablets, oder Bewegungssteuerung, oder VR-Technologie, oder eine Kombination aus allem). Der Preis beträgt maximal 450€. Ich rechne ausserdem damit, dass Sony eine weitere SKU für 100€ anbietet, die dann entweder über ingame Werbung (Facebook Prinzip), oder über Abogebühren (Smartphone Prinzip) finanziert wird. Oder beidem.

Genau so erwarte ich die PS4. Und wie gesagt: Die größte Unbekannte, der größte Stolperstein für Sony wird nicht die Rechenleistung sein, nein, da werden sie problemlos mithalten können, sondern das tolle extra Feature, dass die PS4 einzigartig macht. Nintendo hat den Tablet Controller und Microsoft hat Kinect. Was wird Sony haben?
 
Warum denn 7750 als dedizierte GPU?
Das war nur ein Beispiel dafür, dass so etwas Blöd wäre und man deutlich besser mit nur einer 7850 als IGPU fährt und nichts dediziertes für GPGPU trägt.
Wenn es Sinn machen sollte, dann muss die GPU auf jeden Fall zu groß für eine APU sein, ansonsten würde etwas dediziertes keinen Sinn ergeben.
So eine Lösung mit einem gutem Stück mehr Power würde mich aber eher überraschen, weil die Lösung für die ~20% mehr Leistung ein gutes Stück komplizierter und teurer wäre.

Das alles auf nem Interposer mit 4GB stacked RAM, verbunden durch TSVs und mit über 200GB/s Bandbreite.
Hast du irgendein Paper, welches auf die Bandbreiten von stacked RAM eingeht?
Ich konnte dazu nur pauschale Aussagen finden, aber keine konkreten Bandbreiten Möglichkeiten.

Dazu noch ein paar weitere Prozessoren (ARM, PowerVR, etc) und zusätzliche 4GB Speicher mit unter 50GB/s für OS und andere Features. Dann noch ein 8x Quad-Layer BluRay Slot-in Laufwerk mit HD4K und 3D Tauglichkeit und eine austauschbare 500GB HDD, sowie HDMI 2.0 und USB 3.0. Im Idle würde der Stromverbrauch unter 10W bleiben, während dem Spielen unter 200W.
[/QUOTE]
Wozu brauchst du einen PowerVR? Und 4 GB nur für das OS? Was sollen denn andere Features an Speicherverbrauch haben? 2GB wären hier aus meinem Bauch heraus mehr als genug.

Genau so erwarte ich die PS4. Und wie gesagt: Die größte Unbekannte, der größte Stolperstein für Sony wird nicht die Rechenleistung sein, nein, da werden sie problemlos mithalten können, sondern das tolle extra Feature, dass die PS4 einzigartig macht. Nintendo hat den Tablet Controller und Microsoft hat Kinect. Was wird Sony haben?
Die Frage ist auch bei MS spannend. Kinect in seiner jetzigen Form ist kein Burner.
Da wird MS auf jeden Fall auch noch zusätzlich etwas in Weiterentwicklung geben müssen.
 
Gibt es schon genauere Infos welche Hardware die PS4 beinhaltet? Höre auf manchen Websites es wird eine AMD A10/A6 APU+AMD GPU und auch manchen Seiten eine AMD CPU+HD 7XXX .... echt verwirrend
 
Zurück