The Witcher 3: Zukünftig PS4 und Xbox 720 als Haupt-Entwicklungsplattform?

AW: The Witcher 3: Zukünftig PS4 und Xbox 720 als Haupt-Entwicklungsplattform?

CD Project hat aus seiner alten Engine mit The Witcher 2 wohl alles rausgequetscht was ging, da sie noch keine neue hatten.
Diese ist erst jetzt fertig geworden und da sie wohl nicht solange warten wollten haben sie ihre alte DX9 Engine Benutzt.
 
AW: The Witcher 3: Zukünftig PS4 und Xbox 720 als Haupt-Entwicklungsplattform?

Indem Sinne ist der PC bald keine schöne Entwicklungsplattform im Vergleich zu den Konsolen.

Du vergisst aber das es auch noch eine XBox Next geben wird. Ich glaube nicht das die XBox Next abgesehen von einer leicht schwächeren GPU identisch mit der PS4 wird. Von daher dürfte der grösste gemeinsame Nenner an Hardware der PC sein.
 
AW: The Witcher 3: Zukünftig PS4 und Xbox 720 als Haupt-Entwicklungsplattform?

?

Der PC kann ja schon aus Prinzip nicht der größte gemeinsame Nenner sein.
 
AW: The Witcher 3: Zukünftig PS4 und Xbox 720 als Haupt-Entwicklungsplattform?

Du vergisst aber das es auch noch eine XBox Next geben wird. Ich glaube nicht das die XBox Next abgesehen von einer leicht schwächeren GPU identisch mit der PS4 wird. Von daher dürfte der grösste gemeinsame Nenner an Hardware der PC sein.

PS4 vs XBox ∞:

Beide nutzen AMD HSA Technologie - check!
Beide besitzen 8 Jaguar Kerne - check!
Beide nutzen eine GCN GPU - check!
Beide verfügen über 8GB RAM - check!

Ich denke viel näher waren sich zwei rivalisierende Spielekonsolen noch nie. Was du da behauptest ist totaler Quatsch.
 
AW: The Witcher 3: Zukünftig PS4 und Xbox 720 als Haupt-Entwicklungsplattform?

The Witcher 2 ein Konsolenspiel? Erstens kam das Spiel ein Jahr später für die Xbox 360 und 2 sah dieser grafisch aus wie der letzte Dreck, und hatte technische Probleme in Form von Ruckeln und starkes Bildzerreissen.
Das gilt doch für fast alle Konsolenspiele?! :D

Im Übrigen hat man bei CD Project in einem Interview bestätigt, dass von Anfang an auf die XBox Rücksicht genommen wurde. Warum die jetzt trotzdem ein Jahr gebraucht haben... keine Ahnung.
 
AW: The Witcher 3: Zukünftig PS4 und Xbox 720 als Haupt-Entwicklungsplattform?

Es ist genauso wie auf dem PC: Entweder du aktivierst V-Sync, oder du nimmst Tearing in Kauf (oder du kaufst dir einen 120Hz Screen).
Joa und der Triple Buffer belegt dazu noch wertvollen Speicher, den die Konsolen eh kaum haben. Dumme Sache. Wobei ich mich an Tearing kaum störe - abgesehen von Sidescrolling Games (Beat em Ups, 2D Jump & Runs...). Da versaut es wirklich alles.
 
AW: The Witcher 3: Zukünftig PS4 und Xbox 720 als Haupt-Entwicklungsplattform?

Es gilt genauso auf dem PC: Entweder du aktivierst V-Sync, oder du nimmst Tearing in Kauf. Oder du kaufst dir einen 120Hz Screen.

Ohne Vsync ist das Tearing auf dem PC jedoch nicht annähernd so schlimm wie auf der Konsole, gerade die neuen Spiele wie Far Cry 3, Assassins Creed 3, Crysis 3, das neue Tomb Raider und und und haben starkes Tearing auf der Konsole. Auf dem PC schaltet man Vsync an und die Sache ist gelöst, ohne Leistungseinbußen.
 
AW: The Witcher 3: Zukünftig PS4 und Xbox 720 als Haupt-Entwicklungsplattform?

Dann vergleich mal wieviel Rechenleistung eine AMD APU zur Verfügung hat und was die PS4 APU dagegen leisten kann. Das ist ein Unterschied wie Tag und Nacht. Die Liverpool GPU in der PS4 APU wird alleine auf dem Papier 100% mehr Rohleistung besitzen als die GPU im 2014 erscheinenden Kaveri Topmodell und das sogar ohne die Optimierungen durch Sony, also die acht Computepipelines, die zwei Grafikpipelines, die low level LibGCM API und die vielen fixed function Elemente, zu berücksüchtigen. Von den 176GB/s mit denen die PS4 APU angebunden ist mal ganz zu schweigen. Bis Desktop APUs zur PS4 aufgeschlossen haben, werden noch einige Jahre vergehen.

Und dann? Sagt ja keiner, dass die Konsolen zu ihrem Marktstart nicht sehr leistungsstark sein können (ja sogar müssen). Außerdem versteh ich nicht was hier argumentiert wird, denn ich bin der erste, der zugibt und behauptet, dass die Konsolen Leadplattform waren, sind und bleiben werden.

Trotzdem kommt mit der neuen Generation eine bessere und einfachere Möglichkeit Spiele einigermaßen ähnlich für Xbox, PS4 und aktuelle und kommende PCs auszulegen. Da gibt mir auch praktisch jedes Interview zu diesem Thema (ich selbst entwickle ja keine Spiele, vielleicht macht ihr das ja beruflich) von Leuten die damit Ahnung haben Recht. Xbox 360 war schon (relativ) ähnlich zu PC und PS3 war mit seiner CPU eine komplett andere Geschichte, was sich - so diverse Statements von Entwicklern die ja schon mit der Konsole arbeiten - mit der PS4 EXTREM verbessern wird.

Viele GPGPU Algorithmen werden nicht aufgrund der Rechenleistung, sondern aufgrund der Latenz limitiert. Solange der Desktop PC nicht das gleiche Level an Heterogenität erreicht wie die Next Gen Konsolen, wird er diese Algorithmen nicht nutzen können. Die Next Gen Konsolen und Gaming PCs mit homogenen Prozessoren sind tatsächlich meilenweit von einander entfernt und der Vorteil liegt hier ganz eindeutig auf der Seite der Konsolen.

Inwiefern genau, sollen die meilenweit voneinander entfernt sein. Welche Algorithmen, welche Latenzen, wie groß ist der Unterschied tatsächlich. Und das meine ich ernst und nicht als Angriff, ich weiß da einfach viel zu wenig und kann hier nicht nachvollziehen inwiefern die beiden meilenweit (mehr als früher) auseinanderliegen sollen. Bisher hatte ich die PS4 so verstanden, dass nun x86 dort Einzug hält, während mit der PS3 eine völlig andere CPU Architektur zum Einsatz kam. Insofern ist das für mein Verständnis eine Annäherung von PC und Konsole und keine Entfernung.
 
AW: The Witcher 3: Zukünftig PS4 und Xbox 720 als Haupt-Entwicklungsplattform?

Trotzdem kommt mit der neuen Generation eine bessere und einfachere Möglichkeit Spiele einigermaßen ähnlich für Xbox, PS4 und aktuelle und kommende PCs auszulegen. Da gibt mir auch praktisch jedes Interview zu diesem Thema (ich selbst entwickle ja keine Spiele, vielleicht macht ihr das ja beruflich) von Leuten die damit Ahnung haben Recht. Xbox 360 war schon (relativ) ähnlich zu PC und PS3 war mit seiner CPU eine komplett andere Geschichte, was sich - so diverse Statements von Entwicklern die ja schon mit der Konsole arbeiten - mit der PS4 EXTREM verbessern wird.

Inwiefern genau, sollen die meilenweit voneinander entfernt sein. Welche Algorithmen, welche Latenzen, wie groß ist der Unterschied tatsächlich. Und das meine ich ernst und nicht als Angriff, ich weiß da einfach viel zu wenig und kann hier nicht nachvollziehen inwiefern die beiden meilenweit (mehr als früher) auseinanderliegen sollen. Bisher hatte ich die PS4 so verstanden, dass nun x86 dort Einzug hält, während mit der PS3 eine völlig andere CPU Architektur zum Einsatz kam. Insofern ist das für mein Verständnis eine Annäherung von PC und Konsole und keine Entfernung.
Das mit dem Lead lasse ich mal außer Acht, da es mich persönlich gerade nicht wirklich interessiert.

Jedenfalls wie gesagt, die Einzelkomponenten (x86 CPU/GPU) sind sich näher gekommen, aber wie das ganze System an sich funktioniert ist noch unterschiedlicher als früher. (Adressierung, Speicherpools)

Das letztere bereitet Kopfzerbrechen bezüglich der Frage, wo der PC denn im Vergleich einzuordnen wäre.
Die Einzelkomponenten mögen stärker sein, dass klassische PC-System arbeitet aber total veraltet im Vergleich zu der PS4.
Die CPU schickt Eingabedaten und nötige Informationen der GPU über den PCIE2/3 Bus zu. (Bis zu 16 GB/s je Richtung)
Dann gibt es wieder Ergebnisse und Daten welche die GPU zurück schicken muss, ist auch je nach Algorithmus und Code unterschiedlich.

Um es mal zu verdeutlichen, es gibt z.B. grob zwei Typen von Interaktion. (Und die Zwischenstufen dazwischen natürlich)
Typ Nr. 1: Die CPU berechnet irgendwelche Grunddaten und schickt es der GPU zu, die GPU erhält das Datenpaket und berechnet selbständig den Rest weiter, dass Bild wird anschließend ausgegeben.
Fertig.
Das wäre z.B. das klassische 3D-Rendering, da schickt die CPU z.B. Dreieckspunkte rüber und letztendlich die Anweisung was gemacht werden soll und die GPU berechnet dann den Rest fertig. Der Austausch an Daten ist sehr gering.

Typ Nr. 2: Die Ping-Pong Interaktion. CPU und GPU berechnen unterschiedliche Szenarien die stark abhängig voneinander sind.
Z.B. die K.I wird von der CPU berechnet, die GPU soll jetzt Nebel, Splitter oder sonst was berechnen.
(Spliter, Nebel etc. haben Auswirkungen auf die Umgebung, dass Materialverhalten von Oberflächen, auf die K.I usw.)
Jetzt was genau wäre das Problem bei interaktiver Physik?
Die Kommunikation. Wenn die GPU z.B. den Nebel berechnet und die CPU die K.I die auf den Nebel reagieren soll, dann braucht die CPU die Daten in ihrem Arbeitsspeicher, um zu verstehen wo der Nebel jetzt eig. ist, um dann den K.I Algorithmus entsprechend dem Nebel zu berechnen.
Und hier hapert es gewaltig an den Latenzen, wie TheBrutus schon eingeworfen hat.
Bis die CPU die Daten per PCIE-Bus bekommt, welche die GPU berechnet hat, kann mehr Zeit vergehen als für die Berechnung an sich.
Das ist auch einer der Gründe wieso GPGPU nicht weitflächig verwendet wird, nicht weil die Programmierer keine Lust oder so haben, nein, weil es Teils einfach keinen Sinn macht.

Z.B. (ganz fiktiv) die CPU berechnet 100.000 Partikel in 40 Minuten, die GPU würde das in 10 Minuten schaffen.
Also wieso nicht die GPU nehmen?
Weil der PCIE zu lahm ist und eine zu hohe Latenzen hat.
Die GPU könnte das in 10 Minuten zwar schaffen, aber das kopieren der Daten würde 50 Minuten dauern.
Somit bräuchte die CPU für ein Ergebnis zwar 4 mal so lange wie die GPU, aber "dank" des Copy-Overheads wäre sie dennoch 20 Minuten schneller fertig.
Diesen Copy-Overhead kann man reduzieren indem GPU und CPU immer näher beieinander sind und man versucht immer mehr Daten für beide zugänglich zu machen, ohne ständig Datensätze zu kopieren.
Das ist der Weg der Zukunft. (AMD arbeitet daraufhin hin, Intel macht das und Nvidia auch.)

Das klassische PC-System hat zwei Speicherpools, VRAM (GDDR) und RAM (DDR) und PCIE dazwischen.
Eine APU oder die Xbox 360 sind da schon prinzipiell im Vorteil.
Es gibt nur einen Speicherpool, es müssen aber Daten dennoch hin und her kopiert werden, weil es keinen gemeinsamen Adressraum gibt.
Die GPU versteht z.B. keine x86 Pointer, die sagen wo welche Adressen zu finden sind, deswegen muss sie immer Anfragen und die CPU muss dann immer Datensätze rüberkopieren und andersherum.
Bei einer APU finden sich deswegen immer noch klassisch "zwei Speicherpools", zwar ist es physikalisch nur noch einer, aber logisch wird immer noch getrennt. (xbox 360, wiiu, Llano, Trinity)
(AMDs jetzige APUs haben aber schon paar Tricks, um paar Kopiervorgänge einzusparen, ebenfalls ist es auch schon möglich kohärente Speicherbereiche zu bilden, wo keine Daten hin und her kopiert werden müssen, allerdings ist so ein coherent request sehr langsam bisher)

Und ab Kaveri oder der PS4 fällt dann der Groschen. Die GPU wird x86 Pointer verstehen und kann direkt anfangen mit den CPU-Datensätzen zu arbeiten.
Das lästige Kopieren wird zum Großteil entfallen.
Heftige Latenzverbesserungen und eingesparte Bandbreite wird sich dadurch ergeben.
GPGPU steht dann in einem völlig neuem Licht.
Statt 50 Minuten irgendein Zeug zu kopieren, wird die GPU sofort damit beginnen zu rechnen und zu schreiben und das wird für die CPU auch völlig transparent sein, sie wird auch erfahren welche Daten sich verändert haben.

Bei gewissen Algorithmen könnte sogar das klassische PC-System limitieren. (Man wird beim PC vielleicht einige Sachen von der CPU und nicht der GPU berechnen, um dem PCIE-Flaschenhals aus dem Weg zu gehen, immerhin sind die Rechenkerne bei den Konsolen nicht so leistungsstark und die GPU ist auch kein Monster, die ist schon mit 3D-Rendering auch gut beschäftigt)
Zieht man Kaveri als Vergleich, dann hat man den ironischen Fall, dass das System genau so fortschrittlich ist, aber die GPU und der Arbeitsspeicher deutlich schwächer und langsamer.

Da wo PCIE kaum limitiert und wo ein Spiel eher klassisch berechnet wird, da wird der PC natürlich keine Probleme haben, aber wird stark auf neue Algorithmen gesetzt und der volle Nutzen aus dem entfallenen Copy-Overhead genutzt, dann wird man da sicherlich in Zukunft beim klassischen PC-System Auswirkungen zu spüren bekommen.
(Jedenfalls je nachdem wie viel in GPGPU investiert wurde, was man absehen wird)
 
Zuletzt bearbeitet:
AW: The Witcher 3: Zukünftig PS4 und Xbox 720 als Haupt-Entwicklungsplattform?

Wahrscheinlich trifft das nicht ein. PC-Hardware wird doch immer besser sein. Da sollen sie gefälligst auf die Konsolen runterportieren, wenn sie schon so dem PC ähneln werden.
 
AW: The Witcher 3: Zukünftig PS4 und Xbox 720 als Haupt-Entwicklungsplattform?

Du hast meinen Beitrag sicher einfach ignoriert oder ist der ich-bin-PC-User Stolz einfach zu groß, um gewisse Nachteile einzugestehen?
 
Zuletzt bearbeitet:
AW: The Witcher 3: Zukünftig PS4 und Xbox 720 als Haupt-Entwicklungsplattform?

Wahrscheinlich trifft das nicht ein. PC-Hardware wird doch immer besser sein. Da sollen sie gefälligst auf die Konsolen runterportieren, wenn sie schon so dem PC ähneln werden.

Das hat nichts mit Wahrscheinlichkeiten zu tun. Was Locuza beschrieben hat ist eine Tatsache und der Grund, warum sich GPGPU in Videospielen bisher nie richtig durchsetzen konnte. Das wird sich mit der Next Gen aber ändern, da die beiden neuen Konsolen HSA APUs verwenden werden. CPU und GPU können dann erstmals zusammenarbeiten und müssen nicht mehr unabhängig voneinander ihr Ding drehen.

Bei einer HSA APU darf man genau genommen nicht mehr trennen zwischen GPU und CPU, denn beide sind dann vielmehr fest integrierte Zahnräder in einem Motor. Eine APU ist also viel mehr als die Summe ihrer Teile, durch die vollständige physikalische und architektonische Fusion der integrierten Recheneinheiten bekommen die Entwickler ganz andere Möglichkeiten, die sie mit einem PC bestehend aus Core i Xtreme und einer GeForce Titan nicht haben. Man muss eine HSA APU unbedingt als einen einzelnen Prozessor verstehen.
 
AW: The Witcher 3: Zukünftig PS4 und Xbox 720 als Haupt-Entwicklungsplattform?

Hmmm...also eine Kaveri APU und schnellen RAM kaufen anstatt wie bisher einen schnellen Prozessor und eine fixe Grafikkarte :what: ??
 
AW: The Witcher 3: Zukünftig PS4 und Xbox 720 als Haupt-Entwicklungsplattform?

Nun, das Bandbreienproblem zwischen GPU und CPU könnte man zumindest durch PCI-E 3.0 32x stark mindern. Neue Grafikkarten sind dafür schon lang genug.
 
AW: The Witcher 3: Zukünftig PS4 und Xbox 720 als Haupt-Entwicklungsplattform?

Hmmm...also eine Kaveri APU und schnellen RAM kaufen anstatt wie bisher einen schnellen Prozessor und eine fixe Grafikkarte :what: ??
Leider nein, wäre ja auch zu schön. :(
(Wobei so eine Lösung eine 7750 und einen Steamroller "getrennt" verprügeln müsste in einigen Szenarien)

Der Fertigungsgrad erlaubt es noch nicht CPU und GPU Performancetechnisch gewinnbringend unter einem Dach und Fach zu bekommen.
(Damit ist klar das 3D-Rendering gemeint)
Früher war die FPU in der CPU und sogar der L2-Cache auf dem Motherboard, die Northbridge und der Memory-Controller war damals ja auch nicht in der CPU selber zu finden.
Mit immer fortschreitender Miniaturisierung konnte man es sich leisten diese Elemente in die CPU zu verschieben und heftige Latenzen einzusparen.
Aus heutiger Sicht wäre es verrückt zu sagen, man will L2, FPU, Northbridge usw. wieder auf dem Mainboard haben.
So ähnlich ist es auch mit dem Prinzip von HSA, irgendwann wird es auch verrückt sein zu sagen man will CPU und GPU wieder getrennt haben.

Das Problem ist natürlich der heftige Umbruch dabei.
Das Betriebssystem, die Treiber, APIs usw. müssen angepasst werden für eine HSA APU.

Ebenfalls ist der größte Nachteil auch ganz klar ersichtlich:
Man kann sich Speichergrößen, CPU- und GPU-Komponenten nicht nach Wahl zusammenstellen, sondern muss fertige Tüten kaufen.
Und genau da schlägt der Konsolenvorteil voll rein, als Konsole juckt es niemanden ob es aufrüstbar oder wechselbar ist, die Komponenten stehen und alles wird perfekt darauf angepasst.
Am PC ist so ein Vertriebsweg natürlich sehr kritisch zu betrachten.

Alles was den PC bisher Modular macht, ist auch mit Nachteilen versehen, z.B. der PCIe-Speicherbus, die Steckkontakte für normalen Arbeitsspeicher, die Sockel für Prozessoren usw.

Von HSA und seinem Prinzip bin ich natürlich begeistert, aber leider würden mir dann auch viele Optionen entfallen weswegen ich den PC zum Teil so sehr liebe.
DDR4 schafft bei 256-Bit mit DDR4 3200Mhz auch "nur" 102,4 GB/s.
Eine 7850 hat schon 150 GB/s.
Selbst mit DDR4 4266 schafft man es nicht ganz an 150 GB/s heran.
Und das gilt natürlich für den Fall, wenn die APU auch 4 Module einzeln ansprechen kann.

Und diese Bandbreite begrenzt auch beim PC gerade die Aussichten auf fette APUs.
Die Lösung wäre natürlich GDDR5 oder HMC aufzulöten, wobei Taktfrequenzen und Geschwindigkeit dann für immer feststehen würde.
Also wenn man schnelleren "Ram" haben will, dann kann man sich ein neues Mainboard kaufen.

Interessant ist das ganze auch bei Servern, wie dort der Wandel hingenommen wird.

Die Zukunft ist gerade arg milchig und fragmentiert.
 
AW: The Witcher 3: Zukünftig PS4 und Xbox 720 als Haupt-Entwicklungsplattform?

Steckbarer "L4-LLC" GDDR5 wäre ne feine Sache. Verlöteten VRAM gab es schon als Sideport-Memory.
 
AW: The Witcher 3: Zukünftig PS4 und Xbox 720 als Haupt-Entwicklungsplattform?

Nun, das Bandbreienproblem zwischen GPU und CPU könnte man zumindest durch PCI-E 3.0 32x stark mindern. Neue Grafikkarten sind dafür schon lang genug.
Das würde das prinzipielle Problem nicht aus der Welt schaffen und die Latenzen wären immer noch zu hoch.
Und 32 Leitungen habe ich noch nie gesehen.
Gab es jemals ein Board was an einem Slot 32 Leitungen hatte?

Steckbarer "L4-LLC" GDDR5 wäre ne feine Sache. Verlöteten VRAM gab es schon als Sideport-Memory.
Das Problem an "steckbarem" GDDR5--> Die Taktfrequenzen sind deutlich niedriger und damit auch wieder die Bandbreite.
Wenn es direkt aufgelötet wird ist das Signal sauberer und man kann höhere Taktraten garantieren.
Man behilft sich ja bei DDR4 auch schon gewissen Tricks und erhöht leicht die Pin-Anzahl, um die kommenden Frequenzen leichter zu schaffen.
Da wird es noch große Probleme geben bei DDR5 oder PCIe4 "einfach" mal wieder die Bandbreite zu verdoppeln.
 
Zuletzt bearbeitet:
AW: The Witcher 3: Zukünftig PS4 und Xbox 720 als Haupt-Entwicklungsplattform?

@locuza

Vielen Dank für die tolle Erläuterung was das Zusammenspiel von CPU, GPU uws. betrifft. Echt super :daumen:
 
AW: The Witcher 3: Zukünftig PS4 und Xbox 720 als Haupt-Entwicklungsplattform?

Bei Servern ist der 32x vorhanden.
Latenzen verringern kann man, u.A., noch indem man den Steckplatz näher an die CPU bringt.

Und Löten, kommt drauf an wie.
Wenn man dafür einen Standard entwickelt wäre das kein so großes Problem mehr.
 
Zurück