Unreal Engine 4: Demo-Vergleich zwischen PC und Playstation 4

Am deutlichsten fällt mir auf, daß die PS4-Version ziemlich ruckelt. Vielleicht bekommt die finale HW das flüssig mit 30 FPS hin (bei 720p ;))

Davon abgesehen will ich so eine Grafik endlich als Spiel sehen und nicht immer nur als Techdemo :schief:
 
Eine 680 GTX schafft 30FPS bei der Demo. (Plus Core I7)
Willst du mir jetzt weiß machen, die PS4 schafft das doppelte?
Das würde bedeuten, dass die Leistung praktisch 4 mal so hoch beim Rendering wäre.

Beim klassischem Rendering sollte sich der Vorteil weiterhin bei Faktor 2 bewegen.
Bei speziellen Anwendungsgebieten (GPGPU) muss man dann schon etwas differenzieren, interessiert jetzt aber bei der Demo jetzt gerade nicht.

Warum sollte die da nur 30 FPS schaffen und im viel hübscheren Infiltrator Demo konstante 60 FPS?
Unreal Engine 4: Einzelne Geforce GTX 680 stemmt Infiltrator Demo
 
Man sollte eventuell noch erwähnen, dass die PC Demo 32 GB RAM zur Verfügung hatte.

Soweit ich weiß ist die HD 8k Serie nur nen Rebranding der HD 7k.

Dann eben HD9k. Darum geht es auch gar nicht. Die PS4 nutzt wie Locuza bereits gesagt hat GCN 2.0 und nur darauf kommt es an.

Und Leistungsmäßig ist man afaik irgendwo bei einer HD 7850/7870. Und die ist zum warscheinlichen Releasezeitpunkt der PS4 nunmal 1,5-2 Jahre alt.

Die Leistung ist für eine Konsole und vor allen Dingen für eine APU absolut top. Ein kluges Design ist für geschlossene Systeme wichtiger als hrinloses Bruteforcing. Die TDP von High End Desktop Karten ist in den letzen zehn Jahren explodiert, der PC erkauft sich seine abnormal hohen (und in der Regel ungenutzten) TerrorFLOPS eben auch mit ner ganzen Menge Nebenwirkungen.

Von irgendwelchen neuen, wichtigen, tollen Features hab ich noch nichts gesehen. Von daher gehe ich nicht davon aus das die PS4 das Rad neu erfindet.

Die neuen Konsolen leiten einen Paradigmenwechsel hin zu heterogenen Prozessoren ein. Du solltest dich besser erst mal richtig informieren, bevor du dir deine spöttischen Seitenhiebe erlaubst.
 
Lustig zu sehen, dass eine sehr frühe Demo sehr ähnlich einer Demo sieht, die auf einem Highend Gerät lief. Erfahrungsgemäß holt man bei Konsolen immer mehr raus, je älter sie werden.
 
Also da bisher überall nur Dev-Kits der PS4 Hardware rumschwirren, weil ja BEIDE KOnsolenhersteller sich nicht in die finalen Karten schauen lassen wollen, kann man das schon verstehen. Und wieder mal nen High End Gaming PC mit ner 500 Euro Konsolenhardware vergleichen, nun ja, Thema is ausgelutscht.
 
Die PS4 wird sicher besser als PS3.
Nur wird es nicht so ein Sprung wie zwischen PS2 und PS3.

Da wird jetzt wohl langsam auch den Konsolenjüngern klar.
Sicher kann es noch besser aussehen.
Aber schaut euch die ersten Spiele auf den PS3 an..und dann aktuelle Spiele.
Das ist schon erstaunlich was nach 8 Jahen so rauszuholen ist.
Genau so wird es mit der neuen Gerneration werden.

Nur das der PC sich eben auch weiterentwickelt.
Schaut euch Battlefield 2 (2005) an und Battlefield 3 (2011).
Diesen Leistungssprung wird es so bei den Konsolen nicht geben !
 
Zuletzt bearbeitet:
Es mag zwar sein, das man durch Optimierungen den Faktor 2 aus der Graka rausholen kann, jedoch bist du dann leistungsmäßig immer noch auf der Höhe einer GTX680/7970. Und das ist FAKT und nicht schönzureden. :daumen:
Die Frage lautet, ab welchen Zeitpunkt ist der Faktor 2 ein "FAKT"?

Bedenke: die Demo auf der PS4 sieht anders aus wie die auf dem PC, dürfte also schon deswegen weniger Leistung brauchen, eventuell sogar nur die Hälfte wenn man die vielen Lichtquellen alla Funken betrachtet.
Wie viel der gemeinsame RAM für GPU und CPU ausmacht weiss ich nicht, dürften aber auch nur ein paar % sein.

ausserdem dürften die Frameabstände bei Konsolen weniger schwanken als am PC, ergo wirken auf Konsolen 30FPs auch flüssiger als am pc.
Ich weiß nicht ob das SVOGI auch bei der PC-Version jetzt herausgeschnitten wurde.
Und eine hässlichere Demo als Beweis, dass die PS4 dort 60 FPS schafft, dass ist irgendwie total weird?

Beim Rest stimme ich dir aber natürlich zu, wobei ich natürlich praktisch daran zweifel, dass man die Frameabstände wirklich spürbar bei einer Konsole von einem PC unterscheiden kann.
Sollte meistens unter der Wahrnehmungsschwelle landen.
Bei AMD bemerkt man das aber schon bisher.

Das hast du wohl falsch verstanden.
Ich würde es sehr gerne erklärt bekommen, wenn du dich bereit erklären würdest.
Wird dann natürlich extrem ausführlich, wenn ich einen grob Überblick über HSA, GCN2 usw. liefere.
Aber kann ich natürlich gerne machen.

Edit: Ich frage lieber genau, worüber möchtest du gerne mehr erfahren?

Warum sollte die da nur 30 FPS schaffen und im viel hübscheren Infiltrator Demo konstante 60 FPS?
Unreal Engine 4: Einzelne Geforce GTX 680 stemmt Infiltrator Demo
Unreal Engine 4: Techdemo lief mit 30 Fps und FXAA, neue Screenshots

Weil es Epic damals so angegeben hat. Die neue Demo hat auch nicht mehr das SVOGI, was Leistung zieht.
Sie meinten aber, dass ihnen wichtig sei, dass die Anforderungen nicht steigen, im Vergleich zur alten Demo.
Deshalb wundere ich mich auch über die 60 FPS Angabe.
Vielleicht sind es dort ebenfalls 30 FPS.
 
Also da bisher überall nur Dev-Kits der PS4 Hardware rumschwirren, weil ja BEIDE KOnsolenhersteller sich nicht in die finalen Karten schauen lassen wollen, kann man das schon verstehen. Und wieder mal nen High End Gaming PC mit ner 500 Euro Konsolenhardware vergleichen, nun ja, Thema is ausgelutscht.

Es geht auch nicht um Hardware, sondern um die Engine. :rolleyes:

@Topic
Die PS4-Version wirkt irgendwie unscharf und weichgespühlt. Die PC-Version gefällt mir da schon deutlich besser, weil alles einfach schärfer und deutlicher wirkt.
Dass die UE4 für die PS4 optimiert wurde, ist dummes Marketinggewäsch.
 
Gern über alles, was du mir zu erzählen hast.
Die Frage ist halt ob ichs hinterher nicht trotzdem ganz anders beurteile als du.
Ist ja auch nicht so als ob ich gar nichts über HSA usw. wüsste.
Ich bin halt etwas vorischtiger bezüglich Vorschuss Lorbeeren geworden.
 
Bei der "Faktor 2" Sache sollte man vielleicht noch klarstellen, dass sich eine GPU mit 1.8 TeraFLOPS in einer Konsole nicht plötzlich wie eine 3.6 TeraFLOPS GPU verhält, sondern das sich eine 1.8 TeraFLOPS GPU in einem Windows PC wie eine 0.9 TeraFLOPS verhält.

Ich weiß nicht ob das SVOGI auch bei der PC-Version jetzt herausgeschnitten wurde.

Diese Form des Global Illumination war in der UE 4 anscheinend auch nur zu experimentellen Zwecken, denn sie verbraucht einfach viel zu viel Rechenleistung. Es war wohl eher eine kleines Muskelspiel seitens Epic Games, denn die CryEngine 3 beherrscht ja ebenfalls dynamisches GI. Frei nach dem Motto "Das könnnen wir schon lange!".

Dass die UE4 für die PS4 optimiert wurde, ist dummes Marketinggewäsch.

Selbstverständlich ist die UE4 für die PS4 und die neue XBox optimiert.
 
Es geht auch nicht um Hardware, sondern um die Engine. :rolleyes:

@Topic
Die PS4-Version wirkt irgendwie unscharf und weichgespühlt. Die PC-Version gefällt mir da schon deutlich besser, weil alles einfach schärfer und deutlicher wirkt.
Dass die UE4 für die PS4 optimiert wurde, ist dummes Marketinggewäsch.

Der Artikel heißt : Demovergleich zwischen PC und Playstation 4. Es geht um die Hardware und wie Epic´s UE4 darauf ausschaut. Also ist schon mit ein Hardwarevergleich.
Ist bekannt ob die Unreal Engine 4 PhxsX beinhaltet? Wenn ich mir sie Vergleiche der Partikel und dem Nebel vor dem einen Tor anschaue, sieht es aus als wenn im PC ne Nvidia-Graka steckt.
Vergleiche das im Hinterkopf mit den Bildern von Planetside 2 mit und ohne PhysX, mit waren auch mehr solcher Partikel zu sehen.
 
Ist ja nicht mehr sooo viel Unterschied zwischen PC und PS4 zu sehen... Ich finds gut, das die Konsolen bei der Bildquali endlich nachziehen. Und euer endloses Gebattle darüber, welche Plattform nun wirklich die bessere sei, sollte auch endlich mal aufhören:schief: Das sollte eh jeder für sich allein entscheiden!

Gruß
 
Gern über alles, was du mir zu erzählen hast.
Die Frage ist halt ob ichs hinterher nicht trotzdem ganz anders beurteile als du.
Ist ja auch nicht so als ob ich gar nichts über HSA usw. wüsste.
Ich bin halt etwas vorischtiger bezüglich Vorschuss Lorbeeren geworden.
Am liebsten fange ich mit C.I an. (GCN2)
Laut vgleaks, welche gehackte Dokumente haben, wird die PS4 GCN2 besitzen, welche auch notwendig ist für einen gemeinsamen Adressraum, den Sony schon bestätigt hat.
AMD hatte mal eine PDF hochgeladen bezüglich C.I, wo die primären Unterschiede erläutert wurden, genau das gleiche findet sich auch bei den gehackten Dokumenten.

GCN1 hat z.B. 2 ACEs (Asynchron Compute Engines, welche weniger Queues zur Verfügung stellen können, als eine ACE von GCN2).
Jeder davon, Cape Verde, Pitcairn, Tahiti.

Soweit ich das ganze Prinzip verstanden habe, erstellt der Command-Processor eine Arbeitsschlange die jeglichen Code beinhalten kann, sei es für das Rendering oder für das Computing.
Kommt Computing-Code zum Einsatz müssen die Grafik-Workloads solange warten, bis es fertig berechnet wurde.
Ich habe aber keine Ahnung, wie dynamisch das abläuft und wie der Codemix dann genau vom Command-Processor an die Shader-Arrays verteilt wird.

Die ACEs können allerdings unabhängig davon Work-Groups für Compute-Shader erstellen, womit es getrennte Queues bei der Code-Ausführung gibt.
Somit würde es keine Pausen oder Konflikte geben.

Nvidia hat bei HyperQ paar Folien zu der Auslastung der ALUs gezeigt, wenn es mehrere Kommandoschlangen gibt (Hat nur der Titan bisher):
http://www.pcgameshardware.de/Grafik...per-Q-1020669/

Bei Nvidia soll das aber automatisch ablaufen, solange man das neuste CUDA-Framework installiert hat.
Ich habe auch hier keine Ahnung, ob es dort Beschränkungen gibt und ob Nvidia damit jetzt meint das es wirklich vollautomatisch abläuft und wenn ja, gilt das auch für Spiele?

Die ACEs bei GCN müssen aber extra programmiert werden, wobei es hier allerdings bisher keine API gibt, um sie direkt programmieren zu können.
Eine OpgenGL Extension soll es geben, die nicht so richtig funktioniert oder mit kleinerem Funktionsumfang.
Da AMD bei C.I. die ACEs mächtig aufpumpt, kann man wohl davon ausgehen das OpenCL wenigstens bald die Möglichkeit bekommen sollte die ACEs ansprechen zu können.


HSA:

Da verlinke ich einfach mal eine Erklärung die ich mal im 4P geschrieben habe:
4Players.de Forum • Thema anzeigen - PlayStation 4: Was werkelt unter der Haube?

Eine nette englische PDF zu dem ganzen Konzept:
http://developer.amd.com/wordpress/media/2012/10/hsa10.pdf

Es sind halt einfach die zusätzlichen Vorteile die so eine Umgebung hat und was GCN bietet.
Man kann Computing in der gleichen Sprache erledigen, OpenCL oder C++, dass ist deutlich angenehmer für einen Programmierer.
Zweitens gibt es keine getrennten Adressräume mehr, die GPU versteht x86 Memory-Pointer, damit kann an Adressen sofort auslesen und muss sie nicht über einen Bus kopieren.
Das frisst Performance, erhöht die Latenzen, verbrauch einiges an Strom und ist einfach insgesamt ineffizienter.

Hier ein weiteres PDF von AMD.
APU vs. PC bei dem Data-Transfer Overhead:
http://synergy.cs.vt.edu/pubs/papers/daga-saahpc11-apu-efficacy.pdf

Faktor zwei und mehr und das war bei der ersten APU die AMD hatte.
Die PS4 und Kaveri sind noch einmal deutlich weiter.

Sorry, wenn das gerade nur kurze Anmerkungen und Links sind, aber noch einmal das ganze aufzuschreiben, ist mir zu umfangreich.
 
Zuletzt bearbeitet:
Also erstmal vornweg: Der Ton hier im Forum wird irgendwie immer anstrengender - man kann seine Meinung auch weniger offensiv und dafür respektvoller kundtun.

Und nun zum Thema:
* Konsolen kosten im Schnitt weniger als aktuelle Highend Grafikkarten (7950/7970 & 670/680) und bringen noch das gesamte "restliche" System mit -> man kann also keine Grafikchips der Highend-Kategorie in Konsolen verbauen
* Konsolen verwenden nicht so viele Schichten zwischen Betriebssystem und Hardware -> höhere Effizienz welche dazu führt das die hardwaremässig unterlegenen GPUs der Konsolen mit höherwertigen GPUs auf Highend-Grafikkarten mithalten können
* die neue Konsolengeneration führt dazu das Spiele grafisch anspruchsvoller werden -> da die meisten Spiele Multiplattformspiele sind kommt das auch PC-Spielern zu gute (DX11 statt DX9, mehr Effekte/Polygone, bessere Texturen)

Ich persönlich finde Konsolen komplett unspannend, aber freue mich trotzdem sehr auf die neue Konsolengeneration, schliesslich werden auch PC-Spiele davon profitieren.
Die Darstellung der UE4 auf der PS4 finde ich übrigens sehr gut wenn man bedenkt das die Konsole wohl ca. 500 Euro kosten wird - mein aktueller Rechner hat ca. das 3fache gekostet stellt die Grafik aber nicht 3x so gut dar ;)
 
hi

kann mir bitte jemand mal das mit den gflops erklären ?
wieso kann eine gtx 670 oc genau so schnell sein wie eine gtx 680 sein ?
da liegen doch 500 gflops dazwischen ...

(gtx 670 = 2,5 tflops
gtx 680 = 3 tflops )

:(
 
hi

kann mir bitte jemand mal das mit den gflops erklären ?
wieso kann eine gtx 670 oc genau so schnell sein wie eine gtx 680 sein ?
da liegen doch 500 gflops dazwischen ...

(gtx 670 = 2,5 tflops
gtx 680 = 3 tflops )

:(
GFLOPs sind nur ein theoretischer Wert, was die Hardware theoretisch maximal an Rechenoperationen schaffen könnte.

Auch wenn Auto Vergleiche verpönt sind:

Welches Auto ist schneller, dass mit 150 PS oder das andere mit 200 PS?

Kannst du gar nicht beantworten, du weißt gar nicht wie schwer das Auto A) ist oder B), welche Reifen welches Auto verwendet, welches Kolbengetriebe es hat, welche Hydraulik, wie gut der Antrieb funktioniert usw.

Wenn du eine GTX 670 übertaktest, dann rechnen auch die Rechenwerke natürlich schneller, was bedeutet das man mehr theoretische GFLOPs schafft.
50-100Mhz mehr Takt würden bedeuten das eine 670 ~2.600-2.700 GFLOPs schaffen würde, im Vergleich zu den ungefähr 2,5 TF.
Wieso schafft sie aber dennoch fast die gleiche Performance?
Die Bandbreite, also die Versorgung der Rechenkerne könnte limitieren, die 680 GTX hat da etwas wenig davon.
Dann gibt es noch einen Verwaltungsoverhead, dann skaliert der Code vielleicht nicht so gut bei Rechenkernen usw.
 
Zuletzt bearbeitet:
Zurück