The Witcher 3 Wild Hunt: DirectX-11-Engine mit Tessellation, Physx, brandneue Bilder - Exklusive Technikinfos

Das stimmt nicht. Bei Mafia 2 wurde beispielsweise die Animation der Kleidung (APEX Clothing) von der CPU berechnet.
Und bei NV Karten kann man im Treiber wählen, wo PhysX berechnet werden soll. Entweder GPU oder CPU, wobei CPU echt grottig ist (habe ich selber schon gebencht)
Und für Besitzer von AMD Grafikkarten ist es ein ums andere mal ärgerlich, dass PhysX für die CPU mies optimiert, denn sie gucken in Games, die GPU PhysX unterstützen dann mächtig in die Röhre.
Damit meinte ich eigentlich Physik, die fürs Gameplay benötigt wird, läuft immer über die CPU.
Dass die zusätzlichen Effekte AUSSCHLIESSLICH auf der GPU laufen habe ich so nicht gemeint, aber es ist eben *zumeist* so.
Die Schwache CPU Optimierung ist leider traurig, schließlich könnte man dann schon so viel mehr mit Physik machen...
 
Stimmt schon. Allerdings sind die jetzigen Kerne (im Falle der PS4) deutlich leistungsstärker. Da kann man schon mehr draus machen. Mal abwarten, wie sich das entwickelt.
 
Schaut schonmal sehr hübsch aus, wobei die Landschaft in der Distanz noch etwas Arbeit braucht.
Ich finde man sollte sich Skyrim mit den Mods aus dem STEP-Projekt + ENB angucken. Die Grafik "ab Werk" ist einfach nur übel.
Vorkriegstechnik der Konsolen sei dank...

Wobei es ganz viele Spieler (gerade unter den Langzeitzockern) bei den Elderscrolls-Spielen gibt, die nen Rechner nutzen, den ich
vermutlich schon auf den Schrott transportiert hätte :D

Wird auf jeden Fall mal zeit, dass konsequent DX11 zum Einsatz kommt. Die Zeit von DX9 ist einfach schon lange überschritten.
 
Stimmt schon. Allerdings sind die jetzigen Kerne (im Falle der PS4) deutlich leistungsstärker. Da kann man schon mehr draus machen. Mal abwarten, wie sich das entwickelt.
Muss ich dich leider korrigieren, die PS3 hatte mehr theoretische CPU Leistung als die PS3
PS3: ~0,2 TFLOPS
PS4: 0,128 TFLOPS

Also die PS3 hat mit ihren 7 SPUs also auch 8 Threads insgesamt die doppelte(theoretische) Rechenleistung erreicht.
Hinzu kommt noch zusätzlich, dass der CELL Chip eine 80% Effizienz hat, während es bei x86 Chips deutlich weniger sind, also von der theoretischen Rechenleistung oft weniger übrig bleibt.
http://de.wikipedia.org/wiki/Cell_(Prozessor)#Weitere_Informationen
 
@ Rollora

Aha, ok. Hätte ich nicht gedacht.;)
Ja ich auch nicht (vor der Ankündigung)
Allerdings heißt es nicht, dass nicht trotzdem aus der PS4 CPU mehr rausgeholt wird.
Theoretische Leistung in Linpack ist halt 1. nicht auf Spiele übertragbar und sagt 2. ja nichts aus wie sehr nun die Spieleentwicklung schwerer war durch diese "komische" Architektur der PS3/Xbox, und wer weiß vielleicht kann man doch mehr aus der PS4 rausholen.
Offenkundig war aber die CPU eh nicht mehr die Schwachstelle, von daher ist es für uns doppelt von Vorteil: die CPU werden wir wohl weiterhin Jahrelang nicht upgraden müssen für Spiele, trotz neuer Konsolengeneration etc. GPU vielleicht doch ab und an, bis DX11 und die Radeon 7850 ordentlich ausgenutzt sind :) (und wir hoffentlich dank PC ähnlicher Architektur von schlechten Portierungen verschont bleiben)
 
Offenkundig war aber die CPU eh nicht mehr die Schwachstelle, von daher ist es für uns doppelt von Vorteil: die CPU werden wir wohl weiterhin Jahrelang nicht upgraden müssen für Spiele, trotz neuer Konsolengeneration etc. GPU vielleicht doch ab und an, bis DX11 und die Radeon 7850 ordentlich ausgenutzt sind :) (und wir hoffentlich dank PC ähnlicher Architektur von schlechten Portierungen verschont bleiben)

Ja, das hoffe ich auch. Für uns PC-User dürfte es mit Sicherheit von Vorteil sein, dass die CPUs der Konsolen auf x86 basieren.
 
Hey ihr beiden. Seit versichert, dass ich eure Beiträge immer recht interessiert mitlese und eure Meinungen auch schätze, aber... Das geht garnicht! Hört bitte auf euch ständig zu zitieren, obwohl ihr direkt untereinander schreibt. Das ist völlig unnötig und nervt beim lesen, grade mit der app. Nehmt mir das bitte nicht übel.
 
Ich kann dir sagen warum ich immer zitiere. Damit ich es nicht nachträglich machen muss, falls sich in einer Diskussion noch jemand dazwischen schiebt und damit man weiß mit wem ich rede. Und wie im Vorpost, wenn ich nur auf einen Teil einer Aussage eingehen möchte.;)
Aber ich werde es eindämmen :D
 
Deine Gründe sind mir durchaus bewusst, ich gehe niemals davon aus, dass jemand etwas bestimmtes ohne Grund macht. Jedoch bei recht kurzen Beiträgen, die fast ausschließlich direkt aufeinander erfolgt sind wäre es wirklich nicht nötig, selbst wenn sich jemand dazwischen schiebt.
Danke jedenfalls für deine Einsicht.

Zum Thema:
Ich denke, dass wir auf jeden Fall von einer besseren multicore Nutzung profitieren werden. Was mich jedoch interessiert ist der Takt. Jaguar kommt ja nur mit je 1,6 GHz daher. Sehen wir dann in Zukunft acht genutze Kerne, die alle mit 30 Prozent Auslastung vor sich hin idlen?
 
Waren nicht 2 GHz angekündigt? Na ja, egal.
Ich glaube, viele versprechen sich etwas zu viel von der Multicore-Optimierung.
Es gibt Szenarien da profitiert man enorm, wie beim Gras in Crysis 3, aber es gibt genau so Szenarien, wo man gar nicht profitiert. Und da wird wohl das zum Tragen kommen, was du beschreibst. Die Kerne werden gleichmäßig ausgelastet, aber spürbare Vorteile bringt es nicht.
 
Ich kann dir sagen warum ich immer zitiere. Damit ich es nicht nachträglich machen muss, falls sich in einer Diskussion noch jemand dazwischen schiebt und damit man weiß mit wem ich rede. Und wie im Vorpost, wenn ich nur auf einen Teil einer Aussage eingehen möchte.;)
Aber ich werde es eindämmen :D
Ich machs aus denselben Gründen, und weil ich halt in der Aussage immer dabei stehen haben will, worauf ich mich beziehe.
Wer sieht, dass es sich eh um dieselbe Aussage handelt wie drüber, muss es eh nicht 2x lesen ;)
 
Zurück