• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

GDC: Nvidia und Crytek zeigen APEX Turbulence mit der Cryengine 3

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu GDC: Nvidia und Crytek zeigen APEX Turbulence mit der Cryengine 3

Die APEX-Module wie Turbulence wurden zwar bisher fast ausschließlich für GPU-beschleunigtes PhysX eingesetzt, allerdings ist auch eine Integration bei anderen Bibliotheken möglich - die veranschaulicht eine aufwendige Partikelsimulation mit der Cryengine 3.

[size=-2]Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und NICHT im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt. Sollten Sie Fehler in einer News finden, schicken Sie diese bitte an online@pcgameshardware.de mit einem aussagekräftigen Betreff.[/size]


Zurück zum Artikel: GDC: Nvidia und Crytek zeigen APEX Turbulence mit der Cryengine 3
 

Brainorg

PC-Selbstbauer(in)
Durchaus. Allerdings muss da Performance mäßig noch einiges gehen. Wenn man bei Hawken die APEX-Turbulence aktiviert, rauschen die FPS ins Bodenlose :(
Selbst mir einer übertakteten Titan.
 

shinobi2611

Freizeitschrauber(in)
Ehrlich gesagt finde ich es jetzt nicht so wirklich berauschend. Für mich sieht es 1:1 wie bei Planetside 2, Borderlands 2 oder wie vor mir erwähnt wie bei Hawken aus.

Das macht die Unreal 4 Engine wesentlich besser. (siehe letztes Jahr die Präsentation)

Ich würde mich eher über eine tolle Wassersimulation wie gestern in einer der News freuen. Denn bis jetzt ist diese Flüssigkeit in den meisten spielen doch noch eher grenzwertig. Das kann und konnte damals Half-Life 2 besser. OK Crysis 1 und 3 stellen das Wasser auch gut dar, aber mir fehlt da trotz allem noch ein wenig mehr an Realismus.

Die meisten neuen Next-Gen Engines (wenn man das mal so nennen darf) gehen eigentlich nur noch den weg zur Realistischen Beleuchtung und Extrem Hochauflösenden Texturen und schmeißen mit Tesserlation und Paralax Mapping nur so umsich, aber selten bemühen sich die Entwickler das Wasser auf den neusten Stand der Technik zu heben.

Die meisten Games sehen was Beleuchtung usw. angeht hervorragend aus aber wenn man dann mal zu einem Tümpel oder Bach läuft im Spiel dann fühlt man sich um 10 Jahre zurückgeworfen. Ein paar Cubemap Spiegelungen hier ein wenig unrealistische Wellen dort und das wars dann auch schon. Wenn man als Spieler dann ins Wasser springt kommen Bitmap Animationen die einen Wellengang vortäuschen sollen, die aber meistens sowas von übertrieben unecht wirken das sich das planschen nicht lohnt.

Oder aber der Entwickler täuscht einen Wellengang vor mit einer Art "Fluid-Actor" ala Unreal Engine 3, dann sieht das Wasser mehr aus wie ne durchsichtige und dickflüssige Creme.

So genug beschwert :D in diesem Sinne....


....jedem das seine^^
 
Zuletzt bearbeitet:

Skysnake

Lötkolbengott/-göttin
Na tut sich da endlich was, und nVidia macht auch GPU-PhysX für AMD Karten verwendbar?

Wenn ja, wäre das ein sehr zu begrüßender Schritt. Endlich weg vom diesem propritären Mist. nVidia würde sich da auch in die richtige Richtung entwickeln. Statt propriätre Standards versuchen durch zu drücken, lieber mächtige Bibliotheken für Geld anbieten. Developer sind sicher sehr gern bereit für gute Bibliotheken auch gutes Geld zu bezahlen. Eigene Gameengines entwickeln ja auch die wenigsten selbst, sondern kaufen extern ein. Den Weg sollte nVidia auch gehen, aber so recht dran glauben kann ich noch nicht, das Sie von ihrem propritären Pferd runter kommen...

Gerade in Sachen OpenCL wäre es doch auch wünschenwert, wenn nVidia endlich von CUDA weg kommen würde. Sollen Sie ihre "Tricks" halt als teure Bibliotheken anbieten. Wenn die gut sind, werden auch Leute, die ne AMD verwenden diese gern bezahlen.
 

flozn

Freizeitschrauber(in)
Bis ich meinen sich physikalisch korrekt verhaltenden Flammenwerfer :devil: bekomme, werden wohl noch viele, viele Jahre vergehen ... :(
 

tochan01

Software-Overclocker(in)
schaut nett aus. ich freue mich auf richten "gummirauch" in racern oder tolle schaubwolken auf rallypisten. meist gibt es ja nur "töff, töff" wölcken hinter den wagen. ^^
 

MTMnet

Freizeitschrauber(in)
Toll.... es fehlt aber die Schärfe....!!

Was nützen mir die Partikel wenn das Bild ansonsten verwaschen aussieht...

Sollte das nur durch das Video kommen.. ( schlechte HD Qualität ? ) dann frage ich mich warum man uns sowas als Tech Video zeigt.. ?
 

Rollora

Kokü-Junkie (m/w)
Na tut sich da endlich was, und nVidia macht auch GPU-PhysX für AMD Karten verwendbar?
das wird einfach nicht kommen. Außer man nimmt statt CUDA Open CL als Grundlage und "oh zufällig läufts auch bei der Konkurrenz... aber halt weniger Performant"
AMD wäre einfach dumm, man würde jeden Benchmark automatisch verlieren: Die Physikengine die seit Jahren auf Nvidia hin optimiert wird werden sie nichtmal ansatzweise auf AMD optimieren, AMD, wenn PhysX jemals damit laufen würde, wäre immer der verlierer und würde somit nicht nur an Prestige, sondern auch beim eigentlichen Wert der Grafikkarte verlieren, also die Margen würden im Vergleich zu Nvidia in den Keller gehen

Zum Video selbst: ist ja schön und gut, aber durch dieses ganze verwische schauts wieder total unbeeindruckend aus
Hammer nice ^^ Manchmal sind es auch nur "kleinigkeiten", wie z.b dieses, die ein Spiel viel besser machen ;)
Hab eigentlich noch kein einziges Spiel gesehen, wo das SPIEL durch einen Grafikeffekt besser geworden ist
cool, dass es auch ohne PhysiX Schei* geht. Cryengine FTW ^^
Das ganze hat jetzt eigentlich ziemlich wenig mit der "langweilige Grafikdemo die sich als Shooter tarnt"Crysis 3- Cryengine an sich zu tun...
 

kartenlehrling

Freizeitschrauber(in)
Vielleicht brauch man in der Zukunft sich sowieso keine zusätzliche PhysX Karte zustecken,
dann übernimmt der IGP der CPU diese Aufgaben, mit dem neuesten Inteltreiber kann man HD4000 schon mit der Hauptgrafikkarte parallel arbeiten lassen was vorher nur mit lucidlogix.com ging und
solche dx11.1 fahigkeiten die mit dem Haswell kommt, zeigt es noch mehr als Beweiss das man ein Teil der Arbeit der iGPU überlässt und die Direkt GPU wichtigere Berechunge überlässt.


Intel Haswell Processors Running Grid 2 at GDC 2013 - Legit Reviews

Intel Haswell-Prozessoren mit der 4. Generation Intel HD Graphics voll unterstützen DirectX 11.1 zusammen mit dem oben erwähnten InstantAccess und PixelSync Plugins.
Diese Plugins werden vorerst nur auf Intel Haswell-Prozessoren arbeiten, konnte aber in Zukunft DirectX-Versionen enthalten sein.
Dies würde bedeuten,
dass NVIDIA und AMD könnte diese Funktionen auf diskreten Grafikkarten in Zukunft unterstützen,
aber jetzt sind sie nur eine Funktion, die Intel unterstützt.
http://www.lucidlogix.com/technology-virtual-graphics.html
 

Rollora

Kokü-Junkie (m/w)
Vielleicht brauch man in der Zukunft sich sowieso keine zusätzliche PhysX Karte zustecken,
dann übernimmt der IGP der CPU diese Aufgaben, mit dem neuesten Inteltreiber kann man HD4000 schon mit der Hauptgrafikkarte parallel arbeiten lassen was vorher nur mit lucidlogix.com ging und
solche dx11.1 fahigkeiten die mit dem Haswell kommt, zeigt es noch mehr als Beweiss das man ein Teil der Arbeit der iGPU überlässt und die Direkt GPU wichtigere Berechunge überlässt.


Intel Haswell Processors Running Grid 2 at GDC 2013 - Legit Reviews
es währe Wünschenswert wenn sich in Zukunft CPU und iGPU die Berechnungen für Physik teilen würden. Das wäre die Traumlösung.
Dazu braucht es aber Zeit und Lösungen:
Physik müsste Herstellerunabhängig berechnet werden können (OpenCL!)
Spiele müssten von Grund auf drauf setzen
Jeder müsste eine APU bzw CPU+GPU haben

Freuen würde es mich, denn das würde auch bedeuten AMD mit ihren APUs und hoffentlich dann in Bulldozer integrierte GPUs (also dann auch APUs) könnten in Spiele wieder an Intel ran oder gar vorbei: die Power der AMD GPUs würde dann ja viel ausgleichen, dass die CPU so schwach ist, bei Intel ists umgekehrt denn da ist bis dato der GPU teil schwach, aber die künftigen HD4xxx und 5xxx werden nachlegen.

Witzig wäre, wenn Intel selbst das Wunderheilmittel bringt: Havok FX für integrierte Grafikchips. Havok ist ja so schon super: effizient und leicht zu bedienen, seit kurzem bis zu 4x so schnell wie bisher, wer die News verfolgt hat. Und was wäre es schön, wenn die sagen, sie erweitern das Konzept jetzt endlich um GPU Physik (wie schon für 2003 geplant) und releasen es als lizenzierbare Engine die aber dafür auf allen OpenCL Geräten läuft.
Dasselbe gilt übrigens für KI

Damit das aber so kommt brauchen wir alle ein ähnliches System: CPU mit GPU Teilen und eine extra GPU. Sonst wirds für die Entwickler wieder schwierig: die tausenden verschiedenen Kombinationen die schön möglich sind von Starker CPU und Starker GPU, vielleicht auch 2; Schwacher CPU, starker GPU dafür nur eine, Mittel von beidem usw.
Um ein Spiel von Grundauf auf ein Zielssytem zu optimieren, brauchen die Entwickler etwas konstantes. Wäre es nicht schön (aus Entwicklersicht) wenn man sich drauf verlassen könnte, dass jeder Spieler eine CPU mit 8 Threads hat, dazu eine iGPU die während dem Spielen eh untätig rumsitzt - wir also mit Physik und KI auslasten könnten und der GPU die Grafik überlassen.
Dann wären zerstörbare Welten und KI die interaktiv darauf reagiert kein Problem mehr. Und somit dynamische Zerstörung und jedes Spiel verläuft ein wenig anders.
Davor hat man immer das Problem: baut man überhaupt eine Physik ein? Wenn ja welche? Nur ganz einfache für Ragdoll oder Zerstörung mit Effekten wie die der PhysXengine? Das kann man dann aber nur als "oben drauf" geben, nicht als Spielelement, weil sonst die hälte der Spieler (AMD Karten Besitzer) es nicht spielen könnten.
Man braucht eben diese generelle Hardware, etwa CPU + GPU mit genug Reserven für Physik (und die dazu fähige Physikengine)- hat im Moment keiner, weil die Grafikkarte so dimensioniert ist, dass sie die Grafik flüssig schafft und nicht auch noch Physik - oder aber CPU+iGPU (Open CL fähig)+dedizierte GPU.
 
Zuletzt bearbeitet:

RedDragon20

BIOS-Overclocker(in)
Ja is oki aber nur eine Spielerei mehr nicht !
Warum sollte es nur eine Spielerei sein? Die Unreal Engine 4 beherrscht eine ähnliche Partikelsimulation.
Und die Cry Engine 3 hat schon jüngst in Crysis 3 gezeigt, das alles, was die Engine zu bieten hat, auch tatsächlich umsetzbar ist.
Ich bin zuversichtlich, dass auch die im Video gezeigten Partikel spätestens mit Release der Next Gen-Konsolen in Games zum Einsatz kommen. Bis dahin dürfte auch eine neue GraKa-Generation auf dem Markt sein, die genügend Leistung hat, um die Partikelsimulation flüssig darzustellen.
 
Zuletzt bearbeitet:

xpSyk

PCGH-Community-Veteran(in)
(...)"langweilige Grafikdemo die sich als Shooter tarnt"Crysis 3- Cryengine (...)

Warum langweilig?? :what: Crysis hatte mit dem Nanosiut schon immer ein Aleinstellungsmerkmal und im vergleich zu anderen Top-Shootern wie CoD oder BF ist Crysis 1,2,3, einfach besser (natürlich nur Singleplayer!) .
 

RedDragon20

BIOS-Overclocker(in)
Warum langweilig?? :what: Crysis hatte mit dem Nanosiut schon immer ein Aleinstellungsmerkmal und im vergleich zu anderen Top-Shootern wie CoD oder BF ist Crysis 1,2,3, einfach besser (natürlich nur Singleplayer!) .

Man hätte dennoch mehr draus machen können. Währe der Nanosuit nicht, wäre Crysis eine völlig mittelmäßige Reihe und kaum mehr als eine interaktive Grafikdemo.
Aber davon abgesehen ist die CryEngine 3 eine sehr gute Engine.
 

Rollora

Kokü-Junkie (m/w)
Warum langweilig?? :what: Crysis hatte mit dem Nanosiut schon immer ein Aleinstellungsmerkmal und im vergleich zu anderen Top-Shootern wie CoD oder BF ist Crysis 1,2,3, einfach besser (natürlich nur Singleplayer!) .
Absolut jeder Shooter der 90er hatte "Power Ups" die im prinzip wie der Nano´-Suite funktionierten. Dazu komplexeres, abwechslungsreicheres Leveldesign usw.
Crysis ist langweilig, uninspiriert und in jeglicher Hinsicht hinter seinem Vorgänger.

+ Die Engine ist eine Katastrophe für alles andere außer shooter, also völlig unbrauchbar und unflexibel, deshalb störe ich mich immer an Aussagen die die Cryengine so hochloben obwohl noch nie damit gearbeitet wurde.
 

majinvegeta20

Lötkolbengott/-göttin
Erinnert mich doch ziemlich stark an die Unreal Engine 4.
Da hat mir das in derer Tech Demo um einiges mehr beeindruckt & besser gefallen. ;)
 

RedDragon20

BIOS-Overclocker(in)
Absolut jeder Shooter der 90er hatte "Power Ups" die im prinzip wie der Nano´-Suite funktionierten. Dazu komplexeres, abwechslungsreicheres Leveldesign usw.
Crysis ist langweilig, uninspiriert und in jeglicher Hinsicht hinter seinem Vorgänger.

+ Die Engine ist eine Katastrophe für alles andere außer shooter, also völlig unbrauchbar und unflexibel, deshalb störe ich mich immer an Aussagen die die Cryengine so hochloben obwohl noch nie damit gearbeitet wurde.

Crysis mag kein Übershooter sein, aber darum geht es hier ja auch gar nicht.

Allerdings frage ich mich, wie du darauf kommst, dass die CE3 für nichts anderes außer Shooter geeignet ist? Soweit ich mich erinnere, ist auch ein MMORPG (Cabal 2) in der Mache (vielleicht sogar mehr), das die CryEngine 3 als Grundgerüst verwendet. Dass noch nie mit der CE3 gearbeitet wird, ist demnach völliger Blödsinn. Mag sein, dass mehr Arbeit in Optimierung und einigen Veränderungen investiert werden muss, aber das ändert wohl kaum etwas an der Tatsache, dass die CE3 sowohl optisch, als auch leistungstechnisch eine sehr gute Engine ist. Viele Engine sind insofern wesentlich schlechter, weil sie ganz speziell für ein Spiel(serie) entwickelt wurden und danach keine Verwendungen mehr fanden.
 

Rollora

Kokü-Junkie (m/w)
aber das ändert wohl kaum etwas an der Tatsache, dass die CE3 sowohl optisch, als auch leistungstechnisch eine sehr gute Engine ist. Viele Engine sind insofern wesentlich schlechter, weil sie ganz speziell für ein Spiel(serie) entwickelt wurden und danach keine Verwendungen mehr fanden.
Gerade das ist ja nicht der Fall: viele Engines werden heutzutage weiterlizenziert, kaum ein Entwicklerstudio leistet sich eigene Engines.
Und oh-ho es ist ein MMORPG in Entwicklung? Nachdem die CE2 und 3 seit nunmehr 7 Jahren herumschwirrt und angeblich führend sein soll, haben wir wieviele AAA-Nicht-Crytek-Spiele gesehen, speziell wieviele Shooter?
Keins.
Das zeigt einfach, dass sie bei Entwicklern aus ziemlich vielen Gründen nicht gut ankommt, so "schön" die Engine nun auch sein mag. Grafik allein macht eben kein Spiel.
 
Oben Unten