Cryengine-Demo Neon Noir: Mit Raytracing in 1080p und 30 Fps auf der Radeon RX Vega 56

Lasst uns in 10 Jahren wieder drüber reden, bis dahin bin ich mit der aktuellen
Grafik, die es in Division2 z.B. gibt, vollauf zufrieden. :daumen:

Bis die HW stark genug für solche "Spielereien" ist, wird noch so manche GPU-
Generation an uns vorbei gehen. Ich kann warten, wenn RT, dann richtig und
nicht dieser Hersteller-Exclusive Mist. (Von wem auch immer)
 
Der Klischee Kommentar schlechthin von average Joe Smartboy. Kann denn gutes Gameplay nicht die Grafik bekommen die es verdient ?
Idealerweise schon, aber gerade in letzter Zeit gab es doch einige Entwickler, die grafische Qualität gegenüber Gameplay priorisiert haben.


Ansonsten kann man nur sagen das die Cryengine Demo schlecht aussieht. Meanwhile in Unreal Engine :

YouTube
YouTube
YouTube
Ich finde jetzt ehrlich gesagt nicht, dass das besser aussieht. Die erste Demo kann die Cryengine locker auch, da sah schon Crysis 3 besser aus. Die Videos mit den Innenräumen sind natürlich beeindruckend, aber es ist halt auch nur ein Raum in dem sich absolut nichts bewegt mit einer einzigen, ebenfalls statischen Lichtquelle. Keineswegs vergleichbar mit der Crytek Demo.

Generell sollte man vorsichtig sein fehlende grafische Qualität der Engine in die Schuhe zu schieben. Denn die beste Engine nutzt nichts wenn der Entwickler nicht weiß wie man sie in Szene setzt.
 
Jetzt hat man halt Gewissheit das das was man schon vor Monaten gesagt hat zutrifft - RayTracing frisst gewaltig Leistung und ohne spezialisierte Hardware ist es nur sehr bedingt für Echtzeitgrafiken geeignet.
Hier hat man eine Vega 56 unter volllast bei 30 FPS - dafür statische Geometrie, stark limitierte Lichtquellen, reduzierte Texturen. Auf der anderen Siete hat man Karten die sau teuer sind, aber dafür aber animierte Geometrie, volle Texturen, die GPuU nicht voll ausgelastet und eine fertige API von MS......

RT und HDR werden noch eine große Rolle Spielen, es wird aber schon länger brauchen als damals Tesselation oder MipMapping - schon allein deshalb weil es fundamental mehr Leistung frisst.

Störend war nur, dass Nvidia mal wieder versucht hat, ihre eigene Technik, die nur mit ihren Grafikkarten läuft als einzige Raytracing-Lösung darzustellen. (Edit: Oder einen zwanghaften Grund zu suchen, warum Gamer RTX-Cores bräuchten)

Ich weis ja nicht hinter welchem Stein du daher gekrochen kommst - aber wovon zum Teufel schwafelst du da?
Nvidia hat von Anfang an klar gemacht (zusammen mit microsoft) das es sich bei DXR um in DirectX-Feature handel und Nvidias karten das dann intern mit RT-Cores beschleunigen - spezialisierte Hardware die es ermöglichen das zu noch irgendwie leistbaren Preisen zu machen.
 
Störend war nur, dass Nvidia mal wieder versucht hat, ihre eigene Technik, die nur mit ihren Grafikkarten läuft als einzige Raytracing-Lösung darzustellen.

Ich finde es störend, dass solchen Falschbehauptungen und Verschwörungstheorien hier Raum gegeben wird.
DXR ist keine Nvidia eigene Technik und die Implementierung ist selbstverständlich nicht der einzige Weg um Strahlen zu verschiessen, aber wie wir hier sehen können, der deutlich effizientere.
30 FPS AVG auf einer RX Vega 56 mit mittleren Details, wohl mit Einbrüchen in den 20er Bereich und das nur in 1080p. Da war selbst die ersten Gehversuche in Battlefield deutlich performanter, von Metro ganz zu schweigen.

(Edit: Oder einen zwanghaften Grund zu suchen, warum Gamer RTX-Cores bräuchten) Aber spätestens seit FreeSync(Adaptive Sync) vs G-Sync sind die anderen Firmen nicht mehr so naiv.

AMD wird um dedizierte Einheiten für Raytraversierung nicht herumkommen.
Genauso wie man um Computeshader nicht herumgekommen ist.
Das wussten alle aber schon vor der Crytek Demo, nur eben nicht die PCGHler in ihrer AMD Filterblase.
 
Zuletzt bearbeitet:
Lasst uns in 10 Jahren wieder drüber reden, bis dahin bin ich mit der aktuellen
Grafik, die es in Division2 z.B. gibt, vollauf zufrieden. :daumen:

Bis die HW stark genug für solche "Spielereien" ist, wird noch so manche GPU-
Generation an uns vorbei gehen. Ich kann warten, wenn RT, dann richtig und
nicht dieser Hersteller-Exclusive Mist. (Von wem auch immer)
Das Gute ist, dass sich grafisch sowieso in den letzten Jahren so wenig getan hat, dass es kaum noch wert ist für die geringen Upgrades heutzutage neue Grafikhardware anzuschaffen und man durchaus ein paar Jahre warten kann, bis Raytracing richtig in Schwung kommt und sinnvoll/effizient eingesetzt wird
 
Ich finde es störend, dass solchen Falschbehauptungen und Verschwörungstheorien hier Raum gegeben wird.
DXR ist keine Nvidia eigene Technik und die Implementierung ist selbstverständlich nicht der einzige Weg um Strahlen zu verschiessen, aber wie wir hier sehen können, der deutlich effizientere.
30 FPS AVG auf einer RX Vega 56 mit mittleren Details, wohl mit Einbrüchen in den 20er Bereich und das nur in 1080p. Da war selbst die ersten Gehversuche in Battlefield deutlich performanter, von Metro ganz zu schweigen.



AMD wird um dedizierte Einheiten für Raytraversierung nicht herumkommen.
Genauso wie man um Computeshader nicht herumgekommen ist.
Das wussten alle aber schon vor der Crytek Demo, nur eben nicht die PCGHler in ihrer AMD Filterblase.

Wie lebt es sich denn so in deiner Nvidia-Filterblase??? Du willst mir jetzt sagen das Nvidia RTX der effizientere Weg ist? BFV und Metro liefen da deutlich besser... Wir reden hier von einer VEGA 56, eine 2080 hat noch nichtmal 60fps in 1080p bei beiden Titeln geschafft. Und eine 2080 ist jetzt ca. wieviel schneller von der reinen Rohleistung gesehen, ja stimmt ca. 40% plus das sie ja noch die hochgelobten RTX-Tensor Cores hat.
Also wenn die Tech-Demo eines bewiesen hat, dann das Nvidias RTX die komplette Verarschung ist. Würde gerne mal die Demo mit einer Vega2 sehen, die ja von der Rohleistung mit einer 2080 mithalten kann.

Das Nvidia voll verkackt hat und das auch langsam selber eingesehen hat, sieht man schon alleine dadran, das Raytracing für alle Nvidia-Karten geöffnet wurde.
 
Wie lebt es sich denn so in deiner Nvidia-Filterblase??? Du willst mir jetzt sagen das Nvidia RTX der effizientere Weg ist? BFV und Metro liefen da deutlich besser... Wir reden hier von einer VEGA 56, eine 2080 hat noch nichtmal 60fps in 1080p bei beiden Titeln geschafft. Und eine 2080 ist jetzt ca. wieviel schneller von der reinen Rohleistung gesehen, ja stimmt ca. 40% plus das sie ja noch die hochgelobten RTX-Tensor Cores hat.
Also wenn die Tech-Demo eines bewiesen hat, dann das Nvidias RTX die komplette Verarschung ist. Würde gerne mal die Demo mit einer Vega2 sehen, die ja von der Rohleistung mit einer 2080 mithalten kann.

Das Nvidia voll verkackt hat und das auch langsam selber eingesehen hat, sieht man schon alleine dadran, das Raytracing für alle Nvidia-Karten geöffnet wurde.

mit tensor kernen würde es trotzdem noch besser laufen. sehe nur das amd den fortschritt eher bremst
 
Wie lebt es sich denn so in deiner Nvidia-Filterblase??? Du willst mir jetzt sagen das Nvidia RTX der effizientere Weg ist? BFV und Metro liefen da deutlich besser... Wir reden hier von einer VEGA 56, eine 2080 hat noch nichtmal 60fps in 1080p bei beiden Titeln geschafft. Und eine 2080 ist jetzt ca. wieviel schneller von der reinen Rohleistung gesehen, ja stimmt ca. 40% plus das sie ja noch die hochgelobten RTX-Tensor Cores hat.
Also wenn die Tech-Demo eines bewiesen hat, dann das Nvidias RTX die komplette Verarschung ist. Würde gerne mal die Demo mit einer Vega2 sehen, die ja von der Rohleistung mit einer 2080 mithalten kann.

Das Nvidia voll verkackt hat und das auch langsam selber eingesehen hat, sieht man schon alleine dadran, das Raytracing für alle Nvidia-Karten geöffnet wurde.
Seit dem RTX Release hat sich viel getan. Klar war es Anfangs sehr fehlerhaft. Auch DLSS war am Anfang schlicht unscharf, LOL. Inzwischen ist Alles gefixt und ja er funktioniert recht ordentlich. Wie ich an anderer Stelle schon gesagt habe, die RTX2080FE läuft fantastisch zum Bespiel auch bei The Division 2. Sie war teuer, für mich sauteuer, macht aber jedesmal beim Gamen riesig Spaß. Habe noch nie einen so rund laufenden Rechner gehabt. AMD plus Nvidia at their Best, was will man mehr. Dass AMD alle Entwicklungsressourcen in die CPU Sparte gesteckt hat hat sich dort extrem gelohnt, bei den Grafikkarten haben sie aber stark sparen müssen. Mit dem Erfolg von Ryzen wird hoffentlich Geld da sein um dort dann nachzuziehen. Dann wird alles wieder gut. Man kann dann öfter mal das GPU Lager wechseln je nach Tagesform der Mitbewerber.
 
im Falle von Raytracing sind proprietäre Implementierungen nicht sinnvoll und während AMDs Ansatz durchaus wesentlich langsamer ist, ist Nvidias teils proprietäre Implementierung auch alles andere als Fortschritt-bringend.

Ähm - in wie fern ist jetzt Nviadias Hardware-Beschleunigung für ein Dx12 Feature schlecht? und wie war das nochmal mit AMD-intrinsics die vor allem auch bei Doom zum greifen kamen? Oh warte mal -da haben die AMD-fans behauptet das diese proprietären Funktionen gut seine, jetzt aber eine offene beschleunigung die über Dx12, Vulkan und OptiX angesprochen werden kann ist was schlechtes!?!? :ugly:
 
Wie lebt es sich denn so in deiner Nvidia-Filterblase???

Ich lebe nicht in einer Filterblase, ich muss mir keine Dinge zurechtbiegen, damit ich es in Fan-konforme Parolen verpacke.

Du willst mir jetzt sagen das Nvidia RTX der effizientere Weg ist? BFV und Metro liefen da deutlich besser... Wir reden hier von einer VEGA 56, eine 2080 hat noch nichtmal 60fps in 1080p bei beiden Titeln geschafft.

Ich sage dass RT Cores zur Raytraversierung der weit effizientere Weg sind, als es über Compute Shader zu realisieren und bei vielen Strahlen wird AMD einen ähnlichen Weg gehen, denn Shader sind dafür zu ineffizient.
Das ist auch hinreichend bewiesen, zu sehen an der Leistung der Pascal Karten zum Beispiel in Metro oder Tombraider.
Metro und Battlefield laufen mit mehr als 60 FPS ultra auf einer 2080 in Full HD, das kann man ja recht flott überprüfen.

Und eine 2080 ist jetzt ca. wieviel schneller von der reinen Rohleistung gesehen, ja stimmt ca. 40% plus das sie ja noch die hochgelobten RTX-Tensor Cores hat.

Die Tensor Cores werden bisher gar nicht für das Denoising eingesetzt.

Also wenn die Tech-Demo eines bewiesen hat, dann das Nvidias RTX die komplette Verarschung ist.

Manche User haben es nötig sich selbst zu belügen, da kann ich leider auch nichts dagegen tun.
Mit Argumenten kann man manchem schlicht nicht beikommen.

Das Nvidia voll verkackt hat und das auch langsam selber eingesehen hat, sieht man schon alleine dadran, das Raytracing für alle Nvidia-Karten geöffnet wurde.

Joa, damit man zum Beispiel sieht, wie sinnvoll diese Verarsche-RT-Cores sind und wie unnötig diese Anpassungen für Raytracing sind.

im Falle von Raytracing sind proprietäre Implementierungen nicht sinnvoll und während AMDs Ansatz durchaus wesentlich langsamer ist, ist Nvidias teils proprietäre Implementierung auch alles andere als Fortschritt-bringend.

Also nur um das mal zu klären: Von welchem AMD Ansatz wird hier gesprochen?
Warum ist Nvidias Implementierung teils proprietär?
 
Zuletzt bearbeitet:
Wie lebt es sich denn so in deiner Nvidia-Filterblase??? Du willst mir jetzt sagen das Nvidia RTX der effizientere Weg ist? BFV und Metro liefen da deutlich besser... Wir reden hier von einer VEGA 56, eine 2080 hat noch nichtmal 60fps in 1080p bei beiden Titeln geschafft....

Schon wieder Jemand der den Unterschied der Raytracing Darstellung und Berechnung in Metro, BF von der Voxel Lösung bei einer "Demo" nicht erkennt.

Selbst Crytrek sagt dass es auf den RTX Karten bis UHD laufen würde. Voxel läuft bisher nur in einer vorgefertigten Demo gut. In einem realem und steuerbarem Spiel hätte man mit bewegenden Objekten und Ghosting seine Probleme.

Dedizierte Hardware kann nun mal Dinge besser beschleunigen als eine reine Softwarelösung.
Man sollte nur mal von fertigen Spielen und Demos unterscheiden.

AMD wird es garantiert auch in Zukunft in Hardware lösen. Dann bin ich mal auf die Argumente gespannt die meinen es würde eine reine Voxel-Lösung reichen.

im Falle von Raytracing sind proprietäre Implementierungen nicht sinnvoll und während AMDs Ansatz durchaus wesentlich langsamer ist, ist Nvidias teils proprietäre Implementierung auch alles andere als Fortschritt-bringend.

Welche spezielle Nvidia Lösung? Wie oft wird noch behauptet die Grünen machen hier was Eigenes was kein Anderer kopieren darf?
Hier wird nur die MS Schnittstelle genutzt und mit zusätzlichen Cores beschleunigt.
Es gibt keinen Grund warum AMD keine Kerne in die künftigen GPU intregiert die Raytracing ebenfalls nutzen.
Auf GTX Pascal läuft es doch auch solange der Treiber DXR anspricht.
Es gibt hier kein reines Nvidia Format. Nur eine DX12 Integrierung.
 
Das es manchen nicht langsam zu blöd wird jeden Tag rund um die Uhr nur Beiträge zu schreiben die ihre Seite besser dastehen lassen oder gar wenn ihr Seite etwas nicht kann das andere schlecht zu reden. Ich weis nicht wie man so seine Zeit opfern kann, so wertlos irgendwie...
 
Ähm - in wie fern ist jetzt Nviadias Hardware-Beschleunigung für ein Dx12 Feature schlecht? und wie war das nochmal mit AMD-intrinsics die vor allem auch bei Doom zum greifen kamen? Oh warte mal -da haben die AMD-fans behauptet das diese proprietären Funktionen gut seine, jetzt aber eine offene beschleunigung die über Dx12, Vulkan und OptiX angesprochen werden kann ist was schlechtes!?!? :ugly:

Alles was proprietär ist, ist problematisch für den Markt. PhysX hat sich deshalb auch noch nicht durchgesetzt und wir warten immer noch auf den Durchbruch von INgame-Physik. Seit der Ankündigung von Havok FX, also über 15 Jahren
Welche spezielle Nvidia Lösung? Wie oft wird noch behauptet die Grünen machen hier was Eigenes was kein Anderer kopieren darf?
Hier wird nur die MS Schnittstelle genutzt und mit zusätzlichen Cores beschleunigt.
Es gibt keinen Grund warum AMD keine Kerne in die künftigen GPU intregiert die Raytracing ebenfalls nutzen.
Auf GTX Pascal läuft es doch auch solange der Treiber DXR anspricht.
Es gibt hier kein reines Nvidia Format. Nur eine DX12 Integrierung.
Nvidia RTX - Wikipedia

Letzten Endes kontrolliert Nvidia die Softwareökonomie
 
regelt die bewegungen nicht die cpu???

Das Problem ist nicht welches Bauteil die Berechnung der Animation anstellt, sondern welche Auswirkung die stattfindende Animation auf das System der Lichtberechnung hat.

Bei SVO Raytracing wie es in der Crytek Demo zum Einsatz kommt funktioniert die Beleuchtung deswegen so gut, weil die Szene statisch ist. Objekte können ihre Position innerhalb der Szene verändern, aber nicht ihr Profil. Wenn man sich jetzt einen Menschen vorstellt der mit schwingenden Armen die Straße runterläuft dann formen dessen Eckpunkte in jeder DImension ständig ein anderes Volumen und die einzelnen Oberflächen verändern ständig ihre Ausrichtung zueinander und damit ist das 3D Modell in den Octrees einfach nicht mehr griffig zu fassen. Dort wo die Szenenbeleuchtung mit diesem Objekt mit variablen Volumen kollidiert bricht das System der Beleuchtungsberechnung zusammen. Eine gute Detailerklärung liefert dieses Video (YouTube).


Das ist ja der Grund warum Nvidia seine Demos immer anhält, die Szenerie dreht, die Animation zuschaltet. Das ist um zu zeigen, wir haben RTX und das ist kein SVO basierendes System.
 
Crytek ist heutzutage nur noch ne kleine Nummer im Game-Engine Sektor ohne Marktrelevanz, neben den grossen Unreal Engine & Unity .... dennoch unterstützt die 'CryEngine' auch zukünftig Nvidia's RTX Technologien mit der CryEngine 5.7 mit voller Nvidia Turing - RTX - 'RT-Core' Unterstützung in Hardware .... also wird die leistungsstarke Nvidia RTX 20xx Turing GPU Grafikkarten Serie - in 4K dann Kreise um AMD GCN Vega & Navi drehen .... dies wird dann die etwas steril wirkende 'Neon Noir' Demo schonungslos darlegen.

Crytek hat im Blog bereits bekannt gegeben, dass volle Nvidia RTX-Unterstützung implementiert wird, die die Leistung von NVIDIA-Grafikkarten verbessern und bis zu 4K bei Vollbildauflösung und Effekten ermöglichen soll. RTX sollte nicht mehr Funktionen zulassen, sondern die Leistung und Qualität bereits implementierter Funktionen verbessern. Im Crytek-Blogbeitrag finden Sie einige interessante Informationen zur aktuellen Implementierung von Raytracing, der Entscheidung, die Technologie auf der Grundlage des Objektglanzniveaus anstelle einer vollständigen Lösung für eine verbesserte Leistung zu integrieren und Voxel- und Raytracing-Workloads zu mischen, um die bestmögliche Optimierung zu erzielen.

However, Nvidia RTX will allow the effects to run at a higher resolution. At the moment on GTX 1080, we usually compute reflections and refractions at half-screen resolution. RTX will probably allow full-screen 4k resolution. It will also help us to have more dynamic elements in the scene, whereas currently, we have some limitations. Broadly speaking, RTX will not allow new features in CRYENGINE, but it will enable better performance and more details.

>>> Crytek Releases Neon Noir, A Real-Time Ray Tracing Demonstration For CRYENGINE
>>> Crytek Updates CryEngine Roadmap: Version 5.7 to Support DirectX 12, Vulkan and Ray Tracing | TechPowerUp
Crytek have updated their development roadmap for CryEngine, adding in some of the features we discussed yesterday on our piece regarding their Neon Noir ray tracing tech demo performance. The new roadmap now places Spring 2020 as the time where both DirectX 12 and Vulkan, lower level APIs than the currently-supported DX11, will be fully integrated into the engine. Ray Tracing will be added at the same time, no doubt taking advantage of the higher performance that can be extracted from hardware through the lower level APIs.

It will be interesting to see the level of performance on CryEngine's hardware agnostic ray tracing, and whether their Spring 2020 implementation will take advantage of specialized Nvidia RTX hardware - or focus on a software solution ran at varying degrees of rendering resolution according to the scene. Though with AMD's Navi being expected to incorporate some sort of hardware-based ray tracing acceleration, it's very likely software calculations will only be a fallback of the coding.

1044141d1557355333-cryengine-demo-neon-noir-mit-raytracing-1080p-und-30-fps-auf-der-radeon-rx-vega-56-a-worldwide-geforce-rtx-support.png


>>> The 10 Best Free Game Engines for Creating 3D, 2D & VR Games
>>> 2018 Architectural Visualization Rendering Engine Survey - Results
>>> In Depth: 8 Free 3D Game Engines and Free Language Learning Resources - Toolfarm
 
Zuletzt bearbeitet:
Alles was proprietär ist, ist problematisch für den Markt.

DXR ist nicht proprietär, was redest du da für einen Käse?

Letzten Endes kontrolliert Nvidia die Softwareökonomie

Dann hat AMD mit Vulkan auch die Softwareökonomie kontrolliert, als sie ihr Mantle freigegeben haben.
Zudem mit FP16, mit Async Compute, mit Forward+ Rendering, mit Direct X 11.1, True Form Tessellation, HDOA, TressFX usw.

Es gibt jetzt bisher eben nur ein DXR Backend für Nvidia GPUs, ganz einfach weil AMD noch nichts macht.
Zu sagen das sei proprietär, nur weil bisher nur Nvidia ihren Treiber dafür angepasst hat, ist schon sehr weit hergeholt, um nicht zu sagen purer Unsinn.
 
Idealerweise schon, aber gerade in letzter Zeit gab es doch einige Entwickler, die grafische Qualität gegenüber Gameplay priorisiert haben.

1. Weils mit höherem Budget erarbeitet werden kann. Für Gameplay geht das genauso wenig wie für eine gute Story. Es ist unsinnig anzunehmen weniger Budget im Grafikbereich macht andere Inhalte besser.
2. Außerdem spart RT eine Menge Arbeit da baken und faken wegfällt.

Ich finde jetzt ehrlich gesagt nicht, dass das besser aussieht. Die erste Demo kann die Cryengine locker auch, da sah schon Crysis 3 besser aus. Die Videos mit den Innenräumen sind natürlich beeindruckend, aber es ist halt auch nur ein Raum in dem sich absolut nichts bewegt mit einer einzigen, ebenfalls statischen Lichtquelle. Keineswegs vergleichbar mit der Crytek Demo.

Generell sollte man vorsichtig sein fehlende grafische Qualität der Engine in die Schuhe zu schieben. Denn die beste Engine nutzt nichts wenn der Entwickler nicht weiß wie man sie in Szene setzt.

Crysis 3 sieht völlig veraltet aus, da schlägt wohl die Nostalgie durch. Und ihr "Raytracing" ist ein ziemlicher Hoax was ich auf dem Blog gelesen habe.
Deswegen gehen auch nur totale Spiegelungen, da sind NV und UE um Jahre voraus.

Die Innenräume sind nicht statisch und du kannst mehr Lichtquellen hinzufügen. Das kann jeder selbst im Editor ausprobieren.
 
Zuletzt bearbeitet:
Zurück