Crytek demonstriert Raytracing mit Cryengine auf Radeon Vega 56

Nvidia lässt sich diese RT-Kerne teuer bezahlen und jetzt kommt raus, dass man sie nicht braucht, das ist Kundenverarsche auf aller höchstem Niveau!

Bin gespannt wie Nvidia aus der Nummer wieder raus kommt.

Ich bin auch ein Fan von offen Standards, proprietären Kram brauchts nicht und macht den Markt attraktiver, aus Konsumentensicht. Aber eine hybrid Lösung, ala RT chip kümmert sich um Rt Berechnungen und der Grafikchip um die Rasterisierung und ordentlich Bildausgabe ist aus meiner Sicht schon sinnvoll. Man kann nur hoffen das diese offenen RT Standards dann auch den RT Chip bei Nvidia nutzen. Wenn man dadurch gute frametimes und fps erreichen kann, haben alle gewonnen. Aber so einen Zustand wie mit Freesync und Gsync will keiner haben... Also beten das die sich zusammenfinden...
 
Abwarten bis mehr Infos vorliegen,

Es gibt so gute Tricks Spieglungen vorzutäuschen bzw. Real Time Raytracing das keiner von uns den Unterschied bemerken würde.

Bestes Beispiel das aktuell Hitman was gute Täuschungen hinbekommen.

Das was ich da sehe hab ich schon vor Jahren in anderen Technik Demos gesehen und ob das hier nun REAL. raytracing ist wage ich etwas zu bezweifeln.
 
Sehr spannend. Echtzeit-Spiegelungen (ohne jegliche SSR) + Echtzeit-GI in 4K 30 auf einer Vega 56. Und insgesamt kann die Qualität sehr überzeugen, vor allem vor dem Hintergrund, dass es sich um eine erste Demo handelt.


naja wer auf Fake Raytracing steht

Klar, der SSR/RT RTX-Hybrid in BF V ist viel näher an der Realität. Und sichtbares LOD oder fehlende Elemente in den Spiegelungen gibt es da ja auch keine:schief:.
 
Endlich mal normale Leute. ;)

Was ist daran unnormal Raytracing auf einer GPU ohne dedizierte "RTCores" die nur einen Teil der Berechnung durchführen möglich zu machen?
Das konnte auch die TitanV, nebenbei gibt es auch schon das ein oder andere Oldie- Raytracinggame.

Ups konnte nvidia Crytek nicht davon überzeugen RT nur auf Turing laufen zu lassen?

Ich sehe bei der bisherigen DXR Implementierung nicht, wieso das nicht auch auf AMD laufen soll oder es verhindert wird.

Aber aber aber was ist mit den RT Cores? :heul:
Darf doch nicht wahr sein, dass es sogar auf einer low end^^ Vega 56 läuft :ugly:

Das ist dich nocht dein Ernst Duvar, du müsstest doch bestens wissen, dass nur ein Teil der Berechnung auf den "RT Cores" durchgeführt wird und diese den Vorgang nur bedingt bei vielen Rays pro Pixel beschleunigen.

witzig wäre wenn es wirklich performant in Games rüberkommt und normale NVIDIA Karten und AMD Karten sehr gut performen,
gleichzeitig die RT Cores in dieser Implementierung absolut nutzlos sind.

Das wäre der Schenkelklopfer des Jahres.

Neja, das zeigt eigentlich nur wie uninformiert Teile der PCGH Community sind, wenn man glaubt Raytracing sei nur auf einer Karte mit RT-Cores möglich.
RT-Cores, sogenannte fixed function units sind für deren Teil der Berechnung etwa 3 bis 4 mal schneller als compute-shader.

nach dem VIdoe,wird es für Nvidia ja am ende sogar noch beschämend.Am ende scheiterte also Nvidia.Werden wohl die extra RTX Cores aus Nvidia wohl wieder verschwinden.AMD´s Grafikkarte hat ja schließlich nur mormale shader einheiten und keine extra RTX Cores.Tya so kann es halt am ende blöd kommen.

Wie kommst du denn darauf? Auf welcher Grundlage beziehst du dich?

RTX off, RX/GTX on.

Witzig welche unlogischen Schlüsse ihr daraus zieht, an dem Thread merkt man wieder wie tief der Schieferling im Nagelbett sitzt und wie undifferenziert man dem Thema begegnet.

Nein. Echtzeit und auf der V56 lauffähig, sowie schwächerer Hardware.

Ja, man muss halt wissen was "Echtzeit" in diesem Zusammenhang bedeutet.
Das ist eine Techdemo und kein Game, das ist überhaupt nicht vergleichbar mit Ingame-Benchmarks aus Battlefield oder Metro.

Dein Einwand ist ja an Lächerlichkeit nicht zu überbieten, natürlich saß eine Radeon Vega56 da Stunden daran um das zu rendern.

Weitere Einschränkungen sind ein Versatz von ein bis zwei Frames bei der Darstellung von indirekter Beleuchtung und dass es durchaus ein paar Sekunden dauern kann, bis das System funktioniert, wenn die Kamera an einen komplett anderen Ort springt

Soviel zur "Echtzeit".
 
Zuletzt bearbeitet:
Selbst wenn es auf der Vega langsamer läuft und vielleicht etwas schlechter aussieht als bei Nvidia, sie schließen auf.

Ich bin zzt nicht bereit den Aufpreis für eine Technik zu bezahlen die noch in den Kinderschuhen steckt.
Man kann reale Bedingungen abwarten und dann entscheiden.

Leider wird solch eine Nachricht zu oft vergöttert oder verteufelt.
Ich bin da absolut neutral eingestellt.
 
Als ob RTX "echtes" RayTracing wäre. Ist ja nicht so, dass viel zu wenige rays genutzt werden können mit den RT-Cores um ein sauberes Bild zu bekommen und ein MachineLearning-Denoiser die restlichen Pixel erraten müsste ;).

zu mindestens fehlen keine Reflektionen , wie bei der Hütchenspieler Demo hier:D

... dass im Video bei 1:30 die zweite Patronenhülse von rechts (im Bild die ganz rechte) keine Spiegelung in der Pfütze hat?

Dort wo die Spiegelung sein müsste, sieht man in der Pfütze das Spiegelbild des "MYEOW NOODLES Schriftzug", während das Spiegelbild der Vampir-Patronenhülse fehlt.


Und wie schnell das ganze die zig fach schnelleren Tensor u RT Cores abarbeiten, steht auch auf einen ganz anderen Blatt

Denn die Demo läuft im Endeffekt über Microsofts Raytracing Schnittstelle , und an die dockt RTX an mit den schnellen INT 8 Einheiten
 
Zuletzt bearbeitet:
zu mindestens fehlen keine Reflektionen , wie bei der Hütchenspieler Demo hier:D

Wieder mal eine glatte Scully-Lüge:daumen2: Natürlich werden einzelne Elemente auch in BF mit RTX on nicht reflektiert. Außerdem: Gib dem ganzen doch erstmal die Zeit, die du für DLSS / RTX zur Optimierung einforderst, Mr. Doppelmoral.


Und wie schnell das ganze die zig fach schnelleren Tensor u RT Cores abarbeiten, steht auch auf einen ganz anderen Blatt

Du verstehst die RT- und Tensor-Cores immer noch kein bisschen. Und "zigmal schneller" waren die RTX-Karten in bisher keinem Real-World-Szenario (Gegenüber der Titan V z.B.)
 
Ist ja nicht so, dass viel zu wenige rays genutzt werden können mit den RT-Cores um ein sauberes Bild zu bekommen und ein MachineLearning-Denoiser die restlichen Pixel erraten müsste ;).
Gefährliches Halbwissen, aktuell wird weder in BF V noch in Metro mit Machine Learning denoised. In BF V wird das Denoising vom TAA übernommen und in Metro von einem Shader. Die Tensor Cores werden nur für DLSS genutzt.

@Topic: Mein Gott, wie lächerlich sich die üblichen Verdächtigen wieder verhalten ... das tut doch schon weh :wall:. Die RT Cores waren NIE Voraussetzung für RayTracing, sie dienen nur zur Beschleunigung der Berechnungen!
 
also so richtig beschleunigt wird das ja echt nicht.SOnst würden nämlich mehr als nur 1080p mit 40 fps geschafft.Es ist einfach nur Peinlich wenn die beschleunigung nicht wirklich funktioniert.Nvidia blamiert hat sich doch blamiert.Crytek hat nun gezeigt das es möglicherweise besser geht bzw flüssiger läuft.
 
Habt ihr das Video mal genau betrachtet ? Das ist irgend so ein Voxel Mist den Crytek da macht und nicht vergleichbar mit Nvidias Lösung.

1. Die Reflexionen der Patronenhülsen sind ein geringeres LOD Modell.

2. Die Drohnen Spiegelung bei 1:20 schliert/ist nicht sauber.


Die Szene ist generell low Poly und die RT Cores helfen vor allem bei sehr vielen Polygonen.

NV Lösung ist bereits stabil und flexibel genug in Produktion zu gehen mit vielen Optionen. Das hier ist experimentell und hat nur harte Spiegelungen.
 
Zurück