Raytracing: Nvidia schielt auf die Blockbuster

Sehr schön geschrieben @cuteEevee !
Hast dir in der Deklaration keinen Patzer erlaubt, im gegensatz zu so manch anderem...

Können wir uns also auf echte grafische Aufwertungen freuen die sich lohnen könnten 2020. Jeeeeeh!
Alles wunderbar spielbar mit der nächsten Generation der RTX Serie.

...der Plan geht auf.
 
Vielleicht bin ich falsch informiert, aber... Unterstützt nicht jede (aktuelle) Karte mit DX auch Raytracing?

Ich glaube kaum, dass PCGH noch Karten aus der DX9-Zeit testen wird!

Nö, für DXR wird irgendein DX 12 Featureset benötigt, passende Treiber dafür - und ein aktuelles Win 10.
Ich glaube Pascal ab der 1060 6GB Version werden von nVidia genannt.
Und AMD? Vega auf jeden Fall, da die Cryengine Demo damit läuft. Die Karten darunter sind wohl eh zu schwach, ebenso wie bei NVidia.
 
Hm ja das RTX erinnert mich auch irgendwie an bspw. Tesslation.
Da bist du immer besser bedient, wenn du Entwicklung der Hardware mal voranschreiten lässt und nicht gleich bei der ersten Karte zuschlägst. Außer natürlich dir ist bewusst, dass du damit nicht alle Regler auf Anschlag drehen kannst, vor allem bei brandaktuellen Games wo das zum ersten Mal eingesetzt wird.

Ich für meinen Teil warte da lieber, kann dann 2-3 Jahre später bedenkenlos hochdrehen und genießen :D
 
Volle Zustimmung. Das ist ja das große Problem von RT neben dem massiven Performanceverlust, man siehts der Szene nicht wirklich an ob das jetzt RT oder global ilumination ist. Selbst auf den Vergleichsbildern die es oft gibt muss man wirklich genau hinsehen. Deshalb ist mir RT erstmal vollkommen egal bis damit mehr geliefert wird das man auch wirklich bemerkt.
Wenn mal mehr Anteile der Bildausgabe mit RT Effekten die auch wirklich einen offensichtlichen Unterschied gerendert werden dann wird eine RT fähige Karte interessant aber bis dahin lohnt der Aufpreis für solche Karten einfach nicht.
Vorallem wenn ein größerer Anteil RT fähiger Titel erst gegen Mitte 2020 erscheinen sollen ist eine RT fähige Karte im Moment eher sinnlos.
Dann müssen die Spiele auch noch RT Effekte liefern die einen wirklichen Unterschied ausmachen ansonsten lohnts immernoch nicht.

Als Vorgeschmack sind die aktuellen RTX Karten ja schon ganz nett. Der Performanceeinbruch steht aber in keinem guten Verhältnis zur Grafikverbesserung. Sollte die nächste Gen von Nvidia dann plötzlich 25 GRays/s leisten und es kommen Spiele, die RT stark nutzen, schauen alle 2000er Karten in die Röhre. Dann spielen sie wieder ohne RT oder mit Settings, die keinen sehenswerten Unterschied ausmachen. Für mich der Hauptgrund aktuell keine RTX Karte zu kaufen.

Das interessanteste RT ist das für Global Illumination finde ich. Man sieht es bei den ganzen CGI Bildern, die gerendert werden. Das was Metro macht ist dagegen pillepalle und die Strahlen reichen nicht aus für eine tatsächlich natürliche Ausleuchtung von Räumen. Da fehlen die vielen Bounces innerhalb der Räume.
Wahrscheinlich wird es ab Faktor 5 oder 10 relativ zur 2080Ti wirklich interessant.
 
Sehr schön geschrieben @cuteEevee !
Hast dir in der Deklaration keinen Patzer erlaubt, im gegensatz zu so manch anderem...

Können wir uns also auf echte grafische Aufwertungen freuen die sich lohnen könnten 2020. Jeeeeeh!
Alles wunderbar spielbar mit der nächsten Generation der RTX Serie.

...der Plan geht auf.

Danke dir. :)

Man tut was man kann und es ist schwer mit den Tonnen an Informationen auf dem neusten Stand zu bleiben. :daumen:
 
Daß das ein riesen Suventionierungsding ist, das kann man glauben, finanziell, aber auch eine wahnsinniger Aufwand, da werden zig Nvidiaprogrammierhansel am Code des jeweiligen Spieles rumpfuschen, bis man da eben dann "ordentliches" RT vorweisen kann.

Das nächste, von Dir völlig richtig angesprochene, Ding ist, daß man als normale Wurst eine "echte" Beleuchtung und "echte Schatten und "echte" Spiegelungen gar nicht oder nur schwer erkennt. Da kannst dann Actionspiele oder Ballerspiele schon mal vergeßen, da die Leute da durchrushen. Bei manchen Bildern hieß es dann, ja daß da ist nun RT. Ich so: "Ja nö. da ist halt einfach die Helligkeit zu weit aufgedreht oder bei nem anderen Bild fehlt RT, da ist es halt zu dunkel eingestellt." :D (Ist RT in Wahrheit eigentlich ein Drehen an dem Gammaregler des jeweiligen Spiels?)

Ich finde deinen Ansatz sehr interessant.

Man sieht es den heutigen Spielen an, dass sie nicht dafür ausgelegt wurden. Habe Quake2 RTX ausprobiert und zum grössten Teil sehe ich einfach nichts weil "schwarz".

Aber angenommen man würde dies gleich von Anfang an so designen das es stimmt, könnte man auch gleich in dem entsprechenden Beleuchtungsprofile "backen" und fertig. Dann siehst du garkein Unterschied weil dynamisch berechnet gleich (je nach dem minim anders) aussieht.

ps: mir fehlt "Atomic Heart"
 
Das interessanteste RT ist das für Global Illumination finde ich. Man sieht es bei den ganzen CGI Bildern, die gerendert werden. Das was Metro macht ist dagegen pillepalle und die Strahlen reichen nicht aus für eine tatsächlich natürliche Ausleuchtung von Räumen. Da fehlen die vielen Bounces innerhalb der Räume.
Wahrscheinlich wird es ab Faktor 5 oder 10 relativ zur 2080Ti wirklich interessant.
Diese "CGI Bilder" setzen vollumfänglich auf RT während Spiele einen Hybridansatz verfolgen. Das wird noch eine ganze Weile so bleiben, deine genannten Faktoren 5 oder 10 sind noch viele, viele Jahre entfernt.
 
Bisher haben wir 3 Spiele die alle nur einen Teil von dem benutzen was Raytracing kann:

Battlefield 5 => Ray Traced Reflections
Tomb Raider => Ray Traced Shadows
Metro Exodus => Ray Traced Globa Illumination

Aber bisher gibts glaube ich nur die Quake 2 Demo die wirklich alles verwendet. Und dieses Minecraft Mod wenn ich mich nicht irre.

Schon an Q2 sieht man ja wie hoch die kosten für komplettes Raytracing sind, und da wird es noch vieeeeeel Optimierungsbedarf geben.

Das ist mir so bekannt, reicht mir aber nicht.

Tomb Raider mischt die Schatten. Das führt zu extrem merkwürdigen Ergebnissen, z.B. wenn ein Bereich durch einen Nicht-RT-Schatten plötzlich im Dunklen liegt, obwohl er von der Sonne angeschienen wird.

In Metro scheint es u.A. keinen Bounce von dynamischen Objekten zu geben. Im Zug läuft der Charakter durch das Licht, es wird aber an der Wand nicht heller.
Wobei die Beobachtung da schwer fällt, ich habe das Spiel nicht, man möge mich korrigieren.

Alles in Allem ist mein Punkt:
Wenn ich Leistung ohne Ende für eine Technik verballere, die die ganzen Probleme wie z.B. "Bleeding" bei dynamischen Szenen nicht hat und dann doch nur quasi statische Ergebnisse zeige - hab ich ja mal irgendwas nicht ganz verstanden.

Gerade an Control als "Vorzeigetitel" bezüglich RT habe ich da schon gewisse Erwartungen. Die Trailer zeigen bisher leider wenig bis nichts davon.
Die bisherigen Titel als Vorreiter will ich mal nicht zu hart beurteilen ;)
 
Bisher haben wir 3 Spiele die alle nur einen Teil von dem benutzen was Raytracing kann:

Battlefield 5 => Ray Traced Reflections
Tomb Raider => Ray Traced Shadows
Metro Exodus => Ray Traced Globa Illumination

Aber bisher gibts glaube ich nur die Quake 2 Demo die wirklich alles verwendet. Und dieses Minecraft Mod wenn ich mich nicht irre.

Schon an Q2 sieht man ja wie hoch die kosten für komplettes Raytracing sind, und da wird es noch vieeeeeel Optimierungsbedarf geben.

Schön aufgezeigt.
Das ist halt viel Blendwerk, udn das hat schon lange gedauert und etliche Probleme bereitet.
Battlefield hat nur sehr sparsame Reflektionen für Fenster, Oberflächen und Fützen eingebaut und hat schon Probleme mit stabilen 60FPS.
Tomb Raider nutzt schon ein paar Starhlen mehr, um die Echtzeitschatten zu erzeugen.
Und die haben glaube ich imerm noch Performanceprobleme und Fehldarstellungen.
Ganz derbe in Sachen performance sieht es bei Metro aus, die nutzen viele Strahlen (zumindest laut Sinnbild in dem Artikel, könnte auch nur als Darstellung für den Arbeitsaufwand stehen), um die Openworld-Beleuchtung zu erzeugen.
Dafür braucht man schlichtweg eine RTX karte, da normale Shadereinheiten oder was auch imemr dafür nicht ausgelegt sind und zusammenklappen.
Würde man also alle Rytracing Funktionen in einem Spiel einbauen, so wäre derzeit sogar eine 2080 Ti völlig überfordert.
Die soll ja gerade einmal die Hälfte der Rechenleistung aufbringen, die für oben angesprochenes vollständiges Raytracing als Ausgangsbasis notwendig wäre.
Es wird also wohl noch 10 Jahre dauern, bis wir wirklich so weit sind, udn dann auch UHD und 144hz ein Thema sind.
Man darf dabei auch nicht den normalen Fortschritt der Engines vergessen, die Spielewelten werden auch ohne dieses Feature weiterhin mehr und mehr zulegen und Arbeitsaufwand hervorrufen.
Wenn wir also wirjklich Spezialkerne schaffen müssen, die nur dies oder das können (hatten wir schon mal mit den Shadern, die dann nicht richtig ausgelastet wurden), dann sorgt das auch für weniger Platz für normale Geschwindigkeitssteigerungen.
Dann hat man nicht mehr wie gewünscht 50 oder gar 70% zu erwarten, sondern nur noch 30% Leistungszuwachs (bei noch höhereren Preisen?), wie NVidia aktuell beweist.
Vielleicht kommt es aber auch ganz anders, und man schafft es das design der KArten zu modulieren, so wie es bei 2D + 3D und Physix ja auch mal war?
Vielleicht Ist AMD's Modulsystem wie beim Ryzen 3000 ein toller Ansatz, wo die Grafikkarte an ssich ein Chip ist, und dann zustzlich ein weiterer eigenständiger Chip nur für das Raytracing angebunden wird?
Soll die ganze Szene nur per Raytracing erzeugt werden, würde das vermutlich nich tmehr funktionieren, oder?
 
Zuletzt bearbeitet:
Diese "CGI Bilder" setzen vollumfänglich auf RT während Spiele einen Hybridansatz verfolgen. Das wird noch eine ganze Weile so bleiben, deine genannten Faktoren 5 oder 10 sind noch viele, viele Jahre entfernt.

Weiß ich :D habe ich ja auch viele von selbst gemacht. Aber das ist lange her. Man hat noch studiert und hatte mal Zeit :D

Viele Jahre? Da wäre ich mir nicht so sicher. Das war jetzt die erste Generation an hardware RT. Die Raytracing Units werden sicher noch schrumpfen und weniger Die Fläche brauchen, sie werden weiter optimiert und es wird mit dem nächsten Shrink viel mehr davon geben bei höherem Takt.
Eventuell wird die Architektur der GPUs in Zusammenspiel mit den Gameengines auch so ausgelegt, dass RT parallel zu den Shadern läuft. Aktuell laufen die nacheinander oder?
Also ich denke da wird sich noch ganz viel tun. Vielleicht auch mit einem RT Coprocessor und Infinity Fabric zur GPU. Könnte die Fertigung günstiger machen als alles auf einen Die zu klatschen.

;) ich bin mal optimistisch.
 
Die Erwartungen sind oft viel zu hoch, entsprechend den Versprechungen (hauptsächlich NV).

Um so brutaler die Entäuschung bei vollendeter Tatsache.
...wie ein Fusstritt ins Gesicht.
 
Die Optionen sind leicht prognostizierbar:

Entweder man ändert in zukünftigen GPUs das Shader/RT Core Verhältnis, was zu stagnierender Shaderleistung, aber steigender RT Leistung führt oder man baut wieder 750mm² Chips (nur diesmal in 7 statt 12nm) für 1000 Euro, damit beide Rendertechniken performanter als mit der Last Gen laufen.

Du überschätzt die RT-Cores, die sind nur für einen Teil der Berechnung als SFU zuständig.

Aktuell sieht Raytracing eher aus wie ein Grafikfehler als wie ein Feature.

Ich bin schon froh, dass die als AMD-Sympathisanten motivierte Quatscher in diesem Forum endlich weniger geworden sind und die Technik als das sehen was sie ist, als wichtige Entwicklung hin zu fotorealistischer Grafik und das Lagergeschachere weniger wird.
Aber mit der Aussage schiebst du dich erneut genau wieder in dieses Abseits. Ich weiß nicht wo es in 4 Titeln bisher aussieht wie ein Grafikfehler, anscheinend hast du selbst noch nicht mal eines dieser Spiele inkl RT gespielt bzw. redest einfach nur Bullshit.
Die Spiegelungen sind grieselig und mit aggressivem LOD versehen.

Sieh sehen meilenweit besser aus als das SSR Zeug und verschwinden auch nicht, wenn man den Kopf senkt, ja ein riesiger Rückschritt...
Die Spiegelungen sind grieselig und mit aggressivem LOD versehen.
Die globale Beleuchtung produziert pechschwarze Schattenbereiche, die es in der Realität so nicht gibt, weil die Rays zuwenig streuen.[/QUOTE]

Habe ich beim Zocken in Metro eigentlich durchgehend andere Erfahrungen gemacht, es ist nicht Pechschwarz, sondern die Abstufungen erinnern an sehr gutes HBOA+.
Ich habe lediglich die Helligkeit ein wenig nach oben angepasst und es sieht 10 mal besser aus, als das Original.

Das Interessanteste ist derzeit noch Quake 2 - aber das zeigt auch wunderbar die Performance-Grenzen auf.

Da wird doch auch der ganze Frame geraytraced und nicht nur ein Teil...

Raytracing ist von Natur aus extrem teuer obwohl man sich schon einem riesigen Haufen Tricks bedient (Niedrige Sample-Rate mit Denoising, wenige Bounces, wird in den aktuellen Spielen nur für einen Effekt genutzt und der oftmals auch nur für einen Teil der Szene, für den Rest gibts dann nen Fallback auf SSR bzw. traditionelle Shadow-Maps, ...),

Das mit dem Fallback auf SSR bzw. traditionelle Shadowmaps gibt es zum Beispiel in Battlefield 5 nicht. Quake 2 wird zum Beispiel komplett mit Rays berechnet und nicht mehr mit alter Rastergrafik.
Hier merkt man schon wie extrem schnell die Turing Architektur ist, sie ist Faktoren schneller als Pascal oder Volta, die meiste Leistung kosten dabei schon die Bounces, vor allem wenn es zwei wie bei Quake sind aber jeder weitere Bounce dürfte immer günstiger werden, im Verhältnis zur Zeit der berechnung des kompletten Frame.

das wird auch in zukünftigen Spielen nicht magisch mal eben 10x so schnell. Eher im Gegenteil, wenn man überzeugendere Ergebnisse erreichen will.

Aber es gibt weiterhin mit den Tensor Cores die möglichkeit das Denoising zu übernehmen und so mehr Performance herauszuschinden.
 
Battlefield hat nur sehr sparsame Reflektionen für Fenster, Oberflächen und Fützen eingebaut und hat schon Probleme mit stabilen 60FPS.

Mit welcher Grafikkarte in welcher Auflösung? Zu behaupten "hat Probleme mit 60 FPS" ist ja wohl einfach keine Information.
Selbst eine 2060 kann in Full HD 60 FPS.

Ganz derbe in Sachen performance sieht es bei Metro aus, die nutzen viele Strahlen (zumindest laut Sinnbild in dem Artikel, könnte auch nur als Darstellung für den Arbeitsaufwand stehen), um die Openworld-Beleuchtung zu erzeugen.

Stimmt nicht, mittlerweile lässt sich Metro sogar mit 50 FPS in 4K auf max. Spielen, inkl. Raytracing.

Es wird also wohl noch 10 Jahre dauern, bis wir wirklich so weit sind, udn dann auch UHD und 144hz ein Thema sind.

UHD und 144 Hertz sind auch bis jetzt mit Rastergrafik kein Thema.
 
Als Vorgeschmack sind die aktuellen RTX Karten ja schon ganz nett. Der Performanceeinbruch steht aber in keinem guten Verhältnis zur Grafikverbesserung. Sollte die nächste Gen von Nvidia dann plötzlich 25 GRays/s leisten und es kommen Spiele, die RT stark nutzen, schauen alle 2000er Karten in die Röhre. Dann spielen sie wieder ohne RT oder mit Settings, die keinen sehenswerten Unterschied ausmachen. Für mich der Hauptgrund aktuell keine RTX Karte zu kaufen.

Das interessanteste RT ist das für Global Illumination finde ich. Man sieht es bei den ganzen CGI Bildern, die gerendert werden. Das was Metro macht ist dagegen pillepalle und die Strahlen reichen nicht aus für eine tatsächlich natürliche Ausleuchtung von Räumen. Da fehlen die vielen Bounces innerhalb der Räume.
Wahrscheinlich wird es ab Faktor 5 oder 10 relativ zur 2080Ti wirklich interessant.

Sehe ich genau so.
Wenn man sich im Spiel eine Pfütze suchen und dann mit den Spiegelungen rumspielen kann ist das ja ganz witzig.
Aber letztendlich sehen die Spiele mit Global Illumination praktisch genau so geil aus bzw der Unterschied ist nur mit einer Lupe zu erkennen.
Und ich würde das RT-Bild nicht zwangsläufig als "besser" sondern als "anders" bezeichnen.

Es wird immer so getan als wäre Global Illumination jetzt richtig schlecht, aber meiner Meinung nach ist das aktuell einfach die sinnvollere Technik für eine ausgewogene Performance und Bildqualität.
Raytracing braucht noch ein paar Jahre. Kein Grund jetzt schon auf die Technik aufzuspringen.

Dort wo es flüssig läuft, sind die RT-Settings zu niedrig und dort wo es geil aussieht, ist die Performance zu schlecht.
Also brauchen wir deutlich schnellere GPUs.
 
Ich bin schon froh, dass die als AMD-Sympathisanten motivierte Quatscher in diesem Forum endlich weniger geworden sind und die Technik als das sehen was sie ist, als wichtige Entwicklung hin zu fotorealistischer Grafik und das Lagergeschachere weniger wird.

:daumen: Für eine realistische Beleuchtung ist nunmal Physik nötig :D der Rest ist nur getrickse. Ich bin zwar AMD Fandboy, kann aber trotzdem sagen, dass Nvidia da einen richtig großen Schritt gemacht hat! Das ist eigentlich genauso ein großer Step wie damals die Programmable Shader. AMD hatte ja bei den Content Entwicklern schon mit den Radeon Rays einen Fuß in der Tür. Maxon nutzt sie und ich glaube auch Vray. Für eine Hardwarelösung war wohl kein Geld da.
Nvidia meinte ja, dass für 1 GRay/s rund 10TFlops an FP32 Performance nötig sind. Bei den 10 GRays/s der 2080Ti sieht man dann was für eine Rechenleistung die RT Cores haben. Da braucht man 10 Pascal Karten mit jeweils 10 TFlops nur für das Raytracing.
 
Ich denke mit Elektronischer CPU wird die Grenze schon bald erreicht sein an Leistung.
Aber bei optischer "Licht" CPU könnte es gewaltig an Power geben.
Die "elektronischen" CPUs, haben, was Fertigungsgrößen angeht , noch lange nicht das Ende erreicht.
Und RT geht soviel ich weiß ja mehr auf die GPU. Auch da ist bestimmt noch einiges an Leistung rauszuholen.

Ich denke in 2-3 Jahren ist hardware RT "serienreif".
 
Die "elektronischen" CPUs, haben, was Fertigungsgrößen angeht , noch lange nicht das Ende erreicht.
Und RT geht soviel ich weiß ja mehr auf die GPU. Auch da ist bestimmt noch einiges an Leistung rauszuholen.

Ich denke in 2-3 Jahren ist hardware RT "serienreif".

Klar kann man sich die Welt schönreden wenn man beten geht , aber so ist das nunmal nicht .

die Leistung mainsteam wird nie kommen , auch nicht in 20 jahren , oder du stellst die Auflösung auf 1080p mit min details
0,1 fps das wäre dann schon richtig schnell ^^

wegen paar Pfützen die was spiegeln , geb ich garantiert nicht 1200@ aus ^^ da pinkle ich lieber vom Balkon xD
 
Zuletzt bearbeitet:
Das mit dem Fallback auf SSR bzw. traditionelle Shadowmaps gibt es zum Beispiel in Battlefield 5 nicht.
In BF5 gibt es diesen Fallback sehr wohl für Pixel, deren Reflektivität unter einem gewissen Schwellenwert liegt. Ist ja auch in Ordnung, ich will ja nur mal darauf hinweisen, wie extrem anspruchsvoll die Technik selbst mit Hardware-Beschleuningung und mit Trickserei bei der Implementierung ist.

Die Quake 2-Demo nutzt RT zwar tatsächlich für so ziemlich alles und erzielt durchaus interessante Ergebnisse (und trotzdem sehen die meisten rasterisierten Spiele sehr viel besser aus, weil man es da schlicht und ergreifend versäumt hat, Texturen und Material-Shader auf einen aktuellen Stand zu bringen, aber das hat nicht direkt was mit RT zu tun), hat aber auch nur einen Bruchteil der geometrischen Komplexität von einem Battlefield 5. Macht das ganze in nem halbwegs aktuellen AAA-Spiel und du hast bestenfalls 1 FPS.

Es wird immer so getan als wäre Global Illumination jetzt richtig schlecht, aber meiner Meinung nach ist das aktuell einfach die sinnvollere Technik für eine ausgewogene Performance und Bildqualität.
Global Illumination ist allerdings auch mit Abstand der Effekt, der sich ohne irgendeine Form von RT am schwierigsten umsetzen lässt. Voxel-basierte GI gibt es ja schon, ist aber letztendendes auch RT für arme, Screenspace-Lösungen sind in der Regel schlecht, Reflective Shadow Maps sind teuer und bringen ihre eigenen Probleme mit sich, Cube Maps sind meistens statisch.

Für Schatten und Reflexionen gibt es andere Lösungen.
 
Zuletzt bearbeitet:
Zurück