Special DLSS, Pathtracing und die KI - Mit Nvidia im Interview

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu DLSS, Pathtracing und die KI - Mit Nvidia im Interview

Wir haben für einen Print-Artikel zum Thema zukünftige Spieletechnik, den absehbaren Einfluss der KI auf die Spielentwicklung sowie die Spielgrafik der Zukunft ein Interview mit Pawel Kozlowski, Nvidias Senior Developer Technology Engineer geführt. Dieses Interview enthält einige interessante Punkte, die wir Ihnen nicht vorenthalten wollen. Wir veröffentlichen das redaktionell überarbeitete Interview daher für Interessierte als eigenständigen Artikel.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: DLSS, Pathtracing und die KI - Mit Nvidia im Interview
 
Also dieses ganze Marketinggimmick-Getue von nvidia geht mir mittlerweile gehörig auf den Senkel...RT, "Pathtracing"...ich dachte Gamegraphics sollten immer realistischer werden? Und wo bitte ist in der realen Welt alles mit reflektierenden, schimmernden Flächen überzogen? Games wie CP2077 schauen mit ihrem übertriebenen RT mittlerweile aus als sei die ganze Gamewelt mit einem Schleim überzogen worden und mit der Pathtracing Demo wird das regelrecht ins Absurde getrieben. Und die Leute kommen dann daher und lappern was von Hyperrealismus ???

Und das Alles nur weil nvidia es kaum noch schafft in der Rasterleistung und Effizienz ordentliche Steigerungen zu erreichen ?
 
Und das Alles nur weil nvidia es kaum noch schafft in der Rasterleistung und Effizienz ordentliche Steigerungen zu erreichen ?
Korrigiere: weil es niemand mehr schafft. Dem Schrumpfen von Transistoren sind physikalische Grenzen gesetzt, daher ist Brute Force immer seltener der Weg zum Ziel. Smarte Lösungen sind gefragt.

MfG
Raff
 
Korrigiere: weil es niemand mehr schafft. Dem Schrumpfen von Transistoren sind physikalische Grenzen gesetzt, daher ist Brute Force immer seltener der Weg zum Ziel. Smarte Lösungen sind gefragt.

MfG
Raff
Ja das mag stimmen, dass dies auch AMD nicht mehr gelingt, aber die fahren wenigstens deutlich weniger mit diesen Gimmicks auf...

Und das ändert nichts daran, dass wir damit vom ursprünglichen Gedanken einer möglichst realistischen Grafik immer mehr wegkommen hin zu einer Pseudorealität die durch Effekte geschaffen wird, die in der Welt da draußen kaum vorhanden sind.
 
Cor,
ich hätte deinen Beitrag gern geliked, aber der letzte Satz stimmt doch nicht wirklich. Ja, die 4080 ist bezogen nur auf Raster schon ne Ecke hinter der 7900XTX, aber sehr wohl effizient.

Bei Cyberpunk stimme ich dir Großteils zu, aber das Spiel hat durchaus auch Flächen und Bereiche wo eben nicht alles mit Pianolack überzogen ist.

@ topic
Die Entwickler haben gute Absichten und das kaufe ich ihm auch so ab. Nur sie gehören halt einem Unternehmen an und dem ist verkaufen wichtig. Die wollen den Spieleentwicklern die Möglichkeit geben um sie an deren Hardware zu binden und das KI-Geschäft mächtig zu pushen. Klar und leider auch nachvollziehbar. Mir persönlich schmeckt halt nur nicht, dass Nvidia das auf den Kosten der Spieler austrägt und bereitwillig die Preise hoch treibt. Wie hier klar geworden ist, peilen sie ganz bewusst das oberste Marktsegment an und dann ist ein Slogan wie "for the gamers" schon echt fraglich. Auch "the way its meant to be played" ist inzwischen mehr dem Markt entgegengerichtet, statt dem Spieler. Sie könnten auch einfach schreiben: So macht man Kohle! Das käme aufs Gleiche heraus.

Dennoch, erfreulich dass Nvidia Pathtracing weiter anschieben wird. So haben wir letztlich dennoch was davon.

Das einzige was mir neu war, ist die Info mit der Shadergruppierung, genauer gesagt mit der dadurch errungenen Leistungssteigerung. Ähnlich hat es AMD ja auch angegangen, wenn ich mich nicht vertue. Die hat mich überrascht. Allerdings nicht so sehr wie, dass er eine Steigerung von 15 auf 25 fps für 25% hält. Das war hoffentlich nur ein Trick um das Interview im Kopf zu zementieren.
 
Also dieses ganze Marketinggimmick-Getue [...]
Du solltest vielleicht zu differenzieren lernen zwischen persönlichem Geschmack ... über den man bekanntlicherweise nicht wirklich sinnvoll streiten kann ... und schlicht der (software)technischen Möglichkeit eine physikalisch korrekterer Beleuchtung implemtieren zu können .... und über letzteres lässt sich ebensowenig streiten, denn dieses stellt Pathtracing nun einmal unbestreitbar in einer Art und Weise zur Verfügung, wie es zuvor noch keine andere Echtzeit-Rendering-Technologie konnte.
Was am Ende ein Artist aus den Möglichkeiten macht, steht dagegen wieder auf einem komplett anderen Blatt und hat eigentlich gar nichts mit der Technologie an sich zu tun.

[...] Das einzige was mir neu war, ist die Info mit der Shadergruppierung, genauer gesagt mit der dadurch errungenen Leistungssteigerung. Ähnlich hat es AMD ja auch angegangen, wenn ich mich nicht vertue. Die hat mich überrascht. Allerdings nicht so sehr wie, dass er eine Steigerung von 15 auf 25 fps für 25% hält. Das war hoffentlich nur ein Trick um das Interview im Kopf zu zementieren.
SER (Shader Execution Reordering) ist von den Medien vielfach nicht korrekt eingeschätzt bzw. berücksichtigt worden, bzw. man hat möglicherweise die Racer-Demo nur als reines Werbe-Gimick abgetan, was zweifellos ein Irrtum war.
Zudem, bei AMD vertust du dich. Die haben nichts Vergleichbares anzubieten und liegen Raytracing-technisch rund 1,5 Generationen zurück. Einerseits grundsätzlich aufgrund des mangelnden Rohdurchsatzes und dann zusätzlich, weil ihnen derart moderne Features fehlen, die den Raytracing-Workload sinnvoll zu reduzieren helfen. Hier kann man nur auf den großen Wurf mit RDNA4 hoffen ... bzw. realistischer gesehen erst mal auf das Gleichziehen mit der Konkurrenz.

*) Derartige Erweiterungen sind zudem nicht neu, bzw. dass solche benötigt werden für mehr Durchsatz beim Echtzeit-Raytracing ist allen Beteiligten lange klar, auch wenn AMD da die letzten Jahre überaus passiv aufgetreten ist.
Imagination Technologies hat in seiner C-Series (einem (MCM-)Mobile-Chip) schon eine Technik implementiert um kohärente Strahlen zu bündeln und selbst Intel hat in seiner Alchemist-Serie mit seiner Thread Sorting Unit eine Technologie, die in die gleiche Kerbe schlägt.
 
Zuletzt bearbeitet:
Da bist du aber positiv gestimmt. AMD hat später angefangen RT zu forcieren und ist bedeutend kleiner was also weniger manpower bedeutet. Da müsste ihnen schon ein großer Wurf gelingen, um überhaupt gleich zu ziehen.
Ich halte die aktuelle Situation auch für gar nicht schlimm. Eher sogar gut für uns Kunden. Denn so haben wir die Wahl das Produkt zu kaufen, das unserem usecase eher entspricht.
 
SER (Shader Execution Reordering) ist von den Medien vielfach nicht korrekt eingeschätzt bzw. berücksichtigt worden, bzw. man hat möglicherweise die Racer-Demo nur als reines Werbe-Gimick abgetan, was zweifellos ein Irrtum war. [...]
Ich halte das Feature übrigens für sehr wichtig, denn etwas, das spezielle Raytracing-Berechnungen um bis zu 100 Prozent beschleunigen kann, ist Gold wert - selbst wenn in der Praxis "nur" 20-40 Prozent mehr Fps herauskommen. Allerdings ist SER derzeit vor allem eines: ein Papiertiger. Cyberpunk nutzt es, F1 23 wird es anbieten (so viel kann ich schon sagen). Allerdings gibt es dafür keinen API-Standard, es muss über eine Nvidia-eigene Schnittstelle implementiert werden. Das und die Tatsache, dass kaum ein Entwickler für ein paar Tausend GPUs optimiert, beschert SER eine zähe Verbreitung. Somit könnte Ada tatsächlich "FineWine" werden. ;)

MfG
Raff
 
Sehr gut, ich freue mich immer über solche Berichte/Artikel.
Allerdings falls möglich würde ich mir auch die ein oder andere Kritische Frage wünschen. Auch wenn mir bewusst ist das, dies nicht immer möglich ist aus diversen gründen.
In dem Fall (inklusive des zugehörigen Artikels) sollte das ja so etwas wie ein positiver Blick in die (nahe) Zukunft sein. Und eine entsprechende Kritik hat Pawel im Grunde schon selbst geäußert:

Cyberpunk 2077 mit Pathtracing hat gezeigt, dass sich die Technik schon heute nutzen lässt - klar, dazu wird State-of-the-Art-Hardware benötigt, ihr wisst schon, das obere eine Prozent des Marktes.

Dass ein recht großer Teil des Marktes/der Spieler aktuell ausgeschlossen ist, das hat er damit schon selbst gesagt. Und auch eine gewisse Kostspieligkeit suggeriert.

Es gab auch noch ein paar andere Punkte, über die wir gesprochen haben, aber da ging es in Richtung Spekulation bzw. an Pawels Themenbereichen/Fachkenntnissen vorbei und da wurde ich explizit (von ihm und der im Call ebenfalls versammelten Nvidia-Aufpassertruppe) gebeten, diese Inhalte nicht direkt im Interview zu verwenden, weil ungewiss/schwammig/potenziell nicht korrekt.

Ich bring ansonsten auch gern mal ein paar etwas kritischere Fragen an, wenn die denn passen, aber oft bekommt man da eben nicht wirklich eine befriedigende Antwort. ;)

Gruß,
Phil
 
Zuletzt bearbeitet:
Uh, das klingt interessant. Gibt es eine Möglichkeit das dediziert zu aktivieren/deaktivieren? Heute startet ja die Early Access Phase.
@PCGH_Raff
Ich habe Mittelteile selbst hey haut, ja lässt sich tatsächlich separat aktivieren und Reflex lässt sich auch endlich getrennt von Frame Generation aktivieren.

Auffällig ist ansonsten noch dass Spiel im Default auf CCD1 beim 7950X3D landet. Das ist der 2. Titel der das falsch macht.
 
Ich habe zwei Proben an zwei verschiedenen Systemen gemacht (4090 und 4060 Ti), bei beiden hat der SER-Schalter keine Auswirkungen - wie sieht's bei dir aus? EA/Codemasters sind jedenfalls informiert und melden sich.

MfG
Raff
 
Ich habe zwei Proben an zwei verschiedenen Systemen gemacht (4090 und 4060 Ti), bei beiden hat der SER-Schalter keine Auswirkungen - wie sieht's bei dir aus? EA/Codemasters sind jedenfalls informiert und melden sich.

MfG
Raff
Aktuell habe ich das Problem das ich, sobald ich Raytracing aktiviere, in UWQHD massiv im CPU Limit hänge. Bzw. vllt ist es auch was anderes, zumindest kriege ich keine Last auf die GPU.
 
Stell mal DLSS auf "Ultra Quality" - das ist laut meinen Augen (Qualität und Fps) eigentlich DLAA. :D

GPU-Benchmarkszene:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

MfG
Raff
 
Stell mal DLSS auf "Ultra Quality" - das ist laut meinen Augen (Qualität und Fps) eigentlich DLAA. :D
Findest du? Ich finde das sieht absolut grausig aus. Alles ist wie Sau am schmieren und in der Default Einstellung auch noch brutal überschärft. Der Schärfegrad lässt sich zwar einstellen, aber die Schmiererei bleibt leider. Das stört mich schon seit der ersten DLSS Implementierung in F1…

Kann aber auch sein dass das bei mir an der relativ niedrigen Auflösung liegt.

Die Benchmarkszene schaue ich mir später an.
 
Das TAA des Spiels schmiert leider auch - eine perfekte Lösung habe ich noch nicht gefunden. Mit DLAA kriegt man aber mehr Last auf die GPU, was du ja wolltest.

MfG
Raff
 
Zurück