News Nvidia DLSS 10: Vom KI-Upscaling zum vollständig neuralen Echtzeit-Rendering

Schnelleren technischen Fortschritt. Schnelleres Erreichen des Fotorealismus durch vollständiges Pathtracing.

Ohne KI würde das sehr viel länger dauern.
Und da man die Rohleistung von GPUs künftig weniger stark und schnell steigern kann als in der Vergangenheit, sind KI Ansätze umso wichtiger.

Was ist dir lieber? In 10-15 Jahren Fotorealismus durch neural Rendering erreichen und Fortschritte sehen.
Oder aber, keine Ahnung, 30 Jahre auf den Fotorealismus warten und immer nur kleinste Verbesserungen sehen?

Letztendlich dient uns KI hier als Abkürzung und katapultiert uns bei jedem Erfolg technologisch ein paar Jahre weiter in die Zukunft. Mit DLSS und Frame Generation kann man schon heute die effektive Performance erreichen, die wir sonst erst in einigen Jahren gehabt hätten.
Die Frage ist: Wollen wir überhaupt Fotorealismus? Es gibt da nämlich so eine Akzeptanzkurve von künstlichen Figuren in Abhängigkeit zum Realismus bei den Menschen und die ist bei Fotorealismus garnichtmal am höchsten.
Ich denke, das hat auch was mit dem Verlust jedes Raumen für Fantasie und Kreativität in unserem Kopf zu tun.

Gedanke: Warum hocken wir in der Bude und spielen Computerspiele, wenn doch vor der Tür das schon jetzt fotorealistische Lebensspiel auf jeden von uns wartet? Und warum waren gerade die alten Spiele mit der schlechten Grafik die geilsten in unserer Erinnerung und warum können wir uns an den letzten Hochglanzshooter kaum noch erinnern?:ka:
 
Ich hab das mal vor einiger Zeit getestet.
Nativ
Anhang anzeigen 1438523

1440p/DLSS Q/FG
Anhang anzeigen 1438524

2160p/DLSS P/FG
Anhang anzeigen 1438525

Nativ ist bei mir definitiv raus. DLSS und Fg machen selbst hier, mit dynamischen Licht und Schattenspiel, eine bessere Figur als nativ. Den FPS Zuwachs nehme ich auch noch gerne mit ;)
Nativ war gestern.
Das was ich meine, lässt sich nicht mit Screenshots zeigen, es wird nur in der Bewegung wahrgenommen.
Dann ist das wohl sehr Subjketiv - so ähnlich wie mit der Bildrate, einigen Spielern reichen 60 fps, anderen 100 fps und einige benötigen 140 fps, damit die Bewegung als flüssig wahrgenommen wird.

Dann sei froh, dass du zur "pflegeleichten" DLSS Katergorie gehörst ;)
 
Zuletzt bearbeitet:
Tz wenn dann auch das Sozial System aus Star Trek. Geldmittel abschaffen.
Geld kann erst abgeschafft werden - wenn jedwede Energie gratis in der Erzeugung ist - oder so gut wie kostenlos zur Verfügung steht.

Die Ironie daran ist, die Sonne liefert uns Energie ohne etwas für Sonnenstunden zu verlangen - nur der Mensch ist von je her zu dumm diese Energie ohne weitere Kosten zu nutzen.
 
Das was ich meine, lässt sich nicht mit Screenshots zeigen, es wird nur in der Bewegung wahrgenommen.
Du meinst wenn ich spiele ist das keine Bewegung, oder wie kommst Du darauf? Im laufenden Spiel ist der Unterschied auch mal größer/besser als auf Screens.
Dann sei froh, dass du zur "pflegeleichten" DLSS Katergorie gehörst ;)
Wie willst Du das mit einer RX 6800 überhaupt beurteilen? Zumindest auf meiner RX 6800 funktioniert DLSS/FG nicht.
 
Du meinst wenn ich spiele ist das keine Bewegung, oder wie kommst Du darauf? Im laufenden Spiel ist der Unterschied auch mal größer/besser als auf Screens.

Wie willst Du das mit einer RX 6800 überhaupt beurteilen? Zumindest auf meiner RX 6800 funktioniert DLSS/FG nicht.
Nutzer dieses Forums können tatsächlich weitere bzw. andere Rechner besitzen, als im Profil angegeben oder sogar Zugang zu weiteren Systemen haben.
Diese Zeilen Tippe ich z.B. gerade auf einem Rechner mit Xeon CPU und Quadro P6000 Grafikkarte ;)
 
Funktioniert dlss nur bei ausgewählten spielen brauchbar?

Ich würde es gerne nutzen, aber bei 1440p (habe keinen 4k Monitor und auch nicht vor auf einen zu wechseln) ist nativ immer deutlich besser. Dlss bringt immer merkwürdige verdunklungen und/oder ghosting. Hab auch schon 2.5.1 benutzt aber irgendwie ohne großen Erfolg.
Gedanke: Warum hocken wir in der Bude und spielen Computerspiele, wenn doch vor der Tür das schon jetzt fotorealistische Lebensspiel auf jeden von uns wartet? Und warum waren gerade die alten Spiele mit der schlechten Grafik die geilsten in unserer Erinnerung und warum können wir uns an den letzten Hochglanzshooter kaum noch erinnern?:ka:
Weil es wie mit Musik und anderen Eindrücken ist. Im Jugendalter werden noch mehr neue und aufregende Verbindungen im Hirn geknüpft, weshalb DU dich so gut an DU DEINE Jugendhits erinnerst und nostalgia da immer wieder alles ganz ganz toll macht. Frag Mal Leute die 10 Jahre nach dir angefangen haben zu zocken, welche Games für sie die absoluten Highlights sind.
 
Nvidia ist bei dieser Technologie im Spielebereich noch führend, was die Effizienz angeht. So sind sie der Konkurrenz um mindestens einer ganzen Generation voraus, was Nvidias Produkte noch differenziert.

Native Auflösung wird ganz sicher irgendwann in naher Zukunft eher was fürs Control Panel sein, oder wenigstens nur noch bei "Ultra Settings" zu finden sein. Hat das jetzt Vorteile für die Verbraucher? Nein. Immer wieder geht zugewonnene Performance eher früher als später flöten, da Entwickler das mit einkalkulieren. Im besten Falle steigt dann die visuelle Ansehnlichkeit, im schlimmsten Falle werden Zeit und Kosten gespart.

Das war schon immer so. Da brauche ich keine Werbung von Nvidia.

Visuell stagnieren die Titel meiner Ansicht nach und das schon seit PS5 / Series X und noch davor, abgesehen von absoluten Highlights wie von mir aus Cyberpunk. Raytracing hier und da, aber nicht zu viel, sonst ruckelt's. Pathtracing ab und zu, aber das war's, weil die Hardware noch immer nicht ganz da ist und für die 5 Leute mit einer 4090 (und nur die) lohnt sich anscheinend Raytracing nicht.

Ich liebe das Design von Control und Hellblade, aber das ist auch der Teilbereich der visuellen Künste, welcher diese Titel trägt. Irgendwie hauen mich auch Bullshots (kennt den Ausdruck noch irgend wer?) von Cyberpunk nicht um. Es erinnert mich eher an eine 8. Generation der Konsolen auf Steroide mit heftigen Grafikmods. Red Dead Redemption 2 beispielsweise ist eher Red Dead Redemption 1 mit massig vielen Mods und ENBs, die den Titel aufwerten und unfassbar viele Polygone für solch einen Titel darstellen.

So wirklich neue Technologien außer mäßiges Raytracing kommt keinem so wirklich in den Sinn. Ich erfreue mich ja schon an generierte volumetrische Wolken. Die kommen manchmal zur Anwendung, manchmal nicht. Sound wird vernachlässigt, obwohl man mit RT-Technologie Bahnbrechendes anstellen kann. Und sind Tensor Cores nicht noch für ganz andere generierte Inhalte nützlich? Was ist denn beispielsweise aus Frisuren geworden? Noch immer sind alle mit mächtig viel Zuckerwasser frisiert.

Keine Ahnung. Ich bin ein Armchair-Developer, daher will ich denen nicht das Essen als noch roh attestieren, ohne selber kochen zu können. Mir kommt es aber so vor, als wäre alles nur mit Grafikmods aufgehübscht.
Witzig mit der Hardware. Die Software ist ja deshalb die Zukunft.
 
Nvidia träumt bereits von einer (zugegeben noch fernen) Zukunft eines potenziellen DLSS 10, dass dann praktisch den Großteil des Renderings (Engine) via AI liefert. Mit keiner Silbe erwähnt: Was ist mit der Konkurrenz in solch einem Zukunftsszenario? Haben wir dann etwa das Konsolenzeitalter am PC, wo gewisse Titel nur noch mit Nvidia laufen und dasselbe dann entsprechend mit AMD und Intel?
 
Nativ war gestern.
Und die Zukunft.

Momentan und vielleicht auch noch lange zeit werden wir nicht die Rechenleistung haben um Nativ darzustellen das keine Kantenglättung oder upscaling nötig hat um annähernd oder komplett perfekt aussieht und sauber läuft.

Sollte die Rechenleistung da sein würde Nativ wieder der Goldstandard sein.

Die frage ist nur wie lange das dauert bis die Rechenleistung hoch genug ist und bis dahin braucht man halt Hilfsmittel wie Kantenglättung upscaling etc.
 
Ohne KI würde das sehr viel länger dauern.
Und da man die Rohleistung von GPUs künftig weniger stark und schnell steigern kann als in der Vergangenheit, sind KI Ansätze umso wichtiger.
Ich sehe den Trend, den NV hier aufzeigt klar Richtung "Game-Streaming" ausgerichtet, denn für ein derart aufgebohrtes KI-Grafik-Modell wird absehbar kaum irgendeine in einen "Personal Computer" einbaubare geschweige denn finanzierbare Hardware ausreichen, da hier enorme Datenmengen quasi in Echtzeit abgearbeitet und teils schon bei der Spieleentwicklung vorberechnet und vorgehalten werden müssten: MSFS macht es ja z.B. im großen Stil vor und zeigt zugleich die hohen Anforderungen und v.a. Nachteile, wo diese etwa bei der verfügbaren Bandbreite der Datenleitung nach Hause nicht erfüllt werden können.

Wo NV dann aber seinen Markt dafür sieht, zumal in Deutschland mit seiner lückenhaften und unterdurchschnittlich (gemessen an dem, was andere entwickelte Staaten und selbst weniger entwickelte bzw. finanziell leistungsfähige zustande bringen) ausgebauten "Neuland-Internet", erschließt sich mir zudem nicht. Bislang erscheint mir jedenfalls Game-Streaming noch nicht den Level - qualitativ wie auch seitens der Nutzer - aufzuzeigen, dass ich als Hardware-Hersteller meine Zukunft darauf verwetten wollte. Und es würde auch ein kontinuierliches Windhundrennen zwischen verfügbarer Bandbreite der Datenleitungen und dem Bedarf der Anbieter/Nutzer. Dass dann absehbar wieder nutzungsabhängige Entgelte und Priorisierungsdebatten für bestimmte Dienste statt Flatrates und Gleichbehandlung der Inhalte sich daraus entwicken werden, erscheint dann nur folgewrichtig. Wer das will und beführwortet, wird diesem Trend sicher folgen wollen.

Mag sein, dass NV darin seine Zukunft im Endkundengeschäft sieht, weil die reinen Hardware-Margen im Vergleich zum Profikundengeschäft ihnen immer noch zu niedrig ausfallen (trotz abgedreht hohen Preisniveaus) und man dann bei Ausbau derart v.a. Software- und Netz-basierter Lösungen "Sparbrötchen"-Hardware (z.B. nur 12 GB VRAM, stark abgespeckte GPU-Chips usw.) künftig immer billiger auf etablierten Prozessen produzieren und trotzdem dank Quasi-Monopol (bzgl. v.a. KI-Berechnungen) teuer abverkaufen kann...
 
Ich bin mir nicht einmal sicher ob ich überhaupt 100% Fotorealismus will.
Seh ich auch so, meiner Meinung nach ist der Trend:
Je besser die Grafik wird, desto höher wird der Anteil an austauschbaren und schlechten Spielen in Bezug auf Gameplay (Prozentsatz an schlechten Games, gibt natürlich immer Ausnahmen), also das was letzlich den Spielspaß ausmacht.
 
Die Frage ist: Wollen wir überhaupt Fotorealismus? Es gibt da nämlich so eine Akzeptanzkurve von künstlichen Figuren in Abhängigkeit zum Realismus bei den Menschen und die ist bei Fotorealismus garnichtmal am höchsten.
Ich denke, das hat auch was mit dem Verlust jedes Raumen für Fantasie und Kreativität in unserem Kopf zu tun.

Gedanke: Warum hocken wir in der Bude und spielen Computerspiele, wenn doch vor der Tür das schon jetzt fotorealistische Lebensspiel auf jeden von uns wartet? Und warum waren gerade die alten Spiele mit der schlechten Grafik die geilsten in unserer Erinnerung und warum können wir uns an den letzten Hochglanzshooter kaum noch erinnern?:ka:

Man kann ja trotzdem stilisieren. Fotorealismus ist vielleicht das falsche Wort bzw. trifft es nicht so genau. Es geht eben um physikalisch korrekte Beleuchtung.

Aktuelle Animationsfilme werden auch mit Pathtracing gerendert. Und trotzdem sehen sie stark stilisiert und comichaft aus.

Der Vorteil ist eben, dass man mit Pathtracing eine stimmige, konsistene Beleuchtung erzeugen kann.
Mit klassischem Rasterizing hat man ja leider viele Probleme wie Light Leaking oder fehlende indirekte Beleuchtung, was einfach seltsam aussieht.


Ich sehe den Trend, den NV hier aufzeigt klar Richtung "Game-Streaming" ausgerichtet, denn für ein derart aufgebohrtes KI-Grafik-Modell wird absehbar kaum irgendeine in einen "Personal Computer" einbaubare geschweige denn finanzierbare Hardware ausreichen, da hier enorme Datenmengen quasi in Echtzeit abgearbeitet und teils schon bei der Spieleentwicklung vorberechnet und vorgehalten werden müssten

Ich bin mir nicht sicher, ob das wirklich so sein muss. Ich verweise nochmal darauf, dass Nvidia jetzt bereits 7/8 der Pixel generieren lassen kann. Und dafür braucht es keine Unmengen an Daten oder unmengen an Rechenleistung.
Die NN Algos sind sogar sehr schlank.

Man muss ja dem NN nicht die ganze Spielgrafik oder sogar das Spiel selbst haluzinieren lassen. Es würde ja reichen, wenn einfach nur der Rendering Part ersetzt wird, so dass wir das gleiche Ergebnis bekommen, das man mit Bruteforce Rendering hätte, nur viel schneller. Der KI Renderer würde dann die gleichen oder ähnliche Inputs von der Spielengine bekommen, wie es aktuell bereits bei normalem Rendering der fall ist. Nur die finale Berechnung der Pixel würde dann das NN übernehmen. Was ja wie gesagt heute bereits zu 7/8 passiert.


Und GameStraming ist so ne Sache. Rein theoretisch könnte das die Zukunft sein. Der Vorteil wäre effizientere Nutzung von Ressourcen bzw. Hardware.

Aber in der Praxis wird die Internetverbindung der meisten Leute immer sehr viel langsamer sein, als das was gerade State of the Art hinsichtlich Bildqualität in Spielen möglich ist oder gefordert ist. Es wird also wohl immer ein mehr oder weniger großer Kompromiss für die meisten Spieler sein, auf den weder Nvidia noch der Spieler einfluss nehmen kann. Und selbst wenn die Leitung schnell genug ist, steht letztendlich bei den meisten Leuten ein WLAN Router herum. Und WLAN ist gerade durch Wände und auf etwas größere Entfernung einfach totaler Mist. Ja, es gibt stetig Verbesserungen, aber auch da wird man bei der Datenrate auch nur das bedienen können, was übers Internet rein kommt. Sind also schon zwei Flaschenhälse.

Zudem musste ich feststellen, dass bei mir trotz 100 Mbit VDSL selbst ein 1080p Stream über Stadia nicht perfekt flüssig lief, und das obwohl mein Jitter sehr gering war und meine Latenz nur bei 9ms lag. Das Problem ist hier leider, dass die Infrastruktur, also Backbones usw. nicht immer darauf ausgelegt sind, größere Datenmengen mit der notwendigen Latenz und sauberem Jitter zu verarbeiten. Soll heißen. Ein Telefongespräch oder ein 360p Stream wäre in echtzeit praktisch ohne Latenz und ohne Ruckeln möglich. Aber sobald es mal 1080p oder gar 4K sind, flutscht das einfach nicht mehr so problemlos durch die Leitung, die Latenzen steigen dann eben ein wenig an und schon hakt es. Selbst wenn die Bandbreite nur zu 10% ausgelastet wird. Das ist also regionsabhängig ein sehr großes Problem, da nicht nur die Anforderungen an die Bandbreite ausschlaggebend sind, sondern viele weitere Faktoren dazu kommen, die vermutlich stärkere Hardware bei den netzbetreibern erfordern würde, um die engen Latenzanforderungen einzuhalten.
Interessant ist dabei, dass ich mit Twitch Streams bei "geringer Latenz" und Youtube Streams selbst in 4K keinerlei Probleme habe. Einfach, weil da noch genug Latenz erlaubt wird, bevor neu synchronisiert wird, so dass die Anforderungen an die Verbindung bei weitem nicht so hoch sind, wie beim Gaming.

Daher wird dedizierte Hardware wohl noch ziemlich lange Standard bleiben.
 
Zuletzt bearbeitet von einem Moderator:
Momentan und vielleicht auch noch lange zeit werden wir nicht die Rechenleistung haben um Nativ darzustellen das keine Kantenglättung oder upscaling nötig hat um annähernd oder komplett perfekt aussieht und sauber läuft.

Sollte die Rechenleistung da sein würde Nativ wieder der Goldstandard sein.
Wenn die Spiele Devs immer nur soviel "Grafik" in ihre Projekte quetschen würden, dass es sich nativ ausgehen würde - dann könnte sich dein Goldstadardgedanke jederzeit erfüllen. Aber da Spiele-Devs dazu neigen mehr Grafik einzubauen als wie aktuellste Technik kann - wird sich dein Goldstadardgedanke wohl oder übel nie erfüllen.

Denn hätten wir heute die Leistung einer 6090, dann würde die Grafk entsprechend aufgebohrt sein, dass es trotzdem nicht reicht. (Böse Zungen sagen, es würde so wenig "optimiert" dass nicht reicht.)
 
Zuletzt bearbeitet:
Und mit jeder neuen DLSS Version bitte eine neue GPU kaufen.
Scheiß auf Nvidia
Joar.. AMD ist da aber auch nicht besser...
Hypr-rx und Antilag+ nur für RDNA3+
DX11 performance verbesserungen nur für RDNA2+
SAM nur für RDNA2+

läuft alles mit gemoddeten treibern auch auf älteren Karten wie zb RDNA1,Vega und Polaris
Wo bleibt das Holodeck? Das wäre mal was!!!

ich glaub der größte entwickler hier wäre die Pornoindustrie...
 
Funktioniert dlss nur bei ausgewählten spielen brauchbar?

Ich würde es gerne nutzen, aber bei 1440p (habe keinen 4k Monitor und auch nicht vor auf einen zu wechseln) ist nativ immer deutlich besser. Dlss bringt immer merkwürdige verdunklungen und/oder ghosting. Hab auch schon 2.5.1 benutzt aber irgendwie ohne großen Erfolg.
Hängt tatsächlich vom Spiel ab. Gibt gute Implementation und schlechte aber grundsätzlich sind selbst die schlechten ganz okay.
Ich bezweifle, dass es bei dir deutlich besser ist.
 
Zurück