Fidelity FX Super Resolution: 44 Studios mit dabei, Support für Far Cry 6, Resident Evil Village und Anno 1800

Dann musst du mir aber plausibel erklären warum so viele Engine hauseigene Upscaling-Techniken einsetzen?

Warum gibt es sollte dynamischen Sachen wenn doch Rechenleistung für native Darstellung immer ausreicht? Sind jetzt alle Entwickler unfähig oder will seine Software möglichst gut lauffähig auf breite Anzahl von Hardware bekommen ohne alles mit Hardwaeepower zu erschlagen?
Denn die Leute die hier im Forum innerhalb 2-3 Jahre 3 RTX oder AMD Karten durch haben sind eher Mindrrhrit als breite Massenmarkt.
Für Letztere helfen Upscaling-Techniken Karten auch mal länger zu benutzen und nicht alle 1-2 zu ersetzen.
upscaling wird genutzt um rechenleistung einzusparen bzw wenn die hardware eigentlich nicht genug bietet, das zu umgehen.
zum zweiten absatz, lese bitte nochmal was ich geschrieben habe,
habe nie behauptet das die leistung ausreichen würde, ehr im gegenteil.

Glaubt da etwa immer noch jemand, dass man bei Nutzung von DLSS 2.X konstant mit Nvidias Servern in Verbindung steht, die einem das Bild aufpolieren?
nein, aber sie machen die vorab- rechenarbeit um die sich daraus ergebenden algorythmen zu berechnen. wenn das mal wegfällt kann jeder sich vorstellen was dann auf dauer von DLSS übrig bleibt.....


Wenn die Hersteller so denken würden, dann hätte es nie eine Geforce256 inklusive der ersten T&L Einheit gegeben. Dadurch wurde unsere Grafik von heute erst möglich, die Anfänge sind im Vergleich zur heutigen Leistung natürlich ein Witz. Genau so wird es mit RT auch laufen.

Denk mal drüber nach was Du da sagst. RT erst einsetzen wenn die gesamte Szene damit berechnet werden kann!? Was wäre das bitte für ein Umbruch, keine Engine würde das überhaupt unterstützen, so eine Karte würde dementsprechend überhaupt keinen Sinn ergeben. Ein langsamer Wechsel mit Hybrid-Ansätzen ist da viel sinnvoller. Siehe z.B. die 32-64bit Umstellung vor einigen Jahren, die läuft immernoch.
ich sehe das ehr ganz im gegenteil:
wenn man RT erst dann mit einbaut wenn mann auch in der lage ist das so rechenstark einzubauen das das auf's ganze spiel(also den gerade gerendeten bildschirm) berechnet werden kann, wäre das tatsächlich ein grosser umbruch geworden,

aber sehr zum positiven

und die umsetzung ginge dann sicherlich nicht langsamer.
stell dir mal vor du bekämst plötzlich weil RT eingebaut wird gar spiele die komplett das ganze licht etc mit RT berechnen würden UND KÖNNTEN,
was DAS für eine spiel-verbesserung gäbe.

DAS wäre dann ein richtig guter fortschritt und den würde jeder sehen und sofort in seiner engine haben wollen.
 
Zuletzt bearbeitet:
Glaubt da etwa immer noch jemand, dass man bei Nutzung von DLSS 2.X konstant mit Nvidias Servern in Verbindung steht, die einem das Bild aufpolieren?
@geist4711 scheint einer dieser extrem uninformierten Leute zu sein, die permanent gegen neue Technologien wettern, ohne überhaupt zu wissen wie sie funktionieren und zu was sie im Stande sind. Leider nicht der erste, den ich hier gesehen habe.

Letztens meinte einer, DLSS wäre doch das gleiche, wie wenn man die Renderauflösung herabsetzt und es dann wie bei einem DVD/Bluray-Player hochskaliert wird und man brauche das ja gar nicht, weil man die Skalierung ja auch einfach über den Monitor machen könne, nachdem man das Spiel einfach auf halber Auflösung ausführe, usw. :ugly:

Es ist so dermaßen traurig, dass es noch so viele Leute gibt, die nach über 2 Jahren nicht verstehen was DLSS ist und wie es grundsätzlich funktioniert. Auch verstehen viele nicht, woher denn die Details, die man auf native Auflösung nicht sieht, kommen sollen. Naja DLSS wird mit 16K-Bildmaterial trainiert und nutzt Bewegungsvektoren für die Rekonstruktion. Nach 2-3 Frames weiß der Algorithmus quasi, wie die Struktur aussieht, wenn sich einzelne Pixel bewegen oder verschwinden.

Und nein, man hat weder einen Onlinezwang, noch muss für einzelne Spiele speziell "trainiert" werden. DLSS-Updates kommen per Treiber und sind grundsätzlich auf alle Spiele und Anwendungen anwendbar. Es funktioniert 100% offline.
 
nein, aber sie machen die vorab- rechenarbeit um die sich daraus ergebenden algorythmen zu berechnen. wenn das mal wegfällt kann jeder sich vorstellen was dann auf dauer von DLSS übrig bleibt.....
Es würde dann auch nicht schlechter werden als das was wir heute haben, da es nicht für einzelne Spiele trainiert werden muss.
Und was es aktuell leistet, ist für die große Mehrheit bereits mehr als ausreichend.
Und wenn DLSS dann mal soweit ist, dass es einfach in jedem Spiel aktiviert werden kann, wo man TAA zur Verfügung hat, bekommt es nochmal eine ganz andere Dimension.
DAS wäre dann ein richtig guter fortschritt und den würde jeder sehen und sofort in seiner engine haben wollen.
Und wie stellst du dir das realistisch vor?
Um ein Spiel komplett in RT bzw PT zu berechnen ohne DLSS bräuchte mal wie viel der Leistung einer aktuellen RTX3090? Grob ins Blaue geraten 2000%? Nur um ein heutiges Spiel in RT darzustellen. Das würde Jahrzehnte dauern, in denen die Grafikkarten immer stärker werden müssten und die Spiele diese Mehrleistung nicht in bessere Optik investieren dürften, damit man nach 50 Jahren nicht ein massives Downgrade hätte, weil man dann nur die Grafikqualität von 2020 in RT bieten könnte.
 
Zuletzt bearbeitet:
nein, aber sie machen die vorab- rechenarbeit um die sich daraus ergebenden algorythmen zu berechnen. wenn das mal wegfällt kann jeder sich vorstellen was dann auf dauer von DLSS übrig bleibt.....
Warum soll Nvidia aufhören das weiterzuentwickeln? Wenn die noch ein bisschen weitermachen wird sich das etablieren und global in alles mögliche integrieren.

Wenn Grafikeinheiten plötzlich nur noch in SD rendern müssen und quasi 4K rauskommt. Das ist ein riesiger Markt. Nicht nur für Konsolen, mobile VR-Headsets, auch für Smartphones, Autos, TVs für alles, wo Bilder berechnet werden müssen und man keine 300W GPU einbauen kann.
 
och leute bitte,
es ist nicht unmöglich das nv irgendwann keine lust mehr hat, weil nichtmehr aktuell, die server für dei DLSS-berechnungen abstellt, zb wenn DLSS nichtmehr benötig wird.
DANN sind die leute die das nutzen gelackmeiert.

wie online-spiele wo man nicht auf andere server ausweichen kann und die die server abstellen, weil die meinen es spielen zu wenige.

und mit der rechenleistung, ja klar geschätzte 2000% mehrleistung wenn RT gleich richtig nutzbar wäre, eben vollbild und 'über ales' im spiel.
gegenfarge dann:
wenn RT jetzt dann also so lächerlich wenig rechenleistung hat, also 2000% zu wenig, warum baut man das jetztschon ein wenn es so lächelich wenig leistung kann?!

wenn man dazu zb 2 jahre länger entwickeln müsste damit es dann genug leistung hat, ja dann soll man es eben ERST DANN in die neue grafikkarte einbauen, wo ist das problem, ausser das der hersteller da jetztschon was einbaut was man teuer verkaufen kann aber noch nichts bringt(der schätzung folgend)?!

zumal:
wenn ich mir anschaue wie gut spiele jetztschon, ohne RT und DLSS auf vernünftigen auflösungen laufen, besteht ja auch garkein grosser druck dieses (noch)unzureichende RT so zwingend in den makrt zu drücken -man stelle sich mal vor nv und co hätten ihre resourcen die letzten jahr in bessere herkömliche rechenleistung gesteckt und jedes jahr wären dabei 10% mehrleistung bei rausgekommen, dann wären alle karten heute 20% besser! -natürlich ganz grob gesagt!-

aber die hersteller drücken ja lieber 4k 8k RT und wasnoch alles in den markt umd die preise anzuheben und der kunde steht dann da mit halbgarer technik, statt das vorhandene erstmal auf einen richtig hohen level zu heben (zb das 4k anständig läuft) und DANN eine auch genügend ausgebaute (RT-) technik auf den markt zu bringen die man dann auch voll nutzen kann.
da wären alle kunden glücklicher bei, aber klar den herstellern ist lieber immer häpchenweise die leistung zu verbessern damit man viele stufen besserer grafikkarten verkaufen kann.......
 
Zuletzt bearbeitet:
Klar kann es passieren, dass DLSS irgendwann fallengelassen wird, aber bei dem aktuellen Erfolg sehe ich das einfach nicht. Es wird eher passieren, dass zb Turing-Karten keine Kompatibilität für zB DLSS3.0 bekommen werden, weil die Tensor-Cores zu langsam sind oder ähnliches. Man wird schauen müssen, aber irgendwann wird alte Hardware immer abgesägt.

Und selbst wenn DLSS halt irgendwann End-of-Life gehen sollte, dann kann man es immer noch zum letzten Stand, der im Treiber implementiert ist, offline nutzen.
 
och leute bitte,
es ist nicht unmöglich das nv irgendwann keine lust mehr hat, weil nichtmehr aktuell, die server für dei DLSS-berechnungen abstellt, zb wenn DLSS nichtmehr benötig wird.
DANN sind die leute die das nutzen gelackmeiert.

wie online-spiele wo man nicht auf andere server ausweichen kann und die die server abstellen, weil die meinen es spielen zu wenige.
Hattest du nicht eben gesagt du glaubst nicht, dass man die Nvidia Server aktiv zum Nutzen von DLSS braucht?
Und vergleichst es jetzt mit einem Online Game, das man nicht mehr spielen kann, wenn die Server abgeschaltet werden?

Nochmal, es laufen keine Server für DLSS Berechnungen, die laufen alle komplett offline auf deinem eigenen PC und werden das auch noch tun, wenn Nvidia DLSS nicht mehr weiter verbessern würde.
Sämtliche Spiele die es bis dato bekommen haben kannst du weiterhin und so lange du willst mit DLSS nutzen.
Und auch sämtliche Spiele, die danach noch erscheinen, kannst du mit DLSS nutzen, der Entwickler muss ja nur die Checkbox in der Engine anklicken, bzw. in Zukunft wohl nicht mal mehr das, er muss dann einfach nur noch TAA für das Spiel anbieten.

Und DLSS wird dann fallengelassen, wenn es eine noch bessere Technik gibt, die es ersetzt. Reine Rechenleistung wird es zu 100% nicht sein.


gegenfarge dann:
wenn RT jetzt dann also so lächerlich wenig rechenleistung hat, also 2000% zu wenig, warum baut man das jetztschon ein wenn es so lächelich wenig leistung kann?!
wenn man dazu zb 2 jahre länger entwickeln müsste damit es dann genug leistung hat, ja dann soll man es eben ERST DANN in die neue grafikkarte einbauen, wo ist das problem, ausser das der hersteller da jetztschon was einbaut was man teuer verkaufen kann aber noch nichts bringt(der schätzung folgend)?!
Mach aus den 2 Jahren mal 40 Jahre, dann käme es vielleicht eher hin....

Und bereits eingebaut hat man es, weil man es, in vielen Fällen auch dank DLSS, eben schon heute in kleinen Dosen nutzen kann, die bereits die Optik deutlich aufwerten können, viel mehr als es 10 oder 20% mehr Rasterleistung tun könnten, soviel zum Thema "nichts bringt".
Der Gewinn in der Optik verläuft ja auch nicht linear, RT ist alleine mit der globalen Beleuchtung schon ein riesiger Sprung, den es sich lohnt, so früh wie möglich zu machen.
 
Zuletzt bearbeitet:
och leute bitte,
es ist nicht unmöglich das nv irgendwann keine lust mehr hat, weil nichtmehr aktuell, die server für dei DLSS-berechnungen abstellt, zb wenn DLSS nichtmehr benötig wird.
DANN sind die leute die das nutzen gelackmeiert.

Klar, in 3 Jahren meldet auch AMD Konkurs an du bekommst keine Treiberupdates mehr. Es gibt für Nichts 100% Garantie. Wenn Sony PS4 einstellt und es nur noch Games für PS5 gibt muss man auch umsteigen. Deswegen hatten die Leute dennoch ihren Spaß jahrelang mit der einen Generation.
Hier geht es nicht nur um DLSS sondern allgemein um die Upscaling-Weiterentwicklung.



und mit der rechenleistung, ja klar geschätzte 2000% mehrleistung wenn RT gleich richtig nutzbar wäre, eben vollbild und 'über ales' im spiel.
gegenfarge dann:
wenn RT jetzt dann also so lächerlich wenig rechenleistung hat, also 2000% zu wenig, warum baut man das jetztschon ein wenn es so lächelich wenig leistung kann?!
Hast aber schon mitbekommen wie technische Entwicklungen sich normalerweise am Markt etablieren? War das erste Mobiltelefon gleich iPhone? War erste Auto gleich mit Technik von 2021 Benz ausgestattet? Erste TV hatte sicherlich auch 4k weil Entwickler so lange gewartet haben bis es möglich ist.

Irgendwo beginnt alles irgendwann man klein und setzt sich dann mit immer mehr Marktanteilen durch bis Kosten und Leistung für breiten Massenmarkt auch finanzierbar ist.
Verstehe bis Heute nicht wie man immer argumentieren kann dass etwas nur Sinn hat wenn es gleich 100% einnimmt in jedem Bereich.


wenn man dazu zb 2 jahre länger entwickeln müsste damit es dann genug leistung hat, ja dann soll man es eben ERST DANN in die neue grafikkarte einbauen, wo ist das problem, ausser das der hersteller da jetztschon was einbaut was man teuer verkaufen kann aber noch nichts bringt(der schätzung folgend)?!

zumal:
wenn ich mir anschaue wie gut spiele jetztschon, ohne RT und DLSS auf vernünftigen auflösungen laufen, besteht ja auch garkein grosser druck dieses (noch)unzureichende RT so zwingend in den makrt zu drücken -man stelle sich mal vpr nv und co hätten ihre resourcen die letzten jahr in bessere herkömliche rechenleistung gesteckt und jedes jahr wären dabei 10% mehrleistung bei rausgekommen, dann wären alle karten heute 20% besser! -natürlich ganz grob gesagt!-
Warum geht es denn immer um RT? Auch neuen Engine wie UE5 fressen schon ohne RT mehr Leistung als was Engine 2013 gebraucht haben. Hast so oder so einen Mehrbedarf an Power. Dazu braucht es kein Raytracing. Auch andere Effekte die sich weiterentwickeln benötigen mehr Rechenkraft.

Warum erzählen so viele Entwickler selber dass klassische Berechnung und tricks langsam am Ende sind? Dann soll die Antwort "noch mehr Rechenleistung sein"?
Wer soll denn die ganzen Details programmieren und die softwarebasierten Effekte haarklein im Level platzieren? Manche Games wie RDR 2 sind ja so schon 5-6 Jahre in Entwicklung. Reine Rohpower hilft den Entwicklern auch nicht. Erst wenn die Hardware selber Dinge physikalisch selber berechnen kann und damit der Arbeitsaufwand sinkt kann man Arbeitszeit woanders reinstecken. Da hoffen eben Entwickler dass Raytracing nach und nach Standard wird und man sich so aufwendige Beleuchtung und korrekte SSR Effekte sparen kann.

Die bauen RT jetzt schon ein um sich mit der Technik im Entwicklungsprozess vertraut zu machen.


aber die hersteller drücken ja lieber 4k 8k RT und wasnoch alles in den markt umd die preise anzuheben und der kunde steht dann da mit halbgarer technik, statt das vorhandene erstmal auf einen richtig hohen level zu heben (zb das 4k anständig läuft) und DANN eine auch genügend ausgebaute (RT-) technik auf den markt zu bringen die man dann auch voll nutzen kann.
da wären alle kunden glücklicher bei, aber klar den herstellern ist lieber immer häpchenweise die leistung zu verbessern damit man viele stufen besserer grafikkarten verkaufen kann.......

Warum soll es denn hier auch wieder nur um High End für 4k oder gar 8k gehen? Jetzt werden schon wieder Plattformen wie Konsolen außer Acht gelassen die locker 6-7 Jahre auf Markt sind. Da steigt die Leistung nicht Häppchenweise. Da gibt es dann DLSS (vermutlich bei neuen Nintendo-Hardware) und AMD FX SR, DirectML bis engineeigenen Upscaler die für Entlastung sorgen. Die müssen nun Mal mit gewissen Leistungsbudget auskommen für längere Zeit.

Auch andere Bereiche profitieren von Entwicklung bei Upscaling-Techniken.

Warum blickst du da nur PC Markt? Wenn die Mehrleistung bei neuen Grafikkarten nicht passt dann wartet man halt mal 2-3 Generation ab. Muss ja nicht jedes Jahr konsumieren und alte zeug zum Altweisen machen weil jedes Jahr 30% schnellere GPUs kommen. Mit der Forderung kommen wir wieder toll bei Wegwerfgesellschaft an.

Gerade DLSS bis FX SR können Lebenszeit von Hardware verlängern anstatt zu fordern dann Hersteller gefälligst jedes Jahre 30% Extrapower rauskitzeln. Was durch immer kleiner werden Prozesse auch immer aufwendiger wird und oft zum Mehrverbrauch samt Abwärme führt.
 
och leute bitte,
es ist nicht unmöglich das nv irgendwann keine lust mehr hat, weil nichtmehr aktuell, die server für dei DLSS-berechnungen abstellt, zb wenn DLSS nichtmehr benötig wird.
DANN sind die leute die das nutzen gelackmeiert.
Wieso ist man gelackmeiert? Selbst wenn man jedes Spiel über Server trainieren müsste wären alle Spiele die ich habe weiter funktionsfähig. Einzig die Zukunft wäre halt das Feature weg. Aber wozu entfernen wenn das ein unique selling point ist?
wie online-spiele wo man nicht auf andere server ausweichen kann und die die server abstellen, weil die meinen es spielen zu wenige.

und mit der rechenleistung, ja klar geschätzte 2000% mehrleistung wenn RT gleich richtig nutzbar wäre, eben vollbild und 'über ales' im spiel.
gegenfarge dann:
wenn RT jetzt dann also so lächerlich wenig rechenleistung hat, also 2000% zu wenig, warum baut man das jetztschon ein wenn es so lächelich wenig leistung kann?!
Weil man irgendwann beginnen muss. Du kannst zwar ewig forschen aber irgendwann sind echte "Feldtests" notwendig. Feedback sammeln, Optimierungen entwickeln sowohl SW als auch HW usw. Sowas geht halt besser wenn man mit Entwicklern arbeitet.
wenn man dazu zb 2 jahre länger entwickeln müsste damit es dann genug leistung hat, ja dann soll man es eben ERST DANN in die neue grafikkarte einbauen, wo ist das problem, ausser das der hersteller da jetztschon was einbaut was man teuer verkaufen kann aber noch nichts bringt(der schätzung folgend)?!
Weil die Welt keine 2 Jahre stillsteht.
zumal:
wenn ich mir anschaue wie gut spiele jetztschon, ohne RT und DLSS auf vernünftigen auflösungen laufen, besteht ja auch garkein grosser druck dieses (noch)unzureichende RT so zwingend in den makrt zu drücken -man stelle sich mal vor nv und co hätten ihre resourcen die letzten jahr in bessere herkömliche rechenleistung gesteckt und jedes jahr wären dabei 10% mehrleistung bei rausgekommen, dann wären alle karten heute 20% besser! -natürlich ganz grob gesagt!-
Weißt du denn ob die Ressourcen alleine für die Consumer GPU genutzt wurden? Zumal dir auch keiner garantieren kann dass mehr Ressourcen/Geld auch zu mehr Leistung führen...
Von den Marktführern fordert man üblicherweise Innovationen und Fortschritt zu bringen und nun passt es wieder nicht?
aber die hersteller drücken ja lieber 4k 8k RT und wasnoch alles in den markt umd die preise anzuheben und der kunde steht dann da mit halbgarer technik, statt das vorhandene erstmal auf einen richtig hohen level zu heben (zb das 4k anständig läuft) und DANN eine auch genügend ausgebaute (RT-) technik auf den markt zu bringen die man dann auch voll nutzen kann.
da wären alle kunden glücklicher bei, aber klar den herstellern ist lieber immer häpchenweise die leistung zu verbessern damit man viele stufen besserer grafikkarten verkaufen kann.......
Was heißt denn vernünftig laufen? Ich könnte diverse Games mit 4k Ultra 60fps spielen.
Denkst du wirklich Nvidia oder AMD verlangsamen aus Spaß ihre Leistungsentwicklung? Denen wäre es doch nur Recht jedes Jahr dicke Sprünge zu machen, dann wären wir alle gezwungen ständig zu wechseln. Nur klappt das einfach nicht mehr. Also müssen andere Verkaufsargumente her.
 
och leute bitte,
es ist nicht unmöglich das nv irgendwann keine lust mehr hat, weil nichtmehr aktuell, die server für dei DLSS-berechnungen abstellt, ...
Bei den vielfältigen Gelegenheiten, bei denen die Arbeitsweise von DLSS schon angerissen wurde, wundert es mich, dass immer noch eine solche Mär ausgegraben wird. DLSS, schon seit v1, läuft rein lokal auf der GPU.

gegenfarge dann:
wenn RT jetzt dann also so lächerlich wenig rechenleistung hat, also 2000% zu wenig, warum baut man das jetztschon ein wenn es so lächelich wenig leistung kann?!
Eine unsinnige Gegenfrage. Es gibt kein Alles oder NIchts in der Industrie und im Markt, Niemand käme auf die Idee etwas erst dann einzuführen, wenn es absolut perfekt und 100%ig ausgereift ist. Das ist schlicht unwirtschaftlich und man würde den kompetetiven Vorteil aus der Hand geben, denn andere Marktteilnehmer werden selbstredend nicht so agieren.
Raytracing schafft selbst in der jetzigen Form schon signifikante Zugewinne, teilweise gar beträchtliche, und dementsprechend wird die Technik auch jetzt schon genutzt.

Deine Frag zielt in etwa darauf ab, dass Henry Ford doch besser die Automobilmassenfertigung abgesagt hätte ... :-D
 
Hattest du nicht eben gesagt du glaubst nicht, dass man die Nvidia Server aktiv zum Nutzen von DLSS braucht?
Und vergleichst es jetzt mit einem Online Game, das man nicht mehr spielen kann, wenn die Server abgeschaltet werden?

Nochmal, es laufen keine Server für DLSS Berechnungen, die laufen alle komplett offline auf deinem eigenen PC und werden das auch noch tun, wenn Nvidia DLSS nicht mehr weiter verbessern würde.
Sämtliche Spiele die es bis dato bekommen haben kannst du weiterhin und so lange du willst mit DLSS nutzen.
Und auch sämtliche Spiele, die danach noch erscheinen, kannst du mit DLSS nutzen, der Entwickler muss ja nur die Checkbox in der Engine anklicken, bzw. in Zukunft wohl nicht mal mehr das, er muss dann einfach nur noch TAA für das Spiel anbieten.
du hast nicht verstanden was ich geschrieben habe.
zum vor-berechnen, also nicht 'immer online', werden rechenzentren genutzt.
das heisst nicht das ein treiber immer kontakt zum server haben muss, was ich ja auch nie behauptet habe.
wenn keine server mehr laufen für die vorberechnungen, wird es keine neuen spiele mehr geben für die die algorythmen ja neu berechnet werden müssen.
folglich kann man dann auch DLSSS nicht weiter nutzen, jedenfalls nicht den teil der mit diesen algorythmen läuft.
und alte spiele kann man natürlich weiter spielen, nur nicht weiter verbessern, wie es heute wohl teils gemacht wird.
mit checkbox in der engine ist es übrigens nicht getan und, TAA ist nochmal was anderes.

Eine unsinnige Gegenfrage. Es gibt kein Alles oder NIchts in der Industrie und im Markt, Niemand käme auf die Idee etwas erst dann einzuführen, wenn es absolut perfekt und 100%ig ausgereift ist. Das ist schlicht unwirtschaftlich und man würde den kompetetiven Vorteil aus der Hand geben, denn andere Marktteilnehmer werden selbstredend nicht so agieren.
wenn es zb um sicherheit geht, wird man gut daran tun, genau so vorzugehen.
eben erst auf den markt, wenn es denn auch funktioniert!
sonst räumt man dir die bude leer, oder sagt du dan nur:
'naja kann ja mal passieren is eben nochnicht zu ende entwickelt gewesen, aber das tastenfeld zum eintippen hat ja schon funktioniert, ich kam ja auch rein'............
--dies ist nur ein beispiel um zu zeigen was ich meine--
 
Zuletzt bearbeitet:
du hast nicht verstanden was ich geschrieben habe.
zum vor-berechnen, also nicht 'immer online', werden rechenzentren genutzt.
das heisst nicht das ein treiber immer kontakt zum server haben muss, was ich ja auch nie behauptet habe.
wenn keine server mehr laufen für die vorberechnungen, wird es keine neuen spiele mehr geben für die die algorythmen ja neu berechnet werden müssen.
Und du hast, auch nach mehrmaligem Erklären, immer noch nicht verstanden, was DLSS 2.X macht.

Es müssen keine Vorberechnungen für neue Spiele laufen, der Algorithmus ist für jedes Spiel, alte, aktuelle und zukünftige, absolut der gleiche.

Das Einzige, woran Nvidias Rechenzentren arbeiten, ist diesen allgemeinen Algorithmus weiter zu verbessern, wodurch wir aktuell eben von DLSS 2.0 auf DLSS 2.2 gekommen sind, der auch sofort in allen schon vorhandenen Spielen, die DLSS nutzen, nachgeliefert werden könnte.

Das einzige, was passiert, wenn Nvidia DLSS ab heute nicht mehr weiter entwickeln würde, wäre, dass wir bei der Qualität von DLSS 2.2 bleiben. Wenn ich 5 Jahre später dann ein Spiel in der UE5 entwickeln würde, könnte ich trotzdem DLSS aktvieren und hätte für mein Spiel die Unterstützung von DLSS 2.2

Davon abgesehen wird DLSS ja auch nicht verschwinden, solange es keinen Ersatz dafür gibt. Selbst bei deiner unrealistischen Vorstellung, dass es durch einfach stärkere Hardware abgelöst werden würde, schadet ja den DLSS Nutzern nicht, da sie sich da dann diese HW kaufen können.
Realistischer ist, dass es einfach durch eine andere Technik abgelöst wird, die dann eben von der neuen Hardware unterstützt wird.
Klar, man müsste sich dann gezwungenermaßen neue Hardware kaufen, um das in neuen Spielen zu nutzen, aber dazu fordert dein Vorschlag, DLSS durch starke Hardware obsolet zu machen, ja sowieso auf.

Und wenn es von einer neuen Technik abgelöst wird, die nur auf neuer Hardwar funktioniert, ist das auch nichts anderes als der Umstand, dass jemand mit einer nur DX11-fähigen GPU keine DX12 Spiele mehr spielen kann.

mit checkbox in der engine ist es übrigens nicht getan und, TAA ist nochmal was anderes.
In der Engine ist es z.B. bei der Unreal Engine 4 und 5 nativ mit drin, wenn du dein Spiel auf diesen Engines entwickelst, ist es nicht viel mehr als das Setzen eines Hakens, das gleiche gilt auch für weitere Engines.

Und mit DLSS 3.0 ist wohl geplant, dass es grundsätzlich mit jedem Spiel funktioniert, welches bereits TAA bietet, dazu müssen die Entwickler nur kleinere Anpassungen vornehmen.
wenn es zb um sicherheit geht, wird man gut daran tun, genau so vorzugehen.
eben erst auf den markt, wenn es denn auch funktioniert!
sonst räumt man dir die bude leer, oder sagt du dan nur:
'naja kann ja mal passieren is eben nochnicht zu ende entwickelt gewesen, aber das tastenfeld zum eintippen hat ja schon funktioniert, ich kam ja auch rein'............
--dies ist nur ein beispiel um zu zeigen was ich meine--
Dein Beispiel bildet leider nur einen winzigen Part in der Entwicklung ab, der erst mal bei simplen Holzriegeln über Vorhängeschlösser bishin zu mechanischem Schlössern direkt in der Tür angefangen hat und aktuell in Richtung Smart Home mit elektrischen Schlössern und Keypad geht.

Dein Vorschlag für Menschen im Mittelalter wäre also gewesen keine einfachen Schlösser in die Türen einzubauen, weil die Schließzyliner, die in 700 Jahren kommen, ja viel ausgereifter und sicherer sind?
Nein, du hättest ihnen dieses einfache Schloss empfohlen.
Ginge es theoretisch noch sicherer? Ja
Ginge es mit aktuellen Mitteln sicherer? Nein
Gibt es aktuell sicherere Alternativen? Nein

Das gleiche mit RT
Ginge es theoretisch noch besser? Ja
Ginge es mit aktuellen Mitteln besser? Nein
Gibt es aktuell bessere Alternativen? Nein
Und genau darum geht es in der Entwicklung, stetige Verbesserung, die auch beim Kunden ankommen muss. Er will keine Jahre von Stillstand.
 
Zuletzt bearbeitet:
DLSS nutzt ein einfaches und ein hochaufgelöstes Bild oder ?
Wenn ich mir überlege, wie lange ein KI braucht um einen Hund von einer Karotte zu untescheiden, kann ich mir nicht vorstellen, dass DLSS "fertig" ist.
Warum wird dann nicht einfach die Checkbox nachgereicht ?

In der Unrealengine ist das auch nur über Checkbox weil dort alles interne angelernt werden konnte.

Ich habe kein Anspruch darauf alles genau verstanden zu haben, aber wenn Du dich irrst ist das jetzt echt peinlich, nach so einer Ansage.
 
DLSS nutzt ein einfaches und ein Hochaufgelöstes Bild oder ?
Nein, nutzt es nicht. DLSS 1.0 wurde pro Spiel mit hochauflösenden Bildern dieses Spiels trainiert, das hat aber mit DLSS 2.X absolut nichts mehr zu tun

Da kann @ZeroZerp sicherlich auch besser eine verständliche kurze Definition liefern.
Hier einfach mal die Erklärung von Wikipedia, die ja auch jeder schnell googlen kann, bevor man Quatsch schreibt. Viel genauer könnte ich es auf die Schnelle auch nicht erklären.
The inputs used by the trained neural network are the low resolution aliased images rendered by the game engine, and the low resolution, motion vectors from the same images, also generated by the game engine. The motion vectors tell the network which direction objects in the scene are moving from frame to frame, in order to estimate what the next frame will look like.
Kurzum, es werden sich mehrere umliegende Frames in niedriger Auflösung angeschaut und aus deren Informationen ein hochauflösendes Bild erstellt.
 
Zuletzt bearbeitet:
soweit ich weiß, muss jeder neue Input gelernt werden, um alle Varianten eines Opjekts zu erkennen und vor allem, um es stilecht zu ersetzten.
Das Problem ist da, dass sich die Grafik entwickelt und es sehr unterschiedliche Stile gibt, so, dass eine Karotte nicht mehr als diese erkannt werden kann und daher neu gelernt werden muss.


Ok, jetzt ist wohl doch die Zeit gekommen, mich mal ordentlich mit DLSS 1 bis n auseinanderzusetzten.
 
soweit ich weiß, muss jeder neue Input gelernt werden, um alle Varianten eines Opjekts zu erkennen und vor allem, um es stilecht zu ersetzten.

DLSS 2.X arbeitet nicht mit Objekten, da werkelt keine KI daran, zu interpretieren, was für Objekte gerade auf dem Bildschirm zu sehen ist und diese entsprechend hochzuskalieren.
DLSS 2.X ist auch nicht in der Lage, irgendwelche Bildinformationen zu erzeugen, die eigentlich nicht da sind(bzw in einem höher aufgelösten Bild nicht da wären).
Das schlimmste, was die bei DLSS 2.X passieren kann, ist dass mal ein Pixel über die Länge eines Frames eine Position zu weit links oder rechts platziert wird, weil die Berechnung, wo dieser Pixel im nächsten Frame sein wird, knapp daneben lag. Das ist dann die "Bildunruhe" die man je nach Qualität der Implentierung in einigen Spielen wahrnehmen kann.

Wie es funktioniert kannst du doch in dem kurzen Wikipedia Absatz nachlesen.
 
Zuletzt bearbeitet:
du hast nicht verstanden was ich geschrieben habe.
zum vor-berechnen, also nicht 'immer online', werden rechenzentren genutzt.
das heisst nicht das ein treiber immer kontakt zum server haben muss, was ich ja auch nie behauptet habe.
wenn keine server mehr laufen für die vorberechnungen, wird es keine neuen spiele mehr geben für die die algorythmen ja neu berechnet werden müssen.
folglich kann man dann auch DLSSS nicht weiter nutzen, jedenfalls nicht den teil der mit diesen algorythmen läuft.
und alte spiele kann man natürlich weiter spielen, nur nicht weiter verbessern, wie es heute wohl teils gemacht wird.
Wie ist eine Diskussion über die Vor- und Nachteile von DLSS überhaupt möglich, wenn man sich weigert die Basisfunktionalität zu verstehen, obwohl es jetzt schon echt zehnmal gesagt wurde?

- DLSS2.x funktioniert offline - das bedeutet ohne Internet - theoretisch auch mit raubkopierten Spielen oder mit unveröffentlichter Software direkt im Editor; da können keine "Server abgestellt werden"

- die Updates für DLSS (Verbesserungen des Algorithmus, sowie neue Versionen) kommen per Treiber; man kann neue Treiber laden oder alte Treiber behalten; die Spiele benötigen, je nach Aktualität, eine bestimmte Treiberversion (oder neuer)

- der Algorithmus wird mit allem Möglichen trainiert, nicht nur mit speziellem Spielecontent (ja, auch bei AAA-Spielen für bestmögliche Optik, aber nicht nur) und funktioniert auch nicht nur mit ebendiesen Spielen, sondern grundsätzlich mit Allem, wo man DLSS aktiviert; das bedeutet DLSS wird passiv immer besser für alles, auch was Nvidia nicht aktiv vorantreibt

- ob Nvidia die Entwicklung von DLSS einstellt oder nicht, ist völlig egal; der aktuelle Stand würde immer weiter funktionieren und Spieleentwickler könnten auch DLSS in seiner aktuellen Form weiter implementieren, da das Plugin frei verfügbar ist und auch die Treiber jeder Zeit heruntergeladen werden können; man wird also immer DLSS einbauen können

- es ist außerdem sehr unwahrscheinlich, dass Nvidia den Treibersupport von jetzt auf gleich einfach entfernen würde, wenn man bedenkt, dass bis vor kurzem sogar noch "3D-Vision" mit jedem Treiber mitgezogen wurde, obwohl es faktisch längst tot war

__________

So... haben wir es jetzt gerafft?

Ich verstehe einfach nicht, wie man es immer noch nicht kapiert haben kann und weiterhin philosophiert, was denn sein könne, wenn X oder Y passiere... es ist so konstruiert.

Verstehe natürlich warum es versucht wird. AMDs FSR ist "open-source" und da muss man natürlich mit aller Kraft gegen DLSS wettern, denn das wird ja bald eh sterben. :ugly: :ugly: :ugly:

Das war übrigens der Themenbezug, falls hier wieder irgendwer um die Ecke kommt und behauptet, das wäre alles völlig OT. Das ist genau das Thema! Genau darum geht es. --> Um den Support der Upscaling-Technologien in der Zukunft.
 
wenn es zb um sicherheit geht, wird man gut daran tun, genau so vorzugehen.
eben erst auf den markt, wenn es denn auch funktioniert!
sonst räumt man dir die bude leer, oder sagt du dan nur:
'naja kann ja mal passieren is eben nochnicht zu ende entwickelt gewesen, aber das tastenfeld zum eintippen hat ja schon funktioniert, ich kam ja auch rein'............
--dies ist nur ein beispiel um zu zeigen was ich meine--
Ich dachte wir sind hier im PC Games Hardware-Forum und in diesem konkreten Thread hier geht es um Gaming-GPUs und deren anhängende Technik ... ich mag mich irren, aber ... eh, eher nicht, also weiterhin eine unsinnige Gegenfrage, da du den Kontext schlicht ignoriert hast und zudem noch ein unpassendes Beispiel lieferst, das den Sachverhalt nicht korrekt abbildet, denn in deinem übertragenen SInne funktioniert das Tastenfeld des elektronischen Schließmechanismus einwandfrei und die Tür wird sogar korrekt verriegelt. ;-)
 
Zuletzt bearbeitet:
- die Updates für DLSS (Verbesserungen des Algorithmus, sowie neue Versionen) kommen per Treiber; man kann neue Treiber laden oder alte Treiber behalten; die Spiele benötigen, je nach Aktualität, eine bestimmte Treiberversion (oder neuer)
Eine neue Treiberversion benötigt man übrigens nur, wenn sich an der DLSS Version im Spiel auch was getan hat.
In dem konstruierten Szenario, dass mit DLSS 2.2 Schluss ist, könnte man theoretisch auch ewig bei der aktuellen Treiberversion bleiben, da die Spiele dann sowieso nur maximal DLSS 2.2 implementieren könnten, was mit dem aktuellen Treiber ja bereits funktioniert.
Neuere Treiber würden an der Funktionalität dann nichts verändern.
 
Ich meinte "Neuronales Netz", da diese so funktionieren und das soll doch alles KI-gestüzt sein oder jetzt nicht mehr weil das dlss 2.0 ist? Der Algorithmus läuft doch immer noch primär auf einem Neuronalen Netz ?
Aber danke für die Erklärung, ich bin schon dabei alles zu lesen was ich finde.
Gute Nacht allerseits
 
Zurück