News Nvidia DLSS 10: Vom KI-Upscaling zum vollständig neuralen Echtzeit-Rendering

Und warum waren gerade die alten Spiele mit der schlechten Grafik die geilsten in unserer Erinnerung und warum können wir uns an den letzten Hochglanzshooter kaum noch erinnern?:ka:

Weil wir Menschen immer von unserer Kindheit und unserer Jugend geprägt werden. Wenn man dabei war und es erlebt hat, dann ist es etwas anderes. Kann man auch bei sich selbst sehen. Das Zeug aus den 70ern, also Atari 2600, ist für mich irgendwie Uraltkram, aber für jemanden, der das live erlebt und sich so ein Ding neu gekauft hat, ist das etwas anderes. Es ist ja den Leuten heue auch nur noch schwer zu vermitteln, dass man sich früher mit haufenweise gleichgesinnten in irgend eine Hallt getroffen hat, um das Wochenende durchzuzocken und dafür auch noch ordentlich Eintritt bezahlt hat. Gibt es eigentlich noch große LAN Partys?

Sollte die Rechenleistung da sein würde Nativ wieder der Goldstandard sein.

Nein

Um DLSS oder FSR 2 Quality zu schlagen braucht man Supersampling. Wenn man es richtig macht, dann zieht das die vierfache Leistung.

Die frage ist nur wie lange das dauert bis die Rechenleistung hoch genug ist und bis dahin braucht man halt Hilfsmittel wie Kantenglättung upscaling etc.

Die eine Frage ist, ob die Entwickler die Leistung nicht zwischenzeitlich für eine bessere Optik nutzen oder sie sonst zum Fenster rausschmeißen.

Die andere Frage ist, ob es nicht höher auflösende Monitore geben wird. FSR 2 Ultra Performance macht in 4K natives 1080p sowas von platt, obwohl nur in 720p gerendert wird. So sollte man irgendwann in Zukunft Cyberpunk 2077 in 8K, nativ, mit Pathtracing, berechnen können, dann wäre es wesentlich besser einfach einen 16K Monitor zu nehmen und dort das ganze mit DLSS oder FSR Ultra Performance laufen zu lassen.
 
Ich bin kein Fan von KI. Irgendwie sträubt sich mein Innerstes gegen die Vorstellung, dass künstliche Intelligenz besser wissen soll, was wir brauchen bzw. in dem Fall, was wir sehen wollen. Davon ab: in welchem Spiel steht man regelmäßig lange rum und analysiert grafische Details? Ich mache das nicht.
Das hat auch nichts mit NVidia zu tun, ich mag einen zu großen KI-Hype einfach nicht. KI macht mir in gewissem Maße Angst.
 
Ich hab das mal vor einiger Zeit getestet.
Nativ
Anhang anzeigen 1438523

1440p/DLSS Q/FG
Anhang anzeigen 1438524

2160p/DLSS P/FG
Anhang anzeigen 1438525

Nativ ist bei mir definitiv raus. DLSS und Fg machen selbst hier, mit dynamischen Licht und Schattenspiel, eine bessere Figur als nativ. Den FPS Zuwachs nehme ich auch noch gerne mit ;)
Nativ war gestern.
Mir taugt irgendwie da die Nativ besser, weis ned das verschwommene ist einfach ned so meins.
So schlimm ist es auf deinen bilder jetzt nicht aber mir fällt das beim spielen mehr auf da verzichte ich vorerst lieber auf paar fps solang da das bild so bleibt
 
lass mich raten und dafür brauch man ne spezielle Graka von nwieder ansonsten gehts nicht
ne danke

hoffe die EU schreitet da bald ein wie bei apple und den ladegeräten
 
Man muss ja dem NN nicht die ganze Spielgrafik oder sogar das Spiel selbst haluzinieren lassen. Es würde ja reichen, wenn einfach nur der Rendering Part ersetzt wird, so dass wir das gleiche Ergebnis bekommen, das man mit Bruteforce Rendering hätte, nur viel schneller. Der KI Renderer würde dann die gleichen oder ähnliche Inputs von der Spielengine bekommen, wie es aktuell bereits bei normalem Rendering der fall ist. Nur die finale Berechnung der Pixel würde dann das NN übernehmen. Was ja wie gesagt heute bereits zu 7/8 passiert.
Dafür sehe ich ggf. 2 Szenarien: Um sich Bruteforce-Rechenleistung für Highres-Grafik (4k, 8k usw.) zu sparen, steckt man mehr Hardware in entsprechende KI-Bestandteile der GPU oder lagert das Ganze in separate Rechenwerke aus oder bezieht die nötige Rechenleistung eben eben wie von mir oben skizziert gleich übers Netzwerk aus großen Renderfarmen, die mit spezialisierter Hardware bestückt sind, um das Bildmaterial entweder direkt von niedrigerer Auflösung per KI-Algo hoch zu rechnen und/oder in der Renderpipeline entstehende Lücken FPS-freundlich aufzufüllen.

Davon unabhängig müssten Endverbraucher wohl wieder jeden Schweinezyklus in der Softwareentwicklung auch per Hardware-Neuanschaffung mitmachen, um neuere Spieletitel mit dieser Technik nutzen zu können: Ein Szenario, das früher (Anfang-Mitte 90er 20. Jh.) fast Standard war und der Hardwareindustrie schon damals goldene Zeiten beschert hatte, aber auch Gesamtwirtschaftlich auf anderem Niveau ablief. NV würde das sicher am besten gefallen, wenn für jede DLSS&Co Instanz gleich wieder neue Hardware fällig würde.

Sieht man sich aber an, dass aktuelle Spieleentwicklungen v.a. durch die Masse der verbreiteten Konsolen und deren Leistung bestimmt werden und die Zyklen hierbei eher mindestens 5 Jahre umfassen, so kann man als PC-Nutzer dieser Entwicklung wohl recht gelassen entgegen sehen, weil bis auf ein paar "Ausreißer" a la Cyberpunkt2077 (quasi dem neuen Crysis für RT/PT&CO) sich der Mainstream an niedrigeren Anforderungen orientiert (vgl. z.B. Starfield, dass mir ziemlich auf die Fähigkeiten einer XBSX zurecht gestrickt scheint und deshalb auch mit extrem leistungsfähiger Hardware kaum mehr herausholen oder besser darstellen kann).
 
Neurales rendering?
Wie soll ich mir das Vorstellen das die ai dann das spiel quasi erfindet
oder anders gesagt einfach den raster Prozess ersetzt und mit pathtracing erstellt. Demzufolge muss irgendwo die Shaderleistung aber da sein. das kann man nicht einfach stagnieren bei der alu menge und Takt damit die ai kerne das rendern übernehmen.
In den nächsten 2 nodes sind quasi noch +150% drin im High end.
Es ist derzeit nur ne frage wie teuer es sein wird um in low end endlich die 30tf (50tf nvidia Angabe) grenze zu erreichen
bsp nvidia wird den Takt priorisieren und das ada design beibehalten
Dann wären im max 18 gpc drin (216sn real umgesetzt 196)
Und im low end wären dann 24sm und 36sm identisch zu aktuell nur welche sku das werden ist offen.
24sm 50er sku maxed 13tf bei 3,2ghz 9gb
36sm 60er sku 20tf mit 12gb
Ändert nvidia die arch zu einen hopper ansatz wird das schwieriger maxed sind mit n3 nur 2,8ghz drin dafür steigt die dichte der chips aber sie werden kleiner.
Dann ist aber ein 18sm und 36sm chip drin wobei 18sm dann die 60er und 70er sku werden.
Der Vorteil dieser Strategie ist das die chips deutlich billiger werden für die sku. 30$ und 60$
Der Nachteil ist aber das damit die Leistung stagniert ne rtx5060 mit 9gb vram und knapp 12tf vs aktuell rtx4060 11tf 8gb
Und ne rtx5070 12gb mit 24tf vs aktuell rtx4070 22tf 12gb
Klar könnte nvidia gegen aller Vernunft das Si beibehalten wäre aber dumm da der n3 node zu teuer ist und das Si sich nicht shrinken lässt
Erklärung ist das 45% eines chips alu sind mit rt core tensor core tmu rop fpu und fp64
Der rest ist cache und SI 55%
In high end wechselt das Verhältnis auf 55% alu und 45% rest
Demzufolge shrinken high end etwa 35% chipfläche und low end 30%

ab n2x halbiert sich die chipfläche da endlich auch si und sram kleiner wird. (gaa)
Zugleich steigt der Takt um 25%

pathtracing wird im High end denkbar rechne mt etwa 132tf (176tf) ab rtx60 gen
aktuell sind es 64tf nvidia Angabe 91tf (ad102 cut)

also nein ai wird nicht die Leistung erhöhen oder ein besseres Bild erzeugen es kann helfen zu denoisen was aber schon algorithm sicherer können nur nicht in Echtzeit und genau das wird ai bewirken denoising in Echtzeit aber mit Bildfehlern.
Daher nehme ich an das man damit vertuschen will das rtx50 gen nur +10 bis +15% bringen wird und die sku Planung völlig daneben ist, das einzige was passt wäre wenn die preise entsprechend niedriger wären aber wir kennen nvidia .

nvidia hat zwei Wege für die Zukunft, neue Architektur und volles Risiko da man nicht hoch genug Takten kann oder sicherer Weg mehr alu und leicht teurere chips und ab n2x muss man in mcm wechseln.

Letztere ist unklar da nvidia sicher den Weg gehen will mit 3d chips (intel Ansatz die chips Aufeinander zubauen)
TSMC wird das aber erst mit n1,8 einführen ab 2030
rtx50 könnte demzufolge schon die neue arch werden und in n2x quasi verdoppelte alu bringen je sku
Was nvidia dazu bringen wird den gx107 (36sm 2gpc 3,88ghz)als 70er klasse zu bringen
Das wird passieren wenn amd nicht Konkurrieren wird. Darum diese Geschwätz von Ai und dlss wäre besser als nativ.
 
Zuletzt bearbeitet:
Ich bin kein Fan von KI. Irgendwie sträubt sich mein Innerstes gegen die Vorstellung, dass künstliche Intelligenz besser wissen soll, was wir brauchen bzw. in dem Fall, was wir sehen wollen. Davon ab: in welchem Spiel steht man regelmäßig lange rum und analysiert grafische Details? Ich mache das nicht.
Das hat auch nichts mit NVidia zu tun, ich mag einen zu großen KI-Hype einfach nicht. KI macht mir in gewissem Maße Angst.
Ob wir nun KI-Fans sind oder nicht. Ob jemand das will oder nicht. Das spielt keine Rolle mehr.

Nativ berechnete Bilder gehören bald der Vergangenheit an. Die auf KI berechneten Bilder bieten extrem viele Vorteile (Energie, Bildqualität, weniger Hardwareaufwand). Bald wird ein KI berechnetes Bild von einem nativen nicht mehr zu unterscheiden sein.

Dank KI (o.a. Upscaling) können Grafikwelten entstehen, die mit nativer Grafik nie erreicht würden.

Das war´s. Aus die Maus.
 
Erst mal das Holodeck brauch nur die Tech der Next Generation, was alles in allem nach eine wirklich starken Ai
sein müsste, mit allem Wissen was greifbar ist, und einen effizienten Materieumwandler. Der Rest ist die Fantasie der Nutzer und nur da sind die Grenzen. Alleine die Vorstellung sowas würde funktionieren...
Ein erster schritt dahin wäre wenn man eine Ai hätte wo man dem Programm erklärt was für ein Spiel man Spielen möchte und dies dann generiert wird. Sowas wünsch ich mir in einem greifbaren Zeitraum.
Z.b. Sagt man dem Programm ich würde gerne eine Welt bereisen aus dem Buch x, als Genre y, mit Grafikstiel z....
 
Die DLSS Technik ist ja schön und gut, stellt aber immer noch einen Kompromiss dar.
Upscaling und Frame Generation nehme ich subjektiv schlechter war, als ehrlich gerechnete Pixel ;)
Der Gesamteindruck ist für mich verwaschener bzw. unschärfer - geht das nur mir so?

Ich finde AMDs sehr gute Schärfungstechnologie CAS macht die Texturen i.d.R. deutlich knackiger und das auch mit FSR2Q kombiniert als in nativ ohne die zusätzlichen Filter. Das Anti-Aliasing mit FSR2Q funktioniert dabei öfter so gut, dass das Bild auch an den Kanten besser wird und auch Details besser dargestellt werden können als in nativ, die da sonst vom Pixelraster verschluckt werden, so dass das Gesamtbild dann mit FSR2Q mindestens genauso viel oder mehr hergibt wie nativ. Wenn der Algorithmus dazu noch schafft das oft grässliche Ghosting vom TAA wenigstens etwas zu unterdrücken, wird's auch da besser.
Das Ergebnis lässt sich bei genügend vorhandener GPU-Power mittels VSR nochmals aufwerten.
Ghosting ist dabei aber so ziemlich der Endgegner was die visuelle Qualität der modernen temporalen Techniken angeht, was mit Ray-/PathTracing noch verschlimmert wird.

Eine Einschränkung gibt es zudem sowohl bei DLSS2+ wie auch bei FSR2+ und XeSS: Diverse volumetrische Berechnungen, die auf der internen Auflösung basieren, können nicht kompensiert werden, wie bsw. das volumetrische Licht in Cyberpunk2077, das zwangsläufig blockiger wird, je geringer die tatsächlich gerenderte interne Auflösung gewählt ist.

Frame Generation ist und bleibt letztlich dasselbe wie die Frame Interpolation, die es seit mittlerweile Jahrzehnten bei TVs gibt, mit dem Unterschied, dass direkt auf der GPU ausgeführt, man viel besser die damit steigenden Latenzen bekämpfen kann. Aber wie es auf den TVs bei ihrer Tech immer wieder Artefakte gibt, so gibt es die auch bei FG auf der GPU.

Tz wenn dann auch das Sozial System aus Star Trek. Geldmittel abschaffen.

Was erst mit der Erfindung der Replikatortechnologie möglich wäre, und der damit überall verfügbar zu machenden Ressourcen, die man aus Energie wandeln kann.

Nvidia träumt bereits von einer (zugegeben noch fernen) Zukunft eines potenziellen DLSS 10, dass dann praktisch den Großteil des Renderings (Engine) via AI liefert. Mit keiner Silbe erwähnt: Was ist mit der Konkurrenz in solch einem Zukunftsszenario? Haben wir dann etwa das Konsolenzeitalter am PC, wo gewisse Titel nur noch mit Nvidia laufen und dasselbe dann entsprechend mit AMD und Intel?

Das oberste Ziel von proprietärem Mist ist, dass das nur auf den eigenen Produkten läuft. Aus unternehmerischer Sicht ist es zudem wünschenswert, dass die neuesten Versionen nur auf der neuesten Produktgeneration läuft, damit die Leute aus rein Marketinggründen wieder extra viel Geld für die neuen Produkte ausgeben. Am besten kombiniert man das Ganze dann noch mit einem Abo- oder Mikrotransaktionssystem, womit sich spezifische Funktionen freikaufen liessen.

U.a. Konkurrenz und Standards zu etablieren, hilft letztlich zu verhindern, dass solche Exzesse vollends ausarten. Siehe bsw. das Schicksal von G-Sync.

Joar.. AMD ist da aber auch nicht besser...
Hypr-rx und Antilag+ nur für RDNA3+
DX11 performance verbesserungen nur für RDNA2+
SAM nur für RDNA2+

läuft alles mit gemoddeten treibern auch auf älteren Karten wie zb RDNA1,Vega und Polaris[...]

SAM funktioniert auf meiner RDNA1-Karte.

Ob die DX11-Verbesserungen nur für RDNA2+ gekommen seien weiss ich nicht abschliessend. Zumindest Ancient Gameplays konstatiert aber auch eine Verbesserung für die RDNA1-GPU auf der 5700XT bei besagtem Treiberupgrade. Und ich selbst stellte seinerzeit bei einem kurzen Vergleich in Superposition immerhin eine Verbesserung um +3% fest.
Wäre das anders, würde sich AMD vor allem ins eigene Fleisch schneiden und stände auch völlig quer zu ihrem Fine-Wine-Gelaber in der Gegend.

Davon ab, ja ist unschön, dass AMD augenscheinlich einige Dinge nicht von Anfang an auch für Uralt-Hardware bringt und begrüsse eine allfällige, schleichende Nvidianisierung bei Software- und Hardware ganz und gar nicht. Nur werden da doch ziemlich ungleich schwerwiegende Themen als gleichwertig verzerrt und einige anfänglich nur für die neueste Gen verfügbaren Dinge machte AMD mit der Zeit auch auf einigen älteren Generationen verfügbar.
 
Nativ ist bei mir definitiv raus. DLSS und Fg machen selbst hier, mit dynamischen Licht und Schattenspiel, eine bessere Figur als nativ. Den FPS Zuwachs nehme ich auch noch gerne mit ;)
Nativ war gestern.

Das sind Standbilder wie mit (u.a.) einem Tiefenschärfe-Effekt.
Schalte mal auf Nvidia Experience um oder Reshade an, dann bekommst du den gleichen Effekt.
Das Bild mag zwar "besser" aussehen, aber "echt", so wie vielleicht in der Szene vom Entwickler angedacht, ist es nicht mehr.
Die Frage ist letztlich dann nur noch, wie man das Ganze sehen will. ;)
 
Die DLSS Technik ist ja schön und gut, stellt aber immer noch einen Kompromiss dar.
Upscaling und Frame Generation nehme ich subjektiv schlechter war, als ehrlich gerechnete Pixel ;)
Der Gesamteindruck ist für mich verwaschener bzw. unschärfer - geht das nur mir so?
Nö, sehe ich auch so. Man möchte wohl gut aussehende Spiele aufm Smartphone klatschen, weil sich diese Zielgruppe leichter abzocken lässt.

Viele kommen hier wieder mit Standbilder-Vergleiche. Also mein PC liefert mehr als 90 in der Sekunde, da fallen diese Fehler, die DLSS/FSR und CO mit sich bringen sofort auf.

Aber aufm 6 Zoll Smartphonebildschirm sieht man das nicht mehr. PC-Gaming wird wie wir es kennen sterben. Ich bin froh von Anfang an das PC-Gaming miterlebt zu haben und leider auch den Untergang.

Microsoft sieht ebenso die Zukunft des Gamings in der Cloud für unterwegs aufm Smartphone= Todesstoß.
 
Nö, sehe ich auch so. Man möchte wohl gut aussehende Spiele aufm Smartphone klatschen, weil sich diese Zielgruppe leichter abzocken lässt.

Viele kommen hier wieder mit Standbilder-Vergleiche. Also mein PC liefert mehr als 90 in der Sekunde, da fallen diese Fehler, die DLSS/FSR und CO mit sich bringen sofort auf.

Aber aufm 6 Zoll Smartphonebildschirm sieht man das nicht mehr. PC-Gaming wird wie wir es kennen sterben. Ich bin froh von Anfang an das PC-Gaming miterlebt zu haben und leider auch den Untergang.

Microsoft sieht ebenso die Zukunft des Gamings in der Cloud für unterwegs aufm Smartphone= Todesstoß.
Wenn ich bei jeder Totsagung des PCs nen Euro bekommen hätte, nun ja, dann hätte ich ein paar tausend Euro mehr. ??‍♂️
 
Die DLSS Technik ist ja schön und gut, stellt aber immer noch einen Kompromiss dar.
Upscaling und Frame Generation nehme ich subjektiv schlechter war, als ehrlich gerechnete Pixel ;)
Der Gesamteindruck ist für mich verwaschener bzw. unschärfer - geht das nur mir so?
Ne, geht mir auch so in FSR. DLSS scheint etwas besser zu sein aber trotzdem nicht die "Wahrheit".
Aber ich spiele noch in HD.
Interessanterweise sollen da beide Technologien besonders schlecht wirken und der Unterschied zwischen ihnen stärker ausfallen, als bei hohen Auflösungen jenseits 2k und bei 4k, wo sie spürbar mehr Wirkung zeigen und zueinandere aber weniger qualittative Differenzen aufweisen.

Hardware Unboxed hat dazu gerade vor 2 Tagen in einem Video einige sehr interessante Punkte wiedergegebent, die hier zu einigen Kommentaren im Forum an verschiedensten Artikeln sehr gut passen.

Ich gebe das jetzt nicht wieder. Könnt ihr Euch ja selber anschauen und mit Euren eigenen Erfahrungen und Vorlieben in HD, 2K, 4K, FSR, DLSS, Raytracing ... Qualität vs Performance, wie oft derzeit schon relevant, etc. vergleichen.
Es beginnt mit Consolenstrategien, Xbox leaks, Nvidia/AMD als Custom-Lieferant, Upscaling-Pflaster vs echtem Aufwand in Qualität...

-> Hardware Unboxed Podcast: Next-Gen Gaming: Too Much Upscaling, Not Enough Optimization?

Computergrafik ist eine Geschichte von technischen Tricksereien die ein graphisches Endziel versuchen einfacher zu erreichen - nicht realistisch!
Texturen, Polygone und Tesselation, Bumb mapping, Shader, LOD, Occlusion culling, Ray reconstruction usw.
DLSS und KI-gestützte Bildnachbearbeitung und Bilddetail-Raten ist siicher interessant, um mit weniger Aufwand mehr zu erreichen.
ABER es ist ein Pflaster. Ein Pflaster, dass eigentlich schwacher Hardware noch mehr Entlocken soll.

Zu Überlegung:

Ich lasse eine niedrigaufgelöste Szene mit weniger Rechenaufwand durch die Hardware berechnen und haue jetzt upscaling drauf, um bessere Qualität zu eraten und durch Nachbearbeitung rauszurechen. Manche mögen jetzt argumentieren, dass das schon so gut funktioniert, dass es sogar besser aussieht, als das native Ursprungsoriginal.

Denen werfe ich nun entgegen: was wenn ich aber diese Technik nun nicht auf niedrigere Auflösung anwende, sondern auf Nativ? Oder gar auf höhere Auflösung?
Ich könnte doch jetzt schon auch auf Nativ einfach per Bildnachbearbeitung noch zuätzlich drauf hauen und damit Kanten nachzeichnen, Kontraste hervorheben und Inhalte nachschärfen. Typisches Postprozessing.

Wenn's einem nur um bessere Qualität ginge.
 
Zuletzt bearbeitet:
Als würde man Träumen und sich die Spielwelt und jegliche Interaktion vorstellen - nur eben nicht durch den eigenen Kopf, sondern den KI Renderer. Was heißt das für die 100GB Texturen, wenn das Model einfach weiß wie Böden und Wände auszusehen haben oder für spezielle Techniken wie Ray Tracing, Nanite oder Lumen wenn die KI sich einen Sommertag vorstellt bei dem die Vegetation dicht bewachsen ist. So schnell wie das bild im Kopf entsteht wird es dann 100x in der Sekunde gerendert. Spannend, echt interessante Denkweise.

Das hat nicht nur Auswirkungen auf das Spielerlebnis, sondern auch auf die Werkzeuge um Spiele zu erstellen.
 
Frage ist, welche Vorteile haben Nutzer davon?
Es ist viel billiger, eine KI eine scharfe Grafik fantasieren zu lassen, als etwas auszurechnen, das ein Entwickler designed hat.
Es wird nur noch Drehbuchautoren geben - die KI wird etwas generieren, das so aussieht, wie beschrieben - jedenfalls in der idealen Welt von Nvidia. Denn dann braucht man ausschließlich Tensoreinheiten und Nvidia ist da führend.
Somit wären weder Grafikdesigner noch Spieleprogrammierer nötig. Wenn man das weiterdenkt ist es einfach nur ein Sparen.

Ab DLSS 3.5 scheint Nvidia schon angefangen zu haben, die KI das Spiel verändern zu lassen:
dlss35_phantasizing.png


Alles, was nicht wie eine gerade, geometrische Form aussieht, wird zwangsbegradigt. So wie das Herz in der Mitte. Zur Not auch Staub oder wie links im Originalbild zu sehen, eine krumme Nut zwischen den Bodenplatten. Wie von Geisterhand ist sie rechts kerzengerade. Damit hat ein Entwickler keine Kontrolle mehr darüber, was beim Kunden ankommt - die GPU verändert das Bild so, wie sie meint, es gefalle dem Spieler am besten.
 
Die Frage ist: Wollen wir überhaupt Fotorealismus? Es gibt da nämlich so eine Akzeptanzkurve von künstlichen Figuren in Abhängigkeit zum Realismus bei den Menschen und die ist bei Fotorealismus garnichtmal am höchsten.
Ich denke, das hat auch was mit dem Verlust jedes Raumen für Fantasie und Kreativität in unserem Kopf zu tun.

Gedanke: Warum hocken wir in der Bude und spielen Computerspiele, wenn doch vor der Tür das schon jetzt fotorealistische Lebensspiel auf jeden von uns wartet? Und warum waren gerade die alten Spiele mit der schlechten Grafik die geilsten in unserer Erinnerung und warum können wir uns an den letzten Hochglanzshooter kaum noch erinnern?:ka:

Kommt ganz drauf an, was ich spielen möchte. Manchmal ist Realismus gewünscht, manchmal Abstraktion und Kunst-Stil.
Leute haben Jahrhunderte im fortorealistischen Alltag gelebt und trotzdem Fantasie und Kreativität gehabt.

Warum ich am Rechner sitze und in virtuellen Welten drifte? Weil ich diese "Erfahungen" nicht im echten Leben machen kann.
Wenn ich meinem Nachbarn die Conan-Axt in den Rücken hauhe, komme ich in den Knast, in die Rolle eines Dinosaurierers oder Vogels kann ich nur schwer schlüpfen, mit einem Düsenjet mit 1000 Sachen 1m über dem Wasser langsausen und in einen dog-fight wechseln... kann sehr schmerzhaft werden.
Und in den 2. Weltkrieg zurück oder Nazis entkommen müssen will ich nicht am eigenen Leib erleben.

Ich kann mich noch sehr lebhaft an ängstliche Nächte im Gebüsch als junger Pachysaurus erinnern während ein T-Rex in der Nähe durch Unterholz stapfte und rumschnüffelte.
Oder an die Anspannung der ersten Nächte in Dying Light auf einem Dach muchs-mäuschen-still auf das Morgrauen warten, während unweit die Hunter-Zombies kreischen.
Die Parkoureinlagen in schwindelerregnder Höhe in Mirror's Edge, Florenz zur Zeit der Renaissance, der erste Ritt auf einem Mammut in FarCry Primal oder der Schrecken als ein Säbelzahntiger mich aus dem Gebüsch anfiel, den Humor und Lachanfall in Monkey Island wegen des blödsinnig gleichbleibenden Anzugsmusters des Verkäufers ...
 
Zuletzt bearbeitet:
Funktioniert dlss nur bei ausgewählten spielen brauchbar?

Ich würde es gerne nutzen, aber bei 1440p (habe keinen 4k Monitor und auch nicht vor auf einen zu wechseln) ist nativ immer deutlich besser. Dlss bringt immer merkwürdige verdunklungen und/oder ghosting. Hab auch schon 2.5.1 benutzt aber irgendwie ohne großen Erfolg.

Weil es wie mit Musik und anderen Eindrücken ist. Im Jugendalter werden noch mehr neue und aufregende Verbindungen im Hirn geknüpft, weshalb DU dich so gut an DU DEINE Jugendhits erinnerst und nostalgia da immer wieder alles ganz ganz toll macht. Frag Mal Leute die 10 Jahre nach dir angefangen haben zu zocken, welche Games für sie die absoluten Highlights sind.

Kann ich überhaupt nicht bestätigen. In 1440p sieht Quality DLSS in vielen Fällen besser aus als Nativ, zumindest aber gleich gut. Ich habe nur wenige Fälle erlebt, in denen es schelchter aussah.
 
Die andere Frage ist, ob es nicht höher auflösende Monitore geben wird. FSR 2 Ultra Performance macht in 4K natives 1080p sowas von platt, obwohl nur in 720p gerendert wird. So sollte man irgendwann in Zukunft Cyberpunk 2077 in 8K, nativ, mit Pathtracing, berechnen können, dann wäre es wesentlich besser einfach einen 16K Monitor zu nehmen und dort das ganze mit DLSS oder FSR Ultra Performance laufen zu lassen.
Ich denke bei 8k oder knapp drüber ist dann Sättigung erreicht.
Bei üblicher Monitor Entfernung von ca. 1 bis 1,5m für eine Bilddiagonale von =Abstand (also auch 1 bis 1,5m) ist das Primäre Blickfeld inkl. etwas periphärem Sehen gut ausgeschöpft und bei einer 8k-Auflösung auf dieser Fläche selbst mit guten Augen kein Bildpunkt mehr wahrnehmbar.

Ab da braucht man kein Antialiasing zur Kantenglättung mehr, kein Downsampling, kein Upsampling wenn die Hardware dies performant zu bedienen vermag und zusätzliche Rechenleistung wird wieder in andere Gimmicks gesteckt.
 
Zuletzt bearbeitet:
Dlss…… Fluch und Segen. Einerseits besser wie die native Auflösung runter zu schrauben, aber meiner Meinung nach in einiges schlechter wie nativ.
Ist ja auch logisch, auf meinen 77 Zoll oled tv fällt es mehr auf wie auf einem 34 Zoll uwqhd Monitor.
Aber da in niedriger Auflösung gerendert wird , sind auch die farbinformationen sowie Kontras und Helligkeit nicht mehr so genau.
Dazu kommt ein dauerhafter Unschärfe Effekt.
Wo hilft es? Wenn ich zb dsr Faktor x2 mache und dann 6880x2880 einstelle und dann dlss Qualität nutze , ja dann sieht es besser aus wie nativ 3440x1440.
Bei meinem tv mit nativen 4K wird es da allerdings schon kritischer auch mit der 4090 ? klar wow geht mit 16k auf Ultra (dsr x2 und dann ingame 200%) aber muss nicht dringend ^^
Meine Meinung nach einigen Spielen mit und ohne dlss ist das es eine Alternative ist wenn die Leistung nicht mehr reicht. Schafft eine 4070 4K einfach nicht mehr mit 60fps , dann ist es absolut spitze.
Schafft man aber die native Auflösung , dann nutzt diese, das gesamte Bild ist einfach besser.
 
Die andere Frage ist, ob es nicht höher auflösende Monitore geben wird. FSR 2 Ultra Performance macht in 4K natives 1080p sowas von platt, obwohl nur in 720p gerendert wird. So sollte man irgendwann in Zukunft Cyberpunk 2077 in 8K, nativ, mit Pathtracing, berechnen können, dann wäre es wesentlich besser einfach einen 16K Monitor zu nehmen und dort das ganze mit DLSS oder FSR Ultra Performance laufen zu lassen.
Am Ende ging es mir nur darum das mit genügen Rechenleistung irgendwann der Punkt ist das höhere Auflösung keinen sinn mehr macht und man keine hilfe mehr braucht da die Auflösung halt irgendwann auch Nativ gut genug sein wird.
Wann das ist, bzw. ob wir sowas noch erleben, bzw. ab welcher Auflösung es reicht, das steht auf einem anderen Blatt.
 
Zurück