Geforce RTX 4000: Warum DLSS 3 so wichtig für Nvidia ist - eine Analyse

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 4000: Warum DLSS 3 so wichtig für Nvidia ist - eine Analyse

Nvidia setzt bei RTX 4090 und Co. vor allem auf Raytracing und DLSS 3. Dafür braucht es aber entsprechende Spiele, was für Nvidia eine Herausforderung ist.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Geforce RTX 4000: Warum DLSS 3 so wichtig für Nvidia ist - eine Analyse
 
Wüsste nicht ein mal das mir raytracing als vr spieler etwas gebracht hätte, ABER man wird mir der pimax 8kX endlich vernünftig zocken können mit der Karte....
 
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 4000: Warum DLSS 3 so wichtig für Nvidia ist - eine Analyse

Nvidia setzt bei RTX 4090 und Co. vor allem auf Raytracing und DLSS 3. Dafür braucht es aber entsprechende Spiele, was für Nvidia eine Herausforderung ist.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Geforce RTX 4000: Warum DLSS 3 so wichtig für Nvidia ist - eine Analyse
Da heißt es: "Die 4080 mit 12 GB ist eine unglaubliche GPU, deren Leistung unser Flaggschiff der vorherigen Generation, die RTX 3090 Ti, übertrifft und die dreimal so leistungsfähig ist wie die RTX 3080 Ti mit Unterstützung für DLSS 3, sodass wir glauben, dass sie eine großartige GPU der 80er-Klasse ist".
Naja wenn da mal das 192 Bit Interface der Karte nicht wäre -.-
 
Es werden jetzt also tatsächlich Spiele entwickelt, die selbst mit High bis High End Karten nicht ohne Upscaling laufen? Das ist ja schlimmer als ich es mir vorgestellt hatte. Statt 4k@60fps für alles sind wir jetzt bei 20 fps oder verwaschenes upscaling? Niemals und dann noch diese Preise. AMD ick hör dir tappen.
 
Es werden jetzt also tatsächlich Spiele entwickelt, die selbst mit High bis High End Karten nicht ohne Upscaling laufen? Das ist ja schlimmer als ich es mir vorgestellt hatte. Statt 4k@60fps für alles sind wir jetzt bei 20 fps oder verwaschenes upscaling? Niemals und dann noch diese Preise. AMD ick hör dir tappen.
AMD kann das auch nicht lösen. Wir sprechen hier von Vollbild-Raytracing, das Nvidia zeigt und mittels DLSS 3 um den Fps-Faktor 4 aufblasen kann. Diese Sprünge sind mit reiner Hardware-Power nicht mal eben möglich. Gewöhn dich besser an Upsampling, das bleibt und wird immer besser. :-)

MfG
Raff
 
Unterm Strich zählen natürlich die nackten fps auf dem Bildschirm. DLSS ist eine tolle Sache und pusht die fps ungemein hoch. Nichts desto trotz komme ich mir von nvidia etwas über den Tisch gezogen vor wenn eine 4080 12gb nur mit aktivem DLSS an der Speerspitze der last gen vorbeiziehen kann. Und das dann noch mit überzogenen Preisen.

Wie im Artikel beschrieben fällt für nvidia aber das Kartenhaus zusammen wenn die nötigen Titel mit DLSS 3.0 unterstützung zum Start fehlen.

Ich nehme DLSS gerne als Feature mit wenn die Rohleistung meiner Karte nicht mehr für die gewünschten fps ausreicht, sehe es aber weniger ein dafür einen extremen Mehrpreis zu zahlen.

Sollen wir in der nächsten gen dann einen Aufpreis zahlen um für 4k Auflösung oder fps lock "freigeschaltet" zu werden?
 
Es werden jetzt also tatsächlich Spiele entwickelt, die selbst mit High bis High End Karten nicht ohne Upscaling laufen? Das ist ja schlimmer als ich es mir vorgestellt hatte. Statt 4k@60fps für alles sind wir jetzt bei 20 fps oder verwaschenes upscaling? Niemals und dann noch diese Preise.

Du hast es erfasst. Vor nicht allzu langer Zeit, wurde um jedes Quentchen Bildqualität gekämpft und die Hardwarehersteller (zurecht) von der Fachpresse an den Pranger gestellt, wenn dort gepfuscht wurde (AF z.B.).

Dann begann der "Siegeszug" von Post AA, und gipfelte dort in TAA. Nun hieß es auf einmal nicht mehr, "das Bild ist blurry", sondern "dieses AA sorgt für Bildruhe" (Euphemismen sind schon etwas feines).

Die Upscaling Techniken pfuschen dann teilweise noch mehr oder minder mit der Bildschärfe herum. Viola, schon hast Du den Kaudwerwelsch, der sich heute gute Bildqualität nennt.

RT ist bis jetzt alles andere als ein Killerfeature und erst recht kein Heilsbringer, im Gegenteil (s.o.). Zig Jahre gingen bereits ins Land und bis auf ein paar wenige Enthusiasten interessiert es niemanden, da die Leistung schlicht fehlt oder durch zusätzliche, dreistellige Watt-, und vierstellige Geldbeträge, für wenige Titel halbwegs brauchbar zur Verfügung gestellt wird, nicht, dass das abzusehen war. Und solange das so ist, bleibt RT eben genau das: Eine Nische für ein paar Träumer, die gestern und heute bereits für ~2026++(mit vielen Fragezeichen) hielten und die das mehr an Realismus bzw. BQ das RT schafft so genial finden, dass sie an andere Stelle auch gerne wieder BQ opfern, und da klammern wir den zusättzlichen Energiebedarf im Hinblick auf die Kosten noch komplett aus.
 
Unterm Strich zählen natürlich die nackten fps auf dem Bildschirm. DLSS ist eine tolle Sache und pusht die fps ungemein hoch. Nichts desto trotz komme ich mir von nvidia etwas über den Tisch gezogen vor wenn eine 4080 12gb nur mit aktivem DLSS an der Speerspitze der last gen vorbeiziehen kann. Und das dann noch mit überzogenen Preisen.

Wie im Artikel beschrieben fällt für nvidia aber das Kartenhaus zusammen wenn die nötigen Titel mit DLSS 3.0 unterstützung zum Start fehlen.

Ich nehme DLSS gerne als Feature mit wenn die Rohleistung meiner Karte nicht mehr für die gewünschten fps ausreicht, sehe es aber weniger ein dafür einen extremen Mehrpreis zu zahlen.

Sollen wir in der nächsten gen dann einen Aufpreis zahlen um für 4k Auflösung oder fps lock "freigeschaltet" zu werden?

Eine 4080 12 GB ist ungefähr gleichauf mit der 3080ti bei 75W weniger Stromverbrauch (350 vs 285W). Wenn DLSS 3.0 dazugeschaltet wird zieht sie easy daran vorbei. Und das bei gleicher UVP.

Viele hier im Forum haben weniger TDP gefordert. Weniger TDP UND mehr Leistung geht halt nicht so einfach, das betrifft alle Hersteller. Mehr Leistung bei gleicher TDP klar, aber da müsstest Du die 4080 16 GB gegen die 3080ti setzen und die 4080 ist dann nativ schneller.

Find ich ehrlich gesagt in Ordnung wenn der Preis nicht so hoch wäre.
 
Wie ist das eigentlich. Wenn ein Spiel DLSS 3.0 unterstützt kann ich als 3070 wenigsten DLSS 2.0 nutzen? Oder muss ich da ganz auf DLSS verzichten? So richtig durchblicken tu ich da nicht.
 
Wie ist das eigentlich. Wenn ein Spiel DLSS 3.0 unterstützt kann ich als 3070 wenigsten DLSS 2.0 nutzen? Oder muss ich da ganz auf DLSS verzichten? So richtig durchblicken tu ich da nicht.
dlss3.JPG
 
Hier schon oft geschrieben. Da wird von Nivdia eine Technik in Geld umgewandelt die nur eine mehr Leistung vorgaukelt.
Ich finde DLSS grenzt an Betrug und dafür soll ich diese Preise zahlen. Und neue Spiele die ohne Mikrotransaktionen auskommt und eine Grafik hat die meine Grafikkarte überfordert ist nicht in Sicht. Und so hab ich auch kein Grund eine 40xx zu Unsummen zukaufen.
 
Zuletzt bearbeitet:
@raPid-81,
Echt, du vergleichst ein Impfstoff mit Grafikkarte?
Und ich Missgönnen keinen ein Gewinn und ich hab das auch nicht gesagt.
Ich behaupte das Upscaling aus 720p auf 2160p gestreckt wird und diese als mehr Leistung angegeben wird.
Das Spiele die Mikrotransaktionen beinhalten werde ich nicht kaufen.
 
Wird deswegen aber nicht richtiger. Genau wie DLSS 2 hat auch 3 Vor- und Nachteile. Vorgegaukelt wird da nichts.

Das als Betrug zu bezeichnen ist schon hater Tobak. Gilt das dann auch für alle anderen Render-Technologien, die suboptimal Dinge anzunähern? Wie Screen Space Reflection z.B.?
Naja aber Zwischenbildberechnung hier jetzt als revolutionären, technischen Dienst an der Gesellschaft hinzustellen schießt dann auch am Ziel vorbei. Das macht jeder gammelige TV heute und das häufig nicht mal besonders gut und das bei vorhersehbarem Content.

Vor allem vertikale Bewegungen mag die Technik nicht, noch schlimmer sind Rotaionsobjekte.
Derzeit wissen wir noch nicht viel über die Technik, aber die bereits geleakten Screenshots an einigen Stellen lassen schon schlimmes befürchten, da sind ja Teils Bilder völlig entstellt. Mir fehlt derzeit auch die Vorstellungskraft wie man zuverlässig Aktionen eines Menschen vorhersehen möchte. In einem gradlinigen Rennspiel geht das noch einigermaßen, in einem Schlauchlevel Shooter evtl. auch noch gerade so. Dann hört es dann aber auch auf.
 
In allen drei Titeln liegt die RTX 4080 12GB leicht unterhalb der RTX 3090 Ti
Liegt halt daran das die RTX4080 12GB nur eine 4070 ist, mit einem Preisschild der 80er Reihe ?

Wenn man mal zurückblicke hat die RTX 3070 499$ gekostet, dazu hatte Sie den gleichen Stand wie die 4080 12GB jetzt für 80% weniger UVP.

Ich hoffe ernsthaft es lassen sich nicht all zu viele von NVIDIA so über den Tisch ziehen.
 
Man darf das wohl nicht so einfach mit der Zwischenbildberechnung eines TVs vergleichen. Da wird schon ein gewaltiger Unterschied sein, denn sonst gäbe das schon längst. Die dafür notwendigen Module sind super billig zu haben.
Naja aber was soll denn der gewaltige Unterschied sein? Was passiert wenn die KI "falsch"vorhersieht? Wie will die KI bitte andere Spieler im Multiplayer "vorhersehen" etc.
Ich bin da noch ziemlich skeptisch, hinzu kommt die Frage wofür man Zwischenbilder eigentlich braucht als Spieler. Fps will man ja wegen geringer Eingabeverzögerung und glatter Bildwiedergabe.
 
Zurück