News Nvidia DLSS: "Native Auflösungen sind nicht mehr die beste Lösung!" [Bericht]

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Nvidia DLSS: "Native Auflösungen sind nicht mehr die beste Lösung!" [Bericht]

Im Rahmen einer Diskussion mit Digital Foundry machte Nvidia deutlich, dass native Auflösungen nach Auffassung des Unternehmens nicht mehr die beste Lösung für Spiele sowie deren Grafikqualität seien. Die Spieleindustrie und Entwickler werden daher zukünftig noch viel stärker auf Upscaling-Technologien und KI-Bildrekonstruktion setzen, so Nvidia weiter.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Nvidia DLSS: "Native Auflösungen sind nicht mehr die beste Lösung!" [Bericht]
 
Typische augenwischerei von NVIDIA. "Sorry Leute, heutzutage sind nicht wirklich Leistungssteigerungen möglich, deshalb benutzt bitte alle DLSS". Ich behaupte mal, dass Leistungssteigerungen innerhalb des rasterizing sehr gut möglich wären. Ist halt nur teuerer als reine Softwarelösungen und das würde dann der Marge schaden... geht ja gar nicht. AMD macht es leider nicht viel anders, wobei deren Karten wenigstens mehr VRAM und ein passables P/L Verhältnis haben.
 
Oh oh, das wird einigen hier sauer aufstoßen :ugly:

Ich behaupte mal, dass Leistungssteigerungen innerhalb des rasterizing sehr gut möglich wären.
Ja, aber nicht mehr wirklich sinnvoll, weil der Leistungssprung nicht mehr im Verhältnis zu den Shadern steht. RT ist hier der bessere/effizientere Weg und da RT eh die Zukunft ist, ergibt es umso mehr Sinn.
Du kannst deine Behauptungen sicher auch mit Fakten untermauern? ;)

AMD macht es leider nicht viel anders, wobei deren Karten wenigstens mehr VRAM und ein passables P/L Verhältnis haben.
Könnte es daran liegen, dass es der bessere/sinnigere Weg ist?
Nein, das ist sicher eine Verschwörunstheorie :devil:

Fakt ist nun mal, dass FSR/DLSS/XeSS es dir ermöglichen, deine Karte länger nutzen zu können und trotzdem argumentierst du dagegen. Ergibt für mich nicht wirklich Sinn, aber wenn du lieber unnötig mehr Geld für den gleichen bzw. einen geringeren Vorteil ausgibst, dann gönn dir.
 
Aus einer theoretischen Sicht kann man den durchaus zustimmen. Wenn man mit einer sinnvollen Modellprädiktion sich weitere Abtastpunkte herleitet kann man auch mit der Auflösung runter. Aber solange es keinen Quantitativen Beweis gibt halte ich eine gewisse Skepsis für angebracht.
 
Oh oh, das wird einigen hier sauer aufstoßen :ugly:

Vollkommen zurecht. Das übliche NV-Gewäsch. Upscaling unter 4k ist schlicht Grütze, da hilft das ständige "behaupten" dass es anders sei einfach nicht. Und nein, man kann seine Karte deswegen nicht länger benutzen, ein Blick auf die bisherigen UE 5 Titel belegen so ziemlich das Gegenteilt davon.

RT ist nach fünf Jahren ein Fass ohne Boden und das wird auch nicht besser. Ein fürstlich zu bezahlnder Einkauf für einen jahrelangen Betatest.
 
Das wir im Kommentarbereich ein Fest, das ist Safe.

Das DLSS inzwischen wenn gut umgetzt besser aussieht, als nativ. Das die Peformance deutlich steigt. Das spielt plötzlich alles keine Rolle.

RX7000 und RTX4000 bieten, mit den Releasepreisen (zum Vergleich heranzuziehen) das selbe P/L Verhältnis.
So verkehrt kann also Nvidia´s Weg auch nicht sein.
Übersetzung:

Nvidia sagt zu Nvidia, dass Nvidia's DLSS einfach super ist und man in Zukunft noch kleinere Chips zu noch höheren Preisen verkaufen, und das mit KI-Matsch ausgleichen wird.

Nvidia. The Way It's Meant To Be Played.
Das die Chips immer kleiner werden widerum liegt in erster Linie an schwacher Konkurrenz.
DDas mit dem KI Matsch ist einfach nur nicht richtig.
 
Upscaling unter 4k ist schlicht Grütze, da hilft das ständige "behaupten" dass es anders sei einfach nicht.
Liefere Fakten/Beweise oder deine Aussage ist wertlos, aber ich bin mir sicher, dass da nichts kommen würden und wenn, ist es Cherrypicked.

Und nein, man kann seine Karte deswegen nicht länger benutzen, ein Blick auf die bisherigen UE 5 Titel belegen so ziemlich das Gegenteilt davon.
Doch kann man, weil schwächere Karten durch DLSS/FSR höhere Bildraten erzielen. Wer Regler betätigten kann, kann die Karte nutzen. Wer erwartet mit einer 1060 4K RT Ultra zocken zu können, dem ist eh nicht mehr zu helfen.

Wie kann etwas besser sein als nativ???
Ganz einfach: Indem man auf mehr Pixel/Informationen zurückgreifen kann und nicht nur einen einzigen Frame hat ;)
Wüsstest du aber, wenn du nicht einfach nur haten, sondern dich wirklich mit dem Thema beschäftigen würdest.

Es ist mal wieder witzig, dass sämtliche Hater hier eine AMD GPU + CPU im System haben. Hat nichts mit nichts zutun. :ugly:
 
Vollkommen zurecht. Das übliche NV-Gewäsch. Upscaling unter 4k ist schlicht Grütze, da hilft das ständige "behaupten" dass es anders sei einfach nicht. Und nein, man kann seine Karte deswegen nicht länger benutzen, ein Blick auf die bisherigen UE 5 Titel belegen so ziemlich das Gegenteilt davon.

RT ist nach fünf Jahren ein Fass ohne Boden und das wird auch nicht besser. Ein fürstlich zu bezahlnder Einkauf für einen jahrelangen Betatest.
Das ist schlicht und einfach nicht richtig!

DLSS funktioniert auch in 1440p super, mit weiterhin super Optik. Naja, wenn es DLSS nicht gäbe und man Spiel xy in max Details spielen wollte, müsste man früher eine neue Karte kaufen.

RT ist nach fünf Jahren genau da, wo es zu erwarten war. Auf einem guten Weg.
Schau dir Cyberpunk an, schau dir an wie gut DLSS 3.5 da funktioniert.

Das ist die Zukunft und das zum Glück.
 
Fakt ist nun mal, dass FSR/DLSS/XeSS es dir ermöglichen, deine Karte länger nutzen zu können und trotzdem argumentierst du dagegen. Ergibt für mich nicht wirklich Sinn, aber wenn du lieber unnötig mehr Geld für den gleichen bzw. einen geringeren Vorteil ausgibst, dann gönn dir.
Das war in den ersten Generationen so, aber du glaubst doch wohl nicht, dass Nvidia dir dauerhaft irgendwas schenken wird?

DLSS ist super, aber wird in Zukunft (und da sind wir eigentlich mit ADA schon) selbstverständlich einfach von vornherein mit in die Lebenszeit der Karte einberechnet und auch preislich vergoldet. Und die VRAM-Sollbruchstelle unter 1000€ hat man ja auch weiterhin.
DDas mit dem KI Matsch ist einfach nur nicht richtig.
Ja, das war übertrieben. Wie gesagt, DLSS ist (auf Quality) schon geil. Aber im Leben ist nichts kostenlos, und das gilt auch für DLSS. Nvidia verkauft natürlich lieber einen Algorithmus, als fette Hardware. Und genau da geht die Reise hin.
 
DLSS ist super, aber wird in Zukunft (und da sind wir eigentlich mit ADA schon) selbstverständlich einfach von vornherein mit in die Lebenszeit der Karte einberechnet und auch preislich vergoldet.
Das ist reine Spekulation deinerseits. Der IST-Zustand ist ein anderer und der ist aktuell relevant.
Darüber können wir reden, wenn es soweit ist bzw. falls. Vorher ergibt das keinen Sinn.

Nvidia verkauft natürlich lieber einen Algorithmus, als fette Hardware. Und genau da geht die Reise hin.
Nvidia ist in erster Linie an Gewinnen interessiert. Ob es durch Hardware oder Software generiert wird, ist denen egal.
 
Das war in den ersten Generationen so, aber du glaubst doch wohl nicht, dass Nvidia dir dauerhaft irgendwas schenken wird?

DLSS ist super, aber wird in Zukunft (und da sind wir eigentlich mit ADA schon) selbstverständlich einfach von vornherein mit in die Lebenszeit der Karte einberechnet und auch preislich vergoldet. Und die VRAM-Sollbruchstelle unter 1000€ hat man ja auch weiterhin.

Ja, das war übertrieben. Wie gesagt, DLSS ist (auf Quality) schon geil. Aber im Leben ist nichts kostenlos, und das gilt auch für DLSS. Nvidia verkauft natürlich lieber einen Algorithmus, als fette Hardware. Und genau da geht die Reise hin.
AMD wird nichts anderes machen, nur wieder etwas später. Das ist die Zukunft.

Was DLSS 2/3 und 3.5 ermöglichen ist mehr, als es in klassischer Hardware möglich gewesen wäre. Also freut euch doch.
 
Liefere Fakten/Beweise oder deine Aussage ist wertlos, aber ich bin mir sicher, dass da nichts kommen würden und wenn, ist es Cherrypicked.

Die HW Unboxed Videos. Seit Monaten für jeden der nicht selbst testen kann einsehbar und bereits an anderer Stelle in Deine Richtung kommuniziert, ganz einfach. Das von Dir allerdings nichts anders kommt wundert mich jedoch nicht, das ist Dein üblicher NV Scheuklappenblick.

Das ist schlicht und einfach nicht richtig!

Siehe den oberen Absatz.

Keine Ahnung, warum sich diese Gerüchte in Deutschland so hartnäckig halten, woanders ist man schon viel weiter und vor allem objektivierbar präsentiert für so ziemlich jeden.

"Das ist die Zukunft".... der beste Satz, den ich bereits seit gut fünf Jahren lese und 2030 vermutlich immer noch. Da ist selbst AMD mit der FSR3 Umsetzung richtig schnell dagegen, bis jetzt zumindest....
 
Das ist reine Spekulation deinerseits. Der IST-Zustand ist ein anderer und der ist aktuell relevant.
Darüber können wir reden, wenn es soweit ist bzw. falls. Vorher ergibt das keinen Sinn.
Wie gesagt, wir sind da schon mit ADA. Fast alle Nvidia-Folien werben mittlerweile mit DLSS/FG bei den Vergleichen mit der Konkurrenz oder älteren Karten. Damit verknüpft Nvidia automatisch auch DLSS/FG mit dem Wert der Karten.

Davon abgesehen: Ein Großteil der PCGH-News und der dazugehörigen Diskussionen basiert auf Spekulationen, und du entscheidst sicher nicht was für mich oder andere Sinn ergibt und was nicht. Wenn du nicht darüber reden willst, dann lass es einfach.
 
Wie gesagt, wir sind da schon mit ADA. Fast alle Nvidia-Folien werben mittlerweile mit DLSS/FG bei den Vergleichen mit der Konkurrenz oder älteren Karten. Damit verknüpft Nvidia automatisch auch DLSS/FG mit dem Wert der Karten.
Schlechtes Beispiel, weil Ada den größten Performancesprung der letzten 3 Generationen auch ohne DLSS/FG bietet.
Also nein, du hast nicht recht.

Davon abgesehen: Ein Großteil der PCGH-News und der dazugehörigen Diskussionen basiert auf Spekulationen, und du entscheidst sicher nicht was für mich oder andere Sinn ergibt und was nicht. Wenn du nicht darüber reden willst, dann lass es einfach.
Der Unterschied ist, dass du es als Fakt darstellst und für deine Argumentation nutzt ;)
 
Keine Ahnung, warum sich diese Gerüchte in Deutschland so hartnäckig halten, woanders ist man schon viel weiter und vor allem objektivierbar präsentiert für so ziemlich jeden.
Vielleicht ist man in DE gar nicht so dumm ;)

Selber Testen ist noch am besten.
Außerdem möchtest du damit also auch zum Ausdruck bringen das das PCGH Team also unfähig war, bei den Bildvergleichen, bei denen man zu dem Schluss gekommen ist, das DLSS besser aussieht?
"Das ist die Zukunft".... der beste Satz, den ich bereits seit gut fünf Jahren lese und 2030 vermutlich immer noch. Da ist selbst AMD mit der FSR3 Umsetzung richtig schnell dagegen, bis jetzt zumindest....
Gott du laberst ein Blech... Also doch ein Troll, doer wie. Anders ist dieser Satz ja nicht zu deuten.
 
Wie kann etwas besser sein als nativ???
Habe gerade mal meine Augen befragt und die sagen: Nö! :lol:
Cui bono? NV!
Gruß T.

natürlich wird Nativ immer besser aussehen, aber eben auch lange brauchen. mit KI nimmt man eine Abkürzung und erhält ein annähernd identisches Bild in wesentlich kürzerer Zeit. Mehr Frames = besser.
Ganz besonders gut kann man das bei reinen Raytracing-Aufgaben sehen. Ein nativer tracer würde Stunden oder sogar Tage für ein einziges Bild brauchen. Eine KI nur ein paar Sekunden bis Minuten.

Hier ist auch ein schönes Video zu DLSS3.5:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zurück