News Nvidia DLSS: "Native Auflösungen sind nicht mehr die beste Lösung!" [Bericht]

DLSS steigert die Bildqualität und erhöht die fps, daher verstehe ich hier viele Kommentare nicht oder sogar Leute, die DLSS meiden (FSR ist noch mal was anderes, das ist qualitativ halt schlicht nicht vergleichbar).

Zumal in UHD aufwärts sogar ein DLSS-P absolut brauchbar ist und man überhaupt nicht zwingend auf DLSS-Q angewiesen ist.

Natives Rendering ist durch Upscaling schlicht und einfach nur noch ineffizient. Das hat Nvidia früh erkannt und die Ergebnisse davon sieht man schon länger.
 
DLSS steigert die Bildqualität und erhöht die fps, daher verstehe ich hier viele Kommentare nicht oder sogar Leute, die DLSS meiden (FSR ist noch mal was anderes, das ist qualitativ halt schlicht nicht vergleichbar).

Zumal in UHD aufwärts sogar ein DLSS-P absolut brauchbar ist und man überhaupt nicht zwingend auf DLSS-Q angewiesen ist.

Natives Rendering ist durch Upscaling schlicht und einfach nur noch ineffizient. Das hat Nvidia früh erkannt und die Ergebnisse davon sieht man schon länger.
Ne es geht einfach darum eine Technik (Raytracing) marktreif zu machen die seit etlichen Jahren nach wie vor in den Kinderschuhen steckt. Und schlichtweg kann die jetzige Hardware es immer noch nicht ausreichend rendern. Und dann wird, obwohl Raytracing noch nicht mal rund läuft, pathtracing als das Novum unter das Volk gebracht. Die Anbieter allen voran Nvidia versuchen den Verbrauchern weis zu machen, dass sie das unbedingt brauchen und sind ziemlich erfolgreich damit. Bauernfängerei par excellence.
 
Zuletzt bearbeitet:
Die neuen Features sind teuer, keine Frage. Aber das wird nicht so bleiben. Sobald AMD und Intel ihre KI basierten Techniken auf Level gebracht haben, dann sinken auch die Preise.
Genau. Bald holen AMD und Intel auf, weil.. sie.. irgendwas machen was AMD die letzten 10 Jahre nicht geschafft hat, und dann wird alles günstiger, und dann fliegen wir alle auf rosa Einhörnern in den Sonnenuntergang.

Nvidia ist deswegen so erfolgreich, weil sie schlicht nicht zulassen, dass jemand auf ihr Level kommt. Das war auch schon lange vor RT & DLSS so. Und nein, es gibt keinen Hinweis darauf, dass GPUs in Zukunft günstiger werden.
 
Genau. Bald holen AMD und Intel auf, weil.. sie.. irgendwas machen was AMD die letzten 10 Jahre nicht geschafft hat, und dann wird alles günstiger, und dann fliegen wir alle auf rosa Einhörnern in den Sonnenuntergang.

Nvidia ist deswegen so erfolgreich, weil sie schlicht nicht zulassen, dass jemand auf ihr Level kommt. Das war auch schon lange vor RT & DLSS so. Und nein, es gibt keinen Hinweis darauf, dass GPUs in Zukunft günstiger werden.
So wie Nvidia aktuell SW Features rauskloppt wird AMD mühe haben überhaupt was äquivalentes zu bieten. Man sieht bei Nvidia eine klare Strategie die AMD vermissen lässt. So wird man weiterhin hinterher hecheln und muss die Ressourcen auf immer neue Features bündeln und kann seine vorhandenen Features nicht so optimieren wie es notwendig wäre.
 
Wie kann etwas besser sein als nativ???
Habe gerade mal meine Augen befragt und die sagen: Nö! :lol:
Cui bono? NV!
Gruß T.
Weißt du was nativ bedeutet? Renderauflösung = Ausgabeauflösung.

Nativ ist kein Qualitätsbegriff. Ich meine, es ist ganz einfach wie etwas besser sein kann als nativ: Wenn es mehr Informationen enthält. Wenn die Upscaling-Algorithmen es schaffen mehr Informationen ins Bild zu kriegen als die native Auflösung enthält, kann das Bild besser sein.

Um das mal zu verdeutlichen: Downsampling beispielsweise rechnet ja auch nicht nativ. Dabei wird intern eben eine höhere Auflösung berechnet, wodurch wiederum mehr Informationen im endgültigen Bild enthalten sind als mit der nativen Auflösung.
Besseres Bild bei nicht-nativer Auflösung.

"Nativ" sagt nichts über die Qualität von irgendwas.
 
Nein, nicht Äpfel und Birnen. Mikrochips und Mikochips. :lol:

Ich rede von Waferpreisen und Inflation, bzw. du hast das getan. Selbstverständlich kann man das vergleichen. Du willst es nur nur nicht, weil deine Argumente um Nvidia zu verteidigen dann platzen. *plopp*

Nö, der GPU Markt ist ein ganz anderer als der CPU Markt. Auch die Chips bzw. Designs sind komplett anderse. AMD hat ihre GPU Preise ja auch erhöht.

Wieso packst Du einen CPU Preisvergleich aus wenn es um GPUs geht? Da kann ich auch fragen wieso ein Auto mehr kostet als ein Motorrad, hat doch beides einen Motor. Schöner Strohmann...
 
Funktioniert nur nicht, wenn ich nur ein paar mehr fps erhalte, dafür aber so massive Bildfehler erhalte (Bildqualität in % zu bemessen finde ich generell schon komisch, wer bewertet denn, ob das Bild 1% schlechter oder 95% schlechter wird, wenn die Fehler da sind?), dass ich in einem Multiplayerspiel definitv große Nachteile habe gegenüber einem Spieler, der nicht auf DLSS setzt.
In diesem Moment ist für mich das Thema DLSS halt erledigt und ich performe lieber besser und nehme den Spieler mit DLSS raus. Das ist mir wichtiger als 120 statt 100 fps zu haben. Subjektiv halt.
Junge Junge... jetzt lass mal aber gut sein, du hast ihn doch schon komplett zerlegt :D
 
Die Preissteigerung ist ungefähr das was man nach 2 Jahren Inflation + den gestiegenen Wafer Kosten erwarten würde.

Du meinst die deutsche Inflation? Oder die in Taiwan oder China?

Und selbst wenn wir in Deutschland bleiben, ist Inflation nicht gleich Inflation. Die Inflationsrate im IT-Bereich liegt im Moment bei -3,4%. Deflation ist bei Technik völlig normal. Wenn aber die Kurve des Mehr-pro-Euro so abflacht wie bei NVIDIA und gleichzeitig die Margen hochschnellen, dann brauchen wir glaube ich nicht von nennenswerter Inflation zu reden. Gilt teilweise auch für die Waferpreise.
 
Wisst ihr noch früher? Als wir noch Spiele in nativer Auflösung gespielt haben? Das waren noch Zeiten! Heute, alles Kaka!
Und das alles nur wegen Raytracing. RTX ON: 13fps! RTX OFF: 249fps. RTX ON with fake resolution: 60fps. Marketingabteilung: So wirds gemacht!
 
Kann das sein, das die Entwicklung der GPU´s auf der SW-Ebene, um die Bildqualität und Geschwindigkeit zu steigern (KI, FSR, DLSS, FG etc...), weniger aufwändig bzw. kostengünstiger ist als das gleiche Ergebnis mit Weiterentwicklung und Herstellung auf der HW-Ebene zu realisieren?

Nur so ein Gedanke - stecke nicht so tief in der Materie...

Vielleicht wurde die Frage schon gestellt und beantwortet aber 9 Seiten Kommentare durchzulesen ist mir doch etwas zu viel.

EDIT:
Wobei einige Kommentare hier einen doch hohen Unterhaltungswert bieten (Ironie) :klatsch:
Auch wenn ich nicht verstehe warum einige hier versuchen ihre Meinung und subjektives Empfinden um jeden Preis zu verteidigen.
 
Zuletzt bearbeitet:
DLSS ist die Zukunft, verlängert das LEben von GPUs und ich stimme zu, in manchen Titeln ist das was DLSS schafft ein Wahnsinn:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Genau. Bald holen AMD und Intel auf, weil.. sie.. irgendwas machen was AMD die letzten 10 Jahre nicht geschafft hat, und dann wird alles günstiger, und dann fliegen wir alle auf rosa Einhörnern in den Sonnenuntergang.

Nvidia ist deswegen so erfolgreich, weil sie schlicht nicht zulassen, dass jemand auf ihr Level kommt. Das war auch schon lange vor RT & DLSS so. Und nein, es gibt keinen Hinweis darauf, dass GPUs in Zukunft günstiger werden.
Wobei man dazu sagen muss dass selbst Intels XeSS Lösung qualitativ besser als FSR2 ist in den meisten Fällen, als Neueinsteiger auch beachtlich.
 
Glauben die echt dran was die erzählen
ai macht Fehler und wird nie perfekt sein und kann keine ideen entwickeln sondern nur fragen beantworten zwar wird durch training der ai das bild fehlerfreier ist aber zeitgebunden somkt muss genug infos zum original haben und die fps sehr hoch sein damit ai upscaling zusätzliche frames erzeugt.
Kurz da wo man es braucht unnütz und fürs denoisen von Dxr aber durchaus brauchbar dafür braucht es aber keine ai sondern nen algo der schnell genug ist. oder anders gesagt mehr Takt. Das bekommen wir ab n2x wo gpu dann ohne arch Änderung bei 4,0ghz sein werden.

ich sehe es kommen das man blackwell gb207 chip als 60ti er sku verkaufen will. Mit dem Hinweis auf ai upscaling dlss4. (chipkosten um die 40$ + 3 24gbit je 15$)
Langsam heben die ab bei nvidia marketing
 
Cyberpunk im Raytracing Vergleich für Nvidia User.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Sieht bei fast allen Kritikern so aus, die ihre Hardware angeben.
Ein Schelm, wer böses dabei denkt ;)
Ich verstehe diese mangelnde Objektivität von manchen AMD Besitzern nicht. Wie können sich Menschen von Herstellern derart instrumentalisieren lassen. Das ist doch ein Zeichen mangelnder persönlicher Reife, wenn die Meinung sich an dem Besitz bindet. Sind hier lauter Teenies im Forum?

Einfach nur traurig.
 
Ich und 90 % der Leute sind auch der Meinung, dass KI die Zukunft ist man kann einfach wie im Videobeitrag gesehen ganze Welten erschaffen und das mit Leichtigkeit denke die meisten Spiele Entwickler werden das in ein paar Jahren genauso umsetzen.

Zum Thema DLSS3/ FG habe es jetzt schon in einigen Titel angehabt und bin begeistert das Gute ist, man muss sich keine 900 Euro Karten kaufen, wie man in den neuen Cyperpunk Bench gut erkennen kann.

Leider hat AMD wieder einmal verschlafen, so das Nvidia auch diesem Bereich dominieren wird, aber es gibt ja noch Intel, die rüsten auch auf in Sachen KI wird spannend.
Glauben die echt dran was die erzählen
ai macht Fehler und wird nie perfekt sein und kann keine ideen entwickeln sondern nur fragen beantworten zwar wird durch training der ai das bild fehlerfreier ist aber zeitgebunden somkt muss genug infos zum original haben und die fps sehr hoch sein damit ai upscaling zusätzliche frames erzeugt.
Ich denke, für die Spiele und Unterhaltungsindustrie sollte es ausreichen, man kann ja immer noch selber handanlegen und fixen. Ich glaube auch das die reine Leistung nicht mehr ausreichen wird, da die Spielegrafik noch anspruchsvoller werden und ich glaube auch nicht dran, dass du oder ich Lust hätten, sich alle 3 Jahre eine GPU für 1500 Euro kaufen zu wollen.
 
Zuletzt bearbeitet:
Zurück