Control: Nvidia DLSS-Support soll mehr Details und bessere Performance bringen

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Control: Nvidia DLSS-Support soll mehr Details und bessere Performance bringen

In Remedys Spiel Control kommt Nvidias Technologie Deep Learning Super Sampling zum Einsatz. Damit sollen nicht nur Raytracing-Effekte möglich sein, sondern auch Super Resolution. Mittels künstlicher Intelligenz werden so Details berechnet, obwohl die Grafikkarte eigentlich nur Artefakte ausgegeben hat. Dies soll zu einer besseren Performance bei scharfem Bild führen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Control: Nvidia DLSS-Support soll mehr Details und bessere Performance bringen
 
Immerhin sind die RTX-Karten verfügbar.

Ich weiß gar nicht, was AMD schon wieder für eine Kagge mit ihren Karten abzieht. 2 Monate seit dem Launch vorbei und wenigst Customkarten am Start und davon alle bis auf eine zu laut. Von viel zu teueren Preis abgesehen.

Ist das eine Alibikonkurrenz? Dieses verf**** (*miep*) Grakakartell aus AMD und Nvidia.
 
Ich glaub kein Wort von dem Schmarrn!

Erst wenn ich es selbst sehe, bzw unabhängige Tester es bestätigen.

Diese kleine Popel-KI auf einer GPU schafft das niemals! Die Datenmengen aus Rechenzentren müssten vorher geladen werden, bei den heimischen Leitungen... ;D
 
Yay viel Zeit und Geld in was stecken(DLSS), was mit 70% Res Scale und Nvidias Experience Sharpening immer, überall und vollkommen Unabhängig verfügbar ist und in jedem belang besser aussieht.
Gleiches mit AMDs RIS, einfach so, ganz ohne "KI"
 
Das D in DLSS steht eher für Downgrade, das L für Low-Resolution.
Darüber wird zwar ein Super-Sampling gelegt, also SS, aber das dient nur zur Kaschierung der Ekelgrafik.
Ich sag ja native wtf! :devil: DLSS kaschiert eben nur die mangelnde RT Leistung, auf Kosten der Qualität, wie man bei den Control Benches mit DLSS aus sehr gut sehen kann.

MfG
 
Ich glaub kein Wort von dem Schmarrn!

Erst wenn ich es selbst sehe, bzw unabhängige Tester es bestätigen.

Diese kleine Popel-KI auf einer GPU schafft das niemals! Die Datenmengen aus Rechenzentren müssten vorher geladen werden, bei den heimischen Leitungen... ;D

Auf der GPU zuhause läuft ja nur der trainierte Algorithmus und nicht das Training an sich.

Die grossen "Knackpunkte" von DLSS scheinen zu sein, dass:
- pro Game trainiert werden muss
- wohl kaum jede erdenkliche Ansicht trainiert wird
- Upscaling mit einem anständigen sharpening Filter ähnliche Performance bei ähnlicher Qualität bietet (siehe Freestyle bzw. Radeon Sharpening)

Imo "vergeudeter" Platz auf der GPU.
 
Zuletzt bearbeitet:
PCGH schrieb:
Daneben muss Monster Hunter World mindestens in einer Auflösung von 2560 x 1440 laufen. Softwareseitig müssen die aktuellste Version von Nvidias Game Ready-Treiber und das Spiel Control installiert sein.

Warte, ich brauche Monster Hunter World damit ich Control mit DLSS nutzen kann? Ich glaube da handelt es sich um einen Fehler im Text.

Im Allgemeinen glaube ich aber nicht daran, dass die Grafik mit DLSS annähernd so gut aussieht wie ohne. Selbst wenn das trainierte Upscaling wesentlich besser aussieht als andere Verfahren, kommt es nicht an das Rendern in der originalen Auflösung heran.
 
Ich glaub kein Wort von dem Schmarrn!

Erst wenn ich es selbst sehe, bzw unabhängige Tester es bestätigen.

Diese kleine Popel-KI auf einer GPU schafft das niemals! Die Datenmengen aus Rechenzentren müssten vorher geladen werden, bei den heimischen Leitungen... ;D

Das D in DLSS steht eher für Downgrade, das L für Low-Resolution.
Darüber wird zwar ein Super-Sampling gelegt, also SS, aber das dient nur zur Kaschierung der Ekelgrafik.

Ich weiß nicht, warum hier jeder rummotzt.

Hab Control auf meiner RTX 2070 Super getestet und DLSS funktioniert perfekt. 720p DLSS sieht nahezu genau so gut aus wie natives 1080p.

Und nein, diese Qualität lässt sich nicht einfach mit 720p+Sharpening erreichen.
 
. Auf der GPU zuhause läuft ja nur der trainierte Algorithmus und nicht das Training an sich.
Das mir schon klar, aber wie kommt der trainierte Algorithmus auf den Rechner? Zum eigentlichen Spiel werden dann nochmal xxGB schnell geladen aus dem Netz?

.Ich weiß nicht, warum hier jeder rummotzt.

Hab Control auf meiner RTX 2070 Super getestet und DLSS funktioniert perfekt. 720p DLSS sieht nahezu genau so gut aus wie natives 1080p.

Es motzt deswegen jeder rum weil sämtliche Ergebnisse bisher eine Beleidigung für die Augen sind! Ich spiele natives 4k und habe auch eine 2070s, sämtliches downsampling, oder sonstiges Pfuschen an der nativen Auflösung sieht einfach nur grandios bescheiden aus.
 
Ich sag ja native wtf! :devil: DLSS kaschiert eben nur die mangelnde RT Leistung, auf Kosten der Qualität, wie man bei den Control Benches mit DLSS aus sehr gut sehen kann.
Du hast keine Ahnung!
Bei RT braucht man z.B. für Spiegelungen und Schatten nicht die volle Auflösung.
Ist doch schön wenn Nvidia dranbleibt und die Schwachpunkte verbessert.

So wie es aussieht tummeln sich hier wieder 99% AMD-Fans.
Ihr seid doch nur neidisch weil Nvidia bei den Treibern viel schneller und besser ist als AMD.
 
- Downsampling mit einem anständigen sharpening Filter ähnliche Performance bei ähnlicher Qualität bietet (siehe Freestyle bzw. Radeon Sharpening)
Was du meinst ist Upscaling. Downsampling ist das Gegenteil von DLSS. Wäre schlimm, wenn das keine gute Qualität erreicht. :ugly:

@topic:
Nvidia scheint mit der Publicity von DLSS nicht zufrieden zu sein, sonst würden sie sich keine neuen Werbeversprechen aus den Fingern saugen. Die Technik wird niemals gut aussehen, wobei man gerade in Control ja noch Glück hat, dass die temporale Bildverrechnung der Engine wenigstens den typischen DLSS Ölgemälde Look "wegverrechnet".
 
Ich glaub kein Wort von dem Schmarrn!

Scheinbar hast du dich mit dem Thema auch null beschäftigt.
Diese kleine Popel-KI auf einer GPU schafft das niemals! Die Datenmengen aus Rechenzentren müssten vorher geladen werden, bei den heimischen Leitungen... ;D

Na, das wird doch gemacht. Das neuronale Netz wird trainiert und das Trainingsergebnis dann von den Tensor Cores eingepflegt.

Das D in DLSS steht eher für Downgrade, das L für Low-Resolution. .

In Metro und Control funktioniert es meiner Meinung nach sehr gut, spart Leistungskosten ein. Zudem noch mit dem richtigen Freestyle oder Reshade Filter zusammen wird dss Bild echt gut.
Darüber wird zwar ein Super-Sampling gelegt, also SS, aber das dient nur zur Kaschierung der Ekelgrafik.

Es wird bisher kein SuperSampling drübergelegt, das ist falsch. Ekelhaft ist dein hirnloses agitieren in jedem RT oder DLSS Thread.

Die AMD Mannschaft versucht wieder wichtige Weiterentwicklungen mit Stammtischgerede zu bremsen, nur weil AMD das noch nicht kann. Primitivlinge.
 
Zuletzt bearbeitet:
Hab Control auf meiner RTX 2070 Super getestet und DLSS funktioniert perfekt. 720p DLSS sieht nahezu genau so gut aus wie natives 1080p.

Und nein, diese Qualität lässt sich nicht einfach mit 720p+Sharpening erreichen.

Nichts für ungut, aber sämtliche Bildvergleiche im Netz wiederspechen dir. Einzig wie stark man den Unterschied subjektiv wahrnimmt ist debattierbar...
 
Bei RT braucht man z.B. für Spiegelungen und Schatten nicht die volle Auflösung.
Ist doch schön wenn Nvidia dranbleibt und die Schwachpunkte verbessert.

So wie es aussieht tummeln sich hier wieder 99% AMD-Fans.
Ihr seid doch nur neidisch weil Nvidia bei den Treibern viel schneller und besser ist als AMD.
Alles was verlustbehaftet ist, ist Mist für mich, von daher, schuldig im Sinne der Anklage, ich stehe auf native Grafik. Ist doch auch irgendwie irre, dass Bilder künstlich in der Auflösung reduziert werden um dann wieder hochgerechnet zu werden und diese suboptimalen Ergebnisse noch durch Postprocessing weiter verschlimmbessert werden müssen. Ich bin da kein Freund von und unterm Strihc zeigt es eben auf, dass die RT Rohleistung NICHT ausreicht, siehe Controltest, wenn es ohne diese Maßnahme nicht wirklich spielbar ist. Wie du darauf schließt das man neidisch sei und weil die Treiber schneller und besser als bei AMD sind erschließt sich mir nicht. Aber irgendwie habe ich da wohl einen wunden Punkt getroffen, denn betroffene Hunde bellen ja bekanntlich laut. ;)

MfG
 
Nichts für ungut, aber sämtliche Bildvergleiche im Netz wiederspechen dir. Einzig wie stark man den Unterschied subjektiv wahrnimmt ist debattierbar...
genau das ist der Punkt!

Scheinbar hast du dich mit dem Thema auch null beschäftigt.
oh doch, genug um mir eine Meinung bilden zu können und diese ist vernichtend!

Na, das wird doch gemacht. Das neuronale Netz wird trainiert und das Trainingsergebnis dann von den Tensor Cores eingepflegt.
Das war aber nicht meine Frage, sondern WIE die Daten in den tensorcores ankommen?! Wird die Leitung parallel zum daddeln belastet, kommen die Daten mit dem Treiber?

Die AMD Mannschaft versucht wieder wichtige Weiterentwicklungen mit Stammtischgerede zu bremsen, nur weil AMD das noch nicht kann. Primitivlinge.

Ach Schaffe, du kommst nicht so schnell auf meine Ignore, fühl ich mich doch immer gut dabei dich zu wiederlegen, weil in den häufigsten Fällen verbal umbewaffnet bist:ugly:.

Schmeiß doch mal ein paar Bilder mit Quellenangabe in den Thread...es wird dir sichtlich schwer fallen, welche zu finden die deine Argumentation stützen.

Denn DLSS sieht einfach bescheiden aus, daran ändert auch deine Meinung nichts, dazu ist nur objektives Urteilen und gesunde Augen nötig.
 
Bei TV-Geräten funktioniert das Hochskalieren schon lange sehr gut, zumindest bei den High-End-Geräten
und die Rechenleistung die hier zur verfügung steht ist nicht annähernd so hoch wie bei einer Grafikkarte.

made my day:lol::lol::lol:.

Du kennst aber schon den Unterschied zwischen aktivem Spielen, also dem Berechnen in Echtzeit und dem abspielen von passivem Material?

Letzteres kann auch eine Kartoffel und in Auflösung X darstellen, für ersteres gibt es sagenumwobene Grafikkarten welche den Job dann in Echtzeit erledigen, nebenbei aber auch noch sämtliches andere abarbeiten, anstatt nur eine passive Bildinformation zu skalieren;)

edit. sorry Doppelpost
 
Zurück