DLSS 2.0 mit Fernseher-Upscaling zu vergleichen ist vollkommen lächerlich.
Außerdem ist es nunmal ein Fakt, dass die tatsächliche Render-Auflösung bei 4K nahezu irrelevant ist. Checkerboarding, Temporal Upsampling und DLSS sehen für das Auge nahezu identisch aus wie natives 4K, dafür hat der Entwickler aber 20-50% mehr Leistungs-Spielraum für hübschere Grafikeffekte. Natives 4K für aktuelle AAA-Games ist und bleibt eine Verschwendung von GPU-Leistung.
Es geht um die lächerliche Annahme, UHD + DLSS würde eine tatsächlich so hohe Auflösung mit einem nVidia exklusivem Zusatzfeature bieten, was nochmals bessere Grafik bietet.
So wird es ja leider von den Leuten quasi vermarktet- was dann ja von vielen Leuten auch einfach so geglaubt wird.
Ich habe natürlich extra dumme Gegenvergleiche ausgewählt, damit es offensichtlich rüberkommt.
Wenn die Leute endlich Tatsachen so nennen würden, wie sie sind, bräuchte sich hier doch niemand aufregen.
PCGH schreibt ja richtig, es sei nur eine FullHD Auflösung, die dann durch KI-Upskaling aufgehübscht auf 4K hochgerechnet und ausgegeben wird.
Und dann steht ja auch noch die zweite Aussage im Raum, dass durchgängig 60hz geliefert werden sollen, was aber zumindest in diesem Fall bei einer 2060 nur durch nochmals reduzierten Details (also weniger aufwendige Hochrechnungsalgoritmen etc.) erzielt wird.
Also wenn man die wahre Faktenlage betrachtet udn dann in den direkten Vergleich zu der herstelelraussage stellt, dann sollte jedem doch der eigentlich krasse Gegensatz ins Auge stechen, oder merken das einige immer noch nicht?
Wie gesagt, ich möchte nur, dass Hersteler ihren Kunden gegenüber die Wahrheit sagen, was hier aber wieder einmal absichtlich vertuscht wird.
Da wird quasi erwartet, dass Otto-Normalverbraucher sich erst einmal selber mit der ganzen Kürzel- und Technikfrage auseinandersetzt und einliest, udn dann auch noch Techniktests konsultieren muss, um Gewissheit darüber zu erlangen, was man nun wirklich von dem Produkt zu erwarten hat?
Bei den Konsolen wurde vorab schon so oft 8K und 120hz in einem Mund genannt, dass sich diese Schlagwörter bei vielen einfach so ins Hirn brennen udn im halben Jahr dann blind in die Läden rennen.
Bei den "1080p"-Konsolen kamen am Ende auch nur lauter 720p-960p Rendertitel auf den Markt.
Also nochmal, die Kommunikation und der Umgang mit dem Kunden missfällt mir leider allzu oft, man fühlt sich irgendwie für dumm verkauft, oder geht nur mir das so?
In meinem Handbuch vom Blu-Ray Player steht übrigens drin, dass dieser DVD's auf 1080 hochskaliert auf dem TV ausgeben kann.
Die "Grafik" sieht auch eindeutig besser aus (als einfach ohne Hardware-Skalierung ausgespuckt), erreicht aber natürlich bei weitem nicht eine native Ausgabe realer Bildinhalte.
NVidia würde einfach schreiben, dass der Blu-Ray Player DVD's in FullHD Auflösung flüssig wiedergibt. Ist zwar auch korrekt und nicht gelogen, aber da fehlt etwas in der Art der Aussage, und dem Unwissenden wird so unterschwellig etwas anderes, besseres vorgegaukelt.
Übrigens: ich möchte DLSS an sich jetzt nicht totreden, die Technik ist imemr dann von Nutzen, wenn die gekaufte Grafikkarte zu wenig Leistung für die Spiele bietet, somit spart man sich jedes Jahr einen Neukauf.
Es ist aber per se eine Detailreduktion, wie man sonst halt immer Schieberegler in den Grafikoptionen herunterkurbelt. Denn nur so kann man ja auch Extraleistung herauskitzeln, indem die Hardware weniger zu tun bekommt.
Stellt euch doch einfach mal vor, der Grafikkartenhersteller oder der Spielehersteller würde mitteilen, Grafikkarte für 150 Euro läuft flüssig in UHD bei dem und den AAA-Titel.
Zack, gekauft, eingebaut, angestellt.
Ergebnis: ruckelt wie sau?
Kleingedrucktes gelesen: läuft flüssig in UHD bei minimalen Details. Aha!
Wer wäre da dann nicht sauer? Eben.
Ich hoffe man versteht mich jetzt besser.
Danke für die Aufmerksamkeit - und weiterhin frohes Schaffen.