Special AMD FSR oder Nvidia DLSS exklusiv? Die PCGH-Community hat ganz klare Forderungen!

Bis heute ist G-Sync, Freesync überlegen. G-Sync geht bis 1hz, während Freesync nur bis 40hz runtergeht.
Das Problem an G-Sync, ist das es eine Hardware Lösung ist und Freesync eher eine Software Lösung.
Freesync ist so weit verbreitet, weil es sogut wie nichts kostet.
Wenn ich mich nicht irre kommt das Stark auf die Implementierung von Free-Sync an und ich meine es gibt genug Free-Sync Monitore die das auch können. Aber ich meine @JoM79 weiß da mehr.
 
Realistischer ist es mit Raster aber nicht mehr wirklich möglich bzw. s wird zu ineffizient.
RT ist die Zukunft. Nicht ohne Grund wird das Verfahren selbst bei Film und Fernsehen benutzt.
Es hat schon so viele neue Verfahren für Raster gegeben, da findet man sicher noch welche.
Und Film ist ein schlechter Vergleich.
Die haben keine Echtzeitanforderung zu erfüllen.

Wieso ist DLSS ein mieser Trick und wieso sind Tricks schlecht?
DLSS hat nichts mit RT zutun und funktioniert auch mit Raster. RT löst viele Probleme, die wir mit Raster hatten wie z.B. statische bzw. falsche Belichtungen oder SSR.
Ich habe nichts gegen Tricks.
Aber RT ist mit dem Versprechen angetreten, dass man sie nicht mehr braucht.
Und jetzt stehen wir bei miesen Tricks die Spezialhardware benötigen.
Und nur weil RT verwendet wird bedeutet es noch lange nicht, dass dann auch das Richtige am Schirm landet.
Ich erinnere mich da noch an die tollen Werbebilder auf denen die hälfte der Objekte in der Szene keinen Schatten geworfen haben.

Ja und? Es so zu machen ist viel effizienter und besser als mit roher Power oder willst du 1000W+ GPUs die 5000€+ kosten?
Aber das ist genau das was wir jetzt mit RT haben.
2000€ Karten mit 600W, die dann immer noch zu schwach sind um Native mit ordentlichen FPS zu rendern.
Ich bin ja immer noch der Meinung, dass das Silizium statt mit Tensor- und RT-Cores besser für mehr Shadern verwendet wäre.

Kannst du das durch irgendeinen Test belegen?
Test?
Wozu?

DLSS&Co sind nur notwendig, wenn die Performance für native nicht reicht -> DLSS&Co sind aktuell das wichtigste Feature (nicht meine Meinung, aber wurde mir gesagt) -> die aktuellen Karten sind der Aufgabe nicht gewachsen.
Q.E.D.
 
Zuletzt bearbeitet:
Und Film ist ein schlechter Vergleich.
Die haben keine Echtzeitanforderung zu erfüllen.
Nö, ist es nicht. Es war technisch bisher nicht möglich, weil die Rechenpower fehlte, aber die kommt jetzt langsam und es wird möglich. Deshalb geht man diesen Schritt.

Ich habe nichts gegen Tricks.
Aber RT ist mit dem Versprechen angetreten, dass man sie nicht mehr braucht.
Und das Versprechen wird erfüllt. DLSS ist für ein funktionelles RT nicht notwendig. Du kannst es auch ohne nutzen.

Und jetzt stehen wir bei miesen Tricks die Spezialhardware benötigen.
1. ist das kein "mieser" Trick und 2. ist daran nichts schlecht.
Ich kann nicht nachvollziehen, weshalb du so krampfhaft versuchst das schlecht zu reden. Es ist für alle eine Win-Situation in jeglicher Hinsicht. Sich an so Kleinigkeiten hochzuziehen ist reine Zeitverschwendung.

Und nur weil RT verwendet wird bedeutet es noch lange nicht, dass dann auch das Richtige am Schirm landet.
Ich erinnere mich da noch an die tollen Werbebilder auf denen die hälfte der Objekte in der Szene keinen Schatten geworfen haben.
Keine Ahnung wovon du redest. Du solltest zu solchen Aussagen schon Quellen liefern. Ich kann dir schlecht in den Kopf gucken.

Aber das ist genau das was wir jetzt mit RT haben.
2000€ Karten mit 600W, die dann immer noch zu schwach sind um Native mit ordentlichen FPS zu rendern.
Ich habe null Probleme um nativ RT zu zocken. Btw. sind es 450W, aber wen interessiert das schon? ;)
Diese Fixierung auf Nativ ist auch schwachsinn. Upscaler, gerade DLSS, sind in allen Punkten idR. nativ vorzuziehen:
  • Die Bildqualität steigt
  • Die FPS steigen
  • Der Verbrauch sinkt u.U.
    • niedrigere Stromkosten
    • Die Bude heizt sich im Sommer nicht so auf
Warum sollte ich hier also so auf nativ pochen? Ergibt 0 Sinn.
Gerade, da du es ja selbst ansprichst, dass 600W für nativ angeblich zu schwach wären: Was glaubst du würde die Karte verbrauchen, wenn sie genug Rohleistung hätte, um deine nativen Anforderungen zu erfüllen? Vermutlich jenseits der 1000W und dann heulst du auch sicher wieder wegen des Verbrauchs rum.
Was ist also überhaupt dein Punkt?!

Ja, wozu irgendwas testen? Behauptungen, gefolgt von einem Q.E.D, damit man besonders smart wirkt, reichen doch :ugly:
Da ist es dann auch egal, dass jeglicher unabhängiger Test (CB, PCGH, HW Luxx, HW Unboxed, etc.) zu einem anderen Ergebnis kommt als man selbst.
 
Zuletzt bearbeitet:
Test?
Wozu?

DLSS&Co sind nur notwendig, wenn die Performance für native nicht reicht -> DLSS&Co sind aktuell das wichtigste Feature (nicht meine Meinung, aber wurde mir gesagt) -> die aktuellen Karten sind der Aufgabe nicht gewachsen.
Q.E.D.
Gut, jetzt komme ich ;)

DLSS sieht oft besser aus als nativ. Damit haben die aktuellen Karten die Aufgabe erfüllt.
 
Lol, du vermischt hier Bewegungsvektoren mit Bildqualität.
Auf dieser Plattform wird so viel Schrott gepostet, dass es keinen Spaß mehr macht überhaupt zu reagieren.

Die Bewegungsvektoren zeigen nur die Richtung sich bewegender Objekte, das mehr an Details kommt aus den Alias Bildern...die verrechnet eine höhere Auflösung ergeben...woraus sich auch mehr Details als in nativer Auflösung ergeben.
Und wo ist da das Problem? Läuft FSR etwa auf Nvidia Karten schlechter?
Der AMDler Bärenmarke mit seinen Halbwahrheiten.
 
Auf dieser Plattform wird so viel Schrott gepostet, dass es keinen Spaß mehr macht überhaupt zu reagieren.

Die Bewegungsvektoren zeigen nur die Richtung sich bewegender Objekte, das mehr an Details kommt aus den Alias Bildern...die verrechnet eine höhere Auflösung ergeben...woraus sich auch mehr Details als in nativer Auflösung ergeben.
Du schriebst erst von höherer als nativer Auflösung (Bullshit) und dann eben von Bildinformationen aus 3 Bildern.
Die Bewegungsvektoren werden über zumindest 2 Frames hinweg betrachtet, damit man dem Autoencoder mitteilen kann, welche Bildelemente relevant sind.

Was für "Alias Bilder"? Wovon laberst du?
 
Na hier wirde ja ordentlich gelöscht...
Guck dir einfach mal die Skalierung von 4080 auf 4090 an. Für die vorhandenen Shader ist letztere eigentlich immer noch viel zu langsam. Eben weil Rasterleistung nicht mehr ordentlich skaliert.

Wenn die Shader Däumchen drehen hat es aber wo anders etwas.
Eventuell zu knappes Speicherinterface?
 
Zurück