PS5 und Xbox Series X: Warum ausgerechnet Nvidia profitieren könnte

Da steht, hohe Taktraten erreicht sie nur, wenn man bei einer knapp 3k Karte nochmal Geld reinsteckt und als reine Gamerkarte lohnt sie sich nicht.

Natürlich siehst da keinen Hinweis auf konstruktive Kritik, die hebst du dir ja sowieso für AMD auf. Vllt. für die Radeon VII, die ja kein Bindeglied zwischen Gamer- und Prosumerbereich darstellt und beim Rendern und je nach Umfeld so manches Nv Derivat unangespitzt in den Boden rammt (Expertise von PCGH)?

Die hat beim spielen übrigens auch kein VRAM Problem, aber das gleiche wie eine Titan RTX, der Refrenzkühler taugt nicht viel um das gesamte Leistungspotential abzurufen. Aber kann ja nicht sein..., stammt ja nicht von Grün.
Edit sagt: ...ich bin übrigens gespannt, welche Ausrede euch einfällt wenn eine 3070 dann 250w schluckt. Werde schon mal Popcorn kaufen gehen.
Was Du nicht allses zwischen den Zeilen liest :lol:. Das ist halt der persönliche Anspruch von HisN. Und wenn er die Karte ausserhalb der Spezifikationen (über 2GHz) betreiben wiil............sein Ding, aber das gibt der normale Kühler halt nicht her.
Auf dein restliches Gebrabbel geh ich gar nicht erst ein, da ich mit keiner Silbe irgendwie AMD vs Nvidia erwähnt habe. Also versuch erst garnicht meine Aussage irgendwie dazu mißbrauchen.
 
@Eclipso:

AMD wird nicht im Ansatz so hart und oft kritisiert wie NVidia - was auch klar ist, das ist der Underdog Bonus. Aber wenn ich unsachliche Kritik an AMD sehe, würde ich ganz genauso reagieren. Wie oben z.B. bei dem Vorwurf der Preisabsprache.

Persönlich in Deinen Angriffen wirst immer nur Du und das mit einer schönen Regelmäßigkeit. Ich kritisiere bestenfalls Deine Aussagen (wie z.B. heuchlerisch), aber ich meide es, Dich persönlich anzugreifen. Du machst Dir diese Mühe jedenfalls nicht. Ansonsten kann ich Deinem obigen Text recht wenig koheränte Substanz entnehmen, auf die ich in irgendeiner Weise reagieren könnte.

Mir fällt nur auf, dass Du Dich immer als sehr wissend darstellst - dann aber solche Hämmer raushaust, wie neulich, wo Du die DLSS Auflösungen falsch berechnet hast. Und dann, in der Folge, meine daraus entstandene Konfusion, weil ich einfach nicht verstanden habe, worauf Du eigentlich mit den komischen Zahlen hinaus willst, dazu genutzt hast, um Dich über mich lustig zu machen. Als mir Dein Fehler dann endlich klar geworden ist, und ich Dich darauf hingewiesen habe, bist Du dann auf einmal aus dem Thread verschwunden. Eigenartig, oder?

Jeder stellt sich halt so gut dar, wie er kann. Auch Du.
 
Zuletzt bearbeitet von einem Moderator:
An deiner Stelle würde ich mal durch den eigenen Beitragsverlauf klicken und lesen was du selbst so verzapfst. Beleidigungen und so weiter. Wie in meinem speziellen Fall wo du austeilst aber selbst nicht einstecken kannst. Dann meinst du schnell die Leute denunzieren dich.

Was die Faktoren der Shadingrate angeht sind die von ihm völlig richtig angegeben. Nur hast du versucht seine Aussage wie ein Performanceprofil unter 1080p aussehen kann auf UHD umzumünzen. Davon hat er aber nie geschrieben. Du hast einfach versucht ihm das Wort im Mund umzudrehen. Weil du weist das er recht hat. Shadingrate führte NVidia als Begriff extra für DLSS ein. Es ist der Upscalingfaktor der seit DLSS2 in drei Qualitätsprofilen vorliegt. 0.5 bis 0.7 von der natien Ausgangsauflösung. Unter Metro entsprach UHD einem Profil von 1685p und heute ist Quality bei einer 16K Vorlage 1800p. Performance aber nur 1080p bei gleicher Vorlage von der aus NVidia die fehlenden Pixel rekonstruiert. DLSS kann dabei weder mit UHD mit halten noch mit einer 1800p Sharpening Ausgabe. Teilweise wird das Bild viel zu dunkel oder zu hell dargestellt was negativ auf das GI wirkt.

Was du wahrscheinlich noch nicht kapiert hast ist das er nur auf ausgewählte Beiträge von dir antwortet weil er dich ignoriert und ich ab jetzt auch. Weil du immer und immer wieder die Tatsachen verdrehst.

Genauso ist es jetzt mit heulerisch. Das kam von dir nicht vom ihm und ist bezeichnend für deine provokante Schreibweise. Vor allem immer wenn es um NVidia geht und dir was nicht passt. Dafür warst du schon im 3dcenter bekannt und hast da schon vor einiger Zeit die Segel gestrichen.

Wo er sich vertan hat war Framebuffer wo er den Teil des Rendercache für Texturen gemeint hatte. Da hat er sich nicht korrigiert aber geschrieben das ihm aufgefallen war das der Begriff von ihm nicht passte. Sein Link wohl auch nicht. Entwickler sprechen allgemein aber gerne mal von Framebuffer.
 
Zuletzt bearbeitet von einem Moderator:
@userguide:

Du und Eclipso haben behauptet, ein DLSS Scalingfaktor von 0,5 würde bedeuten, dass statt 2160p (UHD) nur noch 1080p bzw. dass statt 1080p nur noch 540p tatsächlich berechnet würde. Das ist aber falsch, da sich der Skalierungsfaktor auf die Pixelzahl und nicht eine Achse der Auflösung bezieht. Ein Bild ist zweidimensional, also geht die Halbierung der Pixelauflösung nur in der Wurzel in die Auflösung der Achsen ein.

Wo habe ich Dich beleidigt? Wenn Du so etwas behauptest, kannst Du das ja sicher mit einem Link belegen.
 
Zuletzt bearbeitet von einem Moderator:
Dahell63 ist das beste Beispiel das dir folgt mit seinen Gequatsache über Tessellation. Jeder weiß das NVidia nur in extremen Faktoren vorne lag die kein einziger Entwickler auf Spiele ummünzte. So jubelt ihr euch beide zu um gegen NVidia Kritiker vorzugehen. Selbst bezeichnet ihr euch dabei als objektiv was mehr als lächerlich ist wenn man manchmal liest was ihr für einen geistigen Abfall produziert.

Euch geht es nur um NVidia Gehype mehr nicht.
 
@userguide:

Du und Eclipso haben behauptet, ein DLSS Scalingfaktor von 0,5 würde bedeuten, dass statt 2160p (UHD) nur noch 1080p bzw. dass statt 1080p nur noch 540p tatsächlich berechnet würde. Das ist aber falsch, da sich der Skalierungsfaktor auf die Pixelzahl und nicht eine Achse der Auflösung bezieht. Ein Bild ist zweidimensional, also geht die Halbierung der Pixelauflösung nur in der Wurzel in die Auflösung der Achsen ein.

Wo habe ich Dich beleidigt? Wenn Du so etwas behauptest, kannst Du das ja sicher mit einem Link belegen.

GENAU das hast du angezweifelt und behauptet ein Bild wird in 1080p ausgegeben davon hat aber weder er noch ich geschrieben. Du hast das einfach so kommentiert.

Ansonsten leidest du reichlich an Gedachnisschwund. Hast sogar selbst geschrieben ich soll den Beitrag melden. :ugly:

Wie gesagt du darfst das und andere nicht du kaufst ein Produkt das andere nicht kritisieren dürfen. Gehts dir eigentlich noch gut? Was glaubst wer oder was du bist. Ein selbstverliebter Snob?
 
Dahell63 ist das beste Beispiel das dir folgt mit seinen Gequatsache über Tessellation. Jeder weiß das NVidia nur in extremen Faktoren vorne lag die kein einziger Entwickler auf Spiele ummünzte. So jubelt ihr euch beide zu um gegen NVidia Kritiker vorzugehen. Selbst bezeichnet ihr euch dabei als objektiv was mehr als lächerlich ist wenn man manchmal liest was ihr für einen geistigen Abfall produziert.

Euch geht es nur um NVidia Gehype mehr nicht.

Aha.

Bei Tessellation liegt NVidia in allen Faktoren vorne, nur in extremen halt auch extrem. Aber das spielt tatsächlich gar keine Rolle, es ist nur eine von vielen Eigenschaften einer GPU und bestimmt nicht die eine Eigenschaft, die NVidia Produkte jetzt so toll macht und AMD Produkte irgendwie schlecht. Zumal die Tessellation-Power von AMD absolut ausreichend ist.

Was nur nervt ist der ewige Vorwurf, dass NVidia angeblich im Alleingang hohe Tessellation-Faktoren "erzwingt" nur um besser dazustehen. Gegen diese aus der Luft gegriffene Aussage, die halt wieder den üblichen Hass gegen NVidia schüren soll, würde ich halt wieder aufbegehren.

Wo ist denn Dein "NVidia gehype", dass Du uns permanent vorwirfst? Wo jubeln wir NVidia zu? Träumst Du irgendwie?

GENAU das hast du angezweifelt und behauptet ein Bild wird in 1080p ausgegeben davon hat aber weder er noch ich geschrieben. Du hast das einfach so kommentiert.
Nein, habe ich nicht. Lies seine und meine Beiträge nochmal.

Wie kommt er denn sonst auf den Wert 540p? Und auch 1080p schreibt er mehrfach, wenn es um UHD + DLSS geht.

Ansonsten leidest du reichlich an Gedachnisschwund. Hast sogar selbst geschrieben ich soll den Beitrag melden.
s000.gif

Das war eine wohl passende Reaktion auf ein Posting von Dir, die Du sicher auch gemeldet hast, stimmts?

Wie gesagt du darfst das und änder nicht du kaufst ein Produkt das andere nicht kritisieren dürfen. Gehts dir eigentlich noch gut? Was glaubst wer oder was du bist. Ein selbstverliebter Snob?

Das ist doch Schmarrn. Natürlich darf man es kritisieren. Nur sollte es auch Kritik sein, die so was wie Substanz hat und nicht nur aus Vorurteilen und Hass besteht.

Aber was man definitiv nicht darf, ist *mich* oder alle anderen Käufer des Produkts kritisieren, weil sie sich das Produkt trotz seines Preises gekauft haben, so wie es hier in diesem und anderen Threads passiert ist.

Und was zumindest heuchlerisch wäre, wenn er selbst eine TitanX besäße, sich dann aber immer wieder über den Preis einer 2080Ti moniert. Ist das so schwer zu sehen?

(zum "selbstverliebten Snob" muss man ja gar nix mehr schreiben... ich wiederhole nur: Jeder stellt sich so gut dar, wie er kann...)
 
Zuletzt bearbeitet von einem Moderator:
Dahell63 ist das beste Beispiel das dir folgt mit seinen Gequatsache über Tessellation. Jeder weiß das NVidia nur in extremen Faktoren vorne lag die kein einziger Entwickler auf Spiele ummünzte. So jubelt ihr euch beide zu um gegen NVidia Kritiker vorzugehen. Selbst bezeichnet ihr euch dabei als objektiv was mehr als lächerlich ist wenn man manchmal liest was ihr für einen geistigen Abfall produziert.

Euch geht es nur um NVidia Gehype mehr nicht.

Was willst Du denn von mir? Behalt mal deine sinnlosen Anschuldigungen besser für Dich.

Am besten mal selber daran halten
Gehts dir eigentlich noch gut? Was glaubst wer oder was du bist. Ein selbstverliebter Snob?
 
Und was zumindest heuchlerisch wäre, wenn er selbst eine TitanX besäße, sich dann aber immer wieder über den Preis einer 2080Ti moniert. Ist das so schwer zu sehen?
Was dann von Dir zumindest "heulerisch" wäre, ist das du Kritik an den Rahmenbedingungen und der Preisgestaltung als nicht angemessen findest, sie dabei nicht mal zulassen willst. Du hättest was AMD betrifft und konstruktive (für dich gerechtere) Kritik angeht, jeden Post von Schaffe89 (und seinen zig nachfolgenden Accounts) kommentieren können. Hast du das gemacht, oder dich sinnvollerweise darüber beschwert? Da war nichts zu lesen! Im 3D-Center ging das sogar soweit, dass du Entwickler die sich über die nv-internen Rahmenbedingungen beschwerten, massiv angegriffen hast, so dass die Beiträge von der Moderation entfernt wurden.

Falls es dich interessiert, ich hatte deinen Beitrag gemeldet. Wie ich recherchieren konnte, erhält man kein abschließendes Feedback, ob dort zensiert wird oder nicht. Ich habe mich daher, auch nicht mehr dafür interessiert. Ist dein Beitrag gelöscht worden und bist du daher so eclipso fixiert? Beleidigen kann man nur jemanden, der sich in dem speziellen Fall auch beleidigt fühlt, trotzdem stand dein Wortgebrauch im Index und das habe ich gemeldet. Userguide selbst sah's nicht so, wie er selbst kommentierte.

Könntest du ganz kurz die image quality, das AI- und das darauf basierende Scalingmodell von DLSS kommentieren? Du weißt schon, dass es sich abschließend um ein temporales Upsample handelt und was das für die GPU und Renderpipeline in Engines bedeudet, oder?

Besonders bei der Darstellung von DLSS Vorteilen, wird da oft mit weichgezeichneter und nativer Vorlage verglichen, so war es zumindest unter Control (rate 0,67). Um dann für DLSS das bessere sichtbare Ergebnis zu suggieren, aber wie userguide schrieb, kommt es nicht ein einziges Mal an native Auflösungen heran und wird gerne mit TAA verglichen, wobei TAA das Bild extrem weichzeichnen kann. Bildqualität hat jeher und immer GPU Leistung gekostet, nicht weniger. Daran ändert auch DLSS nichts, es geht lediglich um eine Ressoucenumverteilung um RT zu ermöglichen, weil der Core für das BHV-T zu lange braucht, was aber eine grundlegende Eigenschaft von BVH ist. Es braucht Zeit.

Ab jetzt lasse ich euch gerne allein.
 
Achtung Durchsage, Achtung Durchsage, Grestorn und eclipso möchten gerne aus dem Bällebad abgeholt werden!

MfG
 
Ich hatte so eine Karte, ich habe es ausprobiert und es sieht einfach Kacke aus. Ohne DLSS kann die 2070 nichts. Meine Meinung. Was grestorn davon hält ist mir egal und er hat mir in dem Fall auch nicht das Wort zu verbieten. Fertig. Vor allem steckt der doch im Hintern von NVidia. Da braucht man nur lesen was der schreibt und schon deshalb ist das absolut nichts wert. Wenn er es gut findet soll er doch.
 
... und er hat mir in dem Fall auch nicht das Wort zu verbieten.
Das glaube ich nicht das er das will, aber er scheint Infos wie etwas funktioniert, nicht gerne nach aussen tragen zu wollen. Letztlich ist wichtig welches Bild die GPU an die DLSS "Box" (Tensor) übergibt, um den Output berechnen zu können. Und das ist nun mal ein Bild in 540p, wenn man unter 1080p das Preset: Performance auswählt. Das kann er gerne drehen und wenden wie er will, weil das auch sichtbar bleibt. Die Ausgabe und das Filtern kostet dabei fast nichts.

Wobei DLSS v2.0 als Bezeichnung ja etwas irreführend ist, wenn man nicht genau darauf achtet (ich glaube auch das passiert den Meisten) und es von x2 unterscheidet, denn da sollte die GPU ein Bild in nativer Auflösung (also gewählter Ausgabeauflösung) innerhalb des Inferencing abgleichen, was Nv bis heute nicht in Echtzeit schafft und nur dann steigt die Ausgabequalität gegenüber nativer Auflösung auch an.
 
Zuletzt bearbeitet von einem Moderator:
Das glaube ich nicht das er das will, aber er scheint Infos wie etwas funktioniert, nicht gerne nach aussen tragen zu wollen. Letztlich ist wichtig welches Bild die GPU an die DLSS "Box" (Tensor) übergibt, um den Output berechnen zu können. Und das ist nun mal ein Bild in 540p, wenn man unter 1080p das Preset: Performance auswählt. Das kann er gerne drehen und wenden wie er will, weil das auch sichtbar bleibt. Die Ausgabe und das Filtern kostet dabei fast nichts.

Nein, ist es nicht. Zum x-ten mal.

Die Auflösung halbiert sich, bei Performance (also Faktor 0.5). Das bedeutet NICHT, dass man eine Auflösung von 540p bekommt. Das wäre eine VIERTELUNG der Auflösung (also Faktor 0.25).

Bei 1080p in Performance ist die interne Rendering-Auflösung bei Performance (Faktor 0.5) ein wenig höher als 720p, aber eben nicht 540p.

(Und wieder kann ich nur mit dem Kopf schütteln, weil Du offenbar nichts gelesen hast, von dem was ich schreibe. Das ist so vielsagend...).
 
Das ist das Ausgabeformat, nicht die interne Renderingauflösung. HRHD ist vor allem ein Compressionsstandard.

Nvidia DLSS auf Turing im Test - ComputerBase

Schreib das ruhig CB was davon hälst? Lass mich überlegen, hat sich die Presseabteilung von Nv schon eingeschaltet?

Woher nimmt CB die Angaben? Die machen keinen Sinn und sind m.E. ganz genauso falsch.

So weit ich informiert bin, gibt NVidia nur die Rendering-Faktoren an, und keine Auflösungen. Und wie man dazu kommt, die Faktoren auf die einzelnen Achsen anzuwenden, erschließt sich mir nicht, das ist einfach nur falsch. Von CB genauso wie von Dir.

Wenn NVidia das so in einem Paper tatsächlich schreiben sollte, dann würde ich mich sehr wundern, denn dann ist das extrem irreführend. Ich kann nicht von einem Faktor von 0,5 reden und de Fakto 0,25 meinen.

Wenn ich die Fläche eines 4m², also 2x2 Meter großen Quadrates halbiere, dann habe ich doch hinterher auch nicht nur ein 1x1 Meter großes Quadrat! Sondern ein 1,41 x 1.41 Meter, also 2m² großes Quadrat!
 
Das haben alle so berichtet und stammt wohl von Nv selbst. Und ja es ist irreführend. Kritik deinerseits an dem Modell unerwünscht. Wenn das nicht stimmt sollten sie es richtig stellen, bisher keine Reaktion.
 
Das haben alle so berichtet und stammt wohl von Nv selbst. Und ja es ist irreführend. Kritik deinerseits an dem Modell unerwünscht. Wenn das nicht stimmt sollten sie es richtig stellen, bisher keine Reaktion.

Ich habe versucht, irgendwelche offiziellen White-Papers zu finden. Alles, was ich finden konnte, sind nur Beispiele, nirgendwo aber eine konkrete Aussage über den Scaling Faktor.

Ich habe aber von Dir selbst in dem anderen Thread den Faktor 0,5 für Performance gelesen und nahm an, den hast Du aus einem Whitepaper. Wo hast Du den denn her? Denn nach den Angaben, die man überall findet, ist der Faktor bei Performance-Modus offenbar tatsächlich eben nicht 0,5 sondern 0,25!
 
Das hat Raff doch auch so berichtet? Soweit ich das richtig verstanden habe geht es bei der Shadingrate um die Genauigkeit mit der man Pixelanteile berechnet. Intel hatte sowas mal angedeutet. Dabei werden die Pixel in Blöcke unterteilt und wenn man das wie du am Auflösungsverhältnis fest macht in Pixelanzahl unterteilt kommt man in einem Viererblock auf ein Pixel pro Block. Vier soll dabei ein gutes Verhältnis sein. Ob der Rest einfach durch DLSS rekonstruiert wird oder ob dort einfach nur ungenauer berechnet ist unklar. Es gibt keine andere Angabe von 0.5 bei 540p was aber nur ein Pixel von vier ist. Da hast du vollkommen recht.

In Deliver of the Moon sieht man sehr genau selbst unter UHD Quality wie DLSS die Farbwerte stark verändert. Das Bild wird auch im Qualitätsmodus total unscharf. Beleuchtung wird gleich ganz weggepatcht. Ob die Werte wirklich fest sind also Pixel pro Block ist unklar. Aber 540p wäre nur 0.25. AMD unter VSR kann wohl dynamisch rechnen. Raff hat das Ganze ja mal versucht mit Downsampling zu vergleichen. Dort gibt es ja fixe Faktoren ausgehend von derAuflösung. Ohne RTGI sieht das Bild völlig anders aus als der Entwickler wollte. Dann muss man wohl nochmal NVidia hinzuziehen. Die lesen ja nun nichts mehr pro Spiel ein sondern ein AI Netzwerk für alles. Es liegt also am Training. Das hat eclipso auch schon angesprochen. Desto mehr das benutzen würden umso mehr kann NVidia sammeln. Nur wie lange dauert das? Monate bis Jahre?
 
Was soll mir das sagen? Massiv optimiertes Pressematerial. Kauf dir einfach so eine Karte und sieh es dir im Original an. In Shadow of the Tomb Raider war es in einer Szene ok und in der nächsten völliger Matsch auf einer 2070. Ohne schaffst du kanpp 40/50 Frames was manchmal ruckelig wirkt. Mittlere Qualität ist kaum ein Unterschied zu nicht Raytracing zu erkennen

Man braucht eine 2070s als Einsteiger oder die 2080Ti als Highend. Der Rest ist einfach rausgeschmissen Geld. NVidia hat genauso optimiertes Material zum RTX und DLSS Launch gezeigt. Die Hälfte davon ist bis heute nicht erscheinen so wie DLSS x2 64SS oder bestimmte Spiele. Jetzt lesen sie einfach höher aufgelöste Vorlagen ein. Das Bild wird immer noch runtergerechnet und nicht hoch auf über nativ. Am Anfang hatte man gemeint man wollte für 1080p gar kein DLSS liefern. Weil man es nicht braucht. Ja klar.:ugly:

Ich habe mir eine gebrauchte 1080Ti geholt, weils da keine Alternativen gibt. Eigenlich hätte man NVidia Rücken kehren müssen für deren ganzen Anfangslügen und die Kundenverarsche. Nach knapp einem Jahr war ich bei 600 Euro Anschaffungspreis nur noch 2060s Besitzer. Für den Preis kannst du die Karte dann als gebraucht verkaufen bei 50 Prozent Verlust.

Vielen Dank NVidia habt ihr ganz toll gemacht. Bin super super super duper stolz auf euch.:lol:
 
Zurück