XXTREME
Lötkolbengott/-göttin
Braucht man in Games ja auch nicht ...... seit dem Release des 5800X3D braucht auf einmal auch niemand mehr als 8 Kerne.
Braucht man in Games ja auch nicht ...... seit dem Release des 5800X3D braucht auf einmal auch niemand mehr als 8 Kerne.
So einfach ist das leider nicht. Nvidia verfolgte schon immer andere Ansätze als AMD. Letztere setzen auf offene Standards und Kompatibilität für alle, opfern dabei aber die Möglichkeit, besonders weit zu gehen. Nvidia ist hier mehr Innovator, DLSS 3 ist eine ganz neue Form des zeitlichen Upsamplings - und die macht man eben nicht mal eben, das braucht Forschung und Rechenwerke, um die Idee in Echtzeit umsetzen. Nvidia setzt das mittels proprietärer Ansätze um. Das muss man nicht mögen, es ist aber durchaus nachvollziehbar. Wenn ich meinen Kunden etwas Neues liefern möchte, muss ich manchmal auch alte Zöpfe abschneiden und/oder unbeliebte Entscheidungen treffen.Trotzdem muss man dies nicht unbedingt für gut befinden. Das Nvidia darüber hinaus DLSS3 den 4000er Karten vorbehält ist die allergrößte Frechheit
Ich schätze mal nicht, denn sonst würde sich der kauf einer 1500-2000€ Ada GPU ja nicht mehr lohnen.Schauen wir mal, was Nvidia zu unseren löchernden Fragen sagt, ich erwarte da noch Feedback. Möglicherweise kommt DLSS 3 zumindest noch für Ampere, denn spätestens mit den kleinen Ada-SKUs (AD104-Salvage und kleiner) ergibt das Argument mit den neuen Tensorkernen keinen Sinn mehr.
Ampere Karten sind "alte Zöpfe" alles klar. Ich frag mich langsam echt was mit den Leuten hier nicht stimmt bei soviel Überheblichkeit ....... Das muss man nicht mögen, es ist aber durchaus nachvollziehbar. Wenn ich meinen Kunden etwas Neues liefern möchte, muss ich manchmal auch alte Zöpfe abschneiden und/oder unbeliebte Entscheidungen treffen.
MfG
Raff
Wobei es doch wohl so aussieht, dass es keinen Grund gibt, warum auf 3xxxer das ganze nicht laufen sollte.DLSS 3 ist eine ganz neue Form des zeitlichen Upsamplings - und die macht man eben nicht mal eben, das braucht Forschung und Rechenwerke, um die Idee in Echtzeit umsetzen.
Ich gehe davon aus, dass man jetzt die großen 4er Karten promoten will und dann hinterher sich wieder einmal (auch dies wäre ja in der jüngeren Vergangenheit nicht das erste Mal) kleinlaut hinstellt und für Ampere freigibt.Möglicherweise kommt DLSS 3 zumindest noch für Ampere
So wie es sich anhört, legen aber nicht gewisse Teile des Chips um den Faktor 4 zu, sondern wir erhalten bis zu 4 facher Performance auf dem Bildschirm, wo aber dann unter Umständen jedes zweite Bild nur geraten ist und daher ja nun wirklich nicht ernsthaft gezählt werden kann. Also effektiv gehe ich von doppelter FPS Zahl bei RT Spielen aus und ca. 50% Plus im reinen Rasterizing. Der Rest ist Softwaregeschummel, wofür beide Anbieter in der Vergangenheit schon gescholten wurden (gut, da wurde nicht kommuniziert, dass man "schummelt")Wenn bestimmte Teile eines Chips um Faktor 4 zulegen, dann ist der "heiße Scheiß" von gestern nun mal ein alter Zopf. Das nennt sich Fortschritt und eigentlich wollen wir den doch alle - oder nicht?
Wenn ich etwas sarkastisch antworten würde, dann würde ich in etwa folgende Aussage treffen:Aber MC ist doch nicht wichtig? Die E-Kerne von ADL sind doch schließlich nutzlos und seit dem Release des 5800X3D braucht auf einmal auch niemand mehr als 8 Kerne.
Ich kann seine Aussage verstehen!Ich muss jetzt mal fragen: Hast du die letzten paar Jahre unter einem Stein geschlafen?
Frechheit würde ich es gar nicht mal nennen, sondern eher Taktik! NV hat kostentechnisch ein noch viel viel größeres Problem als alle anderen. Der Chip schrumpft zwar von 8 auf 4nm aber in Wirklichkeit schrumpft er eben nicht und man nutzt an allen Ecken jeweils nur das beste vom besten (GDDR 23gbps) usw. und braucht dies scheinbar auch für seine Karten. Insofern muss man die Karten im Vergleich zur Vorgängergeneration nochmals deutlich verteuern und du kannst halt eine 4080 12GB für 1.099 EUR nur schwerlich am Markt platzieren, wenn die Vorgängergeneration nahezu die gleiche Leistung für 200 EUR weniger bietet (3080 Ti für 899 EUR). Daher hat man hier viel auf den Softwareschummel gesetzt und versucht nun den "MM Käufern" zu suggerieren, dass die Karten bis zu 4 mal schneller sind! Nennt sich Marketing und wäre wohl gelogen und problematisch, wenn man Ampere auch Zugang zu DLSS3 verschaffen würde, dann wäre die 4080 eben gegen 3080Ti nicht wirklich vorne.Das Nvidia darüber hinaus DLSS3 den 4000er Karten vorbehält ist die allergrößte Frechheit
Faktor 4 war auf die reine "Optical Flow Leistung" bezogen, GA102 Full Fat gegen AD102 Salvage. Stand jetzt weiß ich aber nicht, wie schöngerechnet das ist. FP32-Leistung ist demgegenüber "nur" um Faktor ~2 gestiegen.So wie es sich anhört, legen aber nicht gewisse Teile des Chips um den Faktor 4 zu, sondern wir erhalten bis zu 4 facher Performance auf dem Bildschirm, wo aber dann unter Umständen jedes zweite Bild nur geraten ist und daher ja nun wirklich nicht ernsthaft gezählt werden kann. Also effektiv gehe ich von doppelter FPS Zahl bei RT Spielen aus und ca. 50% Plus im reinen Rasterizing. Der Rest ist Softwaregeschummel, wofür beide Anbieter in der Vergangenheit schon gescholten wurden (gut, da wurde nicht kommuniziert, dass man "schummelt")
OK, hier habe ich etwas andere Infos, welche nun richtig sind, weiß ich natürlich nicht, aber CB schreibt folgendes:Faktor 4 war auf die reine "Optical Flow Leistung" bezogen, GA102 Full Fat gegen AD102 Salvage. Stand jetzt weiß ich aber nicht, wie schöngerechnet das ist. FP32-Leistung ist demgegenüber "nur" um Faktor ~2 gestiegen.
MfG
Raff
Jetzt hab ich nochmal weitergesucht und bin auch bei euch fündig geworden:Den für das Feature wichtigen „Optical Flow Accelerator“ gibt es zwar auch schon bei älteren GeForce-RTX-Beschleunigern, für Ada Lovelace wurde dieser aber überarbeitet und ist nun um den Faktor 2 bis 2,5 schneller.
PCGHetwa beim Optical Flow Accelerator. Der soll jetzt das 2- bis 2,5-fache der Leistung abliefern, die noch bei Ampere zu haben war.
Wenn aber die Bildqualität so gut wie gar nicht oder nur geringfügig darunter leidet, sehe ich eigentlich keinen Grund, Upscaling nicht zu nutzen. Eben WEIL dadurch auch die Lebensdauer der Karte steigt und mehr Performance rausgekitzelt wird.Ich kann seine Aussage verstehen!
Das hat auch nix mit unter einem Stein geschlafen zu tun, Upscaling ist ja schon seit Jahren ein Thema, es wurde ja nur qualitativ enorm verbessert. Aber auch für mich hat es eher was im mittleren Segment oder eben zur Erweiterung der Lebensdauer einer Karte zu tun, wenn ich heute High End kaufe, dann will ich nicht upscalen, sondern Nativ spielen.
Dir ist aber schon klar, dass Cyberpunk 2077 mittlerweile 2 Jahre alt ist? Spätere Spiele werden natürlich höhere Anforderungen hinsichtlich RT stellen. Und da wird Upscaling - wenn man nicht mit 30fps rum gurken will - nötig. Auch bei High End-Hardware und je nach Auflösung.Wobei ich hier eben gar nicht die große Problematik sehe, denn nach meinem Gusto konnten die HighEnd Karten von Ampere dies schon bewältigen (RT Ultra war halt noch so das letzte Problem) und die neue Gen wird das ja nicht schlechter machen, sondern gerade im bisher noch anfälligen Bereich RT eine große Schippe drauflegen. Wenn ich dann CP2077 dann in nativer Auflösung mit RT Ultra spielen kann bin ich glücklich und würde eben sagen, dass die Karte das erfüllt, was ich erwarte, ganz ohne DLSS.
Für mich ist DLSS eben auch nur eine Form der Unterstützung und kein dauerhaft aktiviertes Feature (unabhängig davon, dass ich es aktuell gar nicht habe).
Nein, aber denn Sinn ist für mich, Sinnlos. Entweder Power oder nicht. So denke ich schon lange darüber.Ich muss jetzt mal fragen: Hast du die letzten paar Jahre unter einem Stein geschlafen?
Dann kann ich doch Gleich auf dem TV Zocken, der die Pixel simuliert, was anderes ist das auch nicht.Upscaling ist doch nicht nur bei Einsteiger- und Mittelklassekarten sinnvoll. DLSS und FSR bieten - je nach Auflösung und Stufe - vergleichsweise gute Bildqualität bei deutlichem Performancegewinn. Gerade DLSS punktet hier nicht selten mit top Bildqualität. Das ist auch für High End-Klassen durchaus sinnvoll. Gerade wenn es um leistungsfressendes RT geht.
Mein 1080ti, entweder sie schafft Downsampling oder nicht.Und für dich als GTX1080Ti-Besitzer wäre zumindest FSR mit Sicherheit einen Blick wert.
PS: Da Downsampling, wovon du sprachst, schon gut Leistung zieht, wäre eine leistungsstarke Karte von Vorteil.
Ich versteh dein Problem nicht. Was ist denn "echte Power"? Wovon redest du denn da bitte?Nein, aber denn Sinn ist für mich, Sinnlos. Entweder Power oder nicht. So denke ich schon lange darüber.
Dann kann ich doch Gleich auf dem TV Zocken, der die Pixel simuliert, was anderes ist das auch nicht.
DLSS und FSR ist in meinen Augen nur für Einsteiger- und Mittelklassekarten sinnvoll. Entweder Power da oder nicht. Alles andere ist FPS-Doping.
Mein 1080ti, entweder sie schafft Downsampling oder nicht.
Und wenn ich das so lesen, dann denke ich:
Was schafft solch eine 4090 mit Downsampling (DSR x 4.0) und RT, bei Cyberpunk .... Wahrscheinlich 10 FPS.
Für mich ist DLSS und FSR nur schön Malerei, entweder ich schaffe die Auflösung oder nicht.
Sowas testet PCGH nicht. ECHTE POWER und nicht so ein ....
Trotzdem spielen alle immer mit Ultra Details, trotzdem wollen alle RT nutzen, obwohl die Bildqualität nur geringfügig besser wird? Du merkst den Widerspruch in den Aussagen, oder?Wenn aber die Bildqualität so gut wie gar nicht oder nur geringfügig darunter leidet,
FPS-Limiter / V-Sync sollte auch mit DLSS3 funktionieren.Noch was: DLSS 3 verdoppelt die Framerate ja, prinzipbedingt. Was ist aber, wenn ich die doppelte gar nicht will? Beispiel: Ich hab 60fps ohne DLSS 3, mein Monitor kann 98 Hz... Was dann?
Soll NVIDIA also über 2 Generationen ein Feature vorbereiten, nur damit der direkte Vorgänger nicht ausgeschlossen werden muss?Ampere Karten sind "alte Zöpfe" alles klar. Ich frag mich langsam echt was mit den Leuten hier nicht stimmt bei soviel Überheblichkeit .
Der Unterschied ist schon mal die Qualität, Upscaling kann jede GPU, bzw. jeder Monitor. Dabei wird einfach das niedrig aufgelöste Bild hochgerechnet. Das Ergebnis ist jedoch eine schlechte Bildqualität, je nachdem wie stark vergrößert ist es mehr oder weniger deutlich zu sehen.DLSS/FSR und UHD-Upscaling wo soll da der Unterschied sein?
Da kann ich mir ein 4K-TV mit UHD-Upscaling kaufen und nehme meine 1080ti oder RaspberryPi4b, habe das gleich, nur billiger, Stromsparender und praktischer (kann ja auch TV schauen oder Streamen) .