Find ich ehrlich gesagt in Ordnung wenn der Preis nicht so hoch wäre.
Was groß anderes wird hier doch gerade gar nicht an den Pranger gestellt, der Preis in Verbindung mit der Leistung in Verbindung mit dem Namen!
Faktisch liegt die 4080 12GB irgendwo zwischen einer 60Ti und einer 70, genannt wird sie aber 80 und preislich liegt sie bei den Titans! Eine 3080Ti kostet derzeit noch 1.000 EUR, eine 4080 12GB soll dann nochmal 200 EUR mehr kosten? Warum genau?
Man sollte hier bitte nur nicht so tun, als ob Nvidia den heiligen Gral geschaffen hat, DLSS muss immer noch erst einmal einprogrammiert werden, woran es derzeit eben noch hapert, Ende Q1 22 hat GameStar mal eine Liste rausgebracht, da sind 124 Spiele mit DLSS Unterstützung enthalten, davon werden einige noch rausfallen, die nichtmal DLSS2 bekommen haben und selbst von denen mit 2er Funktion werden nicht viele mit 3 kommen. Damit will man aus DLSS 3 jetzt aber das Killerfeature schlechthin machen, ja ein gutes Feature wird es, aber es rechtfertigt nicht diese Art von Aufpreis.
Ich hab jetzt wirklich viel nachgedacht und noch weiter gelesen, seit den Bekanntwerden der Karten, klar warte ich noch auf echte Benches, aber das was ich bisher gesehen habe, lässt mich (wie schon beim Vorgänger) zum Schluss kommen, dass Nvidia derzeit keine gute Arbeit leistet! (ja, ich weiß, dass dies eine gefährliche Aussage ist) Aber man hat bereits beim Vorgänger es nicht geschafft einen signifikanten Vorteil gegenüber dessen Vorgänger auszuarbeiten, im Wesentlichen hat man das Powerlimit erhöht und den Fertigunsgvorteil zum "Stromsparen" genutzt. Damit hat man dann "beeindruckende" Gewinne erzielen können, genauer geschaut war das aber nur blenden und nicht brillieren. Nach allem was wir nun gesehen haben zur kommenden Gen, wird es hier sehr ähnlich ablaufen, der Vorteil der Fertigung wird auf 30% Effizienz geschätzt, der Zuwachs aus der Architektur wird aber in realen Szenarien nicht viel größer sein. Du hast es selber geschrieben, 21% weniger Verbrauch bei nahezu identischer Leistung! Von 8 auf 4 nm ist das schon fast zu wenig um noch ein "ausreichend" zu bekommen, das geht schon sehr in Richtung "mangelhaft".
Softwareseitig macht NV einen guten Job, gar keine Frage, allerdings ist die Nutzbarkeit von RT (gut, weniger Software mehr Hardware) und DLSS immer noch gar nicht so weit verbreitet wie die meisten denken. DLSS3 bspw. (wird ja schon hier angedeutet) wird zum Release quasi nicht existent sein (klar, ein paar Fanboys werden nur das Spiel spielen was es nutzt, seit Jahren schon!), RT ist für mich bisher nicht über das Experimentalstadium hinaus gekommen. Es nützt mir (subjektives mir) nichts, lieber höher skalierende Texturen, denn berechnetes Licht!
Aber Nvidia ist dann doch eine Hardwareschmiede und in dem Bereich ist es nach dem Kracher 2xxx, sowohl mit Version 3xxx als auch 4xxx (zumindest nach aktuellem Stand) eher schwer enttäuschend. Mit 3xxx hatte man viel Glück, dass AMD einen gewaltigen Rückstand aufzuholen hatte, mit RDNA3 kann man aus NV Sicht nur hoffen, dass man bei AMD auch nicht nochmal einen ähnlichen Sprung wie RDNA2 hinbekommt (die für mich schon das bessere Stück Hardware waren)