AW: Geforce-Topmodelle: RTX 2080 Ti löst GTX 1080 Ti endgültig ab
Wovon sprichst du bitte? Willst du jetzt die Mehrleistung vergleichen, oder sie durch die CPU in Full HD verhungern lassen?
Dass die 2080 Ti in 720p keine Mehrleistung zu einer 1080 Ti bringt, hättest du nebenbei auch noch erwähnen können, wenn die CPU das Limit darstellt.
Was redest du für einen Quark?
1. Du kauft dir eine 1000 Euro Karte für FHD? Was ist das für ein hirnrissigen Argument, wenn nV RTX jetzt lediglich unter 720p lauffähig wäre, dann ist halt nur noch 720p wichtig?
2. Kannst du mir in ein paar kurzen Sätzen erläutern warum man CPUs unter 720p bencht?
Adaptive Shading (lese mal nach was dieses Wort überhaupt bedeutet?) genau das Gleiche - hier werden Texturen geringer aufgelöst. Natürlich rendert eine GPU dann schneller wenn die Pipeline und das Caching entlastet wird. Nur kann man das gar nicht mit der 1080ti vergleichen, weil dort die Bildqualität höher ist! DLSS skaliert lediglich die Auflösung hin und her, eine KI fügt dem ganzen dann Pixel hinzu, wo sie meint das sie gut sichtbar wären, es Sinn macht und nV findet, dass die Bildquali ähnlich zum nativen Ausgangformat wäre, wobei sichtbare Kanten und Flimmern minimiert werden soll, die man in höherer Auflösung gar nicht wahrnimmt. Früher nannte man so einen Quatsch Treiber cheaten und hat AMD dafür an den Pranger gestellt, als sich am LOD ein Treiberfehler eingeschlichen hatte! Das nur weil sonst RTX nicht lauffähig ist, man das aber hätte völlig anders lösen können.
NVidia spricht von nicht sichbar, aber es ist sichtbar, unter BF V leidet die Geometrie der Engine und kostet der Wegfall der Optimierungen wieder zusätzlich Leistung. Wenn ich mir eine solche Karte kaufe, dann will ich keine Flickschusterei. Es wäre klar möglich gewesen das umzusetzen, wenn man auf Tensor verzichtet hätte, denn die Deep Learning KI braucht auch Raytracing nicht. Direkt in Spiele wird dieses als AI auch erst mal keinen Weg finden. Nur verwurstet man den Abfall aus der HPC/Quadro Fertigung, schreibt Turing drauf und gut isses, vergleicht das aber intern mit dem G80, der revolutionär und angemessen preiswert war.
Du kannst ja gerne diesen Ansatz unterstützen, aber bevor du hier kommst und jeden als roten Irgendwas bezeichnest, dabei jedes Argument als Verschwörung von AMD abtust oder deren Jünger, beschäftige dich erst tiefergreifend mit den Funktionen!
Wozu bist du jetzt von einer 1080ti zur 2080ti gewechselt? Früher galt mal die Regel +50-100% mehr. Mit deiner Art unterstützt du genau das was viele nicht wollen, dass nVidia statt bei der Hardware beim Preis von Gen zu Gen, für immer weniger mehr verlangt. Andersherum denkst du AMD sei dafür verantwortlich zu machen. Lisa Su sagte schon vor etlichen Monaten das AMD nVidia den Entwicklungserfolg im Bereich Highend+ und deren Effizienz anerkennt, sie denken das die gute Grafikkarten bauen, haben sich daraufhin aus dem Segment zurückgezogen.
Wer solche Tatsachen ignoriert, aber ständig auf eine Firma einschlägt ohne auch nur die technischen und wirtschaftlichen Zusammenhänge zu kennen, ist für mich nicht mehr als ein Clown.
Wozu kaufst du dir einen 9900k, der wird durch die 2080ti in Spielen unter UHD faktisch limitiert. Da hättest du auch eine 60% preiswertere CPU wählen können! Das Ding ist gerade 1fps schneller als ein SR7 1700 unter UHD. Erzähl mir nicht du kaufst dir eine 2080ti, um damit unter 720p oder 1080p zu spielen. Und alles andere was nVidia da anpreist ist kein natives UHD!
Letztlich geht es nVidia dabei nicht anders als AMD bei Fiji oder Vega, man bekommt die Pipeline nicht ausgelastet. Unter FHD inklusive RTX nimmt die Leistungsaufnahme der Karte deutlich ab, was ein Zeichen dafür ist das es Auslastungsprobleme der Shader gibt, weil RTX zu langsam arbeitet und wohl zusätzlich, nicht nur bis zu 1,5GB VRAM mehr braucht sondern auch Platz im L Cache. Das nur weil DXR Reflektionen aktiv sind, man stelle sich mal vor wenn man mehrere DXR Feature aktiv hat, wie das dann aussieht.
Turing ist damit keine eigens entwickelte Gamer GPU, es ist das Gleiche wie bei AMD und genau dort liegt der Hund auch begraben. Maxwell/Pascal wurden mit Fokus für das Segment Gamer entwickelt. Der Gamer hat also für nVidia intern kaum noch Relevanz, man will so schnell wie möglich die entstanderen Entwicklungskosten wieder reinholen, weil man eben nicht weiss, ob RTX für Gamer so überhaupt ausreichend Anklang findet, dabei ist Gameworks RTX nicht nur für Gamer gedacht, sondern auch für HPC.