Was mich eher nervt ist der 192 Bit Speicherinterface !! Für eine 70(ti) ein nogo
Das Speicherinterface isoliert zu betrachten ist wenig sinnvoll, muss man immer im Zusammenhang mit dem verbauten Speichermodulen sehen, denn nur so kommt man ja auf die effektive Speicherbandbreite. Sobald Gddr7 mit noch mal deutlich höheren Taktraten kommt wird Nvidia das Interface wohl auch noch weiter reduzieren, einfach weil es auf dem Chip Platz spart und durch den schnellen Speicher nicht notwendig ist.
Für den Nutzer macht es keinen Unterschied, ob eine 4070 mit 192 Bit und 21Gbps Gddr6 kommt oder halt 256 bit und beispielsweise 16 Gbps Gddr6, beides läuft auf ~500GB/s Bandbreite hinaus. Mag sein, dass es Spezialanwendungen gibt wo sich Unterschiede ergeben können, ich kenne allerdings keine und im Gaming ist es egal.
Davon ab ist die Speicherbandbreite der 4070 ausreichend bemessen, in 4k wird sie minimal schwächeln (wissen wir ja aus dem Test der 4070ti), aber das ist sowieso nicht die Zielauflösung dieser Karte.
Nachhaltigkeit ist für Nvidia ein Fremdwort: es werden nicht zukunftsfähige Grafikkarten mit Sollbruchstelle und eiskalt kalkuliertem Ablaufdatum zu Wucherpreisen angeboten.
Grundsätzlich nicht falsch, Nvidia betreibt definitiv Gewinnoptimierung über den verbauten Vram, aber "Sollbruchstelle" und "Ablaufdatum" ist einfach nicht korrekt und völlig überzogen. Man wird alles problemlos Spielen können, dagegen sind die 4Gb einer 6500XT eine "Sollbruchstelle", weil hier wirklich die Gefahr besteht, das aktuelle Titel einfach gar nicht mehr gestartet werden können. Nur weil ich die Texturen ggf. eine Stufe runterstellen muss, ist das kein vorprogrammiertes Ablaufdatum.
12GB sind die neuen 6GB der 1060 damals. Was ich damit sagen will ist, dass es eher mehr VRAM sein sollte bei der oberen Mittelklasse so wie damals bei Pascal oder teilweise bei AMD (16gb bei der RX 6800 z.B.).
Wenn dann sind 8Gb die neuen 6Gb der 1060. Wobei auch das nicht wirklich passt, denn die 1060 6Gb war während seiner Lebenszeit durchaus empfehlenswert (ganz anders natürlich als die 3Gb Version, auch eine 8Gb 4070 wäre heute nicht zu empfehlen), die Karte hat immerhin fast 7 Jahre auf dem Buckel und ist für ihren Einsatzzweck FHD auch immer noch geeignet, wenn auch sicherlich nicht bei Ultra-Settings in aktuellsten Spielen.
Es liest sich hier oft so, als wäre eine 12Gb 4070 spätestens in nem Jahr absolut unbrauchbar/obsolet und das ist einfach nicht wahr. Mag sein, dass in WQHD nicht immer Ultra-Texturen möglich sind (was man für 650€ auch kritisieren kann), aber genau dafür gibt es ja solche
Einstellungen auf dem PC. Auch besagte 6Gb einer 1060 reichen noch in so gut wie jedem Spiel, muss man halt bei FHD bleiben und Texturen ggf. auf Mittel runterschrauben.
Ich beobachte die 7900xt schon seit Wochen mit Adleraugen. Die paar Treiberprobleme werde ich schlucken müssen. Eine XFX Speedster, vielleicht zum späten Sommer hin oder so.
Wobei das auch alles hören sagen ist und in deinem konkreten Fall nicht zutreffen muss. Das einzige was für mich problematisch wäre ist der Verbrauch im Idle, besonders bei mehreren Monitoren. Ich werde ganz sicher nicht ständig die Bildwiederholfrequenz meiner Monitore ändern, um den 100W im Leerlauf zu entgehen. Ansonsten eine sehr gute Karte, erst recht für deutlich unter 800€, wo sie im Sommer ankommen sollte.