Geht man davon aus dass die 4070 als Zielauflösung WQHD hat, dann sind 10 GB völlig in Ordnung.
Bitte nicht die Neuauflage des "es ist eine Full HD Karte" Käses, den die AMD Fanboys abgezogen haben.
1: Nein, Nvidia hat den Displayport und HDMI 2.0 nicht weggelassen, man kann die Karte auch in 4K nutzen.
2: auch in 4K gibt es diverse Dinge, die 10 GB sprengen.
Sehe ich ja bei meiner 3080 10 GB, selbst ohne DLSS hat CP2077 mit allen Reglern rechts nicht über 8 GB benötigt.
Spiel mal FC6 mit dem Texturpaket.
Im übrigen ist dann auch die Frage, wie lange man die Karte behalten möchte. Du bist da mit zwei jahren recht schnell, andere wollen auch noch länger Spaß haben.
Aber bisher gab es nur 2-3 Games die damit Probleme hatten.
Und die Zahl wird steigen.
Rein von den Daten sieht die 4070 ziemlich ungeil. Weniger ALUs als die 3080, die Hälfte der Speicheranbindung, genauso viel VRAM und nur 20W weniger Verbrauch. Irgendetwas stimmt bei den Gerüchten nicht, wenn man sich den zu erwartenden Sprung bei der Fertigung ansieht. Ist evtl. nur die 4090 von TSMC?
Man kann einen kleinen Chip auch ordentlich treten und so das Maximum an Leistung rausprügeln. Den Strom zahlt der Kunde, mit der Leistung kann man allerdings werben und steht in Benchmarks gut da. AMD hat das früher mal gemacht, während Nvidia auf größere Chips gesetzt hat.
Sicherlich rechnet Nvidia noch mit einer anhaltenden Chipkrise und baut daher weniger Speicher ein.
Klar, Nvidia sorgst sich um die Kundschaft und möchte nicht etwa ihre Portfolio abstufen.
Wie selbstlos sie doch sind...
in welcher welt lebst du. 3070 8 gb 3080 10gb lol
Als Kunde sollte man schon gewisse Ansprüche haben.
Ganz im Gegenteil. Es ist eine gute Idee jetzt eine RTX 3080 12GB zu kaufen. Diese Karten sind noch erschwinglich.
Sie kostet 900€, wenn man dafür oder darunter die RTX 4080 bekommt, dann sieht es anders aus.
Die Welt steht in weiten Teilen vor einer Rezession.
In einer Rezession werden Luxusgüter üblicherweise weniger nachgefragt.
Das senkt den Preis.
Die Lieferketten sind extrem gestört und bleiben es auch.
Die Frage ist, ob auch Nvidia und AMD davon betroffen sind.
Deutsche Politiker, allen voran Robert Habeck, sprechen von 5 schweren Jahren. Die Energiepreise steigen auf Rekordniveau.
Nicht jedes Land ist Deutschland, das sich dummerweise vom russischen Gas abhängig gemacht hat.
Was glaubst du bleibt von der 4000er Generation übrig außer knappen Bestände und hohe Preise?
Schlimmer als bei der 3000er Generation kann es fast nicht mehr werden. Hoffen wir eing´fach mal, dass der Miningboom zu Ende ist.
Davon abgesehen dass die 6700XT sowieso viel zu schwach für Auflösungen in denen sie so viel VRAM bräuchte, und je nach Game trifft das auch auf die 6800XT zu.
Ist sie nicht. Viel VRAM bringt einem auch in geringeren Auflösungen eine extreme Steigerung der Bildqualität.
Es hat ja seinen Grund warum Farcry 6 so wenig RT Effekte hat und dafür massig VRAM "benötigt", AMD-sponsored lässt grüßen.
Far Cry war spätestens seit Primal sehr anspruchsvoll, eigentlich schon seit FC4.
Das Problem an dieser Verschwörungstheorie ist, dass es dafür zu wenig VRAM benötigt. Mit 10GB kommt es zu Problemen, mit 11GB (GTX 1080Ti und RTX 2080T) läuft es aber. Wenn, dann hätte man es so machen müssen, dass die Voraussetzungen des HD Pakets bei 14GB liegen, dann hätten die 6800er und 6900er richtig glänzen können.
DLSS ist vom Tisch? Weil FSR 2.0 schon so gut verfügbar ist oder wie?
Es ist nichtmehr ganz so wichtig, wie vorher.