Wobei mir die 3070 in der Gegenwart durchaus gute Dienste leisten würde solange ich nur auf FHD zocke. Für FHD wäre die 3070er sogar etwas überdimensioniert. Das sind zumindest die Worte eines Testers von der Gamestar Hompepage und nicht meine. Sieht man sicht Youtube footage von games in 1080 p über die 3070er an so finde ich die würde für meine Zwecke sehr gute Arbeit in FHD leisten.
Also ich hab eine 3070 und 6700XT hier.Zu der VRAM-Debatte......Alle schmeißen sich derzeit auf die 8GB VRAM, testen aber selbst nur recht wenig und wiederholen meist nur das Gerede von anderen.
RAM und SSD bringen dir überhaupt nichts wenn der Vram am Ende ist außer Diashow und ploppende Texturen.Hat man aber 32GB RAM und eine SSD kann es wieder ganz anders ausschauen und das Spiel läuft trotzdem sehr fluffig.
Also ich hab eine 3070 und 6700XT hier.
Die sind quasi gleich schnell in FHD, die NV Karte rennt auch noch früher in den Overhead bei modernen Proezssorfressern und 8Gb sind für UHD in Zukunft schlicht zu wenig, das kann man sich auch nicht mehr schön saufen. Eine 6700Xt ist für rund 800 kaufbar, eine 3070 mit Glück und schnellem Finger für 1100.
Bei der aktuellen Marktlage macht das absolut null Sinn. Die 3070 ist schlicht zu teuer. Sich auf Softwarefuddel in Zukunft zu verlassen ist gewagt, egal ob jetzt FidelitySuperFuddel oder FuddelLS.
RAM und SSD bringen dir überhaupt nichts wenn der Vram am Ende ist außer Diashow und ploppende Texturen.
Grundsätzlich ja, aber er sucht auch keine Goldrandlösung sondern etwas was zu seinem aktuellen Setup passt, Ihn aber auch nicht direkt in die Bredoullie bringt wenn er das Panel aufrüstet. Mit dem hohen Vram kann er die guten Texturen und die hohe Auflösung aufrechterhalten, spart ein wenig bei Schatten und Beleuchtung in den Settings und dann fluppt das auch bei modernen Titeln ohne Probleme auf einer 6700XT.Für UHD sind beide Karten auf Dauer zu langsam
Richtig, man wollte es so. Ist schlicht günstiger.Das SI ist in der Architektur Ampere afaik nicht mehr an die Shader gebunden. Man hätte also relativ problemlos einen Chip mit einem breiteren Interface und der selben Shader Anzahl bauen können. Hielt man in der Planung aber für unnötig.
Das "geht nicht" ergibt sich erst daraus wie die Chips jetzt konfiguriert sind. Nicht aus der Architektur selbst, die gibt das her.