derneuemann
Volt-Modder(in)
Du weist was ich meine43%? Der Gegner ist da wohl eher die RTX 3060TI.
Der Communitytest bei Computerbase stimmt da 1:1 mit dem Test von Techpowerup überein.
Anhang anzeigen 1441377
Du weist was ich meine43%? Der Gegner ist da wohl eher die RTX 3060TI.
Der Communitytest bei Computerbase stimmt da 1:1 mit dem Test von Techpowerup überein.
Anhang anzeigen 1441377
Kauf du dir einfach eine GPU für über 800-900€ nur um direkt die Details zu reduzieren.Ja immer schön die 4070 kaufen, bei 12GB VRAM ist dann schon mal klar das man bei der nächsten Generation wieder aufrüsten muss, das freut Nvidia ???
Aber auch nur, Wenn man die Regler bedinen kann. Wenn man aber nur eine richtung kennt, "Ultra" wird das auch wieder Schwirig.für WQHD ne anständige GPU . viel mehr braucht man in dem bereich nicht. min. 90% der Spiele über 100 FPS+
Dann könnte man auch behaupten, das AMD keine GPU im Angebot hat die 1080p kann. (Ray Tracing)Aber auch nur, Wenn man die Regler bedinen kann. Wenn man aber nur eine richtung kennt, "Ultra" wird das auch wieder Schwirig.
2027 kommt die neue Gen Konsolen.
Das 8GB mehr als eng geworden sind, das hat sich in der Zeit seit den aktuellen Konsolen deutlich gezeigt. Meiner Meinung nach ist anzunehmen, das sich in der Masse der Spiele der nächste größere VRam- Bedarfssprung mit den 2027/2028 erscheinden Konsolen einstellen wird.@Prozessorarchitektur
Ja, Nvidia wird vom VRAM-Bundle nicht abrücken, die Preise werden in kommenden Generationen in den entsprechenden Klassen kaum sinken und die VRAM-Menge wird sich kaum verbessern.
Da kann man froh sein, wenn die 3060 12 GB kein Einzelfall bleibt. 12 GB reichen durchaus, nur 8 GB könnten in Zukunft eng werden.
Was denn, 10€ unter 1600.
4080 :Die Shaderanzahl alleine ist irrelevant.
Was denn, 10€ unter 1600.
Man wird wohl wissen, das die 4090 ihr Alleinstellungsmerkmal behalten wird.
Weil man eine über 1000€ teure GPU auch kauft um direkt die Details zu reduzieren. Aber im Grunde hast du Recht, wenn man ohne maximale Details spielen möchte (ohne RT in 2023/2024) dann ist die 7900XTX der bessere Kauf.
Ich habe die Tage da auch nochmal drüber nachgedacht, ob ich einfach auf RT Pfeifen sollte, bis zur nächsten Gen, oder besser bis 2030.
Alles unter etwa 1590€ zog tatsächlich dann an mir vorbei.Nicht unbedingt. War teilweise auch mal ~150 Euro +/- unter 1600 je nach Modell.
Der aktuelle Kurs ist schon besorgniserregend.Im Ganzen betrachtet sind die Grafikkartenpreise etwas gefallen. Ziehen im Moment aber wieder gut an. Zuletzt im Miningzeitalter wissen wir ja auch alle wie schnell und drastisch die Preise angezogen hatten.
Man weiß ja, dass die Welt momentan verrückt spielt und wir alle hoffen müssen das sich ein paar große Machthaber hoffentlich auch mal wieder mal am Riemen reißen und sich das Ganze nicht noch schlimmer entwickelt bis hin zum 3...., ja, ich will gar nicht daran denken.
Von unserer Politik ganz zu schweigen, aber dass sind andere Themen und Probleme. Aber Kriege, Inflation, usw usw beeinflussen eben auch die Preise egal ob Gas, Benzin, Lebensmittel oder eben auch Hardware wie Grafikkarten.
Sehr stark sogar, das alles sagt aber ohne bezug zur möglichen Energieaufnahme, nicht viel aus.4080 :
76SM (9728 ALUs / 304 TMUs / 112 ROPs), 76 RT Cores, 304 Tensor Cores, 64MB L2-Cache, 16GB GDDR6X, 256bit
4090:
128SM (16384 ALUs / 512 TMUs / 176 ROPs), 128 RT Cores, 512 Tensor Cores, 96MB L2-Cache, 24GB GDDR6X, 384bit
Sieh dir doch die Daten mal genauer an, nicht nur die Shaderzahl ist deutlich geringer bei der 4080! Von Cache bis Tensor/RT Cores, usw wurde bei der kleineren 4080 schon ordentlich die Schere angelegt.
Ich nicht. DLSS (FSR) ist für mich ein mächtiges Werkzeug mit dem eine 4080 schon meistens sehr gut auch mit RT zurecht kommt.Da würde ich vor allem in UHD insofern mir Raytracing auch noch wichtig ist, lieber gleich zur 4090 greifen.
Das ist immer so und war immer so.Denn selbst diese Karte kann man je nach Spiel problemlos in die Knie zwingen. Alles eine Frage der Grafik-Regler.
Vor allem bei Nvidia ist leider seit X Jahren ein Witz. AMD und Nvida nehmen sich nichts mehr. Es ist mehr nur eine Frage der persönlichen Ausrichtung, zum Beispiel mehr Wert auf RT, oder eben nicht.Die 4090 ist aber trotzdem nun mal Konkurrenzlos und wie wir alle wissen kostet das natürlich einen Sonderaufschlag, vor allem bei Nvidia.
Ist das wirklich so, oder scheint uns das nur so. (Helden am Rand und so, ich meine jeder kann sich da von Zeit zu Zeit dazu zählen)Oder mittlerweile sorgen dafür so manche Spiele Entwickler auch selber. Dank DLSS oder auch FSR werden viele anscheinend etwas faul in Sachen Optimierung.
ERstmal abwarten wie das wirklich aussieht.Alan Wake 2 wird ja jetzt schon gefürchtet als Beispiel.
Ja, das ist für mich ein generelles Problem der Spiele Releases der letzten Jahre. Alles immer unfertig und halbgar.Remnant II zum Beispiel ist da auch so ein Fall. Ich finde für die Grafik was es bietet, dürfte das eigentlich nicht so fordernd sein, aber Spielen ohne Upscaling ist laut Entwickler ja hier nicht vorgesehen.
Die Tech Firmen erzeugen absichtlich einen Flaschenhals, um die Preisgestaltung attraktiv zu halten. Nvidia will, dass die Grafikkarten schnell wieder durch neue Produkte ersetzt werden. Da Nvidia die einzigen Grafikkarten anbieten, die auch wirklich für alle Lebenslagen (Creator; KI Features, VR) genügen, kann dieser Flaschenhals angewendet werden. Das macht sie ein Stück weit frei von der Konkurrenz. Zudem ist Nvidia auf den Umsatz in der Gaming Szene nicht so sehr angewiesen, wie AMD.@Prozessorarchitektur
Ja, Nvidia wird vom VRAM-Bundle nicht abrücken, die Preise werden in kommenden Generationen in den entsprechenden Klassen kaum sinken und die VRAM-Menge wird sich kaum verbessern.
Da kann man froh sein, wenn die 3060 12 GB kein Einzelfall bleibt. 12 GB reichen durchaus, nur 8 GB könnten in Zukunft eng werden.