RTX New Titan, 3090 und 3080: Gerüchte um die Ampere-Spezifikationen

1300-1400 Euro ist bei mir absolute Kotzgrenze. Für 24GB VRAM und eine massive Steigerung der RT Leistung würde ich auch 1800 bezahlen. Wenn die 3090/2080 Ti nur 12GB VRAM haben sollte, müsste der Preis bei um die 1000-1100 Euro liegen, sonst werde ich passen und stattdessen bei AMD zuschlagen.

Siehst du, es sind schon bis zu 1800€ oder das 3,6 fache von dem, was früher üblich war. Jetzt muß dich Nvidia nurnoch dazu bekommen, dass du dein Budget um 50% aufstockst.
 
IMMERNOCH nur um die 8-10GB für 1000€+? Geht's noch?? Wann kam die 1070 mit 8GB raus, 2017? Abzocke Lv.1000 - damit man nächstes Jahr die 4070 mit 16GB kauft... bleibt mir weg, ihr grünen Gierhälse!..
 
Siehst du, es sind schon bis zu 1800€ oder das 3,6 fache von dem, was früher üblich war. Jetzt muß dich Nvidia nurnoch dazu bekommen, dass du dein Budget um 50% aufstockst.

Ne ne, 24GB kosten weit über 2000 und das wird auch so bleiben. Daher werde ich wohl nie eine Grafikkarte mit 24GB VRAM besitzen. Eigentlich will ich nur max. um die 1000 Euro hinlegen für eine Highend Karte. Die 1200 für die 2080 Ti gingen mit einem deftigen Zähneknirschen einher.
 
Ne ne, 24GB kosten weit über 2000 und das wird auch so bleiben. Daher werde ich wohl nie eine Grafikkarte mit 24GB VRAM besitzen. Eigentlich will ich nur max. um die 1000 Euro hinlegen für eine Highend Karte. Die 1200 für die 2080 Ti gingen mit einem deftigen Zähneknirschen einher.

Notfalls etwas warten und nach Release erst kaufen ...ich hab mir auch gerade gedacht nun hab ich so lange gewartet dann warte ch eben noch ein wenig mehr...meine 1080 Ti raucht zwar bei vielen Spielen aus allen löchern aber dennoch schlägt sie sich exzelent!
 
Also ich hab ein mal ~1400 gezahlt für ne TitanXP mit WaKü-Block drauf. War ne spitzenkarte, keine Frage und ich wollte damals in einem hohen Budgetrahmen halt das dickste was geht. Aber das war auch das erste und das letzte Mal. War ein schönes Spielzeug insbesondere mit der WaKü aber es lohnt einfach nicht. Eine überragende High-End Karte mit allem Schnickschnack fürn tausender würde ich ggf. noch machen aber das wars. Ich zahle keine 1500€ oder mehr für eine Grafikkarte, schon gar nicht 2020 für eine mit 12GB.

Doppelte Leistung meiner 2080 mit 16GB für <1000€. Das ist das Ziel. Wenns das erst 2022 gibt... auch gut. :ka:
 
Also ich hab ein mal ~1400 gezahlt für ne TitanXP mit WaKü-Block drauf. War ne spitzenkarte, keine Frage und ich wollte damals in einem hohen Budgetrahmen halt das dickste was geht. Aber das war auch das erste und das letzte Mal. War ein schönes Spielzeug insbesondere mit der WaKü aber es lohnt einfach nicht. Eine überragende High-End Karte mit allem Schnickschnack fürn tausender würde ich ggf. noch machen aber das wars. Ich zahle keine 1500€ oder mehr für eine Grafikkarte, schon gar nicht 2020 für eine mit 12GB.

Doppelte Leistung meiner 2080 mit 16GB für <1000€. Das ist das Ziel. Wenns das erst 2022 gibt... auch gut. :ka:

Würden alle zusammenhalten und jeder so denken würde man ganz schnell sehen wie Nvdia nachgibt leider sind es zu wenige...
 
Wirklich witzig die Kommentare hier, niemand erwähnt die RT Performance mit DLSS 2.0 oder bald DLSS 3.0. Die Rohleistung wäre nicht mehr so wichtig wenn immer mehr Spiele den Support von DLSS geben würden. Der VRam von 10GB-12GB ist im grunde völlig ausreichend, wichtiger ist eben die Performance / FPS, selbst wenn Control mit 4K/Ultra mit DLSS 2.0 gerade mal 5,7GB verbraucht. 16GB sind absoluter Unsinn für Spiele, da wird nix kommen das annähernd diese gebrauchen wird und auch wenn macht es grafisch keinen unterschied wenn man das Setting etwas anpasst. Bei Wolfenstein Spielen ist der VRAM Hunger das resultat von schlechter Optimierung der Ressourcen.
Ich bin mit meiner 980ti noch sehr gut Unterwegs und mit einer 3440x1440 Auflösung komme ich mit 6GB noch klar, da ich keinen Problem damit habe die Einstellungen so anzupassen bis ich 60fps/-6GB erreiche. Die RTX 3080/90 mit 10-12GB wäre für mich mehr als in Ordnung, Cyberpunk2077 wird RT und DLSS Unterstützen, auch Watch Dogs Legion kommt mit RT und DLSS. Die neuen Konsolen Spiele werden in Sachen VRAM nicht über 10-12GB gehen, wir wissen nicht mal das die Teile wirklich 4K/native/60fps erreichen, wenn die Upscaling nutzen werden wird der VRAM Hunger so oder so etwas runtergehen.
Ich freue mich auf die neue Generation, noch mehr freue ich mich auf Cyberpunk2077 und WD Legion, RayTracing ist wie gemacht für das Setting, dazu noch DLSS für mehr Performance. Nvidia mag teuer sein JA, aber die tun wenigtens etwas um die Technologie voran zubringen, vor den RTX Karten war RT nie und nimmer ein Thema und wir verdanken es eben denen, das auch Konsolen mit AMD RDNA2 auf RT setzen. Ich hoffe nur das immer mehr Spiele wenigstens mit DLSS Support kommen, noch ist die Auswahl an DLSS Spielen leider noch ein Witz, zwar sind einige Triple A dabei und auch 2 Giganten kommen nach aber es muss eben mehr werden. Ach ja, wer jetzt ankommt und DLSS schlecht redet, denjenigen werde ich ignorieren, die Technik funktioniert und man sieht wirklich keinen Unterschied zum nativen ( hab es selbst getestet ), ausser den Boost von mind. 40-70%.

Willkommen im Forum ! :-)

MfG Föhn.
 
So so, die 12GB reichen also, wenn DLSS aktiviert ist. :ugly: Das war nicht mal FHD.

https://twitter.com/CapFrameX/status/1250854844191117319

Notfalls etwas warten und nach Release erst kaufen ...ich hab mir auch gerade gedacht nun hab ich so lange gewartet dann warte ch eben noch ein wenig mehr...meine 1080 Ti raucht zwar bei vielen Spielen aus allen löchern aber dennoch schlägt sie sich exzelent!

Meinst du Warten bringt was? Die Preise waren verdammt stabil.
 
Ein weiteres Beispiel ist Wolfenstein Youngblood. Wenn man die Details in diffusen Spiegelungen per Konsolenbefehl auf ein qualitatitv annehmbares Maß hochschraubt, geht der VRAM auf die Knie. ZeroZerp hatte das mal getestet.
 
Was bleibt einen übrig wenn man immer auf die beste Qualität und spielbare fps haben will?

Muss man das um jeden Preis?

Gute Spiele zeichnen sich dadurch aus dass die auch Spass machen wenn man nicht alle Regler ganz nach rechts auf Ultra dreht, und UHD braucht man auch nicht unbedingt wenn man sich mit einem "kleineren" Monitor, den man heute auch kaum mehr überblicken kann begnügt hat man auch in FHD oder WQHD ein kanckscharfes Bild.

Da sind dann die eigenen Ansprüche das Problem, nicht die gesalzenen GPU-Preise. Die sind eher ein Symptom, die Ursache ist weil leider zu viele Leute wie du denken kann sich Nvidia das immer mehr erlauben.
 
dem muss ich aber widersprechen. Fullhd ist leider nur matchig.

Das kann man so generell nicht sagen. Hängt alles von der Monitorgröße (Pixeldichte), dem Betrachtungsabstand und der individuellen Sehstärke ab. Wenn man es richtig anstellt kann man auch in FHD ein knackscharfes Bild haben, man muss nur entweder den Betrachtungsbastand oder die Monitorgröße ändern. Am Ende hat man halt ein etwas kleineres Bild. Oder größer dafür etwas unschärfer. Wie es einem lieber ist. Aber WQHD hat heute auch kaum noch Aufpreis und stemmen Mittelklasse Grafikkarten. 24" WQHD ist knackscharf auch wenn man nah dran ist und in 27" ist es imho auch noch sehr OK. Für UHD hat man halt plötzlich viel mehr Pixel zu rendern und entsprechend Mehraufwand der dem Gewinn an Schärfe oder Größe des Bildes imho nicht mehr wert ist. UHD macht sich doch erst am 32"oder größer bemerkbar und so ein Drum stell ich mir doch nicht auf den Schreibtisch :ka:
 
das ziel ist UHD mit hohen settings @144FPS

sind 12GB dafür ausreichend oder werden 24GB benötigt?
 
das ziel ist UHD mit hohen settings @144FPS

sind 12GB dafür ausreichend oder werden 24GB benötigt?

Kommt aufs Spiel und die Einstellungen an. Die FPS sind erstmal wurscht, nur die Auflösung ist entscheidend. Und da gibts Spiele die mit sehr wenig vRAM-Bedarf sehr gut aussehen in 4K und dabei mit 5-6 GB auskommen (Witcher 3, sogar mit HD-Mods) und andere, die die 12 GB meiner ehemaligen TitanXP zum überlaufen gebracht haben wenn man alles hochgeschraubt hat was ging (Shadow of TombRaider, QuantumBreak).

Die FPS spielen dann wieder eine Rolle, wenn man die Grafikeinstellungen kommender Spiele betrachtet. Denn wo 144 fps in 4K in vielen Spielen sicherlich möglich sind wirds dann wahrscheinlich auch noch bei einer 3090 unmöglich bleiben wenn man RTX in 4K aufdreht. Ich gehe mal stark davon aus, dass das nicht möglich sein wird, selbst wenn NV die RT-Performance stark steigern konnte... und selbst WENN es reichen würde: DANN sind 12 GB garantiert zu wenig da RTX vRAM bekannterweise zum Frühstück frisst.
 
So so, die 12GB reichen also, wenn DLSS aktiviert ist. :ugly: Das war nicht mal FHD.

Reicht doch , dabei ist Minecraft RTX ein Ausnahme Titel das volle PathTracing nutzt, glaube kaum dass ein umfangreiches Triple A Spiel sowas anbieten wird. Denn nochmals erwähnt ist es bei Control mit voller RTX Funktion in 4k bei 5,7GB und die Effekte und Spiegelungen sind fantastisch. WOLFENSTEIN hat auch ohne RT eine lächerlich hohe RAM Hunger, da braucht man nicht alles auf Ultra setzen, da man sowieso keinen Unterschied bemerkt, für mich ist es schlecht optimiert. Ausserdem gibt es auf PC nicht Umsonst die Grafikeinstellungen, mit nur einem Klick hast du bei Wolfenstein 4GB weniger Ram verbrauch. 16GB Ram kannst du bei der nextGen vergessen, viel zu teuer. AMD wird mit RDNA2 maximal auf 14 setzen, Dennoch ist das wichtigste die Leistung und nicht der RAM. Schau dir mal an was so lächerliche Konsolen an Grafiken leisten, eine pS4 mit seinem mickrigen CPU/RAM/GPU schafft spiele wie uncharted 4, das nennt man optimieren. Für uns PCler schmeissen die Spiele mit zig Einstellungen ohne das Sie selbst wissen obs brauchbar ist oder nicht und das erste was wir tun ist erstmal alles auf Ultra setzen.....manchmal muss man eben anpassen, für Crysis damals gab es nicht mal ne Hardware die das bei bestimmter Auflösung und Very High schaffen konnte. Ich hätte auch gerne das beste für weniger Feld aber die alten zeiten sind lange vorbei.......3DFX
 
Reicht doch , dabei ist Minecraft RTX ein Ausnahme Titel das volle PathTracing nutzt, glaube kaum dass ein umfangreiches Triple A Spiel sowas anbieten wird.

Ist ein "reicht aus" also jetzt dadurch definiert, dass man Funktionen so lange beschneidet bis es ok ist?
Ich dachte immer "reicht aus" wäre im High-End, wenn man alles im vollen Umfang nutzen kann.

Aber die neue Definition find ich gar nicht schlecht. Dann brauch ich die nächsten 10 Jahre keine neue GPU, denn ich muss nur die Grafikeinstellungen weit genug runterdrehen, dann reichts ja wieder aus. :D

Für die allermeisten Leute ist das ja sowieso das Mittel der Wahl und völlig legitim. Aber das Argument bei Grafikkarten mit vierstelligem Preisschild zu bringen hat nen ziemlichen Beigeschmack. Wenn ich was runterdrehen muss (oder der Entwicker das für mich vorher tut) weil der Karte sonst der Speicher ausgeht, also etwas limitiert was technisch absolut problemlos lösbar und nur eine Frage der Marge von NVidia ist, dann ist das in dem Preisbereich kaum entschuldbar.

Ich schätze, dass 24 statt 12 GB auf die Karte zu pflanzen bei solchen Kontingenten pro Karte für NVidia keine 100€ Mehrkosten bedeutet. Da kann man sagen im 500€-Kartenbereich kann mans schlecht machen weil es den Preis um 20% und mehr steigen ließe, ok. Aber man stelle sich vor ob eine Karte jetzt 1100 oder 1200€ kostet als 12 und 24GB-Version? Da wäre man doch verrückt die 12er zu kaufen.
 

ja mein bruder hatte eine R9 390, der RAM hat er nie voll bekommen weil die Leistung der Karte für 1080p1440p/60 zu langsam war, da musste er die Einstellungen soweit anpassen bis er stabile 60 hatte und der RAM verbrauch war dann eh bei 50%. Die Leistung ist immer noch das wwichtigste, da kann eine Karte auch 24GB haben, denn ohne Leistung bringt dir ram garnichts.
 
Zurück