Geforce RTX 3070 Ti: Nun doch auch mit 16 GiB Grafikspeicher?

Wenn du deine GPU länger benutzen willst , was ein RTX 3080 von der Leistung her bestimmt lange kann, dann wird der VRam dich irgentwann ausbremsen.
Ich sage das gefühlt in jedem neuen "VRAM-Artikel":
-Bevor dich der VRAM bremst, reicht für gewöhnlich die Grundleistung / Performance deiner Grafikkarte nicht mehr.

Habe ich selbst dutzende Male erlebt und bestätigt sich regelmäßig bei den neuen VRAM-Rennern. Persönlich falle ich deshalb nicht mehr auf die Marketinglügen herein.

Nicht weil dein GPU zu langsamm ist sonder weil dein Vram einfach Voll ist !
PS5 & Co werden die Latte für GPU RAM deutlich nach oben schrauben !
Die Konsolen haben nur 16GB "shared" RAM, wovon bis zu 10GB für die Grafik genutzt werden. Dabei laufen die Spiele hochskaliert auf mittleren Einstellungen.

Das ist nicht was die Anforderungen hoch treibt. Echtes 4k mit allem auf Ultra ist es jedoch. Nvidia geht hier mit DLSS dem Hardwarehunger entgegen.

Wo die Konsolen allerdings revolutionieren werden ist mit Texturen-Streaming. Alle Features auf diesem Fokus werden dir in Zukunft mehr bringen als 1-2GB mehr oder weniger.

Beispiele?
-DX12 Sampler Feedback
-DX12 Mesh Shader / Meshlets (LOD)
-Nvidia: RTX IO (NVME + Geforce)

Auf letzteres setze ich immer noch, weil es die einzig mir bekannte Hardwareimplementierung ist, die den Konsolen zumindest in der Theorie nahe kommt.

Daher bleibe ich bei meiner Aussage !
Ich bleibe dann bei meiner alten Hammeraussage, die meisten Foristen hier könnten nicht die Regler anständig bedienen.

Min. 16GB VRam für akltuelle GPUs

Besonders in 1440P , 21/9 und erstrecht in 32/9 oder 4K

Für 4k Ultra+ und UQWHD-Auflösungen stimme ich dir ja zu. Das ist aber nicht die Regel, sondern die krasse Ausnahme. Bei 1440p hingegen verlierst du mich mit "man muss 16GB VRAM haben"-Aussagen komplett. Im Leben nicht!
 
Ich sage das gefühlt in jedem neuen "VRAM-Artikel":
-Bevor dich der VRAM bremst, reicht für gewöhnlich die Grundleistung / Performance deiner Grafikkarte nicht mehr.

Wenn man die Karten sehr lange nutzen möchte, dann geht eigentlich immer der VRAM zur neige. Die beiden Dinge, die eine Ausnahme gebildet haben, gibt es heute nichtmehr. Zum einen sind die Gurkenkarten fast ausgestorben, die hatten früher teilweise mehr VRAM als die Topmodelle. Eine GT 1030, mit 16GB VRAM gibt es nicht, stattdessen sind da sinnvolle 2GB verbaut. Zum anderen kommen heute keine neuen DX Versionen mehr durch, das hat MS völlig verbockt. Das hat den Nachteil, das nichts neues kommt, aber den Vorteil, dass auch 12 Jahre später die DX Funktionen einer HD 5000 noch allen Ansprüchen genügen. Karten, mit viel VRAM, die nach kurzer Zeit die neuesten Spiele nicht mehr darstellen können, gibt es nichtmehr.

Meine GTX 670 könnte z.B. sogar 8GB sehr gut vertragen, die 2GB sind die meist harte Grenze. Die R9 290X und 390X erfreut sich auch nach teilweise bald 8 Jahren bester Performance. 25% Schneller als die GTX 1650 und die 8GB Karten können bei den Details so richtig aufdrehen.

Es hat sich in den letzten 10 Jahren gezeigt, dass man ordentlich VRAM nehmen sollte, wenn man die Karte lange nutzen möchte.

Eine Sache gäbe es noch und das wären die Treiber. Den HD 5870 2GB, 6970 und GTX 580 1,5 und 3GB sowie GTX 570 2,5GB wurde von Nvidia und AMD der Stecker gezogen. Wobei AMD da 4 Jahre, nach erscheinen der letzten Generation, deutlichfrüher dran waren, als Nvidia, die sich dafür 7 Jahre Zeit gelassen haben Dennoch blöd, da die Karten teilweise auch heute keine so schlechte Figur machen würden.

Zum Glück unterstützen beide jetzt seit 9 Jahren ihre Karten und wenn es nach mir geht, dann dürfen sie das ruhig auch in Zukunft machen. Ob Nvidia da weiterhin noch soviel besser sein wird, das läßt sich leider nicht abschätzen.

Das ist nicht was die Anforderungen hoch treibt. Echtes 4k mit allem auf Ultra ist es jedoch. Nvidia geht hier mit DLSS dem Hardwarehunger entgegen.

Das wird den VRAM Hunger sogar noch weiter steigern,. da die Karten noch wesentlich länger im Einsatz sein können (meine GTX 670 hätte DLSS und 8GB VRAM durchaus nötig).

Wo die Konsolen allerdings revolutionieren werden ist mit Texturen-Streaming. Alle Features auf diesem Fokus werden dir in Zukunft mehr bringen als 1-2GB mehr oder weniger.

An sowas wird schon seit Ewigkeiten gearbeitet. Der ultimative Erfolg war bisher keiner dieser Lösungen vergönnt, jetzt könne es zumindest mit dem Erfolg klappen.

Ich bleibe dann bei meiner alten Hammeraussage, die meisten Foristen hier könnten nicht die Regler anständig bedienen.

Es besteht eben ein massiver Unterschied, zwischen bedienen können und bedienen müssen.

Bei FC New Dawn beginnen sich Steine im nahen Bereich vollständig zu materialisieren und ich kann dem Gras buchstäblich beim Wachsen bzw. Erscheinen zusehen. Außerdem ist die Texturqualität relativ mies. Mit 4GB VRAM wäre das nicht der Fall.


Sofern dein Leben nicht in zwei Jahren vorbei ist (was ich wirklich nicht hoffe), wirst du dich vermutlich irren.
 
Meine GTX 670 könnte z.B. sogar 8GB sehr gut vertragen, die 2GB sind die meist harte Grenze. Die R9 290X und 390X erfreut sich auch nach teilweise bald 8 Jahren bester Performance. 25% Schneller als die GTX 1650 und die 8GB Karten können bei den Details so richtig aufdrehen.

Da bin ich aber anderer Ansicht!
Gerade die GTX 600er leiden doch am meisten an Performancemangel. Kein VRAM der Welt schafft diesen Fakt aus der Welt. Außer natürlich man spielt nur Spiele zur Zeit dieser Generation.

Bei allen Karten um die Hawaii, Polaris, Maxwell, Pascal oder lower-end Turing kann man das nicht wirklich vergleichen. Einfach weil diese Performanceebene quasi seit 28nm böse stagniert.

Es hat sich in den letzten 10 Jahren gezeigt, dass man ordentlich VRAM nehmen sollte, wenn man die Karte lange nutzen möchte.
Genau diese 10 Jahre sind dennoch die angesprochene Stagnation. Man nutzt Karten lediglich so lange, weil es keine würdigen Nachfolger gibt.

Ob ich jetzt eine GTX970 oder eine GTX1060 besitze ist von der Grundperformance fast egal. Der VRAM macht vielleicht 10-15% Unterschied aus. So oder so muss der Besitzer die Grafik massivst runter drehen. Selbst doppelter VRAM würde an dieser Tatsache nichts ändern.

Dasselbe übrigens bei AMD mit Hawaii / Grenada / Fiji vs Polaris.

Eine Sache gäbe es noch und das wären die Treiber. Den HD 5870 2GB, 6970 und GTX 580 1,5 und 3GB sowie GTX 570 2,5GB wurde von Nvidia und AMD der Stecker gezogen. Wobei AMD da 4 Jahre, nach erscheinen der letzten Generation, deutlichfrüher dran waren, als Nvidia, die sich dafür 7 Jahre Zeit gelassen haben Dennoch blöd, da die Karten teilweise auch heute keine so schlechte Figur machen würden.

Treiber sind zwar ein Argument, allerdings muss man auch bedenken wie alt diese Architekturen inzwischen sind. Die können teilweise nicht einmal vernünftigiges Directx11. Von modernerem DX12 oder gar Vulkan braucht man erst garnicht reden.

Die Spieleentwickler interessieren diese alten Karten auch immer weniger. Wäre die Miningkrise nicht, hätten wir inzwischen auch modernere Einstiegskarten.
Das wird den VRAM Hunger sogar noch weiter steigern,. da die Karten noch wesentlich länger im Einsatz sein können (meine GTX 670 hätte DLSS und 8GB VRAM durchaus nötig).

Das ist exakt der Punkt:
-Den alten Karten fehlt schlichtweg die Hardwareunterstützung solcher Features.

Ob wir jetzt von DLSS, DX12, SAM oder moderner Ressourcenverwaltung reden, irgendwann ist die eigene Hardware veraltet.

Neben der ominösen VRAM-Menge sollte eigentlich mehr interessieren:
a.) wie schnell ist der VRAM + Anbindung
b.) wie hoch ist die maximale Bandbreite der Grafikkarte

Was nützt mir massiv VRAM, wenn dieser nur wie eine Schnecke angebunden ist?!

Es besteht eben ein massiver Unterschied, zwischen bedienen können und bedienen müssen.
Ich bin jetzt absolut ehrlich und so mancher Leser übel nehmen. Polemisch gesagt:

-Welcher Vollidiot erwartet denn von einer 3070 (Ti) alles auf Maximum drehen zu können?

Ja, das meine ich so.
Eine 3070 ist in etwa eine alte 2080 Ti, die damals schon Limits hatte. Auch eine wesentlich bessere 3080 schafft nicht alles auf Ultra. Zusätzlicher VRAM kann höchstens die Nachteile leicht kaschieren, mehr aber auch nicht.

Sofern dein Leben nicht in zwei Jahren vorbei ist (was ich wirklich nicht hoffe), wirst du dich vermutlich irren.
Sagen wir es so:
-Ich würde lieber sogar weniger VRAM nehmen, wenn der Preis der Grafikkarte entsprechend niedriger wäre. Mit Verfügbarkeit und Konkurrenz verstehts sich!

Wäre dieser Preis unter Umständen sogar extrem niedrig, könnt ich sogar mit 6-8GB VRAM klar kommen. Meine Anspräche sind dementsprechend dehnbar. Dann weiß ich in 2-3 Jahren ist eine neue fällig und muss mich nicht irgendwelchen Illusionen hingeben!

Wogegen ich mich aber bis ans Ende aller Zeiten stellen werde, ist die Aussage man "muss" so viel VRAM haben. Bei "Nice-to-Have" bin ich gerne dabei. Für alles andere gibts von mir allerdings kontra ohne Unterlass.
 
Eine RTX 3070 Ti mit 16GB Speicher wird genauso wenig kommen, wie die RTX 3080 Ti mit 20GB. Würde auch keinen Sinn machen, eine RTX 3070 Ti wird ja nochmals ein wenig näher an die RTX 3080 mit 10GB herankommen was die Leistung betrifft, dieser dann auch noch 16GB Speicher zu spendieren und einer RTX 3080 Ti nur 12GB zu geben, das passt irgendwie nicht zusammen.

Für mich sind das alles Zahlenspielereien um irgendwie, wenn man schon keine Hardware liefern kann, im Gespräch zu bleiben und die Kunden durch Spekulationen bei der Stange zu halten. Klar werden jetzt einige sagen, aber die RTX 3060 hat doch auch 12GB Speicher bekommen und die RTX 3060 Ti nur 8GB Speicher.

Das ist richtig, aber, wenn man sich die Performance und den Preis der RTX 3060 anschaut, ist das jetzt nichts, was einem vom Hocker haut. Eine RTX 3070 Ti mit 16GB Speicher wäre da schon eine ganz andere Hausnummer und es wäre deutlich schwieriger für Nvidia, dann noch eine RTX 3080 Ti mit 12GB Speicher an den Mann bzw. die Frau zu bringen. Zumal ja, was die Leistung betrifft, zwischen einer RTX 3080 und einer RTX 3090 die Spielräume sehr eng begrenzt sind.
 
Wer sagt, dass die non Tis überleben?

3090 - 3080ti - 3070ti - 3060ti - 3060

wie bisher - 12GB/899 - 16GB/649 - 8GB/399 - 12GB/319
 
Gerade die GTX 600er leiden doch am meisten an Performancemangel. Kein VRAM der Welt schafft diesen Fakt aus der Welt. Außer natürlich man spielt nur Spiele zur Zeit dieser Generation.

Wer von uns beiden wird es wohl besser wissen?

Ich, der sich mit einer GTX 670 durschlägt oder du? Ich kann dir sagen, dass die 2GB eigentlich immer der Grund sind, warum ich ein Spiel nicht spielen kann oder die Details massiv runter drehen muß. Die Karte bräuchte einfach mehr RAM. Mit 4GB würden absolut alle Spiele drauf laufen.

Aus heutiger Sicht muß ich einfach sagen, dass die R9 7950 klar die bessere Wahl gewesen wäre, ihre 3GB hätten mich wesentlich weiter gebracht.

Genau diese 10 Jahre sind dennoch die angesprochene Stagnation. Man nutzt Karten lediglich so lange, weil es keine würdigen Nachfolger gibt.

Ich zocke solange, wie es noch ganz gut läuft. Wenn ich überall auf niedrig drehen muß oder die Speile garnicht laufen, dann wird eine neu Karte gekauft. Der VRAM ist da eben ein extrem wichtiger Punkt.


Ob ich jetzt eine GTX970 oder eine GTX1060 besitze ist von der Grundperformance fast egal. Der VRAM macht vielleicht 10-15% Unterschied aus. So oder so muss der Besitzer die Grafik massivst runter drehen. Selbst doppelter VRAM würde an dieser Tatsache nichts ändern.

Du hast einfach eine völlig falsche Vorstellung. Wenn etwas nichtmehr in den VRAM passt, dann muß es im normalen RAM gelagert werden. Das resultiert dann in Leistungsverlusten von 90% und mehr. Heutige Spiele wirken dem entgegen, indem sie automatisch die Texturdetails reduzieren.

Texturdetails kosten, wie gesagt, wenig GPU Leistung, weshalb man sie immer hochdrehen sollte, wenn man kann.

ES gibt eben Details, die gehen vorallem auf die CPU, solche, die die GPU fordern, solche, die nur den VRAM belasten und natürlich diverse Kombinationen. Mit einem großen VRAM kann man dann die Details anschalten.

Dasselbe übrigens bei AMD mit Hawaii / Grenada / Fiji vs Polaris.

Du scheinst wenig Ahnung zu haben. Die Fury X Besitzer sind, mit Rise of the Tombraider, schon wenige Monate nach Erscheinen ihrer Karte, an Grenzen gestoßen. Die Besitzer einer GTX 980Ti und R9 390(X) hatten dagegen keine Probleme. Noch heute ist man mit der GTX 980Ti und R9 3090(X) ganz gut unterwegs, während die Fury X ihre 4GB zu spüren bekommt. Deine Behauptung, es würde vorher die Rohleistung ausgehen, ist einfach nicht haltbar.

Treiber sind zwar ein Argument, allerdings muss man auch bedenken wie alt diese Architekturen inzwischen sind. Die können teilweise nicht einmal vernünftigiges Directx11. Von modernerem DX12 oder gar Vulkan braucht man erst garnicht reden.

Die Karten beherrschen DX 11, das kannst du drehen und wenden, wie du willst. Es gibt kein "vernünftiges" DX 11, sondern nur DX 11. Bei DX 12 sieht es, dank den Featureleveln, etwas anders aus.

Die Spieleentwickler interessieren diese alten Karten auch immer weniger. Wäre die Miningkrise nicht, hätten wir inzwischen auch modernere Einstiegskarten.

Die Zeit, in der ausdrücklich für gewisse Karten optimiert wurde, ist seit gut 20 Jahren vorbei. Wenn die Karte aktuelle Treiber hat und die MIndestvoraussetzungen erfüllt (da ist meist der VRAM der Knackpunkt), dann läuft es auch. Wenn die Treiber zu alte sind (HD 5000/6000 oder GTX 400/500) dann braucht man eine gewisse Portion Glück.

Ob wir jetzt von DLSS, DX12, SAM oder moderner Ressourcenverwaltung reden, irgendwann ist die eigene Hardware veraltet.

Das "irgendwann" kann man aber rausschieben, am besten, mit viel VRAM. Bis Raytracing Pflicht wird, dürften wohl noch 5 Jahre oder mehr vergehen.

Neben der ominösen VRAM-Menge sollte eigentlich mehr interessieren:
a.) wie schnell ist der VRAM + Anbindung
b.) wie hoch ist die maximale Bandbreite der Grafikkarte

Was nützt mir massiv VRAM, wenn dieser nur wie eine Schnecke angebunden ist?!

Die Gurkenkarten, mit überdimensioniertem VR sind seit gut 10 Jahren ausgestorben. Seither ist das kein Problem mehr. Mit ist kein Fall bekannt, in dem das ein Flaschenhals gewesen wäre.

Ich bin jetzt absolut ehrlich und so mancher Leser übel nehmen. Polemisch gesagt:

-Welcher Vollidiot erwartet denn von einer 3070 (Ti) alles auf Maximum drehen zu können?

Ja, das meine ich so.

Wenn ordentlich Geld auf den Tisch lege, dann erwarte ich das auch. Hier im Forum zocken die meisten nur in Ultradetails. Das erklärt dann auch Dinge wie "mit Karte XY" oder 8GB kann man nicht zocken.

Eine RTX 3070Ti sollte eigentlich alles auf Ultra schaffen und wenn, dann liegt es an den 8GB VRAM (nur bei Raytracing muß DLSS mithelfen). Bis meine GTX 980Ti abgeraucht ist, hat sie auch noch alles in Ultra geschafft, das ich gezockt haben (FC New Dawn und Anno 1800).

Am Anfang konnten das eigentlich alle meine meine Karten (GeForce 4 4200Ti 128MB, GTX 260 896, GTX 670 2GB und GTX 980Ti). Die Details wurden auf Anschlag gedreht und es lief, das war das schöne, an einer neuen Karte.

Nur meine Voodoo 3 3000 hatte nicht das neueste Bumpmapping und von der 8400M G im Laptop brauchen wir nicht reden.

Ich würde eher fragen, welcher Vollidiot über 500€ ausgibt und sich dann mit mittleren Details zufrieden gibt.

Eine 3070 ist in etwa eine alte 2080 Ti, die damals schon Limits hatte. Auch eine wesentlich bessere 3080 schafft nicht alles auf Ultra. Zusätzlicher VRAM kann höchstens die Nachteile leicht kaschieren, mehr aber auch nicht.

Die Karten schaffen alles auf Ultra, wenn auch nicht immer in 4K60. Wenn, dann klemmt es da beim RAM, die RTX 3070 dürfte da so ihre Probleme bekommen.

Wäre dieser Preis unter Umständen sogar extrem niedrig, könnt ich sogar mit 6-8GB VRAM klar kommen. Meine Anspräche sind dementsprechend dehnbar. Dann weiß ich in 2-3 Jahren ist eine neue fällig und muss mich nicht irgendwelchen Illusionen hingeben!

Mit anderen Worten, du nimmst eine wesentlich schlechtere Karte, damit du gezwungen bist, früh aufzurüsten. Kann man machen, ich und extrem viele andere, wollen aber etwas länger etwas von ihrer Hardware haben. Da ist ein üppiger VRAM eben wichtig.
 
Eine RTX 3070 Ti mit 16GB Speicher wird genauso wenig kommen, wie die RTX 3080 Ti mit 20GB. [...]
Eine 3070er mit 16 GiB ist einfach zu realisieren und war ja auch schon bereits ankündigt, denn Lenovo hatte diese Modelle letztes Jahr schon unbeabsichtigt geteasert.
Zwischen der RTX 3070 und 3080 ist ausreichend Platz, insbesondere wenn man auf 4K schaut und da lässt sich leistungstechnisch problemlos ein Modell dazwischen schieben und technisch umso mehr, da vermutlich selbst eine Ti weiterhin nur Standard-GDDR6 verwenden wird (vielleicht auf 16 Gbps aufgewertet?) und daher einfach auf 16 Gb-BGAs umgestellt werden kann.
Die Frage ist nur das "wann", denn mit den vielfältigen Problemen in der gesamten Fertigungskette (Chipfertigung bis hin zu den Kartenherstellern) macht es derzeit wenig Sinn zu viele Modelle in zu kurzer Folge nachzureichen, denn dann wird alles gesichert ein überteuerter Paperlaunch.

Und unterm Strich kann man nicht mal ausschließen, dass nVidia "jetzt" eine 12 GiB-3080 Ti veröffentlicht und später bspw. als Super-Refresh ein 20 GiB-Modell nachreicht. Das hängt einfach davon ab ob die das für sinnvoll erachten, denn die Kapazitäten haben sie dafür zweifellos eher als AMD, sofern die überhaupt in der Rechnug erforderlich sind, denn die könnten auch einfach den Ti-Chip für eine 20 GiB-Bestückung freigeben.
20 GiB würden eine Reduzierung des SIs auf wieder 320 Bit zur Folge haben, nVidia könnte das jedoch zumindest ein wenig kompensieren, indem man den Speicher anstatt mit 19 Gbps dann mit 19,5 Gbps betreibt, wie man es auch auf der RTX 3090 macht. Das wird man einfach abwarten müssen.

Man könnte einzig mutmaßen, dass die AMD-Karten möglicherweise so unattraktiv sind, dass Gamer selbst wenn sich die Versorgungslage deutlich bessert, weitestgehend überwiegend nVidia kaufen werden, sodass es keinen Marktdruck für sie gibt, noch ein neues Modell zu bringen, jedoch würde das dann auch bedeuten, dass es auch keinen Druck für einen Refresh geben würde, denn da AMD seine Karten schon bis ans äußerste ausgereizt hat, wird man da auf Basis von RDNA2 nichts "refreshen", sondern nur Preisanpassungen vornehmen können in den kommenden 15 - 18 Monaten.
Andererseits, derartige Versuche des Konkurrenten könnte nVidia durchaus durch einen Refresh zu kontern versuchen, also anstatt mit dem Preis in einem vergleichbaren Rahmen nachzuziehen, legt man lieber ein paar funktionale Goodies drauf und passt den Preis nur geringfügig oder möglicherweise gar nicht an ggü. den Vormodellen und erzielt weiterhin eine hohe Marge und erhält sich die Attraktivität und Absatzzahlen. Hier wird man einfach abwarten müssen. Aktuell kann man hier nichts gesichert ausschließen, wie auch, denn nVidias SI-Design war explizit darauf ausgelegt sich diese Flexibilität zu erhalten, d. h. es bleibt hier einfach abzuwarten, was die zum jeweiligen Zeitpunkt für sinnvoll erachten mit Blick auf ihre Absatzzahlen und Umsätze.
 
Zuletzt bearbeitet:
Wer von uns beiden wird es wohl besser wissen?

Ich, der sich mit einer GTX 670 durschlägt oder du? Ich kann dir sagen, dass die 2GB eigentlich immer der Grund sind, warum ich ein Spiel nicht spielen kann oder die Details massiv runter drehen muß.
Leider bist du nicht der einzige Spieler, der unter derart veralteter Hardware leidet. Gerade die alten GTX 660 und 670 findet man noch in vielen Rechnen.

Dabei muss man die Einstellungen immer bis fast zur Unkenntlichkeit runter drehen. Der VRAM ist nur ein Teilschuldiger. Kurz gesagt, Kepler geht die Luft aus. Die Architektur ist inzwischen zu alt.

Die Karte bräuchte einfach mehr RAM. Mit 4GB würden absolut alle Spiele drauf laufen.
Das dachte ich auch bei meinen GTX 960ern (2vs4GB VRAM), aber oh wunder oh wunder, nur die min-FPS gehen leicht hoch. Die Karte wird dadurch nicht magisch schneller, weil die GPU bereits im Limit ist.

Was mir mehr geholfen hat, war eine bessere CPU und SSD oder sogar Nvme.

Und zum Thema alle Spiele drauf laufen:
-Eben nicht!

Grafik zwischen 20 bis 40 FPS ist für mich nicht laufen, außer du formulierst das als "geradeso". Da ist eher ein Update fällig und wenn es nur eine Einsteiger-GPU wie die GTX 1060 3GB, oder die RX 470 4GB ist. Die hätten sowohl wesentlich mehr Leistung als auch mehr VRAM.

Aus heutiger Sicht muß ich einfach sagen, dass die R9 7950 klar die bessere Wahl gewesen wäre, ihre 3GB hätten mich wesentlich weiter gebracht.
Vergiss die uralten Karten alle!
Selbst eine GTX 970 oder ähnliche Karten laufen heute am Limit. Sie haben hier und da Achtungserfolge, mehr aber auch nicht!

Inzwischen glaube ich sogar, der langsame GDDR5-Speicher ist oftmals der Grund.

Du hast einfach eine völlig falsche Vorstellung. Wenn etwas nichtmehr in den VRAM passt, dann muß es im normalen RAM gelagert werden. Das resultiert dann in Leistungsverlusten von 90% und mehr. Heutige Spiele wirken dem entgegen, indem sie automatisch die Texturdetails reduzieren.
Das ist jedoch ein Problem der Spieleentwickler.
Je besser der Titel optimiert ist, dest besser läuft er auch auf z.B. Mittelklassekarten. Nur wenn halt wieder die Pfuscher vom Dienst kommen und die Texturen unkomprimiert im Rohformat in den VRAM legen, da würde selbst eine RTX 3090 in die Knie gehen.

Mehr Kapazität löst die Faulheit der Programmierer nicht, sondern verschlimmert das Problem nur!

Texturdetails kosten, wie gesagt, wenig GPU Leistung, weshalb man sie immer hochdrehen sollte, wenn man kann.
Bei Texturdetails stimmt das zu 100%. Allerdings sollt man nie die maximale Stufe nehemen, da dort die Ressourcen hoffnungslos verbraten werden. Eine Stufe darunter hat optische in der Regel kaum Qualitätsverlust, aber die Leistung ist im Vergleich höher.

Früher war das auch bei Schatten und Beleuchtungseffekten so. Mittlerweile sind diese aber GPU-Leistungsfresser und nicht mehr nur vom VRAM abhängig.

Du scheinst wenig Ahnung zu haben. Die Fury X Besitzer sind, mit Rise of the Tombraider, schon wenige Monate nach Erscheinen ihrer Karte, an Grenzen gestoßen. Die Besitzer einer GTX 980Ti und R9 390(X) hatten dagegen keine Probleme. Noch heute ist man mit der GTX 980Ti und R9 3090(X) ganz gut unterwegs, während die Fury X ihre 4GB zu spüren bekommt. Deine Behauptung, es würde vorher die Rohleistung ausgehen, ist einfach nicht haltbar.
Die Fury (X) war eine Marketingtäuschung ohne Ende. AMD hatte suggeriert sie könnten mit dem HBM-Speicher die Nachteile auffangen, was hoffnungslos misslang.

Was Fiji im übrigen ausbremst ist ein gnadenloses CPU-Limit. Mit etwas mehr Zeit wäre die Fury-Reihe sicher ein Monster geworden. Glücklicherweise ist sie in derselben Stagnationsgruppe wie alles nach Maxwell / Hawaii.

Die Karten beherrschen DX 11, das kannst du drehen und wenden, wie du willst. Es gibt kein "vernünftiges" DX 11, sondern nur DX 11. Bei DX 12 sieht es, dank den Featureleveln, etwas anders aus.
Direct X11 war seinerzeit kein bißchen besser als DX12. Das Support-Chaos ging über viele Jahre von pre DX11 Karten bis hin zu Version 11.3. Volle Unterstütztung gab es erst zum Schluss und da ist man teilweise sogar auf Windows 10 und DX12-Features umgeschwenkt.

Mit uralten Karten hast du das zum Beispiel nicht.
Das "irgendwann" kann man aber rausschieben, am besten, mit viel VRAM. Bis Raytracing Pflicht wird, dürften wohl noch 5 Jahre oder mehr vergehen.
Bis dahin wird deine Karte aber vom Leistungslevel stetig nach unten durchgereicht. "irgendwann" wird sie dann bei normaler Entwicklung (duh!) auch von den unteren Klassen der Nachfolger überholt.

Diese haben dann für gewöhnlich:
-bessere & modernere Technik
-Schnelleren VRAM
-weniger Verbrauch(?)

Wenn ordentlich Geld auf den Tisch lege, dann erwarte ich das auch. Hier im Forum zocken die meisten nur in Ultradetails. Das erklärt dann auch Dinge wie "mit Karte XY" oder 8GB kann man nicht zocken.
Ich denke die meisten Forenhelden sind sowieso entweder ahnungslose Poser oder blinde Fanboys. Die üblichen Pauschalaussagen lassen mich zu keinem anderen Schluss kommen.

Was mich halt stört, ist die Schafsherdenmentalität. Einer schreit den Unsinn vor und alle anderen blöken hinterher. So etwas wie Anwendungsszenarien und wer-hat-angemessene Hardware für die jeweiligen Einstellungen findest du fast nicht mehr. Daher mein fieser Verweis auf "Vollidioten".

Eine RTX 3070Ti sollte eigentlich alles auf Ultra schaffen und wenn, dann liegt es an den 8GB VRAM (nur bei Raytracing muß DLSS mithelfen). Bis meine GTX 980Ti abgeraucht ist, hat sie auch noch alles in Ultra geschafft, das ich gezockt haben (FC New Dawn und Anno 1800).
Jain!
Im Prinzip ist eine RTX 3070 oder Ti nichts als die jetzige gehobene Mittelklasse. Ich weiß die jetzige Situation im Hardwaremarkt sagt etwas anderes, aber das ist nun einmal die Wahrheit.

Auch die fast gleich starke 2080 Ti aus der letzten Generation hat nicht "alles" auf Ultra geschafft. Wieso sollte das der Nachfolger auf gleichem Niveau plötzlich tun?

Neue Spiele werden anspruchsvoller. Was heute noch 4k schafft, rutscht morgen auf 1440p ab. Die 3070er Reihe ist ein Opfer hiervon. Mehr VRAM ist nur ein Pflaster auf die Wunder, nicht die Lösung.
-> Damit gleicht man höchsten die üblich miesen Konsolenports aus. Mehr nicht, so leid mir das tut!

Mit anderen Worten, du nimmst eine wesentlich schlechtere Karte, damit du gezwungen bist, früh aufzurüsten. Kann man machen, ich und extrem viele andere, wollen aber etwas länger etwas von ihrer Hardware haben. Da ist ein üppiger VRAM eben wichtig.
Schlechter ist die falsche Bezeichnung!
Manche Käufer wägen halt vorher ab. Rendiert es sich wirklich 100-200€ mehr zu investieren auf eine garantielose Hoffnung? Was wenn die nächste Generation plötzlich viel schneller ist oder das absolute Killerfeature hat.

Dann ärgern sich Teuer-Käufer jedes mal zu Tode und flamen nonstop die Foren und Kommentarspalten zu.

Des Öfteren vererben die "Billig-Käufer" auch ihre Hardware and Freunde oder Familie, die dann wiederum die Grafikkarten bis zum Ultimo verwenden. Geht nur momentan nicht und eine 16GB 3070 Ti macht das auch nicht besser.

Nein, sie erhöht den Preis wahrscheinlich eher für alle. Dagegen bin ich absolut!
 
Ich, der sich mit einer GTX 670 durschlägt oder du? Ich kann dir sagen, dass die 2GB eigentlich immer der Grund sind, warum ich ein Spiel nicht spielen kann oder die Details massiv runter drehen muß. Die Karte bräuchte einfach mehr RAM. Mit 4GB würden absolut alle Spiele drauf laufen.
Man kann sich auch selbst belügen. Mein Oldy beherbert nebst dem i7 3930K eine GTX 770, die ein klein wenig schneller als die GTX 670 ist. Die 2Gb VRam sind nicht das Problem, daß moderne Spiele unspielbar sind. Das Teil ist einfach ultra langsam. Eine GTX 970 ist ~70% schneller und kommt in FHD schon unter die Räder. Wenn zuwenig Power da ist helfen auch keine 8GB.
Witcher 3.PNG

CP.PNG


Da muß ich @TheGoodBadWeird recht geben. Die RTX 3070 ist keine Highend Karte. Wer da 4K ultra erwartet hat sich leider verkauft. Schon bei Release hat die RTX 2080Ti in 1440p in ultra/max keine 60FPS halten können. Genausowenig wie die RTX 3070.
Manche definieren ultra/max anders und dann geht es natürlich.
 
Zuletzt bearbeitet:
@DaHell63
Yep, genau so ist es. Danke für den Zuspruch!

Ich wundere mich bei all der Diskussion, was denn überhaupt erwartet wird. Wenn schon die Mittelklasse mit mindestens 2-3 Karten darüber um die 16GB besitzen soll, wie will man dass den in eine Schema bringen.

3070 Ti = 16GB
3080 (Ti) = 20GB
3090 = 24GB+(?)

Ist mir alles ein wenig übertrieben. Vor allem da die DRAM-Preise sich angeblich im 1. Quartal 2021 erhöhen.

Quelle (english):
https://www.guru3d.com/news-story/dram-prices-to-rise-in-first-quarter-of-2021.html

Das heißt auch für den Fall, dass die Miningpandemie abflaut, werden die Grafikkarten mehr kosten. Vor allem falls wir auch gleichzeitig mehr VRAM auf jeder Karte "brauchen wollen". Bei Nice-To-Have Sondermodellen bin ich ja dabei. Jedoch sinnlos überall VRAM draufklatschen ist nicht ganz so mein Ding!

Betrachtet man die aktuelle Situation am Grafikmarkt ohne externe Einflüsse, ist trotzdem der Wurm drin.

Es fehlen einfach die krassen Angebote und Leistungsbrecher. In der 200-400€ Klasse ist auch mit UVP-Wunschpreis nichts dabei. Weiter in der 300-550€ Performance wahrscheinlich auch nicht. Ich weißl nicht, aber VRAM ist nicht das dringendste Problem.
 
Man kann sich auch selbst belügen. Mein Oldy beherbert nebst dem i7 3930K eine GTX 770, die ein klein wenig schneller als die GTX 670 ist. Die 2Gb VRam sind nicht das Problem, daß moderne Spiele unspielbar sind. Das Teil ist einfach ultra langsam. Eine GTX 970 ist ~70% schneller und kommt in FHD schon unter die Räder. Wenn zuwenig Power da ist helfen auch keine 8GB

Wenn du natürlich alles auf Ultra drehst, am besten in 4K, dann ist es klar, dass die Karte dann krass einbricht. Man muß die Regler nach unten drehen. Meist wirkt ein "sehr hoch oder auch nur "hoch" Wunder, ohne die Optik zu sehr herabzusetzen.

Genau da liegt dann eben der Hund begraben. Meine GTX 670 bekommt FC: New Dawn,in 1080p@niedrig, mit 40-60FPS zum laufen, wobei meine CPU begrenzt. Von der GPU wäre noch Leistung vorhanden, allerdings pfeifen die 2GB aus dem letzten Loch. Mit 3GB wäre dann weitgehend Mittel drin, bei einigen Details sogar hoch, mit 4GB sogar durchgehend hoch bis sehr hoch.

Das ist eben der gigantische Unterschied.
 
Eine 3070er mit 16 GiB ist einfach zu realisieren und war ja auch schon bereits ankündigt, denn Lenovo hatte diese Modelle letztes Jahr schon unbeabsichtigt geteasert.
Ach was nicht schon alles geteasert wurde, die RTX 3080 Ti mit 20GB stand ja auch schon fest, wenn man damals Videocardz glauben schenkte. Sicher ist erst was, wenn Nvidia die Grafikkarte wirklich auf den Markt bringt, im Moment bringt Nvidia nur sehr wenig auf den Markt.
Zwischen der RTX 3070 und 3080 ist ausreichend Platz, insbesondere wenn man auf 4K schaut und da lässt sich leistungstechnisch problemlos ein Modell dazwischen schieben und technisch umso mehr, da vermutlich selbst eine Ti weiterhin nur Standard-GDDR6 verwenden wird (vielleicht auf 16 Gbps aufgewertet?) und daher einfach auf 16 Gb-BGAs umgestellt werden kann.
Natürlich lässt sich zwischen der RTX 3070 und der RTX 3080 eine RTX 3070 Ti dazwischen schieben, aber mit 16GB glaube ich nicht.
Die Frage ist nur das "wann", denn mit den vielfältigen Problemen in der gesamten Fertigungskette (Chipfertigung bis hin zu den Kartenherstellern) macht es derzeit wenig Sinn zu viele Modelle in zu kurzer Folge nachzureichen, denn dann wird alles gesichert ein überteuerter Paperlaunch.
Naja mit Paperlaunches kennt sich Nvidia seit Ampere aus, man braucht ja nur schauen, wie die Regale bei den Händlern mit Ampere Grafikkarten bestückt sind. Vor Ende des Jahres 2021 ist mit einer Besserung nicht zu rechnen.
Und unterm Strich kann man nicht mal ausschließen, dass nVidia "jetzt" eine 12 GiB-3080 Ti veröffentlicht und später bspw. als Super-Refresh ein 20 GiB-Modell nachreicht.
Halte ich für sehr unwahrscheinlich, es sei denn, die Ampere Generation wird erst nach 5. oder 6. Jahren durch die nächste Generation abgelöst, was aber ein Armutszeugnis für ein Hersteller wie Nvidia wäre. Eine 12GB RTX 3080 Ti wäre ein totaler Fail, nur 2GB mehr Speicher als die bisherige RTX 3080, wird doch die Stimmen der VRam Fanatiker nicht zum Schweigen bringen. Leistungstechnisch ist zwischen der RTX 3080 und der RTX 3090, was FPS Steigerung angeht nur sehr wenig Platz, wenn soll denn so eine Grafikkarte überzeugen?
Das hängt einfach davon ab ob die das für sinnvoll erachten, denn die Kapazitäten haben sie dafür zweifellos eher als AMD, sofern die überhaupt in der Rechnug erforderlich sind, denn die könnten auch einfach den Ti-Chip für eine 20 GiB-Bestückung freigeben.
Eine RTX 3080 Ti mit etwas mehr Leistung in Form von FPS und 20GB Speicher würde aber eine RTX 3090 völlig obsolet machen.
20 GiB würden eine Reduzierung des SIs auf wieder 320 Bit zur Folge haben, nVidia könnte das jedoch zumindest ein wenig kompensieren, indem man den Speicher anstatt mit 19 Gbps dann mit 19,5 Gbps betreibt, wie man es auch auf der RTX 3090 macht. Das wird man einfach abwarten müssen.
Es wäre keine Reduzierung des SIs, weil die RTX 3080 doch auch schon 320 Bit hat, man würde einfach nur die Speichermenge verdoppeln.

Was die Absatzzahlen betrifft, kann sich Nvidia doch nicht beschweren, selbst bei den utopischen Preisen der Händler, wurden Ihnen doch die Grafikkarten aus den Händen gerissen und alles gekauft was auf den Markt kam. Einzig die RTX 3090 ist im Moment bei einigen Online Händlern Lagernd, bei einem Preis von 2600,00 bis 3000,00 Euro scheint es, ist eine Grenze erreicht, wo sich die Grafikkarten dann nicht mehr sofort verkaufen und weggehen wie geschnitten Brot!

Meiner Meinung nach tut sich Nvidia mit ihrer Speicherpolitik, gerade bei den Ampere Grafikkarten keinen gefallen. Das hätte man deutlich besser machen können, das wird sich wohl erst dann ändern, wenn AMD mit Ihren Grafikkarten Leistungstechnisch in allen Bereichen aufgeschlossen hat. Wie schnell so etwas geht, da kann Intel ein Lied von singen, von daher sollte Nvidia auf der Hut sein. :hmm:
 
Zuletzt bearbeitet:
Eine RTX 3080 Ti mit etwas mehr Leistung in Form von FPS und 20GB Speicher würde aber eine RTX 3090 völlig obsolet machen.
Es spricht vieles dagegen, dass Nvidia eine RTX3080Ti mit 20GB und zusätzlich noch Mehrleistung bringt.

- Es kannibalisiert unnötigerweise die RTX3090, wo doch ein My oberhalb der RTX3080-10GB ausreichend wäre
- Nvidia springt nie höher als nötig, 12/14/16GB wären Steigerung genug, zur Not mit angepasster Anbindung
- So viel Speicher benötigen die Gamingkarten aus Sicht von NV nicht - die 90er ist die Titan-Ausnahme für "Prosumer"
- RTX3090 verkauft sich super und hat eine riesige Gewinnmarge(!!), warum ein günstiges Speichermonster anbieten??
- VRAM ist teuer und die Chips weltweit knapp, VRAM-Rausschleudern = Selbstgeißelung
- Es führt dazu, dass die RTX3080Ti und das komplette Lineup, durch massiven VRAM-Chip-Bedarf kaum verfügbar sein wird
- Ginge Nvidia jetzt den Schritt mit solchen Speicherschleudern, dann erwarten die Kunden das auch in Zukunft

Viel zu viel VRAM. Würde nur dazu führen, dass die Leute auf ne RTX3080Ti geiern, möglichst noch um 1000€ rum (haha träumt weiter :ugly: ) und dann wäre man ja wieder für 4 Jahre glücklich. Aber das kann es aus Nvidias Sicht nicht sein, denn man muss ja weiterhin einen Anreiz haben, dass die Leute bei der nächsten Generation zuschlagen und da kann man ja nicht schon wieder mehr Speicher anbieten. Deshalb kommt die so auch nicht. Schminkt es euch ab. Glaube persönlich eher an eine Karte, die leistungsmäßig exakt zwischen 3080 und 3090 performt und irgendwas zwischen 12-16GB hat, mehr nicht. Nvidia hat keinen Grund und die Kunden kämen situationsbedingt sowieso nicht an die Karte ran.

Bin bei der RTX3070 mit 16GB auch nach wie vor sehr skeptisch. Passt einfach nicht so richtig ins Gesamtbild und ist auch hier für ne pupsige 70er viel zu viel. Die Karte richtet sich eh nur maximal an WQHD-Spieler und da brauchste so viel Speicher schlicht nicht. Und auch hier gleiches Prinzip... zu zukunftssicher und damit nicht im Sinne von Nvidia.

Und jetzt noch das ultimative Argument:

- Es mint sich auch mit wenig VRAM gut. :fresse:
 
Die Aktuelle Lage ist entstanden durch pandemii und mining nachfrage
diese beiden Ereignisse kombiniert mit eol der rtx20 Serie kam überraschend
Allein die Liefersituation hätte nicht zu solch einer marktlage gesorgt.
Hier wäre raum gewesen für Abverkäufe
Daraus wurde nix weil alles was dx12u und min 6tf sowie über 300gb/s vram durchsatz von minern aufgekauft wurde
Dann die schleppende Nachschub von rtx30 karten was auch an den minern in china liegt.
defakto haben in eu usa und anderen ländern spezial orte mit geringeren stromlkosten alles an gpu auf gekauft was geht
Die derzeitigen preise sind allein der mining ertrag geschuldet
Eine ungebremste rtx3060 macht 41mh/s eine rtx3060iu 52mh/s
Umgerechnet sind das profit von etwa 1,28$ bis 1,90$
Auf Jahr gerechnet sind das 467$-693$
Und das ist netto.
Strom schon abgezogen und ohne energieeinsparung und ein single gpu system. optimiert man da und setzt ein quad oder ganz harter 16 karten rig zusammen. reduziert sich die pro gpu energieverbauch auf max 80w

Daraus ergeben sich nochmal reingewinne von +30% (ich hab mit 150w gerechnet für single gpu)
467$ werden 607$ pro gpu rtx3060
693$ werden 900$ pro gpu
Das mal 16
So sehr lohnt sich mining es ist quasi kein wunder das keine vernünftigen preise am markt sind.
Der Licht blick ist aber das etherium ende des Jahres einen hardfork bekommt und es wird auf pos umgestellt was sofort gpu mining unbrauchbar wird.
asics sind schon in Fertigung.
alt coins muss man sehen inwiefern diese am wert nachziehen werden. Irgendwann wird aber endlich eine Regulierung kommen. Dann ist sofort Schluss mit Wildwest.
in chna sind die schon seit sept 20 rtx30 karten am abzweigen das erklärt die schlechte verfügbarkeit dieser gpu. Erst der Rest stieg dez und januar komplett nach.
Seitdem ist der markt quasi leergekauft.
wer soll den spaghetti müll lesen
 
Das einzige Argument für die 3070ti 16GB ist die 3060 12GB.
Ja so ungefähr. Allerdings lässt sich die RTX3060 damit erklären, dass 6GB angesichts der gerade erschienenen BigNavi-Karten geradezu lächerlich ausgesehen hätte. Das ist nochmal ne andere Hausnummer. Aber kein Grund, dass man der RTX3070Ti jetzt 16GB bzw der RTX3080Ti 20GB draufklatscht. Weniger tuts auch, sprich 10-12GB und 12-16GB.

Wie die das anbinden werden weiß ich nicht, aber die ganze Nummer mit der Anbindung kann nicht das einzige Argument sein. Ein Upgrade muss ja nicht immer bedeuten, dass man statt der 1GB-Chips die 2GB-Chips verwendet bzw den Speicher grundsätzlich verdoppelt. Muss auch irgendwie in kleinerem Maßstab möglich sein.
 
Wobei bei der 3070 eben nur 8 oder 16 möglich sind. Wenn man 8 für eine 3070ti als zu wenig ansieht, bleiben nur 16.

Bei 256 Bit Speicherinterface hat man halt 8 Chips, die können dann 1GB oder 2GB sein. Will man auf 12-14GB muss man hat das Speicherinterface beschneiden und dann geht die Speicherbandbreite im Verhältnis zur Leistung der GPU aus.
 
Zurück