News Warum 8 GiB VRAM nicht mehr reichen: Das Ruckelfest im Video

Wird Nvidia eigentlich auch weg gehen vom Monolithischen Chipdesign, oder haben die eine
andere Lösung gefunden?
 
Vielleicht habe ich es übersehen/überhört, aber was für ein Testsystem wird da genutzt? Wieviel RAM ist verbaut, wird eine SSD eingesetzt? Ist ja nicht so, als würden wir nicht über intelligente Komponenten sprechen, die sich gegenseitig tangieren können.
 
Kann nicht seien, viele Behaupten hier, 8GB immer und völlig ausreichend ;-)
Nein, das behauptet schon ewig keiner mehr.
Wird Nvidia eigentlich auch weg gehen vom Monolithischen Chipdesign, oder haben die eine
andere Lösung gefunden?
Ich meine im Profisegment ist man schon dabei, nicht mehr nur den monolithischen Ansatz zu verfolgen. Aber wann das bei den Consumer Karten Einzug erhält...

Gab es da schon Gerüchte zu bzgl. RTX5090? Ich weiß es nicht mehr.
 
Zuletzt bearbeitet:
Der 60Hzler (der oft nur mit 40 fps spielt ) denkt sich da wahrscheinlich nur: "Luxusproblem: keine 144 fps - wtf.- braucht keiner wirklich."
Ähm naja sehe es bisschen deferenzierter. Ich habe lange 1080p versucht zu überspringen wollte es nicht kaufen weil zu teuer und so. Und als es so weit war wo es günstig wahr wahr 1440p angesagt.

Ich brauche die auch nicht ich limitiere es sogar weil sonst es nichts bringt. Aber dass es von monitor dann geht ist supi weil so macht das eine oder andere game viel viel mehr spaß ich will net mehr auf 60hz zocken.
 
Nein, das behauptet schon ewig keiner mehr.

Ich meine im Profisegment ist man schon dabei, nicht mehr nur den monolithischen Ansatz zu verfolgen. Aber wann das bei den Consumer Karten Einzug erhält...

Gab es da schon Gerüchte zu bzgl. RTX5090? Ich weiß es nicht mehr.
Da widerspreche ich dir nach den Diskussionen hier in den letzten tagen, es ist ja völlig okay ne 400 Euro karte mit 8gb zu kaufen z.b. man muss nur Regler usw weiter bedienen können, läuft alles bestens ..
 
Also bei FHD Auflösung bin ich noch gut mit 6 GB:-P unterwegs und da ruckelt gar nichts. Sicher ist eine GTX Titan Black schon längst ein altes Eisen, aber sie macht es noch und Freude habe ich dabei auch noch. Gut, in Kürze steht nun wirklich eine neue Karte mit genug Leistung an, aber trotzdem bin ich zufrieden.
Wenn die Leistung nicht reicht, hilft ein Löffel leckerer Schoko Creme auch weiter...:D:sabber:

Ja, aber dann wirst Du auch keine aktuellen Titel mit Max Details spielen. Klar, wenn man ältere Sachen spielt oder bereit ist in neuen Titeln Regler zu bedienen, kommt man auch mit 6GB VRam noch hin.

Trptzdem ist es natürlich sehr bitter, wenn man sich vor einigen Monaten für viel Geld eine 3070, 3070Ti oder 3080 10GB gekauft hat und man nur wegen des zu kleinen VRams jetzt schon Details reduzieren muss. Denn von der reinen Rasterleistung her würden diese Karten aktuelle Titel locker packen.
Vielleicht habe ich es übersehen/überhört, aber was für ein Testsystem wird da genutzt? Wieviel RAM ist verbaut, wird eine SSD eingesetzt? Ist ja nicht so, als würden wir nicht über intelligente Komponenten sprechen, die sich gegenseitig tangieren können.

Also das PCGH zum testen noch HDDs einsetzt würde ich mal ausschließen ^^
 
Kann nicht seien, viele Behaupten hier, 8GB immer und völlig ausreichend ;-)
Nicht immer, aber in 99% der Fälle. Die 1% Ausnahmen lassen sich zudem auch einfach umgehen, wenn man nicht mit Max-Settings spielt (was in Kombination Leistung/Darstellung sowieso meist recht unsinnig ist). So zumindest meine aktuelle Erfahrung mit einer 2080@1440p. Es kommt immer auf den eigenen Anspruch an - die dargestellten Probleme wirken für mich daher recht erzwungen. Eine neue GPU mit 8GB würde ich mir heute aber auch nicht mehr kaufen.
 
Bin ich froh das ich immer schon zu High End Hardware gegriffen habe und zumindest bei der Grafikkarte tu ich es immer noch. Wenn ich das Video sehe mit den 8 GB bin ich heilfroh das ich schon ewig das hinter mir gelassen habe.

Wundert mich aber das es immer noch Karten gibt die mit so wenig Ram verkauft werden.
 
Nicht immer, aber in 99% der Fälle. Die 1% Ausnahmen lassen sich zudem auch einfach umgehen, wenn man nicht mit Max-Settings spielt (was in Kombination Leistung/Darstellung sowieso meist recht unsinnig ist). So zumindest meine aktuelle Erfahrung mit einer 2080@1440p. Es kommt immer auf den eigenen Anspruch an - die dargestellten Probleme wirken für mich daher recht erzwungen. Eine neue GPU mit 8GB würde ich mir heute aber auch nicht mehr kaufen.
So pauschal würde ich es nicht sagen, das man keine GPU mit 8 GB kaufen sollte, alles eine Frage des Preises, in meinen Augen <250 Euro, könnte ganz okay sein, aber sicher nicht bei einer >400 Euro Grafikkarte.... Das ist heutzutage in meinen Augen völlig Sinnbefreit, vor allem noch mit einem gestutzten PCIE Interface
Egal ob von Intel, AMD oder Nvidia......
 
Das ganze ist doch von vielen Faktoren abhängig. Spielanforderung, sprich wenn ich nur Spiele wie Warframe, LoL, WoW, Overwatch 2 und Co spiele, die ganz gezielt niedrige Anforderungen haben, tangiert mich das nicht. Massgeblich auch: auf welcher Auflösung zocke ich. Ohne 4K Monitor, ist das ganze auch nicht so tragisch.

Aber bei mir mit meiner RTX-3070 ist es auch so, wenn dann ein Blockbuster mit UE5 Anforderung kommt der wirklich mehr fordert, werde ich mir wohl eine RX 7900-XTX holen.
 
Klar ist mehr VRAM besser, aber auch nicht immer zwingend notwendig.
Will man jedes Spiel mit max Details und höchster Auflösung spielen, dann kann man nicht genug VRAM haben.
Nur besteht die Welt aus mehr als nur einer Handvoll spielen die dann mit 8GB VRAM nicht mehr starten.
 
Also wir konstruieren ein oder mehrere Szenarien indem wir alle Regler auf Ultra stellen um dann eine auf 8GB limitierte Graka da durchzujagen. Mhh... was wird da wohl das Ergebnis sein? Oh nein es ruckelt!

Crysis war gestern, heute fragt man sich "But can it run Minecraft?"
 
Das Problem liegt bei AMD und NVidia. Sie sollten Modelle mit mehr Speicher anbieten.
Aktuell kann man ja so gut wie nichts kaufen, selbst die neuen Mittelklasse Grafikkarten kommen mit nur 8GB.
Und NVidia läßt sich zusätzliche 8GB Speicher dann mit einem satten Aufschlag von 120€ vergolden, obwohl dieser nicht einmal die Hälfte im Ankauf kostet.

Meiner Meinung hilft da nur: Nicht Kaufen und warten bis Modelle mit mind 12GB erscheinen für einen angemessenen Preis, also ohne Preisaufschlag. ;)
 
Zuletzt bearbeitet:
Meiner Meinung sollte heutzutage nicht zu einer Grafikkarte gegriffen werden, die weniger als 12GB VRAM hat. Besonders jene, die die GPU anschliessend mehrere Jahre ohne allzu grosse Abstriche nutzen und nicht alle 1.5-2 Jahre eine neue Grafikkarte der neusten Generation kaufen wollen/können.

Minimum 8GB war bei Release der 5700XT-Mittelklasse um 2019 rum noch in Ordnung (und lag im Bereich von 400-500€). Aber seither sind doch schon wieder 4 Jahre ins Land gegangen.
 
Noch schlimmer wird es, wenn man dann auch noch (wie ich) komplette Nischensetups hat (Triple-Screen) - dann reichen z.T. 12 GB VRAM heutzutage in FHD nicht mehr aus. Dann brauchst du schon 16.
Eine RTX 2080Ti wird genau deswegen besser altern als eine RTX 3070 bzw. tut es ja jetzt schon. Die bessere WQHD-Karte bleibt die 2080Ti.
Und da Speicher gerade wirklich billig ist: 8 GB mehr VRAM kann keine 100€ mehr kosten, wie sie NVIDIA für eine RTX 4060 vermutlich haben will. Maximal darf das 50€ mehr kosten. Eher sogar nur 30€.
 
Zurück