News Warum 8 GiB VRAM nicht mehr reichen: Das Ruckelfest im Video

Ein sehr gutes und ausführliches Video, welches die Problematik von 8GB Vram bestens anhand von Beispielen und Erläuterungen erklärt :daumen:

Wer die Problematik von zu wenig Videospeicher jetzt immer noch nicht verstanden hat, dem kann man auch nicht mehr helfen...;-)

Das Problem ist ja nun auch eigentlich nicht neu -> ich hatte bereits vor über 2,5 Jahren mit meiner alten GTX1080 mit 8GB Vram bereits in einigen Spielen - Shadow of the Tombraider, The Division 2 - in Full-HD schon massive Probleme durch zu wenig Vram.
Nur damals gab es natürlich bis auf eine Titan mit 12GB keine ernstzunehmenden Alternativen mit mehr Vram...

Erst mir der Radeon RX 6800- Series kamen ernstzunehmende Grafikkarten zu bezahlbaren Preisen, die für ihre Rohleistung genug Videospeicher hatten.
Alles bei Nvidia bist auf die RTX 3090, RTX 4080, RTX 4090 ist trotz sehrt guter Rohleistung durch ihren viel zu geringen Videospeicher langfristig für höhere Auflösungen ab WQHD nicht wirklich empfehlenswert, wenn man immer mit maximale Bildqualität spielen will.

Eine RTX 3080 ist mit ihren 10 GB trotz noch guter Rohleistung bereits jetzt schon ein Sorgenkind für WQHD und höher...

Vielleicht kann Raff auch dazu mal ein Video machen...
Das Problem, das man nicht nur auf den Speicher gucken kann. Auch Leistung, gerade mit RT ist für manche ein Kriterium.

Da bleibt die Wahl wie immer, entweder mehr Speicher oder mehr RT Leistung. Beides gibt es in Grenzen erst ab der 4080 (16GB) und eigentlich erst ab der 4090.
 
Ich bekomme vielleicht nicht so viel Werbung mit, aber mir ist noch nicht untergekommen, dass mal beworben wurde, dass aktuelle Mittelklassekarten jetzt und in absehbarer Zukunft alles in den höchsten Einstellungen, Auflösungen und Bildraten stemmen werden. Und wenn jemand auf ein Modell aufrüstet, das keinen rechtfertigenden Mehrwert bietet, zockt er sich höchstens selber ab. Da muss man sich natürlich informieren und wenn mich jemand fragen würde, würde ich auch im Fall, dass es kein geeignetes Nachfolgemodell innerhalb des Budgets gibt, einfach vom Upgrade abraten und das wäre ja jetzt vermutlich nicht im Interesse der Hersteller.

Na ja ... da versucht NVIDIA einem schon sehr werblich seine 8GB Sparbrötchen schmackhaft zu machen und spielt den Erklärbär, warum dieses Sparkonstrukt zusammen mit ihren sonstigen Technik-Features halt nicht wie 8GB der Konkurrenz seien... Die Praxis scheint ihnen dann aber nicht wirklich Recht zu geben: denn was nützten mir DLSS mit Frame Generation, wenn einer 8GB-Grafikkarte selbst in FHD längst vorher die Luft ausgeht?

Und richtig: selbst schuld, wenn man uninformiert von einer Generation auf eine folgende aufrüstet, die kaum Mehrwert aber deutlich höhere Kosten bringt.

Deshalb braucht es auch solche aufklärenden Beiträge, die darauf hinweisen, dass Technik-Features eben nicht alles sind, wenn die Konstruktion der Hardware drunter zu schmalbrüstig ausgelegt ist und der Hersteller Schwurbelmarketing braucht, um dem König-Kunde seine teuren neuen Kleider zu verkaufen ... denn wer vor 4 Jahren 600-900€ hingeblättert hat, konnte mit der entsprechenden Grafikkarte noch locker fast alles (vllt. außer Crysis) ohne Anpassung vom Fleck weg spielen - heute bekommst dafür v.a. von einem Hersteller maximal Mittelklasse-Hardware, die dafür auch noch zu sparsam konstruiert ist.
 
Dann erläutere doch mal, warum Settings runterstellen keine Option ist. Mit einer 400€ Karte werde ich 4K Ultra sowieso nicht spielen können. Ganz gleich, ob der VRAM für Ultra-Texturen zu klein ist.


Die 1080 ist 7 Jahre alt. Als alternative gab es da die 3090.


Kaufst du dir eine neue Grafikkarte, um dann hinterher Details herunterstellen zu müssen?

Eine RTX 3070/3080 kostete und kostet auch derzeit etwas mehr als 400 Euro;-)
Und eine RTX 3080 hätte noch genug Rechenleistung für 4K, wenn sie nicht so ein Speicherkrüppel wäre..:ugly:

Ich wusste gar nicht, dass es 2016 schon eine eine RTX 3090 zu kaufen gab :ka:... danke dass du mich erleuchtet hast:hail:
:ugly:
 
Kaufst du dir eine neue Grafikkarte, um dann hinterher Details herunterstellen zu müssen?
Das musstest du, abhängig von der Klasse, sowieso schon immer.
Ein Golf verliert auch gegen einen Porsche. So ist das nunmal ;)
Wer mehr will, muss mehr ausgeben.

Eine RTX 3070/3080 kostete und kostet auch derzeit etwas mehr als 400 Euro;-)
Und eine RTX 3080 hätte noch genug Rechenleistung für 4K, wenn sie nicht so ein Speicherkrüppel wäre..:ugly:
Nö, hat sie nicht:
Screenshot 2023-05-23 161606.jpg

Screenshot 2023-05-23 162131.jpg

Ich wusste gar nicht, dass es 2016 schon eine eine RTX 3090 zu kaufen gab :ka:... danke dass du mich erleuchtet hast:hail:
:ugly:
Du hast was von "vor 2,5 Jahren" geschrieben. Heute ist der 23.05.2023. Vor 2,5 Jahren war also Ende 2020 und da erschien die 3090 ;)
 
Zuletzt bearbeitet:
Das Problem, das man nicht nur auf den Speicher gucken kann. Auch Leistung, gerade mit RT ist für manche ein Kriterium.

Da bleibt die Wahl wie immer, entweder mehr Speicher oder mehr RT Leistung. Beides gibt es in Grenzen erst ab der 4080 (16GB) und eigentlich erst ab der 4090.

Genau das ist ja der Punkt, man muss bei Nvidia immer bis zu einer gewissen Preisgrenze extreme Kompromisse eingehen ;-)
Nvidia macht das mit seiner Mondpreisstrategie schon sehr schlau, um die Leute dazu zu motivieren deutlich mehr Geld auszugeben, als sie eigentlich wollen, fast schon so wie Apple...

Bei AMD hast du genug Vram für die Zukunft, allerdings auch nur die RT-Leistung der Nvidia-Topmodelle aus der Vorgängergeneration -> also auch wieder ein Kompromiss...

Für mich wäre derzeit der Sweetspot bei der RTX 4080 - sollte die Karte irgendwann mal auf unter 1000 Euro fallen, dann wäre sie tatsächlich eine gute Wahl ;-)

Die Grafikkartenpreise von früher - wo ein Topmodell GTX 780/980Ti bei 600 bis 800 Euro lag werden wir ohnehin nicht mehr bekommen...

Man hätte die Mondpreisstrategie von Nvidia viel früher - am besten schon zur GTX670/680 abstrafen sollen, jetzt ist es für uns Konsumenten und die Fachpresse zu spät:schnarch:
 
Du hast was von "vor 2,5 Jahren" geschrieben. Heute ist der 23.05.2023. Vor 2,5 Jahren war also Ende 2020 und da erschien die 3090 ;)

Dann musst du meinen Text richtig lesen, dann hättest du auch verstanden, dass die 2,5 Jahre auf das Problem mit dem Vram bezogen waren - vor 2,5 Jahren habe ich GTX1080 nämlich deswegen ausgetauscht, davor hatte ich sie ja bereits ein paar Jahre ;-)

Mit den 16 GB Vram der RX6800 gibt es bis jetzt keine Probleme in meiner Auflösung, ich muss allerdings bei neueren Titeln wie Dead Island 2 oder Dying Light 2 vermehrt auf FSR2.0 setzen um von der GPU-Leistung in meiner Auflösung noch über 100 Frames zu kommen -> das heißt ich brauche bald auch wieder eine neue Grafikkarte...:ugly:
 
Mit den 16 GB Vram der RX6800 gibt es bis jetzt keine Probleme in meiner Auflösung, ich muss allerdings bei neueren Titeln wie Dead Island 2 oder Dying Light 2 vermehrt auf FSR2.0 setzen um von der GPU-Leistung in meiner Auflösung noch über 100 Frames zu kommen -> das heißt ich brauche bald auch wieder eine neue Grafikkarte...:ugly:
Das ist ja genau das, worauf ich hinaus wollte. Du musst die Settings eh runterstellen. Ob es nun die Texturen sind oder was anderes, spielt dabei keine Rolle.
 
Zum Kritikpunkt mit den 8 Lanes:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Ich war bei 1080p damals einer der ersten, dann kann man auch einer der letzten sein ;)
Hm kann man so sehen. Ich hab es nicht ein gesehen für ein Produkt für 200 euro 1-2 jahre nutzen zu können um dann auf 1440p wechseln zu können für den gleichen preis oder 300 euro und das dann für 1080p raus zu schmeißen. Dafür ist es zu schade und unnötiger elektorschortt vermieden.

Deswegen vermeide ich das. Den jetztigen 1440p monitor wahr halt mit 230 euro in angebot. Fande ich zu den 1080p monitoren ne echtes schnäppichen.

Naja, ich würde eher sagen die Aussage ist permanent mit 8GB läuft gar nichts mehr.
Würde es anders Formulieren. Klar kann man die Regeler schieben für Moderne Beta Tripel A titel klar. Muss man das, Hängt in auge des betrachters. Wehr die grafische schönheit sich ergießen möchte defenetiv nein. Wehr aber nur Retro ältere Titel spielt wird die 8Gibyte karte noch dienste verichten. Dafür eine neue zu kaufen ist von geld abhängig ich defenetiv nein.
Weil ich für ne RTX 8Gibyte karte auch ne 12er oder 16ner karte bekomme die von gibyte deutlich konfortabler ist.
Daher stellt sich die Frage nicht und ob wehr den Regler bedienen kann ist finde ich ne sehr unschöne unterstellung das man nicht in der lage ist zu regeln. Manche die "Detals-******" die hier alles in forum weg diskutieren und sich an der Top Grafischen schönheit in Games ergötzen gerne. Aber die meisten können dies nicht oder stellen die Details manuell ein.
 
Das ist ja genau das, worauf ich hinaus wollte. Du musst die Settings eh runterstellen. Ob es nun die Texturen sind oder was anderes, spielt dabei keine Rolle.
Ob du ein paar Effekte oder die Texturen runterstellst, spielt eine große Rolle.
Texturen kosten kaum Leistung, sondern füllen nur den Speicher.
Und der optische Unterschied ist verglichen mit ein paar Partikeln, oder härteren Schatten deutlich sichtbar.
Texturen sind das letzte, was ich reduzieren würde.
 
Ob du ein paar Effekte oder die Texturen runterstellst, spielt eine große Rolle.
Texturen kosten kaum Leistung, sondern füllen nur den Speicher.
Speicher kostet Geld und Platz auf dem GPU DIE ebenfalls.

Und der optische Unterschied ist verglichen mit ein paar Partikeln, oder härteren Schatten deutlich sichtbar.
Das ist Unsinn. Gerade in schnellen Gefechten fällt das null auf, ob es ultra oder mittel ist hinsichtlich der Texturen.
Ich hatte mir damals für Shadow of Mordor das 4K-Pack runtergeladen und optisch war der Unterschied mit der Lupe zu suchen.
Zwischen hoch und ultra sind die Unterschied häufig nur marginal.
Gab hier oder auf CB auch schon eine News dazu.
 
Ob du ein paar Effekte oder die Texturen runterstellst, spielt eine große Rolle.
Texturen kosten kaum Leistung, sondern füllen nur den Speicher.
Und der optische Unterschied ist verglichen mit ein paar Partikeln, oder härteren Schatten deutlich sichtbar.
Texturen sind das letzte, was ich reduzieren würde.
Zumeist von höchste zu zweithöchste aber auch nicht so groß.
Genau das ist ja der Punkt, man muss bei Nvidia immer bis zu einer gewissen Preisgrenze extreme Kompromisse eingehen ;-)
Nvidia macht das mit seiner Mondpreisstrategie schon sehr schlau, um die Leute dazu zu motivieren deutlich mehr Geld auszugeben, als sie eigentlich wollen, fast schon so wie Apple...

Bei AMD hast du genug Vram für die Zukunft, allerdings auch nur die RT-Leistung der Nvidia-Topmodelle aus der Vorgängergeneration -> also auch wieder ein Kompromiss...

Für mich wäre derzeit der Sweetspot bei der RTX 4080 - sollte die Karte irgendwann mal auf unter 1000 Euro fallen, dann wäre sie tatsächlich eine gute Wahl ;-)

Die Grafikkartenpreise von früher - wo ein Topmodell GTX 780/980Ti bei 600 bis 800 Euro lag werden wir ohnehin nicht mehr bekommen...

Man hätte die Mondpreisstrategie von Nvidia viel früher - am besten schon zur GTX670/680 abstrafen sollen, jetzt ist es für uns Konsumenten und die Fachpresse zu spät:schnarch:
Neue Titel werden öfter zeigen, das AMD nicht mal die RT Leistung von RTX3000 hat und dazu kann man gerne auch Cyberpunk heran ziehen.
Das meine ich. Beides erfordert mehr oder weniger Kompromisse, jeder muss selber entscheiden welche er eingehen möchte.

Ich bin auch bei der 4080... Hoffe die fällt noch gut 50-100 € in den nächsten zwei Wochen ;)
 
Die Unboxer sagen im Video , dass sogar die Spieleentwickler den Hals von Nvidia langsam voll haben, da die Limitierung des V-Rams auf 8GB dazu führt, dass die Entwicklung neuer Spiele (technisch) enorm ausgebremst wird. Die ganze Industrie leidet inzwischen an der Beschränkung.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Kommt drauf an welche 8 GB Karte. Was nützt mir das schnellere RT wenn der Speicher überläuft? Bleib Dabei, eine 400 Euro karte egal von wem mit 8 GB sollte man nicht kaufen
Dann schau dir in 1080p an, wie viele Spiele raus kommen die mit 8GB bei Nvidia nicht ausreichend versorgt sind, danach wie viele mit RT und dann die Benchs.

Ich halte Karten bis hin zur 4070 für eher Einstiegsklasse und damit bleibt bei einer 450€ Karte wenig zu meckern, denn es muss klar sein, das man hier und da einige Zugeständnisse machen muss.
 
Wird es auch einen 4060 (Ti) mit der PCI-Express 3.0 ×8 Test geben? Es soll ja Menschen geben, die Ihren älteren PC noch nicht entsorgt haben
 
Die Unboxer sagen im Video , dass sogar die Spieleentwickler den Hals von Nvidia langsam voll haben, da die Limitierung des V-Rams auf 8GB dazu führt, dass die Entwicklung neuer Spiele (technisch) enorm ausgebremst wird. Die ganze Industrie leidet inzwischen an der Beschränkung.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Total glaubwürdig so eine Aussage ;)

Die Spieleentwickler werden eher sich ärgern, das die nicht so schlampen können und deswegen viel VRam brauchen.
 
Die ganze Industrie leidet inzwischen an der Beschränkung.
Jau und vor allem die Kundschaft leidet schon seit Jahren darunter das Entwickler teils miserabel entwickelte Spiele auf den Markt bringen.

Ich muss Nvidia in keinster Weise verteidigen.
Weil weder Nvidia oder die Entwickler leiden am meisten unter der Siutation.
Sondern vor allem wir Spieler.

Den ihre Taschen sind alle randvoll.
Weil teils werden Vollpreis Titel verkauft die den Status einer Alpha haben.
Und den technischen Status haben die Games teils über Jahre hinweg.

Und einem Nvidia Mitarbeiter geht es sicherlich auch nicht schlecht.
Also egal wem man die Buhmann Karte zuschieben will.

Am meisten gearscht sind wir.
 
Zurück