Special Hogwarts Legacy, Forspoken und Co.: Doch zu wenig Videospeicher für Spiele - die Zukunft hat uns eingeholt! Ein Kommentar

Ist doch ganz im Sinne eines Herstellers, wenn seine Produkte schnell altern. Dann kann man bald wieder verkaufen. In dem Fall sogar ganz legal.
Bei Forspoken liegt der Grund sehr wahrscheinlich daran dass das Spiel AMD sponsored ist, denn die Texturen sehen wahrlich nicht so aus als würden sie viel Vram rechtfertigen.
Bei Forspoken liegt der Grund daran, dass Square Enix im PC-Segment eine letztklassige Klitsche ist.
Final Fantasy ist/war bspw. Nvidia lastiger.
Aber alleine, was die damals mit Hair Works in x-beliebiger Entfernung angestellt haben ist nur mit schierer Inkompetenz zu erklären.
Ansonsten: Traut euch ruhig mal ein Ketzer zu sein und die Texturen einige Stufen nach unten zu drehen. Der Unterschied ist gar nicht soo groß. Warum immer Ultra?
Blasphemie !1elf!! Werft den Purschen zu Poden. :ugly:
NVidia hat bei ampere einfach die Mittelklasse verkackt!
3080 ist Mittelklasse? :ugly:
 
Leute, entspannt Euch! :)
NVidia hat noch was im Köcher.
Die bringen einfach ein "SoftVRAM" V2.0 raus.
Das verdoppelt den Speicher einfach und alle Probleme sind nicht mehr existent.
Für nur 99€ (GK mit >12 GB) bzw. 129€ (GK </=10GB) kann man das sicher bald im NVidia-Online-Shop bestellen :D
Vielleicht gibt es das auch als Abo (der neue Trend) für 45€ bzw. 60€ p.a.

++++++++++++++++++

Für die jüngeren Foristen:
Mitte der 90er war tatsächlich so ne Software auf dem Markt (für den Arbeitsspeicher).
Die ct hat sich das dann mal angeschaut. Ergebnis: Heiße Luft und absolut nichts dahinter.
Der Laden verschwand sehr rasch wieder vom Markt.
Noch was off topic:
MS hatte mit DOS (6.0?) 6.2 bzw. 6.22 ein "Doublespace" mitgeliefert, also nen Komprimierer für die HDD.
Bei Daten die kaum kompressibel waren brachte das natürlich genau nichts.
Und lahm war das ganze obendrein. Wurde bald danach wieder in Mottenkiste gepackt.
 
Zuletzt bearbeitet:
Seit ich damals mit meiner Fury das Problem hatte, die Texturen reduzieren zu müssen, obwohl die GPU längst noch genug Leistung hatte, habe ich für mich entschieden, zukünftig lieber etwas mehr Speicher einzuplanen. Nicht, weil ich keine Regler bedienen kann oder Spiele auf niedrigeren Texturdetails schlimm aussehen (müssen), sondern einfach weil ich keine Lust habe, unausgewogene Hardware zu kaufen. Die Karte insgesamt ist nur so gut, wie ihre schwächste Komponente.

Viele haben sich Karten wie die 3070 Ti erst kürzlich im "Ausverkauf" :fresse:geholt und stellen direkt fest, dass sie in modernen Titeln selbst unter FHD kaum noch mit dem Speicher hinkommen. Kein schönes Gefühl... Ich finde, PCGH kritisiert diese Politik von Nvidia zu Recht schon lange. Das ist in meinen Augen geplante Obszoleszenz in Reinform.

Ich habe vor dem Kauf meiner RX 6800 in 2020 lange überlegt, mir eine RTX 3070 oder gar 3080 zu kaufen, aber die Kombination aus schnellen Chips, aber wenig VRAM hat direkt für Bauchschmerzen gesorgt. Klar ist vieles davon schlechte Optimierung oder manchmal auch einfach eine Einstellung, die ohne großen optischen Mehrwert erheblich Speicher braucht - aber diese Entwicklung ist durch uns Spieler nicht wirklich zu verhindern. War sie noch nie.

Lange Rede, kurzer Sinn: Ich kann Regler bedienen, möchte so teure Hardware wie aktuelle Grafikkarten aber möglichst lange nutzen können. Für mich galt da im direkten Vergleich eindeutig Raytracing < Speicherausstattung. Bereut habe ich diese Entscheidung bisher nicht. Klar wird auch die 6800 irgendwann zu langsam oder Raytracing wird irgendwann wirklich zum "Must have", bis dahin sind die 8 GB-Karten aber in meinem Usecase schon lange, lange am Ende.
 
Na dann muss ich auf meinem vor 4 Monaten gekauften Lenovo Legion i7, dessen 3070ti nur 8GB VRAM hat, wohl einfach Abstriche machen. Aber an einem Gaming Notebook welches zu 80% für Office, Grafik und Videoschnitt verwendet wird, ist das auch ok. Der Preis mit einer 3080 und mehr VRAM war mir einfach zu hoch, denn auch dann ist das Ding in 4-5 Jahren veraltet für Gaming.

Die Frage ist ja meistens auch nicht ob ein Spiel läuft, sondern wie es läuft oder was man bereit ist an Optik oder Performance zu opfern. Wenn man sieht was die aktuellen Konsolen für Settings haben, die auch auf einem 65 Zoll TV noch ganz gut aussehen, dann sollte man sich auch mit einer 8GB Karte meiner Meinung nach - noch - keinen grossen Kopf machen, gerade weil man ja wohl oft an einem kleineren Screen spielt.
 
Bei wieder sinkenden Preisen für Wafer wird die Entwicklungsfähigkeit nicht allzu sehr behindert und in Sachen Software haben wir gerade eine Krise, aber wenn sich Spielemacher wirklich nicht genug Mühe geben, muss auch das über das Silizium und die Software-Hilfen ausgetragen werden.

Die Eskalation bei den Waferpreisen hat mehrere Faktoren.

(1) TSMC muss (nicht will, kann oder darf) sich mit globalen Standorten diversifizieren um der Bedrohung zu entgehen bei einem Konflikt zwischen Taiwan und China vom Markt zu verschwinden. Bei allen Förderungen von Staaten kostet das immer noch viel Geld und das wird gerade gedruckt. Die höheren Preise vererben sich zum Kunden durch.

(2) TSMC ist kein reiner Verkauf, es ist ein Stück weit eine Auktion. Die besten TSMC (etc.) Nodes machen nicht nur GPUs für Zocker. Smartphonechips und deren zahlungswillige Kunden treiben die Preise hoch. 1000€ für eine 300mm² 4070? Apple schafft auch 1300€ für ein Produkt mit 100mm² Chipfläche. So teuer wie Nvidia ist, mit den Gewinnspannen von Apple halten die nicht mit und damit wird der Einkauf bei TSMC teuer.

(3) KI Chips wurden zur "strategischen Ressource" erklärt. Übersetzung: NATO Staaten werden jeden Preis zahlen und daher werden einige Firmen mit KI Chips mehr Geld verdienen als mit Gamern. Wir sind es jetzt gewohnt GPUs auf den modernsten Prozessen wie aktuell 5nm zu bekommen. Das könnte sich in Zukunft ändern, wenn z.B. der neue 3nm komplett in militärische Forschungschips und Megakonzern-KI Chips für Amazon und Google geht und alle anderen eine Ehrenrunde auf 5nm drehen müssen. Bei 2nm, 1nm, etc. wiederholt sich dann das Spiel.
 
wenn man die Grafikqualität runter stellt auf Konsolenniveau, dann reichen 8 Gb bestimmt noch ne Weile.

Aus Gründen der besseren Lesbarkeit verzichte ich auf Gendersprache und verwende die Abkürzung GB statt GiB
 
Zuletzt bearbeitet von einem Moderator:
Hier freuen sich doch eigentlich nur die ganzen nerdigen Trottel, dass sie sich eine Grafikkarte für über 1000 Euro gekauft haben und diese jetzt etwas länger "hält". Jenseits von PCGH kommt man sehr gut mit den genannten Grafikkarten aus. Ich hatte mit der "Speicherkrüppel" GTX 970 viel und sehr lange Spaß. Mit der 980 ti, die ich viel später gebraucht gekauft habe und die nie als 4K Grafikkarte verkauft wurde, hatte ich mit Witcher 3 und anderen Titeln Spaß auf meinem UHD TV und auch an meiner RTX 3070 habe ich immer noch viel Freude in 4K. Einfach mal die Grafikeinstellungen optimieren, dann passt das schon.
 
3080 ist Mittelklasse? :ugly:
Ja :)

Denn wer die (einzige) oberklasse Amperkarte kaufte, nämlich die 3090, der hat auch heute mit 24GB mehr als genug VRAM.

In Anbetracht dessen ist eine 3080 mit den 10GB ja schon sehr mittelklasse!

Jetzt bei Ada haben sis ja zum Glück gemerkt und die 4080 mot mehr speicher ausgestattet.

Hier scheint die Abstufung besser zu stimmen (mal abgesehen vom Preis!)
 
Ich hab gehört, das viele Spiele Regler haben, hier kann man auch die Texturen einstellen...
Hey und wollen wir ewig bei max Texturen bei 8 GB VRAM rum eiern...irgendwann muss auch mal die Zukunft kommen!

Das nvidia außer bei Ihrem Halo Produkt xx90 gerne extrem beim Speicher geizt wissen wir ja auch schon seit vielen vielen Jahren.
Ist doch auch schön so wird jetzt wieder Umsatz gemacht....oder die Leute denken vielleicht, diesmal doch eine AMD Grafikkarte?

War bei mir jedenfalls so letztes Jahr nach 10 Jahren nvidia eine 6700Xt gekauft.
 
Ist halt schwierig jemanden zu erklären, der 500 oder gar 1000+€ ausgegeben hat , warum er nicht alles auf max zocken kann.


Andererseits muss man auch dazu sagen das viele Leute mittlerweile in 4k zocken... Aber gar nicht die dafür nötige Hardware vorweisen können.
Hab das jetzt schon mehrfach mitbekommen das sich Leute n neuen 4k Monitor/Fernseher gekauft haben.. davon schwärmen und dann davon ausgehen das eine 3070 das problemlos packt.
Bei vielen alten spielen tut sie das sogar

Es ist oft genug der Fall das die Leute den Leistungshunger eines neuen Monitors brutals unterschätzen
Eine 3070/ti ist von Anfang an eine 1080p high refresh Karte gewesen.. ausgelegt auf die am meisten genutzte auflösung.

Auch eine 3080TI bzw 4070Ti ist keine 4K Karte sondern WQHD high refresh Karte.

Klar kann man jetzt die Schuld auf Nvidia schieben.. und natürlich ist deren vram Geiz real und trifft jetzt einige Hart.
Aber viele haben ihre Hardware auch mit illusorischen Vorstellungen gekauft...
Wärend sich Nvidia an dem orientiert was man durch Umfragen rausgefunden hat was am meisten an Auflösung vertreten ist.

man sollte auch von Seiten der Spielemagazine anfangen die Aufteilung der GPU Klassen in lowrangr/midrange/highend mal zu hinterfragen..

4050/?GB = 1080p entry Level
4060/8GB= 1080P
4060ti/8GB = 1080P high refresh
---------------------
4070/12GB = WQHD
4070TI/12GB = WQHD high refresh
-------------------
4080/16GB = UHD entry
4090/24GB = UHD

So muss das wesentlich mehr kommuniziert werden.

Auch eine 6800xt/6900xt sind keine 4k karten obwohl sie genügend vram haben.
Es sind nach wie vor wqhd/wqhd high refresh Karten.
 
Zuletzt bearbeitet:
4050/?GB = 1080p entry Level
4060/8GB= 1080P
4060ti/8GB = 1080P high refresh
---------------------
4070/12GB = WQHD
4070TI/12GB = WQHD high refresh
-------------------
4080/16GB = UHD entry
4090/24GB = UHD

So muss das wesentlich mehr kommuniziert werden.
+ UHD High Refresh (> 120 FPS) gibt's noch nicht (in Singleplayer-Neureleases mit Raytracing, nativ versteht sich) ^^
 
+ UHD High Refresh (> 120 FPS) gibt's noch nicht (in Singleplayer-Neureleases mit Raytracing, nativ versteht sich) ^^
Raytracing ändert sowieso einiges an der Einteilung der Karten..
Da wird eine 4070ti auch ganz schnell eine 1080P high refresh Karte

Zumal es auch viel zuviel Hype drum gemacht wird..
Zb in witcher3 next Gen.. obwohl ich Unterschiede sehe ist das ganze nix wo ich sage Wow das macht n fetten unterschied beim gameplay und ist ein must have.
Mit herkömmlichen Schatten und Reflexionen sieht das Spiel genauso gut aus..

Ich würde die 4070ti gar nicht erst in 4k benches zeigen sondern als Spielemagazin direkt kommunizieren das die Karte in WQHD Zuhause ist.

Die Leute schauen sich die benches an und denke sich "Geil die packt 70-80fps auf meinen UHD Monitor" und in nem Jahr wird rumgeheult das die Karte Zuwenig vram für aktuelle Spiele in UHD hat
 
Zuletzt bearbeitet:
Zumal es auch viel zuviel Hype drum gemacht wird..
Zb in witcher3 next Gen.. obwohl ich Unterschiede sehe ist das ganze nix wo ich sage Wow das macht n fetten unterschied beim gameplay und ist ein must have.
Mit herkömmlichen Schatten und Reflexionen sieht das Spiel genauso gut aus..
Das ist Ansichtssache. Mir gefällt es sehr gut in The Witcher 3 und ich möchte es nicht missen.

Für mich ist Raytracing der Grund, warum ich (bis auf Nintendo) von der Konsole weg bin und mir eine RTX 3090 bzw. RTX 4090 gekauft habe. Ich möchte jedes Spiel, welches Raytracing unterstützt, auch damit spielen, weil ich einfach ein großer Fan davon bin.
 
Das ist Ansichtssache. Mir gefällt es sehr gut in The Witcher 3 und ich möchte es nicht missen.

Für mich ist Raytracing der Grund, warum ich (bis auf Nintendo) von der Konsole weg bin und mir eine RTX 3090 bzw. RTX 4090 gekauft habe. Ich möchte jedes Spiel, welches Raytracing unterstützt, auch damit spielen, weil ich einfach ein großer Fan davon bin.
Joar und für mich ist es in 95% der aktuellen Spiele einfach Ressourcen Verschwendung weil es optisch keinen bis kaum Mehrwert bringt.
Meist sieht es einfach nur leicht anders aber nicht wirklich besser aus.
Vorallem nix was man nicht auch mit klassischen Methoden performanter hin bekommt


Ich hab mir die rtx4080 gekauft um damit 3440x1440 zu befeuern.. und das tut sie ganz anständig
 
Zumal es auch viel zuviel Hype drum gemacht wird..
Naja die Technik an und für sich ist halt schon irgendwo die Zukunft. Wenn die Technik mal soweit ist, das mann alles in raytracing berechnen kann. Wären wir nahe am Foto realismus.

Ich Arbeite zb. Viel mit "Blender"

Und da kann mann sehr gut sehen was mit "Raytracing" möglich wäre. Auch im vergleich zu ner klassischen engine wie zb. eevee in Blender.

Nur leider sind wir gefühlt noch ein jahrzehnt davon entfernt, ein komplettes Spiel in real time komplett zu "pathtraycen".
 
Zurück