VRAM-Diskussion

Gpu sind keine Wertanlage sondern Konsumgut. Preisverlust ist normal und auch gut so. Mir doch egal ob die dann 100€ kostet wenn ich fertig bin damit.^^
 
Ich habe hier manchmal das Gefühl, man sucht mit aller Gewalt nach Fehlern und Mankos , gerade von den 2080 TI Nutzern, weil sie pissed sind, dass eine 3070 jetzt schneller und um die Hälfte billiger ist.

wie oft ich das in letzter zeit lese....ist doch unsinn.....
enthusiasten, die 1200 euro für ne high end graka ausgeben interessieren sich eher weniger für ne 3070 mit weniger speicherbandbreite und 3 gb weniger vram. und auch nicht für ne 3080, die ebenfalls weniger vram hat.
die leute versuchen alle halt noch gutes geld für die 2080ti zu bekommen, um es in ne 3090 zu stecken. wen interessiert denn die 3070......tsts :-)

ich persönlich werde die 2080ti vermutlich einfach behalten und irgendwann in meinen streaming pc stecken. außerdem seh ich sowas eher als sammlerstück, denn als wertanlage. wenn sie zu garnichts mehr gut is, stell ich mir die erste rtx high end karte ins regal :-) außerdem seh ich das als hobby, das kostet halt geld. von daher ist mir der wertverlust egal. und ich bin mir relativ sicher , dass das die meisten besitzer von high end hardware so sehen. sonst müssten wir uns ja alle bei jedem generationswechsel erschießen....:-)
 
Zuletzt bearbeitet:
Es ist am Ende doch immer die Gleiche Diskussion. VRAM ist wichtig aber genauso ist es die Rohperformance und einen Tod wird man immer sterben. Bei der 3080 ist der Speicher knapp bemessen und hätte ruhig mehr sein dürfen aber man muss sich halt auch fragen in wie vielen Fällen es einen wirklich betrifft. Für den 4k Ultra Enthusiast ist das sicher nichts, da gibt es aber einer 3090 die genau die Bedürfnisse erfüllen dürfte. Und selbst die wird am Ende ihres Zyklus sicher keine 4k 60hz @ Ultra schaffen. Man wird am Ende wieder mit kompromissen Leben müssen. Ob man dann mit einer günstigen Karte und etwas mehr kompromiss besser fährt kann nur jeder selbst beurteilen.
Wer in WQHD unterwegs ist, dem wird der VRAM keine echten Sorgen bereiten. Habe auch noch kein Spiel gespielt wo ich Probleme mit dem Speicher habe, FPS technisch aber schon einige barrieren gehabt.
Muss ehrlich sagen, dass die Unterschiede zwischen hoch und ultra so gering ausfallen das man meist sowieso extrem drauf achten muss um überhaupt etwas zu merken wenn überhaupt was sichtbar ist. Runterstellen sehe ich daher auch nicht tragisch an solange man es kaum merkt wird es der Immersion kaum schaden. Solange man in die Welt eintauchen kann hat das Spiel alles richtig gemacht selbst wenn es Pixelgrafik ist.
-----
Am Ende passiert genau dass was immer passiert es wird gemeckert.
GPU ist teuer: Ich kriege nicht genug performance für das Geld.
GPU Ist billig: Der Wiederverkaufswert der vorgänger Gen ist weg, was für eine s******.
GPU bringt zu wenig Speicher: Speicherkrüppel
GPU hat zu viel Speicher: Bläht die Kosten auf ist dadurch zu teuer
Man findet immer was. Teilweise aus prinzip weil es Nvidia/AMD ist, teilweise weil nicht das auf einen maßgeschneiderte Produkt erschienen ist und nicht zu dem Preis den man wollte.
 
Die Frage ist doch:

Wieviel Vram genehmigt sich ein Spiel bzw ab wann fängt es an zu stottern?

Ein Horizon Zero Dawn genehmigt sich stellenweise 16GB Vram, trotzdem läuft es auch mit GPU's die deutlich weniger haben flüssig.
 
wie oft ich das in letzter zeit lese....ist doch unsinn.....
enthusiasten, die 1200 euro für ne high end graka ausgeben interessieren sich eher weniger für ne 3070 mit weniger speicherbandbreite und 3 gb weniger vram. und auch nicht für ne 3080, die ebenfalls weniger vram hat.
die leute versuchen alle halt noch gutes geld für die 2080ti zu bekommen, um es in ne 3090 zu stecken. wen interessiert denn die 3070......tsts :-)

ich persönlich werde die 2080ti vermutlich einfach behalten und irgendwann in meinen streaming pc stecken. außerdem seh ich sowas eher als sammlerstück, denn als wertanlage. wenn sie zu garnichts mehr gut is, stell ich mir die erste rtx high end karte ins regal :-) außerdem seh ich das als hobby, das kostet halt geld. von daher ist mir der wertverlust egal. und ich bin mir relativ sicher , dass das die meisten besitzer von high end hardware so sehen. sonst müssten wir uns ja alle bei jedem generationswechsel erschießen....:-)

Wenn man bedenkt, dass die 3070er mehr FPS liefern wird als die 2080TI, würde ich mich von Nvidia wohl auch verarscht vorkommen. Da wird dann der VRAM auch nichts bringen, wenn die Grundkarte mehr Rohleistung hat. Mach nicht so, als wäre VRAM hier das Maß aller dinge. Letztes Endes zählen die FPS bei der entsprechenden Bildqualität.

Ich will keinen persönlich angreifen, also bitte nicht persönlich nehmen. Aber dass die 2080 TI null zukunftssicher ist sollte doch spätestens dann klar gewesen sein, als man gesehen hat, dass sie gerade mal so 60 FPS in 4k schafft, je nach Game. Wenn man doch ein Enthusiast ist, will man, zumindest geht es mir so, FPS zahlen jenseits von 100 haben.

Das war für mich der Grund, warum ich zur 2080 gegriffen habe. Spiele damit zwar nur in 1440p, konnte aber in den letzten 2 Jahren alles mit guten 120 fps spielen. Mit der TI hätte ich dann vermutlich 150 fps gehabt, aber wen juckts, wenn mein Monitor eh nur 120 Hz hat.

Genauso wenig wird die 3080 zukunftssicher sein, aber das muss sie ja auch gar nicht, ich kaufe mir doch eh alle 2 Jahre eine neue GPU. Dennoch bietet sie für mich einfach das beste Paket aus Leistung und Preis.

Im Endeffekt ist das alles nur Mutmaßung und Zukunftsmusik. Ihr kennt weder die neuen Karten im Detail, noch die zukünftigen Spiele und deren Hardwarehunger. Aber bitte bedenken, das schwächste Glied sind eher die Konsolen, nicht der VRAM. Und jetzt kommt mir bitte nicht mit dem Schrottport Zero Dawn oder irgendwelchen Texture-DLCs...
 
Warum wird sich oft das Maul drüber zerrissen? Die Leute hier tun so als hätten sie die Karten 5 Jahre lang das tun aber nur die wenigsten hier......

Nur weil du das so handhabst bedeutet es nicht, dass das andere genauso machen müssen. Mir ist gestern meine GTX 980Ti abgeraucht, seither geistere ich mit der GTX 670 herum. Gerade die GTX 980Ti hat irre viel von ihren 6GB profitiert.


Jede wette die 10gb der 3080 werden Jahrelang ohne Probleme laufen.(vor allem in 1440p oder niedriger, shader auslastungsprobleme wer weis werden wir bald sehen denke aber mit RTX eher nicht.....)

Sicher, es läuft auch eigentlich noch alles auf meiner GTX 670. Es ist nur eine Frage des Anspruchs und da dürfte man mit 10GB bald an Grenzen stoßen, wenn man "Always Ultra" haben möchte. Es gibt hier viele, die schalten aus Prinzip keine Details ab.


Strohmanargument für Fanboygebashe mehr ist das nicht.

Es gibt genügend Karten, denen der VRAM ausgegangen oder zumindest knapp geworden ist: GTX 670/680, 780Ti oder Fury X, um nur die berühmtesten zu nennen. Wie gesagt: es kommt eben auch immer auf den Anspruch an. Wenn man das Argument zu Ende denkt, dann besteht auch keine Notwendigkeit für Turing oder Ampere, da auf den alten Karten von 2012 immer noch alles läuft.
 
Nur weil du das so handhabst bedeutet es nicht, dass das andere genauso machen müssen. Mir ist gestern meine GTX 980Ti abgeraucht, seither geistere ich mit der GTX 670 herum. Gerade die GTX 980Ti hat irre viel von ihren 6GB profitiert.




Sicher, es läuft auch eigentlich noch alles auf meiner GTX 670. Es ist nur eine Frage des Anspruchs und da dürfte man mit 10GB bald an Grenzen stoßen, wenn man "Always Ultra" haben möchte. Es gibt hier viele, die schalten aus Prinzip keine Details ab.




Es gibt genügend Karten, denen der VRAM ausgegangen oder zumindest knapp geworden ist: GTX 670/680, 780Ti oder Fury X, um nur die berühmtesten zu nennen. Wie gesagt: es kommt eben auch immer auf den Anspruch an. Wenn man das Argument zu Ende denkt, dann besteht auch keine Notwendigkeit für Turing oder Ampere, da auf den alten Karten von 2012 immer noch alles läuft.

Sorry, aber das ist doch wieder Käse, du machst gerade, als könnte man mit einer RTX 3080 nur 1 Jahr alles auf Ultra zocken und müsste danach die Details runterschrauben. Du kannst mit einer RTX 2080TI auch in 5 Jahren Safe nicht mehr alles maxed out auf 4 k spielen, da ändert auch gewiss der VRAM nichts dran.

Aber ich im Gegenzug gebe dir Brief und Siegel, dass ich mit einer RTX 3080 in den nächsten 2 Jahren, also bis zur nächsten Generation, restlos alles auf Ultra Spielen kann, und das jenseits von 1440p. Denn laut Nvidia soll diese ja bereits schon die 4k Karte sein, die RTX 3090 hat ja komplett andere Ambitionen und wird als Pendant zur Titan gesehen, die sich nicht zu Letzt primär gar nicht an Spieler gerichtet hat.
 
Aber ich im Gegenzug gebe dir Brief und Siegel, dass ich mit einer RTX 3080 in den nächsten 2 Jahren, also bis zur nächsten Generation, restlos alles auf Ultra Spielen kann, und das jenseits von 1440p

Tja, da hast du schon längst verloren. Es gibt schon ein paar Texturpakete, die jenseits der 10GB haben möchten. Im Laufe der nächsten 2 Jahren wird die Zahl wohl explodieren, da mehr Karten im Verkehr sind, die das auch nutzen können (bisher war man ja auf Vega FE, Vega VII und die Titan RTX beschränkt).

Für Leute die möglichst alles haben wollen ist ein großer VRAM Pflicht
 
Wetten? Sagte der mit ner 980TI dein ernst? so ein quatsch was machen dann die millionen an 98% der Gamer die nicht diese Karten haben unvorstellbar es gibt viel mehr leute mit unter 8gb Karte als mit 8 oder darüber. Achja stimmt ja die Entwickler gehen ja nach den High end käufern....NICHT.
 
Wenn man bedenkt, dass die 3070er mehr FPS liefern wird als die 2080TI, würde ich mich von Nvidia wohl auch verarscht vorkommen. Da wird dann der VRAM auch nichts bringen, wenn die Grundkarte mehr Rohleistung hat. Mach nicht so, als wäre VRAM hier das Maß aller dinge. Letztes Endes zählen die FPS bei der entsprechenden Bildqualität.

Ich will keinen persönlich angreifen, also bitte nicht persönlich nehmen. Aber dass die 2080 TI null zukunftssicher ist sollte doch spätestens dann klar gewesen sein, als man gesehen hat, dass sie gerade mal so 60 FPS in 4k schafft, je nach Game. Wenn man doch ein Enthusiast ist, will man, zumindest geht es mir so, FPS zahlen jenseits von 100 haben.

Das war für mich der Grund, warum ich zur 2080 gegriffen habe. Spiele damit zwar nur in 1440p, konnte aber in den letzten 2 Jahren alles mit guten 120 fps spielen. Mit der TI hätte ich dann vermutlich 150 fps gehabt, aber wen juckts, wenn mein Monitor eh nur 120 Hz hat.

Genauso wenig wird die 3080 zukunftssicher sein, aber das muss sie ja auch gar nicht, ich kaufe mir doch eh alle 2 Jahre eine neue GPU. Dennoch bietet sie für mich einfach das beste Paket aus Leistung und Preis.

Im Endeffekt ist das alles nur Mutmaßung und Zukunftsmusik. Ihr kennt weder die neuen Karten im Detail, noch die zukünftigen Spiele und deren Hardwarehunger. Aber bitte bedenken, das schwächste Glied sind eher die Konsolen, nicht der VRAM. Und jetzt kommt mir bitte nicht mit dem Schrottport Zero Dawn oder irgendwelchen Texture-DLCs...

du verstehst mein argument nicht.....wieso soll sich jemand verarscht vorkommen, weil er vor 2 jahren das flaggschiff gekauft hat???
enthusiasten geben viel geld für gute hardware aus. punkt. die ti war zu dem zeitpunkt die stärkste karte und war die erste high end karte mit raytracing. das ist es was enthusiasten tun, sie kaufen sich das beste, weil es ihr hobby ist und weil sie es können. und nicht als wertanlage oder ähnliches.wenn ich mir was neues hole wandert die ti in meinen streaming pc und dann als ausstellungsstück ins regal.
argumente von wegen preis leistung und wertverfall usw spielt doch für den enthusiasten markt gar keine rolle.
und immer dieses gelaber von wegen zukunftssicher....was soll das überhaupt bedeuten.......zukunftssicher gibt es im hardware markt sowieso nicht.
außerdem tust du ja fast so als ob die 2080ti totaler schrott wäre. ich bin mir sehr sicher dass man damit noch lange zeit sehr gute ergebnisse bekommt.

und zum vram: natürlich bringt vram alleine nichts. trotzdem würde doch kein mensch seine 2080ti durch eine 3070 ersetzen, selbst wenn sie ein paar prozent schneller wäre (ob sie wirklich in allen szenarien schneller ist als die ti bezweifel ich eh, aber mal abwarten). schon aus prinzip wegen dem 3 gb weniger ram. von daher ist dein vergleich mit der 2080ti unsinn. das interessiert keinen. was interessant ist , ist der vergleich flaggschiff vs flaggschiff, also 2080ti und 3090.
 
Wetten? Sagte der mit ner 980TI dein ernst? so ein quatsch was machen dann die millionen an 98% der Gamer die nicht diese Karten haben unvorstellbar es gibt viel mehr leute mit unter 8gb Karte als mit 8 oder darüber. Achja stimmt ja die Entwickler gehen ja nach den High end käufern....NICHT.

Die Ultra Settings sind nicht für 98% der Gamer gedacht. Es ist normalerweise das letzte bisschen Optik das überproportional viel VRAM und/oder Leistung kostet.
 
Puh, ich sehe mich gezwungen ein paar grundsätzliche Fakten zu erklären.
Meinem Verständniss nach hat die VRam Auslasung jetzt per se nichts mit der Auflösung zu tun, sondern vorallem? mit den Texturen?
Auflösung und Farbtiefe bestimmen de facto die Speicherauslastung, nur nicht mehr so maßgebend wie früher. Pixelanzahl*Farbtiefe=Speicherverbrauch eines 2D Bilds in Bit.
Das war für mich der Grund, warum ich zur 2080 gegriffen habe. Spiele damit zwar nur in 1440p, konnte aber in den letzten 2 Jahren alles mit guten 120 fps spielen. Mit der TI hätte ich dann vermutlich 150 fps gehabt, aber wen juckts, wenn mein Monitor eh nur 120 Hz hat.
Da Spielloglik und Eingaben (je nach Spiel) von der Bildwiederholrate abhängen, kann es sehr wohl sein, dass mehr FPS als Bildwiederholrate von Vorteil ist. Mit steigenden Werten nimmt der gefühlte Vorteil natürlich ab.

@Topic: Aus meiner Sicht gibt es da wenig zu diskutieren: Wer keine Kompromisse eingehen möchte, der ist mit 10GB bereits heute nicht gut bedient. Das kann man anhand mehreren PCGH Benchmarks festmachen (Doom Eternal, Minecraft RTX, Wolfenstein YB, HZD). Raff schreibt in der aktuellen PCGH: "[...]Die größten Unterschiede tun sich erwartungsgemäß in Ultra HD auf, das partiell sogar 8-Gigabyte-Grafikkarten einbrechen lässt. Allerdings wirkt sich das selten auf die Differenz zwischen Average und Perzentilen aus [...]. Und in seinem Kommentar zu Ampere schreibt er: [...]Nicht mal Nvidia, welche bekannt für RAM-Knauserei sind, wird diesen Fehler begehen. 12GiByte gab es das erste Mal im Jahr 2015 auf der GTX Titan X (und bei Turing gar nicht). Eine derart scharfe geplante Obsoleszenz beißt sich mit zwei Ansprüchen: Raytracing Wegbereiter zu sein und den eigenen Kunden einen Mehrwert gegenüber den Konsolen und Radeons zu bieten.[...]
Außerdem ist die Vergangenheit voll von beispielen von Karten mit knapper Speicherausstattung. Das ist nie das Ende der Welt, klar, es ist aber auch nicht wegzudiskutieren, dass sich Karten mit mehr VRAM länger besser halten. Und weil höher aufgelöste Texturen keine Leistung kosten, ist es umso ärgerlicher, wenn man diese reduzieren muss.

Edit: Was Billy Khan von id dazu sagt: https://publish.twitter.com/?query=...ykhan/status/1301129891035914240&widget=Tweet
 
Zuletzt bearbeitet:
Das entscheidet wohl jeder für sich ob es was bringt. Gibt auch Spiele die ich in 4K mit 8xMSAA spiele. Bringt einiges finde ich wenn man gar kein Flackern mehr sehen will :)
 
....Da diese Karte abseits von Penisersatz eh keine Käufer findet, die Mehrheit hat wohl Karten im Leistungsbereich einer 1060, stellt sich diese Vram Diskusion für viele Nutzer einfach nicht :ka:

pen"sersatz...Aha guck an. Davon ab das nicht jeder hier son ding besitzt, auch wenn du das gar nicht meinst. Ist es eine ziemlich engstirnige Herangehensweise an das Thema. Denn das kann man auf nahzu alles umwälzen und sei es nur das heute "normale" Smartphone. Zum Anrufen reicht auch ein Altes Tastenhandy oder eben gar keins und per Post da braucht man kein Smartphone- es ist ebenso unnötiger Luxus wie überhaupt einen PC und vorallem dann zum Spielen zu besitzen.
Wenn der kleine Tellerrand über den man nicht zu schauen vermag plötzlich ne tiefe Salatschüssel wird. Sollte man umdenken.

Zum Thema
So manch einer hier schließt gerne von sich auf andere. Und gesteht anderen nicht das zu was man selbst nicht für wichtig oder erstrebenswert hält.
Es ist nicht aus der Luft geriffen das mehr VRAM sinvoll sein können in bestimmten Situationen. Aber nur weil man es selbst für unnötig hält heißt es nicht, das es das auch wirklich ist.
Lasst doch andere nach mehr VRAM rufen. Und lasst dieses unkommentiert wenn es nicht Sinvoll ist in den eigenen Augen. Zumindest dann um eine Humane Diskussion zu Gewährleisten, es nicht verteufeln und herabwürdigen
 
Das entscheidet wohl jeder für sich ob es was bringt.
Natürlich, bis zu einem gewissen Punkt ist es subjektiv und manch einer kann mit dieser Einschränkung auch leben. Persönlich finde ich Grafikkarten für 500€ mit absehbarem Speichermangel indiskutabel, es sei denn man vor diese sowieso nur kurz zu halten.
 
Zurück