Geforce RTX 30 am Limit: Vergleich zwischen 10, 12 und 24 GiByte Grafikspeicher

Hat schon mal jemand bedacht dass die ggf. damit planen dass diese X GB VRAM nur für die Spiele der nächsten 4-5 Jahre reichen?
#Verschwörungstheorien
#geplante Obsoleszenz
Das ist Geld!
 

Anhänge

  • tenor.gif
    tenor.gif
    16,6 KB · Aufrufe: 4
Also ich kriege die Fps werte die ich mit 300 w PL habe locker mit 220 Watt hin sogar mit besseren frametimes
6900xt
Bei meiner 6700XT und der 5500XT meiner Freundin wirkt sich Undervolting ähnlich geil aus!
Weniger Stromverbrauch und trotzdem mehr FPS <3

Ps. Freier Strom statt freier Liebe!
 

Anhänge

  • tenor.gif
    tenor.gif
    16,6 KB · Aufrufe: 14
Das macht die 3070ti völlig uninteressant.

Komisch, einerseits sagen die Leute, das Gaming in UHD Unsinn ist, dann sagen aber auch alle, dass Benchmarks in UHD vollkommen relevant sind....

Die Benchmarks hier sind für alle UHD-Gamer (z.B. mich) interessant, für WQHD-Gamer aber wieder irrelevant. Für 1080p sowieso. In knapp 12-18 Monaten wird meine 3080 wieder gegen eine hypothetische 4080 getauscht und dann sollten auch > 16GB bei neuer Architektur bzw. >20GB bei alter drin sein. Kann ja theoretisch auch nicht anders kommen.
 
Der Fortschritt ist soo:
Früher haben die Leute@home GTA gespielt und Jetzt spielen die Autofahrer CP.
 

Anhänge

  • CP@tesla.jpg
    CP@tesla.jpg
    285,8 KB · Aufrufe: 18
Komisch, einerseits sagen die Leute, das Gaming in UHD Unsinn ist, dann sagen aber auch alle, dass Benchmarks in UHD vollkommen relevant sind....

Die Benchmarks hier sind für alle UHD-Gamer (z.B. mich) interessant, für WQHD-Gamer aber wieder irrelevant. Für 1080p sowieso. In knapp 12-18 Monaten wird meine 3080 wieder gegen eine hypothetische 4080 getauscht und dann sollten auch > 16GB bei neuer Architektur bzw. >20GB bei alter drin sein. Kann ja theoretisch auch nicht anders kommen.
Ich sagte bewusst 3070ti. Die Karte wird imho zwischen 3070 und 3080 zerrieben. Wer weniger Geld ausgeben oder weniger Strom verbrauchen will, muss bei der 3070 nur wenig Einbußen hinnehmen. Wer bereit ist 100 Euro mehr auszugeben, bekommt 20% mehr Leistung für 10% mehr Stromverbrauch und 2GB mehr VRAM.
 
Wo kaufst Du eigentlich ein?

Beim manchen Shops sinds nur 60€ Unterschied bei der SuprimeX.

edit: Die Gamerock OC mit 360 Watt gibts sogar preiswerter
 

Anhänge

  • 3070Ti_Preis.JPG
    3070Ti_Preis.JPG
    74,6 KB · Aufrufe: 11
Zuletzt bearbeitet:
Wo kaufst Du eigentlich ein?

Beim manchen Shops sinds nur 60€ Unterschied bei der SuprimeX.

edit: Die Gamerock OC mit 360 Watt gibts sogar preiswerter
Die Karte hab ich seit heute hier. Der Kühler ist für die Fläche irgendwie eine Enttäuschung von der Lautstärke.
 
Also ich habe den Test gelesen und sehe ein, dass die RTX3080 sowohl bei Minecraft und Wolfenstein Youngblood auf 4K mit RayTracing in ein übles VRAM-Limit fährt. Aber bevor jetzt wieder die Hölle hier im Thread ausbricht, möchte ich mal anmerken, dass das auch Extremszenarien sind und man sich erstmal die Frage stellen sollte, ob das für einen im Einzelfall überhaupt relevant ist, denn das getestete COD beispielsweise läuft wunderbar und unlimitiert auf 5K und das neuste Resident Evil macht auch keine Probleme, trotz extremer Settings.



Und wenn dann noch erwähnt wird, dass DLSS die VRAM-Auslastung senkt und sich die Situation zumindest verbessert, ist das doch okay. In vielen Spielen klappt das auch noch besser. Denke da gerade an Cyberpunk. Dort senkt DLSS den VRAM-Bedarf der RTX3080 auch in den grünen Bereich.

Wer wirklich einen 4K-Monitor hat und weiß, dass er Spiele zockt, die enorm VRAM-hungrig sind, holt sich eben eine andere Karte mit mehr Speicher. Für den Großteil der Spielerschaft sollten 10GB aber weiterhin keine Probleme machen. Sieht man immer daran, dass man die absoluten Todesszenarien auspacken muss, um irgendwas Auffälliges zu messen.

Wer Minecraft RTX auf 4K zocken will, der sollte halt die Finger von der RTX3080 lassen.
Das Spiel frisst VRAM ohne Ende, wenn man es mit der Sichtweite übertreibt.
Auf WQHD sieht es aber schon ganz anders aus.
Man sieht aber wieder das 8GB eigentlich gar nicht in die 30er Gen gehören... maximal bei 3060 macht es Sinn.. die hat aber 12GB..
Klar mit der 3080 kriegt man mit 10 GB wieder den Trostpreis der bei dem Großteil der Spielerschaft reicht aber wirklich Zukunftssicher ist das auch nicht..

Selbst die 12 GB wirken anhand einer Uralt Titan echt unangemessen. Reichen tut es noch aber wie lange?
Und warum hat überhaupt eine Uralt Titan mit deutlich weniger Leistung 12GB... Fragen über Fragen..

Eigentlich hätte es Nvidia keinen Zacken aus der Krone gebrochen beim Speicher ein wenig spendabler zu sein.
Ich glaub da sind wir uns einig oder nicht?
 
Dass es "für alles" reicht hat niemand behauptet, aber für fast jedes Spiel. Man kommt ja immer mit den übelsten Extremszenarien, um zu beweisen, dass man 10GB vollbekommt. Frag mal @HisN, der schaufelt dir auch eine RTX3090 voll und der kann dir auch beweisen, dass 16GB nicht ausreichen.

Es ist immer eine Frage, wie man so einen Test auslegt.
Niemand? Gibt hier genügend die genau das behauptet haben immer wieder...
 
Meiner Erfahrung nach kann man jede Hardware an ihre Grenzen bringen , und das passiert in der Regel so gut wie immer mit Alltagsfremden Einstellungen , mit der sich nur ein sehr kleiner und elitärer Kreis beschäftigt .

Zudem kann man an den Benches sehen das der Speicherbedarf sehr von der Game Software abhängt , ohne das das Spiel mit hohem Speicherverbrauch besser Aussieht oder flüssiger läuft .

Wie die Vergangenheit zeigt , sind alte Karten die mit ihrem großem Vram beworben wurden , im Alter dann meist zu langsam um ihren vermeintlichen Vram Vorteil ausspielen zu können .

Die meisten Karten werden für die Mehrheit der gebräuchlisten Monitore und Einstellungen gefertigt , und da reicht der Vram auch aus .

Der Rest kauft dann eh RTX3090 und die haben in der Regel auch einen sehr guten 5K Gaming-Monitor für ca. 1000,- euro auf dem Tisch stehen. :D



Ein guter Beitrag und Test, der zeigt das man alles ans Limit bringen kann , wenn man nur will ...............;)
 
Das sind keine 5k.

Falls man tatsächlich Leistung übrig hat, wäre wohl Downsampling auf nem WQHD richtiger.(x)
Weiss net, ob sich so kleines Downsampling auf nem 4k-Moni/TV lohnen würde.

(x) Bei älteren Games auf jeden Fall nicer als 8x MSAA.
 
In den meisten Fällen wird man es gar nicht merken da die Karte dynamisch nschregelt um sich vRAM freizuhalten
 
Das sind keine 5k.

Falls man tatsächlich Leistung übrig hat, wäre wohl Downsampling auf nem WQHD richtiger.(x)
Weiss net, ob sich so kleines Downsampling auf nem 4k-Moni/TV lohnen würde.

(x) Bei älteren Games auf jeden Fall nicer als 8x MSAA.


Wer den Artikel ganz gelesen hat , hätte gesehen das bis hinauf auf 5.760 x 3.240 getestet wurde !

Und das sind deines Wissens nicht mindestens 5K ?!? :schief:
 
Das sind keine 5k.

Falls man tatsächlich Leistung übrig hat, wäre wohl Downsampling auf nem WQHD richtiger.(x)
Weiss net, ob sich so kleines Downsampling auf nem 4k-Moni/TV lohnen würde.

(x) Bei älteren Games auf jeden Fall nicer als 8x MSAA.

Downsampling mit 8K und eingestellten DLSS-Performance-Mode, damit natives 4K gerechnet wird. Und tadaa ist wahrscheinlich alles aalglatt..... *Optionsmenü öffnen und gleich mal testen*......

Edit: Verdammt, DSR ist bei mir nicht verfügbar, egal ob mit 144Hz oder 60Hz. Schade...:(
 
Irgendwie wünsch ich mir auch, dass die Generation 40XX so schnell ist, dass ich dann wieder aufrüsten will. Aber andererseits wünsch ich mir, dass erst die 50XX-Generation so schnell ist, dass ich wieder aufrüsten muss. - Ampere ist für mich trotzdem gegessen; erledigt, eingebaut und abgehakt. - Was die Speichermenge angeht, hab ich eine Entscheidung getroffen und weiters denk darüber nicht mehr nach. Fühl mich ausreichend versorgt und befürchte in dieser Hinsicht gar nichts.

Und AMD darf am 22 Juni zeigen, ob sie beim Rennen wieder mitlaufen (Start von FSR) - dann wird die rote Seite neu bewertet.


(Und ich hab noch nicht das Bios für rBar bei der Grafikkarte getauscht... kommt aber noch - und grüne Karten sind genau so viel Umweltschonend wie rote.)
 
Du lässt außer Acht, dass die CPU im gegensatz zur GPU keine inline decompression macht und das zudem single threaded.
Und wie bereits beschrieben würde es den Ansatz ad absurdum führen, wenn man den direct access auf den RAM legt.
Genau das will man eben nicht.

Der soll außen vor bleiben, was allerlei schwere Belastungen in der Pipeline die Du richtiger Weise aufzählst, entfallen lässt.
Ich hab Dir ein Praxisbeispiel genannt, welches jeder sofort ohne großen Aufwand selbst nachstellen kann (RAM- Disk).

Dann wirst Du sehen, dass die Bandbreite und Latenz es letzten storage Tiers derzeit nicht der begrenzende Faktor ist.

Mir ging es nur um den VRAM Bedarf. Würde ich da sparen wollen, könnte ich die Daten in den RAM entpacken lassen und von dort über den PCIe-Bus an die GPU/VRAM senden. Der RAM ist immer noch weit schneller als jede NVMe SSD. Direct Storage ändert nichts am VRAM-Bedarf, die anderen Techniken zu besseren Prediction und Definition der wirklich benötigten Daten schon, sind aber bisher nicht implementiert.
 
Zuletzt bearbeitet:
Mir ging es nur um den VRAM Bedarf.
Ja- Der kann mit direct storage sinken.
Du musst nichts im VRAM haben, was Du "instant" per diret storage in den VRAM einblenden kannst.

Genauso wie wenn Du alles per CPU in den RAM packen kannst (wird aktuell so gemacht - ineffektiv, teuer) und dadurch der VRAM Bedarf sinken könnte.
Streaming- Systeme sind (noch) auf Festplatten ausgelegt. Dementsprechend voll packen die den VRAM.

Aus Gründen der Effizienz geht man davon weg.
 
Zuletzt bearbeitet:
Zurück