RTX 3080 10GiByte bei Full HD - Zukunftssicherheit?

Nukleos

Schraubenverwechsler(in)
Mit Blick auf diesen sehr aufschlussreichen Artikel von PCGH:

Ich werde wahrscheinlich nie mehr als Full HD Auflösung verwenden, weil ich seit 20 Jahren sehr zufrieden mit meinem Arbeitszimmersetup bin in dem ich einen Eckschreibtisch verwende.
Würde ich 4K oder mehr fuer meine Auflösung wollen, bräuchte ich eigentlich einen größeren Monitor (verwende 24 Zoll). Der würde aber bedeuten, dass der Monitor näher an mich heranrücken muss (Ecksituation). Bei so nem WQHD Oschi würde ich dann quasi mit der Nase an den Monitor stoßen und dann ist mein Sichtfeld einfach zu klein fuer die große Bildschirmfläche, die sich vor mir ausdehnt.
Belastbare Aussagen lassen sich dazu natürlich kaum machen, gibt ja keinen Test dazu.

Aber bei ner Zeitlinie von sagen wir mal 5 Jahren (war in den letzten 10 Jahren immer das Zeitfenster, bei dem ich dann meist das ganze System aufgerüstet habe), spielen fuer 1080p Auflösungen mehr als 10GiByte Videoram ne Rolle? Ist ja irgendwie auch bezeichnend dass in dem Test die 1080p Auflösung überhaupt keine Beachtung mehr gefunden hat xD
 
Ich sitze auch direkt vor einem 27 Zoll Monitor ( WQHD ). Eigentlich kein Problem. Wenn du auf Dauer einen "optischen" Mehrwert in Sachen Grafik etc. haben willst, solltest du schon irgendwann auf eine höhere Auflösung wechseln. Es lohnt sich. Ja, es kostet natürlich ordentlich Grafikpower, aber meistens reicht es 1-2 Settings auf hoch oder Mittel zu stellen und du bist wieder im Rennen.
Mit 10 GB solltest du in Full HD auch in den nächsten Jahren gut fahren - wird mit Sicherheit auch mal ausnahmen geben. Ansonsten sagt meine Glaskugel nicht viel darüber :-)
 
Ich hab mit meiner Pascal (GTX 1080 8GB VRAM) auch fast 5 Jahre bis WQHD ausgehalten. Von daher und wenn du nicht immer alles auf "ultra" drehen musst, SOLLTEST du mit der RTX3080 in FHD lange gut klarkommen...

Gruß
 
Kommt immer auf die eigenen Ansprüche drauf an. Mein Kumpel spielt noch schön auf seiner hd 7950 3GB und ist glücklich. Also was Zukunftssicher ist kannst nur du uns sagen.
Was man aber sagen kann ist das aktuellen Karten schon über mehrere Jahre ein schönes Bild auf den Monitor zaubern werden.
Und falls man doch irgendwann an „Grenzen“ stoßen sollte gibts ja immer noch die „Regler“ im Game!
 
Wenn du auf 1080p bleibst, wird die RTX3080 noch mehrere Jahre dicke reichen. Vom VRAM her wird das gar kein Problem und von der Leistung her auch nicht. Die Karte ist aktuell auch für 4K absolut zu gebrauchen, da sind 1080p wirklich "pillepalle". Ich gehe mal bei deinem 1080p 24" Monitor davon aus, dass er ohnehin auch nur 60Hz kann? Dann ist doch eh alles egal. ^^

Aber mal ohne Quatsch jetzt. Wenn du dir irgendwann mal richtig was Gutes tun willst, dann überlege dir, wie du deine Schreibtischsituation verändern kannst, dass da doch mal ein 27" 4K Monitor mit passabler Bildwiederholrate hinpasst. Ich habe zwar selbst auch nur einen WQHD Monitor, aber ich plane irgendwann mal auf 4K aufzurüsten. Was ich jedenfalls versprechen kann ist, dass der Unterschied von FHD auf WQHD gigantisch war, ebenso der Unterschied von 22" auf 27" und ebenso der Unterschied von 60Hz auf 144Hz.

Würde sogar soweit gehen zu sagen, spare bei der Karte und investiere lieber in einen Monitor. Aber wenn du keinen Platz hast, dann kann man nix machen. Also kann man schon... aber das ist dann eben die erste Baustelle.
 
Selbst neue High End Spiele wie A Plague Tale Requiem brauchen in 4K Ultra mit DLSS keine 8GB Vram.
10GB werden locker reichen, das einzige Spiel wo ich zu wenig Vram hatte war Far Cry 6 mit Ultra HD Texturpaket und Raytracing (in Kombination), weil es ein von AMD gesponsertes Spiel war...

Die ganze Vorhersagen haben sich vor 2 Jahren als komplett falsch erwiesen.
 
Huhuhu, schau mal hier:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Das hilft bestimmt weiter.......
 
Für mich gab es nur 2 massive Sprünge im PC-Gaming Bereich.
Nummer 1 war von HDD auf SSD umzusteigen, das war ein massiver Sprung.
Und Nummer 2 ist es auf OLED 4K 120HZ zu zocken. Bislang war das eigentlich nur in TV-Größe zu haben, aber LG macht jetzt kleinere Panels mit 32" und 27" - würde mich da umsehen. Das ist ein extremer Mehrwert, viel größer als wenn man nur die Grafikkarte oder gar den ganzen PC aufrüstet. Monitor tauschen wäre schon sinnvoll und die 3080 zieht alles auf 1440p 144Hz ohne Probleme aktuell.
 
Ich würde mir für 1080p keine teure Karte kaufen, die frühestens in 3-4 Jahren seine Stärken in der Auflösung ausfahren kann, dann aber ein vielfaches an Strom frisst. Aktuell hast Du nur im Bereich der Competitive-Shooter einen Vorteil mit so einer starken Karte, in SinglePlayer ist die Auflösung zu niedrig. Nimm da lieber eine sparsamere Karte und investiere die Differenz von einigen hundert Euros in den kommenden Jahren in eine modernere Karte, die schneller und sparsamer sein wird und vermutlich sogar mehr VRAM hat.

Oder Du organisierst Dir einen 24 Zoll WQHD. Die gibt es ja auch noch und wären schon ein guter Push gegenüber der alten FHD-Möhre.
Oled Tv brachte mehr als jedes RT ingame und es funktioniert in jedem Spiel?

Äpfel und Birnen? Gutes Raytracing ist super, ist ja mehr als nur Schattendarstellung. Gibt leider zu wenig Games, die es wirklich im vollen Umfang nutzen.
 
spielen fuer 1080p Auflösungen mehr als 10GiByte Videoram ne Rolle?
modernwarfare_2021_02r1j3k.jpg

Steelrising.png




Die Auflösung hat damit nur am Rande zu tun.
Ja, bei höheren Auflösungen braucht man mehr VRAM. Bauernweißheit die stimmt.
ABER
Das wichtigste ist die verwendete Software und wie die Software mit dem VRAM umgeht.
Der Löwenanteil der Daten im VRAM ist nicht das eigentliche Bild ... kannste ja mal rechnen 1920x1080x32 (Auflösungx Farbtiefe) .. das ist Pippifax.
Der Löwenanteil der Daten im VRAM sind die benutzten Texturen. Wie streamt die Engine die Texturen, wie viel Texturen werden für ein Bild gebraucht, wie sind die Texturen aufgelöst, was lässt die Engine weg an Texturen/Details wenn das VRAM knapp ist. Und vor allem: Wie stelle ich mein Anti-Aliasing ein?


Warum hängt ihr euch immer so an der Auflösung auf?
 
Zuletzt bearbeitet:
Zurück