RTX 3060 mit 12 GiB und RTX 3080 Mobile mit 16 GiB ... - Das sagen die PCGH-Redakteure dazu

Eigentlich profitieren alle Spiele, die Texturmods erlauben, von großem VRAM.

Texturen kosten keine Rohleistung. Allerdings bemerkt man fehlenden Speicher sofort.

Kann ich nur bestätigen. Freund von mir spielt Transport Fever 2 mit mehreren hundert Mods, was ja nun wahrlich kein High-End-Mega-Titel ist. Die 11 GB seiner 1080 Ti sind innerhalb weniger Spielminuten gefüllt, was sich beim Streaming dann nervig in Form von Ruckeln äußert.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Eine 3090 wird bei Gelegenheit mal getestet. Ich denke aber, dass selbst die 24 GB gefüllt werden. :ugly:

Mods werden immer wichtiger und da kann man nicht genug VRAM haben.
 
Sollte man dann nicht eher die leistungsfähigen GPU-Chips mit mehr VRAM ausstatten, statt das bei den langsameren GPUs zu machen ?
Naja. Zum einen spart man sich die Kosten für das verbauen von mehr VRAM bei den größeren Karten, zum anderen wird man dann als Käufer schneller zum Nachfolger wechseln, wenn der Nachfolger mehr VRAM hat und man so langsam das Limit bemerkt.

Zur 3060... 12 GB VRAM macht sich im Mediamarkt Prospekt auch besser, anstatt dort die Karte mit weniger VRAM zu bewerben - spricht... weniger aufgeklärte Käufer greifen dann zur 3060, selbst wenn der GPU-Chip deutlich weniger reißt.
 
Zuletzt bearbeitet:
Bevor die Karten von den 12GB Profitieren, macht der Chip schlapp.

Was bringen dir in 4K Ultra Texturen, wenn die Karte nur 20fps schafft...

War früher schon so und wird auch immer so bleiben.

Bleibt ruhig.
Das ist auch son Märchen.

Erstens steigt der VRAM Verbrauch in Zukunft unabhängig von der nötigen Rechnenleistung. Zweitens ist die 3060 ne Flotte Karte und bringt schon einiges an Power mit und drittens kann man VRAM nie genug haben. Alleine für die Zukunftstauglichkeit einer Karte ist das ein gutes Argument.

Gab in Vergangenheit genug Karten wo ich froh war das Modell mit mehr VRAM gewählt zu haben und die paar Euros mehr ausgegeben zu haben.
 
Naja, die Early Adopter haben momentan Glück, sofern sie zur UVP gekauft haben.
Die Miner nehmen euch eure gebrauchten Karten auch für 150€ über UVP ab. Ihr habt somit noch ein Geschäft gemacht. Danach kauft euch einfach die Karte mit mehr VRAM zum anständigen Preis und jeder ist glücklich.
Ihr habt mehr VRAM und nicht weniger Geld in den Taschen und die Miner haben Geld gespart, weil die Karten eher 200€ über UVP liegen. Sowas nennt man dann wohl Win-Win Situation!
 
Bevor die Karten von den 12GB Profitieren, macht der Chip schlapp.

Was bringen dir in 4K Ultra Texturen, wenn die Karte nur 20fps schafft...

War früher schon so und wird auch immer so bleiben.

Bleibt ruhig.

Texturen benötigen kaum Leistung.
Man kann so in Zukunft Spiel XY in Niedrig-Mittel bei den gewünschten Fps spielen. Die Texturen welche viel zur Optik beitragen, kann man aber auf Ultra stellen.

Sehe die 12GB gerade für die nächsten 3-4 Jahre als Vorteil.
Das die RTX3060 in 2-3 Jahren keine spielbaren FPS mehr schafft glaube ich kaum. Von der Gaming Leistung wird man wohl auf PS5 /Xbox Series X Niveau sein. Mit DLSS oder bei ordentlicher Optimierung vielleicht sogar spürbar drüber.


Vielleicht bringt Nvidia auch dieses Jahr noch die RTX3070 16GB und RTX3080 20GB raus und lässt die ersten Modelle langsam auslaufen. Viele sind sowieso nicht lieferbar.
 
Die Ära 8GB ist vorbei, die neuen Konsolen setzen den Bedarf rauf, da kommt auch NV nicht drum rum.
Das neue schnelle Streamingsystem der Konsolen und die 10GB Vram werden den Verbrauch massiv nach oben treiben. Warum sollten die Entwickler aufwendig Vram sparen und Entwicklungsressourcen verschwenden wenn mehr in der Breite verfügbar sind. Die kommenden Titel ab Sommer und spätestens dann die neuen Blockbuster ende des Jahres werden da neue Aktzente setzen.

Wie kommt man eigentlich immer darauf, das die neuen Konsolen 10GB VRAM haben?
Beide Konsolen nuten einen gemeinsamen Rampool von 16GB wovon 13-13,5 GB für die Spiele genutzt werden können. Das ist zu den alten Base Konsolen der Last Gen mehr als eine Verdopplung (5GB).

Viel wichtiger ist jedoch die SSD welche in Zukunft aktiv für den Speicherbedarf einbezogen wird. So kann man bei guter Optimierung je nach Szene die 13-13,5GB stehts neu befüllen und eben genau wie bei Apple nur das im Ram lassen was auch wirklich benötigt wird.

Ein Vergleich zum PC VRAM sehe ich da kritisch. Ich wüsste nicht wie man das Vergleichen sollte. Jedenfalls Stand jetzt 2021
 
Zuletzt bearbeitet:
Ach was bin ich über die 3090 founders glücklich...genug Speicher für die nächsten 4+ Jahre. Die 6900XT wäre mir zwar lieber gewesen, aber für "nur" 150€ mehr als diese, bin froh die 3090 bekommen zu haben.
 
Den Spruch höre ich gefühlt schon seit mindestens Maxwell. Wie lange denn noch? ^^
Bis 2025. Dann passt es. :daumen:

Hab ja auch geschrieben "für mich".

Es spielen manche schon jahrelang in 4k/UHD(@60Hz).
Kommt halt immer drauf an was und wie viel fps man in welchen Settings haben möchte.
Es gibt ja auch einfachere Spiele die problemlos in 4k, oder auch höher laufen(hab letztens mal testweise in 5k gezockt. Gar kein Problem. Hatte glaub ich 1,4GB Speicherauslastung, oder so. Altes Spiel.).
Aber daran orientiere ich meine Auswahl halt nicht.

Die 3080 sehe ich nicht als 4k Karte an(wegen der Basisleistung) und ich hab sie mir auch als "higher fps WQHD Karte" gekauft.
Und anscheinend bin ich nicht alleine damit:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Ich find' die als WQHD Update zu meiner Überbrückungs-1080Ti(war n Gebraucht-Kauf/Verkauf) nicht übel.

4k schaue ich mir dann beim nächsten Update 2025 an.
Dann is voraussichtlich auch PCIe5 und DDR5 Speicher schon verbreiteter.
Hoffe dann auch auf eine größere Auswahl an sehr guten 4k/UHD Monitoren(halt auch technisch ganz weit vorn, mit allem was so geht) zu einem erschwinglichen Preis.

Realitätscheck kommt dann, wenn's so weit is. :)
 
Zuletzt bearbeitet:
Das ist auch son Märchen.

Erstens steigt der VRAM Verbrauch in Zukunft unabhängig von der nötigen Rechnenleistung. Zweitens ist die 3060 ne Flotte Karte und bringt schon einiges an Power mit und drittens kann man VRAM nie genug haben. Alleine für die Zukunftstauglichkeit einer Karte ist das ein gutes Argument.

Gab in Vergangenheit genug Karten wo ich froh war das Modell mit mehr VRAM gewählt zu haben und die paar Euros mehr ausgegeben zu haben.
'
Die, die am meisten über "Zukunftssicherheit" schwadronieren, sind doch diejenigen, die eh jede Generation mitnehmen und niemals auch nur ansatzweise in die Situation kommen, im Nachteil zu sein :-)
Gerade WatchDogs stellt ein Problem dar, sowohl die 3080 als auch die V56/5700 sind eingeknickt beim Vram bei dem Titel.


Kann Sie eben nicht. Nachts brauch das Game massiv mehr Vram.
Das sind 1800p ohne RT. Klar wenn man TexturenPack, HDR und die Zusatzdetails weglässt reicht es vielleicht, aber naja.8GB reichen nichtmal für QHD bei dem Spiel. Starkes LOD und teils sogar massive Fametimeeinbrüche sind die Folge.

Anhang anzeigen 1351048



Vram an Ende, sieht man perfekt an der ansteigenden Frametimekurve. Bis zum nächste Erase sind die Fps im Eimer und das war tagsüber. Für NV hat man mittlerweile mehr LOD reingepatcht, das lindert das Symptom aber nur.
Anhang anzeigen 1351049

Also einfache Aussage: Für schlecht optimierte Spiele braucht man einfach immer die Nonplus-Ultra-Karte, wenn man Nonplus-Ultra-Einstellungen will. Einen Nonplus-Ultra-Monitor natürlich auch.

Und für 15 FPS mehr zahlt man dann 1000 EUR mehr :-)
 
Zuletzt bearbeitet von einem Moderator:
Die, die am meisten über "Zukunftssicherheit" schwadronieren
"Zukunftssicherheit" geht immer genau bis zur nächsten Generation, wo die Karten dann alt aussehen.
Aber spätestens halt die übernächste Gen. Dann is doch alles "Alteisen", egal was.


edit: Ich hab mich einfach drauf eingestellt, so ca. alle 2 Generationen die GPU zu tauschen. War jetzt mit ca. 500€ wenn ich den Gebrauchtverkauf der 1080Ti abziehe, auch gar nicht so teuer(für die geplante Nutzungszeit). Hab ja lange Ruhe jetzt. Und die Basis halt dann nach ca. 6-8 Jahren(was 2025 rum is, bei mir).

Wenn man das passend zu seinem Budget einplant, dann haut das eigentlich ganz gut hin.
 
Zuletzt bearbeitet:
Sollte man dann nicht eher die leistungsfähigen GPU-Chips mit mehr VRAM ausstatten, statt das bei den langsameren GPUs zu machen ? Eine RTX 3080 hätte doch viel eher von mehr VRAM profitiert, weil sie auch noch WQHD und 4K bedienen kann. Die RTX 3060 kann bei 4K keinen Stich machen, aber hat den Speicher.... toll.
Ja, 3080 und 3070 (effektiv Leistung einer 2080 Ti und 3 GB weniger Speicher -.-) wurden von vornherein mit zu wenig Speicher ausgestattet, was in den meisten Tests auch bemängelt wurde. Die 8 bzw 10 GB sind bestenfalls jetzt noch ausreichend aber wie einzelne Spieletitel schon jetzt zeigen, wird die Speicherbelegung schon bald steigen (müssen). Zuviel Speicher gibt es kaum aber er wird schnell zu teuer. Zu wenig Speicher gibt es aber teilweise jetzt schon, wie z. B. Doom Eternal beweist,während bei dem extrem speicherhungrigen Godfall wohl eher die Speichermenge bei AMD-Karten ausschlaggeben war (12 GB bei einer zu erwartenden 6700 XT, was als Minimum gilt und mehr ist, als nV unterhalb der 3090 aktuell überhaupt bietet ^^)...
 
Kann Sie eben nicht. Nachts brauch das Game massiv mehr Vram.
Das sind 1800p ohne RT. Klar wenn man TexturenPack, HDR und die Zusatzdetails weglässt reicht es vielleicht, aber naja.8GB reichen nichtmal für QHD bei dem Spiel. Starkes LOD und teils sogar massive Fametimeeinbrüche sind die Folge.

Anhang anzeigen 1351048
Und hier sieht man mal wieder nur, wie viel belegt ist, aber leider nicht, wie viel benötigt wird. Im anderen Thread wurde doch schön erklärt, wie man sich den tatsächlich benutzten VRAM anzeigen lassen kann. Wieso machst du das nicht und schreibst hier wieder Unsinn?

Vram an Ende, sieht man perfekt an der ansteigenden Frametimekurve. Bis zum nächste Erase sind die Fps im Eimer und das war tagsüber. Für NV hat man mittlerweile mehr LOD reingepatcht, das lindert das Symptom aber nur.
Anhang anzeigen 1351049
Die Frametime steigt also nicht, weil du dich in der Luft befindest und mehr auf dem Bildschirm dargestellt werden muss, sondern weil der VRAM voll ist? :ugly:
 
Die Ära für mehr Spiecher wurde eigentlich schon mit der 3090 eingeläutet, sonst hätte ja Nvidia die 3090 auch nur mit 12 GB veröffentlichen müssen. - Jetzt ziehen erst mal die Knirpse aus der Mausgruppe (3060) nach und später werden sicher auch die aus der Igelgruppe (3070) und dann die Füchse (3080) folgen. - Nur für die 3060TI, den Frosch unter dne Grafikkarten, schaut es düster aus, aber mit der 4060TI wird sich das auch gelegt haben. -Für Hardware-Käufer dürfte Warten ja nichts Neues sein. (Sich in Geduld zu üben lernt man wohl schon im Kindergarten.)

Die ganz Ungeduldigen haben sowieso schon die Vernunft beiseite gelegt und sich das Vielfraß (3090) gekauft oder bei AMD vorbeigeschaut und sich dieses Problems des kanppen Speichers elegant oder weniger elegant entledigt.

Es dauert also nicht mehr allzu lang, dass es bald keine Grafikkarten mit weniger als 12 GB gibt, (zumindest neue) und diese Aussicht ist letztlich eine gute und die ganzen Crypteminer, die sich 80 Geforcen des gleichen Typs kaufen, freuen sich sowieso, dass sie nur den halben Grafikspeicher zahlen müssen.:ugly:
 
Bis 2025. Dann passt es. :daumen:

Hab ja auch geschrieben "für mich".
...
Nee, keine Sorge ich hab das schon so weit verstanden. :)
Ich glaub ich hätte mich da etwas ausführlicher ausdrücken müssen. Es ging mir eigentlich nur darum, wie lang es denn noch dauert bis 4K so langsam zur Standardauflösung für alle wird.

Gefühlt hat es bei Full HD nämlich nur halb so lang gedauert und hielt sich dafür auch gleich mal doppelt so lang, wie alle anderen Auflösungen. ;)

Ich weiß, die 4 fache Auflösung muss berechnet werden, aber trotzdem. ^^
 
Zurück