Geforce RTX 3080 und RTX 3070 Ti mit mehr Speicher

Atma

PCGH-Community-Veteran(in)
Man kann bisher NUR auf 4K Probleme mit dem VRAM bekommen, und das auch nur in wenigen Titeln. Also der Kreis der Betroffenen ist nicht so groß wie hier gerne dargestellt wird. Wer performant mit RT auf 4K zocken möchte, der hat sich vermutlich eh eine 3090 gekauft...
Auch du stellst dich offenbar absichtlich dumm. Im Ausgangsbeitrag hatte ich Stalker 2 erwähnt - einer der ersten richtigen Next-Gen Titel. Und jetzt kommst du mit 4K bei schon erhältlichen Titeln ... :wall:

Selbst wenn wir es auf aktuelle Titel ausweiten, die 3080 kostet derzeit weit über 1000 EUR. Ohne Scalperaufschlag um die 900-1000 EUR. Wie kann man es sich in der Preisklasse schönreden die Texturdetails runterzudrehen? Das ist völlig absurd. Die 3080 wird einfach richtig, richtig schlecht altern. Wo die RX 6800/6900 und die 3090 in 1-2 Jahren noch problemlos die besten Texturen darstellen können, pfeift die 3080 schon aus dem letzten Loch und muss runterschalten weil der VRAM überläuft.

Aber hey, alles nicht so schlimm. Ist ja nur die 1000 EUR Klasse für den Pöbel, bei so billigen Karten muss der eben in Kauf nehmen nach nur 2 Jahren oder teilweise schon früher die Texturdetails runterzudrehen!
 

raPid-81

Software-Overclocker(in)
Auch du stellst dich offenbar absichtlich dumm. Im Ausgangsbeitrag hatte ich Stalker 2 erwähnt - einer der ersten richtigen Next-Gen Titel. Und jetzt kommst du mit 4K bei schon erhältlichen Titeln ... :wall:

Selbst wenn wir es auf aktuelle Titel ausweiten, die 3080 kostet derzeit weit über 1000 EUR. Ohne Scalperaufschlag um die 900-1000 EUR. Wie kann man es sich in der Preisklasse schönreden die Texturdetails runterzudrehen? Das ist völlig absurd. Die 3080 wird einfach richtig, richtig schlecht altern. Wo die RX 6800/6900 und die 3090 in 1-2 Jahren noch problemlos die besten Texturen darstellen können, pfeift die 3080 schon aus dem letzten Loch und muss runterschalten weil der VRAM überläuft.

Aber hey, alles nicht so schlimm. Ist ja nur die 1000 EUR Klasse für den Pöbel, bei so billigen Karten muss der eben in Kauf nehmen nach nur 2 Jahren oder teilweise schon früher die Texturdetails runterzudrehen!
Das bleibt abzuwarten. Die Next-Gen Games die auch für Konsolen erscheinen werde NICHT mehr als 10 GB benötigen, die Konsolen haben nämlich nicht mehr...

Und auch Next-Gen Titel für den PC orientieren sich bisher an der breiten Masse der Karten, und das sind eben keine RDNA2 oder High End Ampere Karten. Es wird ein paar Ausnahmen geben, aber in 1-2 Jahren sehe ich absolut kein Problem für FullHD / WQHD. Und das sind nun mal die Auflösungen die am häufigsten verwendet werden. Die Speicher-Problematik bleibt bisher ein "4K" Thema.

Hier mal die "recommended" Anforderungen von Stalker 2:

Empfohlene Systemanforderungen für Stalker 2

  • Betriebssystem: Windows 10
  • Prozessor: AMD Ryzen 7 3700X / Intel Core i7-9700K
  • Arbeitsspeicher: 16 GB RAM
  • Grafik: AMD Radeon RX 5700 XT 8GB / NVIDIA GeForce RTX 2070 SUPER 8GB / NVIDIA GeForce GTX 1080 Ti 11GB
  • Speicherplatz: 150 GB verfügbarer Speicherplatz
  • Zusätzliche Anmerkungen: SSD

Dass man das Spiel mit HD Textures (die erst auf 4K Sinn ergeben) über 10 GB treiben kann streite ich übrigens nicht ab, keine Ahnung was da verfügbar sein wird, aber das wäre wieder ein 4K Problem....
 

Bl4ckR4v3n

Software-Overclocker(in)
Wenn die Karten kommen, dann hat Nvidia ja mal ein wildes Lineup geschaffen.
Aber Nvidias Aussagen zum Speicher sind wohl gut gealtert. Scheint wohl doch nicht auszureichen...
 

Quake2008

BIOS-Overclocker(in)
Ich hatte bewusst Ampere Karten!! mit 8 und 10 GB geschrieben, wieso kommst du jetzt mit einer 1070 oder 2070? Die 3070 und 3080 sind von der Rechenleistung stark genug für moderne Titel, es würde mich enorm stören bei Karten in der Preisklasse mit ansehen zu müssen wie das Spiel eigenständig die Texturdetails runterdreht weil der VRAM ausgeht.


Klar, die Zielgruppe der 3070 und 3080 spielt bestimmt nur Sims und Minecraft :schief:

Manchmal frage ich mich, ob die Leute sich hier absichtlich dumm stellen.
Wieso hab ich die 1070 und 2070 genannt, um zu zeigen, dass 8Gb über mehrere Generationen verwendet wurden.

Und man daraus gewisse Rückschlüsse ziehen kann.

1) Mehr als 8GB in der Preisklasse macht kaum sinn.
2) 8Gb hat sich als Standart in der Mittelklasse etabliert
3) Die Entwickler werden zusehen, dass Sie sich an der Mittelkasse orierntieren und der Rest nach unten und oben Skaliert wird.


"Zielgruppe der 3070 und 3080 spielt bestimmt nur Sims und Minecraft".

Dazu gibt es bestimmt witzige Anekdoten. Eine hab ich im MM mitbekommen. Bonsen Mutti zum Verkäufer.
Der braucht ne Grafikkarte, Sohnemann im schlepptau, die Auswahl war recht beschränkt.

Verkäfuer fragte was der so zockt Minecraft, Roblox und so ein anderes Zeug.

Und was nahm Sie mit? Nicht die 2060 6GB oder weniger Leistung. Sondern eine 2070 Super.

Also Minecraft muss damit richtig gut laufen :-)

Was glaubste warum Roblox, Minecraft, Fortnite & Co Mrd Gewinne jedes Jahr erwirtschaften?
Naja, weil die Kiddies einem nicht auf den Sack gehen, wenn Sie Geld für Microtransaktionen ausgeben.

Für so einen Erziehungsstil fehlt es mir an nötigem Kleingeld.
 
Zuletzt bearbeitet:

shaboo

Software-Overclocker(in)
Und man daraus gewisse Rückschlüsse ziehen kann.

1) Mehr als 8GB in der Preisklasse macht kaum sinn.
2) 8Gb hat sich als Standart in der Mittelklasse etabliert
3) Die Entwickler werden zusehen, dass Sie sich an der Mittelkasse orierntieren und der Rest nach unten und oben Skaliert wird.
Keine Ahnung, welcher Logik diese Rückschlüsse folgen sollen. Eine Zeit lang war 1 GB Standard, dann 2, dann 4, dann 8, und irgendwann halt mehr als 8. Angesichts einer 12GB-3060 von Nvidia und einer 12GB-6700XT von AMD kannst du davon ausgehen, dass in der nächsten Generation 8 GB bestenfalls noch in der Einstiegs- und der unteren Mittelklasse verbaut werden und dass die Mittelklasse nicht unter 12 GB daherkommen wird.
 

RX480

Lötkolbengott/-göttin
Im verlinkten Artikel geht es um Mobile RX6000. Ob die Desktop Karten einen Refresh erhalten wird da auch nur als Spekulation erwähnt
Jo,
eigentlich erstaunlich, weils dann nur ne Processumstellung für ne vorhandene Maske wäre, ...mit 150MHz mehr!?

Viel interessanter wäre der 6500xt als ganz neuer Chip mal so richtig in 6nm ausgereizt.
 
Oben Unten