Geforce RTX 3080 Ti und RTX 3070 Ti: Bleibt Speicher Nvidias "Achillesferse"?

Bei mir reicht er sogar in 1440p auf alles max. mit flüssigen 100+ fps Spielt ihr ruhig minecraft mit rayt xD. In full HD auf Mittel spielen dann labern von vram reicht oder wie :p

Meine Aussage stimmt wenigsten....was man von deiner nicht sagen kann.
dann optimieren hier, regeln da, nur um sagen zu können Ich spiele ja in 1440p, bei mir langt locker 8GB.......
Willst Du vielleicht mit einer RTX 3070 in 4K spielen? Ist nicht jeder so bescheiden und versucht das mit einer RTX 2080 super. Und in 4K helfen meiner RX 6800 die 16GB auch nicht....da ist sie zu lahm...optimieren darf man ja nicht.

Wenn die RTX 3070 in 1440p nur am ruckeln ist, warum ist sie dann bei den Perzentil immmer noch vor einer RTX 2080TI 11GB VRam?

8GB.PNG
 
Zuletzt bearbeitet:
Wenn DLSS verfügbar ist, dann sinkt der Speicherbedarf nochmal ordentlich
Eigentlich ist doch das genaue Gegenteil der Fall. Wenn man per DLSS hochskaliert, dann steigt der Speicherbedarf.
Ne, eben nicht. Er sinkt.
Nein. DLSS skaliert ja hoch, also benötigt man niedriger aufgelöste Texturen - ergo weniger Speicher nötig.
Exakt.
Ich gehe von der unteren Auflösung aus. Also normales Full HD gegen per DLSS auf 4K hochgerechnetes Full HD.
Ja so läuft das aber nicht.
Du musst "natives 4K" mit "DLSS 4K" vergleichen. Dann fällt nämlich auf, dass das DLSS 4K viel weniger Speicher benötigt, da es auf dem Quality-Preset relativ genau mit WQHD-Auflösung berechnet wird (Renderskalierung ~ 66%). DLSS rechnet das fertige Bild dann rauf und dann wird es ausgegeben.

Gucks dir bei Cyberpunk mal an.
4K DLSS on vs off und schau dir den Speicher an.

Habe den Test gerade auf die schnelle mal gemacht:

DLSS ON VS OFF in Cyberpunk:

- Ultra Settings
- RayTracing Psycho

4K:
8500MB
10200MB (+20%)

WQHD:
7350MB
8150MB (+11%)

Das zeigt, wenn man DLSS aktiviert sinkt der Speicherbedarf deutlich.
Bei Cyberpunk ermöglicht DLSS konkret, dass 10GB bei 4K und 8GB bei WQHD ausreichend sind!
 
Der Speicherbedarf sinkt nicht gemessen an der verwendeten Auflösung sondern er steigt.
Das ist aber eine Sache des Betrachtungswinkels.

Beispiel:
4k Nativ 10GB
4k DLSS Quality 8,5GB(=1440p)
QHD Nativ 8,0GB

Das ergibt sich rein aus den mehr an benötigten Daten.
in 4K helfen meiner RX 6800 die 16GB auch nicht....da ist sie zu lahm...optimieren darf man ja nicht.
Ich verwende die Karte ausschließlich in 4k und das UV auf 190Watt Board.
 
Puuuh, ... ziemlich hitzig hier.
Erst mal mein Schweißhandtuch auswringen ...

So ..
Ich denke, 8GB Videospeicher sind 2021 zu wenig für Karten zw. 500 und 1000 Euro.
Auf der anderen Seite: wenn jemand ausschließlich Spiele spielt, wo in UHD nur 1,2 GB belegt sind, ist ihm das egal.

Ach ich glaub mein Gehirn wurde durch den aktuellen Grafikmarkt irgendwie in Mitleidenschaft gezogen .. :ugly:
 
Ich sage ja nicht, daß es nicht geht. Aber unter den selben Kriterien, die der RTX 3070 auferlegt werden, also immer max und ausgewählte Spiele, reichts hinten und vorne nicht.
Naja Abstriche in 4k sind ja eigentlich normal, selbst die dicksten Boliden knicken da teilweise ein.
Die meisten Titel laufen aber sogar eher recht easy in 4k mit den Karten. Hilfreich ist Vram jn der Auflösung aber eigentlich immer.
 
Der Speicherbedarf sinkt nicht gemessen an der verwendeten Auflösung sondern er steigt.
Das ist aber eine Sache des Betrachtungswinkels.
Ja, je nachdem wie man es sich halt schönsäuft. Es geht doch darum, dass man eine definierte Auflösung des Monitors hat, zB 4K und diese native Auflösung stellt man sich aus Gründen auch ein, wenn man skalierungsbedingten Pixelmatsch vermeiden will.

Ohne DLSS hat man also 10,2GB Auslastung und mit DLSS bei der selben Auflösung auf dem Quality-Preset nur 8,5GB. Stellt man auf Balanced oder Performance geht es entsprechend der Renderauflösung noch weiter runter mit dem Speicherbedarf.

Man benutzt DLSS (aktuell) weniger um bei gleicher Auslastung eine höhere Auflösung zu erhalten, sondern viel mehr um bei gleicher Auflösung mehr FPS zu bekommen. Das ist der Punkt. Darum sinkt auch die Speicherauslastung, wenn man DLSS anwendet, wie normale Menschen.

Was ihr da redet ist nur etwas für Theoretiker - wie immer - alles aus der Luft gegriffene Gedankenexperimente, die für den Großteil der Gamer keine Rolle spielen. Es gibt für die meisten nur einen Hebel, DLSS an oder aus.

Meine einfach, es gibt hier keine zwei Betrachtungswinkel, denn es zockt doch keiner ernsthaft mit einem WQHD Monitor auf 4K-DLSS. Wer macht das bitte? Da kannste ja lieber DLSS abschalten. Kommt leistungsmäßig etwa aufs gleiche raus, nur dass das Bild wegen der 2.25-fachen Skalierung und der DSR-Glättung matschig wird.
 
Zuletzt bearbeitet:
Meine einfach, es gibt hier keine zwei Betrachtungswinkel, denn es zockt doch keiner ernsthaft mit einem WQHD Monitor auf 4K-DLSS. Wer macht das bitte? Da kannste ja lieber DLSS abschalten. Kommt leistungsmäßig etwa aufs gleiche raus, nur dass das Bild wegen der 2.25-fachen Skalierung und der DSR-Glättung matschig wird.
This. Ich hab nen WQHD Monitor und schalte DLSS Quality ein wenn das Spiel es unterstützt. So komme ich eher weniger an die VRAM Grenzen meiner 3080, auch mit RT.
Das Blasen-Denken ist hier wirklich stark vertreten, die meisten Gamer spielen weiterhin in FHD oder WQHD. 4K ist aktuell noch etwas für Enthusiasten, und für die gibt es auch eine 3090.
Außerdem sind die 16GB bei AMD deutlich langsamer angebunden, bei 4K kommt der Infinity Cache eindeutig an seine Grenzen. Was nun besser ist muss jeder für sich entscheiden.
 
von Zen1 zu Zen2 haben se die Perfromace auch mehr als verdoppelt

mit dem Umstieg auf Chiplets is nen riesen Sprung möglich
Ja weil sie keine andere Wahl hatten...
Ich bezweifle, dass sie es schaffen die Architektur in so kurzem Abstand nochmal derart zu pushen ohne direkt auf was weiß ich, 3nm zu springen... Wenn das so einfach alle ~2 Jahre möglich wäre würden wir das auch häufiger sehen... Stattdessen üblicherweise 30% bis max 50% plus... Und das ist auch eher selten...

Und Chiplets hin oder her - dadurch wird die Architektur nicht schneller und der Stromverbrauch nicht niedriger, sondern die GPU nur günstiger...
 
mittlerweile ist es mir egal was die Grafikkarten oder PC Hardware kostet. Der Markt ist gerade an einem Punkt angelangt, an dem es sich kaum noch lohnt irgend etwas aufzurüsten oder zu kaufen (dank mining und Scalper sowieso nicht möglich). Wenn es die Konsolen wieder in ausreichenden Stückzahlen zukaufen gibt, was irgendwann passieren wird kommt auch bei mir eine Konsole ins Haus. Mittlerweile sehen das auch viele Kollegen/Freunde so. Ich hab das jetzt so bei mir im Umfeld beobachtet und mitbekommen, und kann natürlich nicht ausgehen das jetzt jeder eine Konsole kaufen wird aber, ich denke mal das dadurch weniger auf dem PC gezockt wird. Ist jetzt auch nur meine persönliche Meinung.
 
Meine Aussage stimmt wenigsten....was man von deiner nicht sagen kann.

Willst Du vielleicht mit einer RTX 3070 in 4K spielen? Ist nicht jeder so bescheiden und versucht das mit einer RTX 2080 super. Und in 4K helfen meiner RX 6800 die 16GB auch nicht....da ist sie zu lahm...optimieren darf man ja nicht.

Wenn die RTX 3070 in 1440p nur am ruckeln ist, warum ist sie dann bei den Perzentil immmer noch vor einer RTX 2080TI 11GB VRam?

Anhang anzeigen 1358313
Woher weist du den was ich spiele? bei mir hab ich nun mal 100+fps in spielen mit 1440p und reicht mir. So habe ich das gesagt, wo soll was nicht stimmen? Battlefield läuft bei mir bombe, warzone, cold war genauso^^

Auserdem bin ich einer der nicht alles auf anschlag haben muss. Selbst mit raytracing in control komme ich auf über 60+ fps mit 1440p.

Mann muss halt nicht alles was mit raytracing zu tun hat auf anschlag schrauben wo ich in control ned mal ein unterschied merke wenn raytracing nicht auf anschlag ist :ugly: schaut meiner meinung nach ehscheiße aus, teils erkennt man da nicht mal ob da nen scheibe ist oder ein spiegel so übertrieben wurde da^^
 
Die meisten Titel laufen aber sogar eher recht easy in 4k mit den Karten.
Auch das ist richtig. Aber genauso easy laufen 99.99% aller Spiele mit einer RTX 3070 in QHD und trotzdem werden aus den abertausenden Spielen ein paar ausgesuchte herangezogen um die untauglichkeit zu beweisen. Wenn ich das will kann ich das bei jeder Karte machen. Am Schluß kommt dann so ein Geschwätz, wie von Chatstar raus, daß viele Spiel mit 8GB VRam erst garnicht starten.
Woher weist du den was ich spiele?
Woher weißt Du was ich, oder andere Besitzer einer 8GB Karte spielen? Eben weißt Du nicht und trotzdem kommt der Spruch von 1080p und mittel damit der VRam reicht. Bei meinen Spielen hatte ich bis jetzt in 1440p weder mit der GTX 1080Ti gegenüber der RTX 2070 super, noch mit der RX 6800 gegenüber der RTX 3070 einen visuellen Vorteil durch den größeren VRam.
Genauso wie Du deine Einstellungen anpasst um dein Ziel zu erreichen, könntest Du das anderen Usern auch zugestehen.
 
Zuletzt bearbeitet:
Ich hoffe, euch ist bewusst, dass in einigen/vielen modernen Spielen die Textursettings nur beeinflussen, wie viele Texturen und Mips im VRAM gecached werden.

Wenn man das Setting reduziert bedeutet das in den meisten Fällen erstmal keine Reduktion der Texturqualität, solange man nicht auf low stellt, es wird dann oft nur die SSD ein wenig mehr belastet. Heißt im Umkehrschluss dass das vollladen des VRAM in erster Linie zu langsame storages ausgleichen soll, sprich HDDs..

An den Frametimes ändert sich normal nix weil moderne Spiele sich von Streaming normalerweise sowieso nicht mehr aus dem Fluss bringen lassen.

Gilt natürlich nicht für alle Spiele, Fakt ist aber dass sich das Memory Management und die Art und Weise wie mit Texturen und Mipstufen umgegangen wird vom Spiel zu Spiel stark unterscheidet.

Manche Spiele skalieren aufgrund dieses Verhaltens runter auf 4GB ohne Visuelle Einbußen obwohl sie bis zu 10 GB belegen können und auch anfangen zu ruckeln, wenn man den Texturen Cache nicht an den verfügbaren VRAM anpasst.

Doom Eternal bzw. die ID Tech Engine wäre hier ein gutes Beispiel...

Ohne genauere Analyse ist es jedenfalls schwierig bei jedem Spiel die richtigen Schlüsse zu ziehen.

Man kann natürlich einfach ne Karte mit sehr viel VRAM kaufen wenn man nicht weiß wohin mit dem Geld.
In vielen Fällen ist es aber gar nicht mal nötig.

Mit DX12 Ultimate Sampler Feedback sollte sich das Thema weiter entschärfen, da der VRAM damit nochmal deutlich effizienter genutzt werden kann.
 
Zuletzt bearbeitet von einem Moderator:
Ich sage ja nicht, daß es nicht geht. Aber unter den selben Kriterien, die der RTX 3070 auferlegt werden, also immer max und ausgewählte Spiele, reichts hinten und vorne nicht.
Bis vor gar nicht allzu langer Zeit wurden genau diese Maßstäbe bei einer Karte mit ähnlicher Leistung (aber mehr VRAM) angewandt.;)
 
Ich kann kaum glauben wie oft hier die Wörter 'Grafikkarte' oder 'VRAM' und 'zukunftstauglich' oder gar 'zukunftssicher' in ein und demselben Satz verwendet werden :lol:.

Von welchen genauen Zeitraum geht ihr denn bei dem Wort 'Zukunft' bei PC-Hardware eigentlich aus?
 
3-4 Jahre kann man von einer Karte in den Preisklassen eigentlich schon erwarten, dass sie >75% der erscheinenden Spiele zumindest mit hohen Settings schafft.
 
Zuletzt bearbeitet:
Einige Ungereimtheiten.

Aber man muss schon sagen, dass sich Gerüchte, sind sie einmal hartnäckig, meist bewahrheiten, wenn es um mögliche Grafikkartenspezifikationen geht.

Mit 12 GB wird sie letztlich schneller sein und wenn man das nur leichter übertakten kann?
Man hätte bei 20 GB auf ein langsamer arbeitendes 320 Bit Interface zurückgreifen müssen, als es bei einer 3080 ist.
An Enthusiasten sind 70er Modelle nicht mehr gerichtet.
Ne, nicht 2060.
Die 260 gab es auch damals schon mit mehr VRAM und konnte somit ihre Rohleistung besser ausfahren.
Gruß T.
Was aber nicht heißt, dass sie nicht ebenso langsam wie unsinnig war, für die allermeisten Käufer.
Nicht dass ich eine gehabt hätte.
 
Zuletzt bearbeitet:
Jetzt habe ich seit zig Jahren die 1080Ti mit 11GB Sie läuft mit ca 2000Mhz als fester standart.

12 GB bei einer theoretischen 3080Ti mögen sicherlich jetzt ausreichen für "das meiste"- ohne frage. Aber sicherlich nicht lange genug um diese Fantasiepreise zu rechtfertigen außerhalbt der UVP.
Die 1080Ti macht in WQHD bei High bis Ultra und 50-X fps, leistungsmäßig in recht "alten" Spielen wie Horizon New Dawn, Division 2, AC Odyssey, etc... noch eine naja ganz gute Figur um es vorsichtig auszudrücken. Aber ihre Zeit ist um, Und der Speicher oft schon am Limit wenn man mal einige Stunden gezockt hat.

Desewegen generell reichen 12GB, Heut und Morgen ganz sicher aus. Aber was ist mit Übermorgen?
Denn bis Übermorgen wird eine Karte dieser Klasse für gewöhnlich auch genutzt!
 
...
Denn bis Übermorgen wird eine Karte dieser Klasse für gewöhnlich auch genutzt!
Das glaube ich nicht! Hier kaufen sich, wenn man sich die Forenbeitrage so ansieht, sehr viele alle 1-2 Jahre eine neue, verkaufen die alte Karte dann und dienen damit als Anlasser für den 8GB-Highend-Karten-Motor und damit auch für das 24GB-Overdose-Lock-Bonbon. Pro Jahr 10-20% mehr Leistung und alle 5 Jahre 2GB mehr Speicher: die Karten halten doch eh nur 10-24 Monate ...
 
Zurück