RTX 3080 Ti zeigt sich - MSI-Modell wird an Händler ausgeliefert, 12 GiByte VRAM bestätigt

Nvidia ist doch seit ich Grafikkarten kenne der Platzhirsch und ATI (AMD) das kleine Licht welches immer hintendran ist.
Da bringst aber gehörig was durcheinander mein Gutster !
nVidia hatte zwar überwiegend die schnellste Karte im Portfolio (Titan z.B.), aber bei den jeweiligen Gegenspieler hatte NV das Nachsehen !! AMD war schneller, günstiger und hatte mehr RAM. Mehr Strom haben sie (damals) verbraten.
RX 580/90 vs. 1060, V56 vs. 1070, V64 vs. 1080, VII vs. 1080Ti, 5700 vs. 2060, 5700XT vs. 2070.
Dann anno Dazumal mit der 7970 GHz, und der R9 290X/390X und jetzt mit der 6800 vs. 3070, 6800XT vs. 3080 und 6900XT vs. 3090. Und dann halt noch "spitzen" Aktionen von Team Green (970 mit 3,5 GB, Mining ...)
Aber ein jeder soll kaufen was er will/kann/darf :nicken:

MfG Föhn.
Du kannst CP2077 mit RT nicht mal in FullHD auf einer RX6900XT ordentlich zocken... Vergleich das doch mal. :lol:
Für ALLE die KEIN RT brauchen oder wollen zocken CP2077 mit einer RX 6900XT schneller als mit einer 3090 (für 2500 €) !! Vergleich das doch mal. :nicken:

MfG Föhn.
 

Anhänge

  • Bench 1.jpg
    Bench 1.jpg
    214,1 KB · Aufrufe: 27
  • Bench 2.jpg
    Bench 2.jpg
    376,4 KB · Aufrufe: 18
  • Bench 3.jpg
    Bench 3.jpg
    453,6 KB · Aufrufe: 16
  • immer noch der Gleiche.jpg
    immer noch der Gleiche.jpg
    376,4 KB · Aufrufe: 22
Zuletzt bearbeitet von einem Moderator:
Dennoch schafft die 3080 und 3070 nicht das Verhältnis in einem vernünftigen Maße umzusetzen. Klar hat man ggf. DLSS aber ich glaube nicht dass es der Sinn sein kann, zu hoffen dass ein Spiel es unterstützt damit ich es mit max. Settings spielen kann.
Link Why 10 GB should be enough
Link Mesh Shader
Link Sampler Feedback Streaming
Link DirectStorage

Wir müssen hier wieder bei der aktuellen Faktenlage bleiben.
1. Die neuen Konsolen haben ~10 GB VRAM (16 GB shared memory für das gesamte System)
2. Die allermeisten Gamer haben 8 GB Grafikkarten (siehe aktuelle Steam Umfrage)

Aktuelle Spiele-Designer werden garantiert NICHT mit 16 GB VRAM planen. Durch verbesserte Streaming-Techniken (Links dazu s.o.) wird ein großer VRAM ggf. auch gar nicht mehr benötigt. 4K Texturen müssen ja bereits in die 10 GB VRAM der Konsolen passen, und von 8K Gaming sind wir noch locker ein Jahrzehnt entfernt. Erst mit 8K könnte dann wieder mehr VRAM nötig werden.

Ja, RT kostet VRAM, aber DLSS verringert die VRAM Kosten im gleichen Maße. Spiele mit RT und ohne DLSS laufen leider, wie in diversen Tests zu sehen, in hohen Auflösungen mit weniger als 40 FPS. So will doch keiner zocken, ergo verringert er die Auflösung / schaltet RT ab / nutzt DLSS.

Die hier dargelegten Argumente und Beispiele sind in höchstem Maße theoretischer Natur.

- auf einer 3060 in 4K zocken
- eine 3070 in WQHD, mit max details und RT Psycho befeuern OHNE DLSS

Wer macht denn ernsthaft so einen Unfug? Und welche RT Games unterstützen kein DLSS? Das sind 1-2 (AMD sponsored), und die haben nur 1-2 RT Effekte da sonst die Leistung auch auf den VRAM-Monstern von AMD einbricht...
Für ALLE die KEIN RT brauchen oder wollen zocken CP2077 mit einer RX 6900XT schneller als mit einer 3090 (für 2500 €) !! Vergleich das doch mal. :nicken:

MfG Föhn.
Ach Föhn, ganz ehrlich, mach Dich nicht lächerlich. Ich hab doch schon gesagt dass die AMD Karten in reiner Rasterization und nativer Auflösung besser sind als die NV Pendants. Nur eben nicht was Features und Innovationen angeht. Deine Screenshots sind nicht die Elektronen Wert mit denen sie gesendet wurden, schaltet man auf der 3090 noch DLSS Ultra Quality ein dann überholt sie locker die 6900XT. Mit RT siehts dann richtig düster aus.

Aber hey, ich kann es verstehen, ohne cherry picking bekommt man die AMD Karten halt nicht besser dargestellt. RDNA2 ist was Innovationen / neue Features angeht schlechter als Turing. Die freie Chipfläche wurde in Rohleistung investiert, kann man machen, ist dann halt kacke wenn man Spiele in voller Pracht genießen will (und das inkludiert nun mal RT).
 
Zuletzt bearbeitet von einem Moderator:
Eine 1080.
Hab mein Savegame aber auch mal mit zu einem Freund genommen und siehe da: 10GB einer 3080 sind auch instant voll, 14 GB sind dann bei der 6700.
Dann suche dir mal jemanden mit ner 3090. da werden ev noch mehr GB VRAM "belegt". Wenn ich meine Fans von dem Nutzten von viel VRAM überzeugen will würde ich dem Treiber auch sagen:
Kopp in'n Nacken, hau voll was geht Alter...
Aber off Topic: deine Palit GTX 1080 Game Rock Premium ist ein richtig gutes Stück Hardware. War meine bisher leiseste Karte @stock, also ohne undervolting.
 
Eine 1080.
Hab mein Savegame aber auch mal mit zu einem Freund genommen und siehe da: 10GB einer 3080 sind auch instant voll, 14 GB sind dann bei der 6700.
Im Afterburner gibt es die Möglichkeit "Memory usage \ process" anzuzeigen, das ist der tatsächlich genutzte VRAM. Alles andere zeigt nur "allocated VRAM" und ist somit nicht aussagekräftig.
 
Aber hey, ich kann es verstehen, ohne cherry picking bekommt man die AMD Karten halt nicht besser dargestellt.
Genau, deswegen kommst ja immer mit RT daher, weil da Team Green punkten kann mit ihren Cores, welches sie sich in "Gold" aufwiegen lassen. Cherrypicking ist auch, einen Link aufzuzeigen, in dem 10 GB für alles reicht.
Und falls doch nicht, gibt es ja die 3060 mit 16 GB und 3090 mit 24 GB, gelle :daumen:

MfG Föhn.
 
Und was mache ich mit aktuellen Titeln wo der VRAM nicht reicht? Mir es schön reden?
Ob das Verhältnis vernünftig ist oder nicht ist rein subjektiv und hängt von der Software ab. Bei einigen aktuellen Spielen sieht das Verhältnis nicht gut aus, da gebe ich dir recht.
Aber wie sieht es bei künftigen Spielen aus?

Wie ich schon sagte. Gears 5 also moderner DX12 Titel mit UE4 kann vielleicht zeigen wo es hin geht.

4,5 GB VRAM usage, knapp über 4 GB VRAM für den Prozess selbst und das trotz HD Texture Pack getestet im "Open World" gebiet des Spiels. Und das ist eben nur Allocation. Wie viel wirklich benötigt wird ist ja nicht bekannt. Wobei das delta hier vermutlich klein ist. Aber man weiß es nicht...
Das ist nun ein Titel. Klar kann es sein dass die großen den Bedarf mächtig eindampfen, ich erwarte aber dass dann stattdessen dass die Ressourcen dann mittelfristig anderweitig genutzt werden.
Aber wie sieht es bei den kleineren Entwicklern aus? Denn typischerweise sind es die Spiele die gerne wie ein Sack Nüsse laufen. Bezweifel dass dort solche optimierungen kommen und dann der VRAM einen ärgern wird.
 
Wenn Du Dich mit der Materie auseinander setzt wirst Du feststellen dass dem in den meisten Fällen tatsächlich so ist. Pu244 hat es ja bereits erklärt.
Wie kommst du denn darauf, dass ich mich mit der Materie nicht befasst habe?

Erklär mir doch mal, warum haben den manche Leute das Gefühl, dass die Bildqualität (wir nutzen mal diesen generischen Begriff) bei der nutzung von DLSS 2.x sogar besser ist als nativ? Hast du da eine Idee woher das kommt?
 
Aber wie sieht es bei den kleineren Entwicklern aus? Denn typischerweise sind es die Spiele die gerne wie ein Sack Nüsse laufen. Bezweifel dass dort solche optimierungen kommen und dann der VRAM einen ärgern wird.

Welche Spiele von sehr kleinen Entwicklern sind denn VRAM Fresser? Ich hatte da eigentlich immer nur Spiele von großen Studios im Hinterkopf.
 
Genau, deswegen kommst ja immer mit RT daher, weil da Team Green punkten kann mit ihren Cores, welches sie sich in "Gold" aufwiegen lassen. Cherrypicking ist auch, einen Link aufzuzeigen, in dem 10 GB für alles reicht.
Und falls doch nicht, gibt es ja die 3060 mit 16 GB und 3090 mit 24 GB, gelle :daumen:

MfG Föhn.
Und Du antwortest lieber nur auf stark reduzierte Teile meiner Posts, warum wohl? Weil Dir die Argumente ausgehen? Der Link heißt nur so damit man weiss was dort erklärt wird, tatsächlich ist das eine sehr gute Zusammenfassung von Fakten und Aussichten.

Und was mache ich mit aktuellen Titeln wo der VRAM nicht reicht? Mir es schön reden?
Wo reicht er denn nicht? Welches Spiel, welche Settings?

Hier mal ein Beispiel, CP2077 - WQHD, maxed out Details, RT Psycho:

DLSS On:
memory-dlss on.PNG


DLSS Off:
memory-dlss quality off.PNG


Man sieht sehr schön wie viel VRAM allokiert, tatsächlich genutzt und durch DLSS gespart wird.

Speicher Auslastung = allokiert
Memory usage \ process = tatsächlich benötigt

Das ist nun ein Titel. Klar kann es sein dass die großen den Bedarf mächtig eindampfen, ich erwarte aber dass dann stattdessen dass die Ressourcen dann mittelfristig anderweitig genutzt werden.
Aber wie sieht es bei den kleineren Entwicklern aus? Denn typischerweise sind es die Spiele die gerne wie ein Sack Nüsse laufen. Bezweifel dass dort solche optimierungen kommen und dann der VRAM einen ärgern wird.
Die Liste der Engines die RT und DLSS nativ unterstützen ist bereits lang und wird immer länger. Hier noch mal die bekanntesten:

UE4 (und UE5 wird da keinen Rückschritt machen)
Unity
ID Tech Engine
CryEngine hat es auch auf der Roadmap
Anvil
Frostbite
IW Engine
RED Engine
Source Engine

Somit wird die Verbreitung immer schneller vorangehen.

Was meinst Du mit "Ressourcen dann mittelfristig anderweitig genutzt werden"? Wenn das Streaming schnell genug läuft so dass man nur 1 Sekunde Gameplay im VRAM haben muss, dann benötigt man keine großen Puffer mehr. Wir sprechen hier von einer, im besten Fall, 1/10 Reduktion des VRAM Bedarfs. Damit wären selbst mit 10 GB VRAM 8K Texturen gar kein Problem.
Wie kommst du denn darauf, dass ich mich mit der Materie nicht befasst habe?

Erklär mir doch mal, warum haben den manche Leute das Gefühl, dass die Bildqualität (wir nutzen mal diesen generischen Begriff) bei der nutzung von DLSS 2.x sogar besser ist als nativ? Hast du da eine Idee woher das kommt?
Wie ich darauf komme? Du ignorierst dass DLSS die aktuell beste Anti-Aliasing Technik ist und nicht mal Performance kostet sondern bringt!

Die Antwort auf Deine zweite Frage ist damit auch beantwortet: 4K nativ < DLSS 2.0 da hier automatisch die aktuell beste Kantenglättung mitgeliefert wird. Dünne Objekte (Zäune, Riesenrad Speichen, weit entfernte Schrift etc) flimmern mit DLSS kaum im Vergleich zur nativen Auflösung. Lies doch bitte erst mal etwas dazu bevor Du solche Fragen stellst...
 
Zuletzt bearbeitet von einem Moderator:
Wie kommst du denn darauf, dass ich mich mit der Materie nicht befasst habe?

Erklär mir doch mal, warum haben den manche Leute das Gefühl, dass die Bildqualität (wir nutzen mal diesen generischen Begriff) bei der nutzung von DLSS 2.x sogar besser ist als nativ? Hast du da eine Idee woher das kommt?
@ raPid-81
Hast du eine Antwort darauf?
 
RX 580/90 vs. 1060, V56 vs. 1070, V64 vs. 1080, VII vs. 1080Ti, 5700 vs. 2060, 5700XT vs. 2070.
580 oder 90 und die Vegas waren aber gar nicht günstiger, von der Radeon VII gegen 1080Ti ganz zu schweigen.
Immer dann wann AMD unterlegen ist, müssen sie die Grafikkarten günstiger machen.
5700XT ist heute lahm gegenüber ner 2070 dank DLSS.
 
Ich muss selbst als Nvidiaskeptiker sagen, das Ich den Versuch eine ordendlichen Miningbremse einzubauen,sehr hoch anrechne. Ob Sie Das nur tun, um Ihre Miningkarten besser zu verhöckern oder weil Nvidia Uns Gamer ja doch ganz toll lieb hat-Ist Mir Wurscht!
Eigendlich kann mir der ganze Kram wurscht sein, weil zur Zeit selbst Mittelklasse-Grakas so viel kosten, wie Ich für nen ganzen Rechner nicht ausgeben würde!
Gruß Yojinbo, Der mit der 5700/8GB bestimmt noch 3-5 Jährchen klarkommt!
 
Die Liste der Engines die RT und DLSS nativ unterstützen ist bereits lang und wird immer länger. Hier noch mal die bekanntesten:

UE4 (und UE5 wird da keinen Rückschritt machen)
Unity
ID Tech Engine
CryEngine hat es auch auf der Roadmap
Anvil
Frostbite
IW Engine
RED Engine
Source Engine

Somit wird die Verbreitung immer schneller vorangehen.
Und immer wieder die gleiche Liste ... :banane:

MfG Föhn.
 
580 oder 90 und die Vegas waren aber gar nicht günstiger, von der Radeon VII gegen 1080Ti ganz zu schweigen.
Immer dann wann AMD unterlegen ist, müssen sie die Grafikkarten günstiger machen.
5700XT ist heute lahm gegenüber ner 2070 dank DLSS.
Natürlich waren sie das !!
Die 580 mit 8 GB hat zum Schluss 149 € gekostet und die 590 185 €. Da waren die 1060 bei 239 €.
Bei Release ganz zu schweigen 249 die 580 und 319 die die 1060.


Die 1080 Ti zu Release 819 € (Customs bis 999 €) und die VII 729 €.

Und die 2070 ist auch nur schneller mit DLSS in Spielen jene dies auch unterstützen.
Großes Tennis ... :rollen:

MfG Föhn.
 
Welche Spiele von sehr kleinen Entwicklern sind denn VRAM Fresser? Ich hatte da eigentlich immer nur Spiele von großen Studios im Hinterkopf.
Serious Sam 4 meine ich kam vom kleinen Entwickler. Hatte auch malandere die mir aber gerade partout nicht einfallen wollen :/
Die meisten die mir direkt einfallen sind fast immer CPU Fresser.
Wo reicht er denn nicht? Welches Spiel, welche Settings?
Ich finde leider den Thread nicht mehr wo einige mal den VRAM Bedarf verglichen hatten. Da waren einige Titel mit Settings dabei.
Wenn ich den gefunden habe verlinke ich den.
Die Liste der Engines die RT und DLSS nativ unterstützen ist bereits lang und wird immer länger. Hier noch mal die bekanntesten:

UE4 (und UE5 wird da keinen Rückschritt machen)
Unity
ID Tech Engine
CryEngine hat es auch auf der Roadmap
Anvil
Frostbite
IW Engine
RED Engine
Source Engine

Somit wird die Verbreitung immer schneller vorangehen.
Also Pro_Painkiller konnte das mit dem Marketingsprech irgendwie besser. War auch wesentlich unterhaltsamer.
Was meinst Du mit "Ressourcen dann mittelfristig anderweitig genutzt werden"? Wenn das Streaming schnell genug läuft so dass man nur 1 Sekunde Gameplay im VRAM haben muss, dann benötigt man keine großen Puffer mehr. Wir sprechen hier von einer, im besten Fall, 1/10 Reduktion des VRAM Bedarfs. Damit wären selbst mit 10 GB VRAM 8K Texturen gar kein Problem.
Ganz einfach. Du hast nur ein 1/10 des VRAM Bedarfs? Dann füllen wir den halt mit deutlich besseren/mehr Texturen. Alleine wenn ich mir Anschaue wie bei den Spielen viele Texturen von näherem aussehen, haben wir da sehr viel potential.
Aber ehrlich gesagt habe ich lieber mehr VRAM Bedarf als ein extremes streaming. Wenn ich sehe wie spät einige Entwickler höher aufgelöste Texturen einladen wenn du näher an das Objekt kommst, graut es mich von extremeren Maßnahmen ;)
 
9-10 GB belegt heißt erst mal gar nichts (ist eher positiv) und wird oft einfach genommen obwohl der Speicher nicht gebraucht wird.
Hast du ein Beispiel für ein Spiel bei dem die VRAM Größe deiner Karte bei spielbaren FPS limitiert?
Ich weiß gar nicht genau ob ich jetzt auf den Seiten hieb eingehen soll... Damit du es versuchst zu wiederlegen.
Ich finde es Sinvoll, nein nötig das Texturen und Objekte auch aus den Randbereichen schon in der ferne geladen werden statt erst bei Nährung zu erscheinen. geschweige denn im Fokus. Das hat klar, auch was mit der Engine zu tun, unbestritten. Nur diese stellen sich nunmal Heute auf den verfügbaren Speicher ein.

Ich lasse mich aber jetzt weder auf einen Glaubenskrieg ein noch kam ich nicht ohnhin zu bemerken das du scheinbar überlesen hast das ich sage das Aktuell 8-12 wohl sicher noch "reichen"

Ich spiele fast ausschließlich open-worlds und da kann nach einigen Stunden ohne neuladen schon mal ziemlich viel im speicher sein. Die altbekannten titel brauche ich jetzt sicher nicht erwähnen.
 
Serious Sam 4 meine ich kam vom kleinen Entwickler. Hatte auch malandere die mir aber gerade partout nicht einfallen wollen :/
Die meisten die mir direkt einfallen sind fast immer CPU Fresser.
Soso, Dir fällt plötzlich nichts ein, ist aber trotzdem so. Kennst Du den Spruch "pics or it didn't happen"?
Die Serious Engine 4 ist von 2014. Also mehr als outdated.
Ich finde leider den Thread nicht mehr wo einige mal den VRAM Bedarf verglichen hatten. Da waren einige Titel mit Settings dabei.
Wenn ich den gefunden habe verlinke ich den.
Dasselbe wie oben, ich bin gespannt ob da noch was kommt.
Also Pro_Painkiller konnte das mit dem Marketingsprech irgendwie besser. War auch wesentlich unterhaltsamer.
Marketingsprech, aha. Die Liste habe ich mir selbst zusammen gesucht, die findet man so nicht auf der NV Page. Trotzdem sind es Fakten, alle genannten Engines haben RT / DLSS bereits nativ dabei oder auf der Roadmap.
Ganz einfach. Du hast nur ein 1/10 des VRAM Bedarfs? Dann füllen wir den halt mit deutlich besseren/mehr Texturen. Alleine wenn ich mir Anschaue wie bei den Spielen viele Texturen von näherem aussehen, haben wir da sehr viel potential.
Aber ehrlich gesagt habe ich lieber mehr VRAM Bedarf als ein extremes streaming. Wenn ich sehe wie spät einige Entwickler höher aufgelöste Texturen einladen wenn du näher an das Objekt kommst, graut es mich von extremeren Maßnahmen ;)
Deutlich bessere / mehr Texturen? Ok, also wenn Texturen mies aussehen, dann liegt das erstmal nicht nur an der Auflösung der Textur. Die kann auch in 8K mies aussehen wenn der Grafiker keinen Bock hatte.

Mehr Texturen? Klar, geht immer, aber mit Sampler Feedback Streaming, Mesh Shading und DirectStorage ist das vollkommen EGAL da nur die NÖTIGEN Texturen on-time geladen werden. Am Ende kommt immer ein Bild raus mit der gleichen Anzahl an Pixeln. Aktuell werden deutlich mehr Texturen geladen als nötig da das Streaming nicht schnell genug ist / die Prediction was geladen sein muss nicht genau genug ist. Das wird sich in Zukunft ändern.
Ich weiß gar nicht genau ob ich jetzt auf den Seiten hieb eingehen soll... Damit du es versuchst zu wiederlegen.
Ich finde es Sinvoll, nein nötig das Texturen und Objekte auch aus den Randbereichen schon in der ferne geladen werden statt erst bei Nährung zu erscheinen. geschweige denn im Fokus. Das hat klar, auch was mit der Engine zu tun, unbestritten. Nur diese stellen sich nunmal Heute auf den verfügbaren Speicher ein.
Siehe oben, aktuelle Engines Streamen noch nicht schnell genug. Die PS5 und XSX sind aber genau darauf ausgelegt, schnelles Streaming durch direkte VRAM - NVME Storage Anbindung, Verringerung der Texturen die Vorgehalten werden müssen und eine bessere Voraussage welche Texturen "gleich" benötigt werden.
Essentially the SSD significantly reduces latency between data delivery and memory itself. The result sees RAM only holding assets and data for the next 1 second of gameplay. The PS4's 8GB of GDDR5 memory held assets for the next 30 seconds of gameplay.
 
Zurück