RTX 3060 mit 12 GiB und RTX 3080 Mobile mit 16 GiB ... - Das sagen die PCGH-Redakteure dazu

Für jedes Problem gibt es auch eine Lösung , oder ? Vielleicht nimmt sich ja irgend einer das Problem vor . ist ja nur ein Gedankenspiel:
Ram - egal ob GDDR oder HBM - muss zwangsläufig so nah wie möglich an der GPU liegen. Das gehst sonst zu Lasten der Latenzen und Bandbreite und kostet somit Leistung. DIMM-Slots auf Grafikkarten machen somit keinen Sinn.
 
wie wäre es mit Grafikkarten, welche RAM Steckplätze hätten, dann könnte jeder soviel RAM einstecken wie er benötigt ?:huh:

Bei heutigen Transferraten und Speicherbreiten unmöglich. Bereits eine 3060 bräuchte drei SO-DIMMs, um diese physisch um die GPU zu verteilen müsste man die Leiterbahnenlänge aber mehr als verdoppeln und bislang hat niemand DDR_-7000 über Steckkontakte erreicht. Vermutlich würde so ein Design bereits bei der Hälfte der im verlöteten Modell erreichten Speichertransferrate instabil und teurer wäre es obendrein auch noch.
 
Der Meinung des Autors Raffael Vötter kann ich nur zustimmen.#
Eine "3070 Ti" ist nicht unwahrscheinlich in ein paar Wochen /Monaten. Nur die TDP wird sicher 250 und nicht 150 Watt betragen. Aber wer das möchte, muss eben den Taktregler oder den Powerlimit Regler ganz nach links schieben im MSI Afterburner. ;)
Bei heutigen Transferraten und Speicherbreiten unmöglich. Bereits eine 3060 bräuchte drei SO-DIMMs, um diese physisch um die GPU zu verteilen müsste man die Leiterbahnenlänge aber mehr als verdoppeln und bislang hat niemand DDR_-7000 über Steckkontakte erreicht. Vermutlich würde so ein Design bereits bei der Hälfte der im verlöteten Modell erreichten Speichertransferrate instabil und teurer wäre es obendrein auch noch.
Schade eigentlich aber die Idee war gut :D
 
Zuletzt bearbeitet:
Der Meinung des Autors Raffael Vötter kann ich nur zustimmen.#
Eine "3070 Ti" ist nicht unwahrscheinlich in ein paar Wochen /Monaten. Nur die TDP wird sicher 250 und nicht 150 Watt betragen. Aber wer das möchte, muss eben den Taktregler oder den Powerlimit Regler ganz nach links schieben im MSI Afterburner. ;)
Sparsamer oder versoffener geht immer. Meine RTX 3090 läuft mittlerweile dauerhaft mit 0,737 Volt und ~1,7 GHz (von den Cyberpunk-Ausflügen abgesehen, da muss die dicke Bertha echt arbeiten). Ich finde einen selektierten GA104-Vollausbau im Pressformat aber technisch einfach Nano-ish lecker. =)

MfG
Raff
 
Sparsamer oder versoffener geht immer. Meine RTX 3090 läuft mittlerweile dauerhaft mit 0,737 Volt und ~1,7 GHz (von den Cyberpunk-Ausflügen abgesehen, da muss die dicke Bertha echt arbeiten). Ich finde einen selektierten GA104-Vollausbau im Pressformat aber technisch einfach Nano-ish lecker. =)

MfG
Raff

Man kann Ampere bei unter 0,750V Untervolten?
Bei meiner alten GTX1080TI Founders Edition war bei 0,750V Schluss im MSI Afterburner und auch bei Turing hatte ich dazu das gleiche gelesen.

1,7Ghz bei solch einer Spannung ist natürlich schon Klasse. Da wird das geliebte Stück Technik ja nicht mal Hand warm ^^
 
daran ist sehr schön zu erkennen das Nvidia durchaus weiß das 10gb vram für ne 4k karte wie die 3080 zuwenig ist.... Aber warum die knete nicht mitnehmen als Großkonzern.... Auch wenn amd hart reingeschissen hat mit dem rx paperlaunch.. Bei AMD kommt wenigstens genug Speicher zum Einsatz... Auch auf kleineren Karten.... Schon traurig wenn man bedenkt das ne rx 580 soviel vram hat wie ne aktuelle 3070..... gg Nvidia... Bin mir sicher ihr habt nur des gamers bestes im Sinn SEINE KOHLE

Für jedes Problem gibt es auch eine Lösung , oder ? Vielleicht nimmt sich ja irgend einer das Problem vor . ist ja nur ein Gedankenspiel:

wird nicht passieren.... Die zusätzlichen Latenzen will auch keiner... ebenso wie die eingeschränkte Bandbreite... Und die Grafikkarten Hersteller, vorallem Nvidia wollen das erst recht nicht.... Was bleibt denn an Gewinnspanne wenn man 14gb gddr6x auf ner 3090 nicht für round about 800euro verkaufen kann denn der Chip ist sicherlich nicht teurer für Nvidia
 
Ich seh schon die ersten Post vorm geistigen Auge hier im Forum die sich über Ruckler wundern nachdem Sie SAM anschalten auf den Speichergurken.
 
Zwischen der 10er Serie und der 20er Serie von Nvidia lagen 28 Monate. Zwischen der 20er und 30er Serie lagen 24 Monate. Der Super-Refresh der 20er Serie kam nach 10 dieser 24 Monate. Die letzten vier Monate der Generation kann man abhaken, da wartet jeder schon gespannt auf die neuen Karten. Die ersten 5 Monate sind ebenfalls schon rum von der 30er Serie. Damit sind 37,5% der Zeit schon weg. Die ersten 20% sind Stand heute rum, die anderen werden Opfer des Hypes um die 40er Serie, sollte diese nach Zeitplan erscheinen. Zeitplan heißt hier Samsung fährt die Produktion hoch und Nvidia hat die Kontingente jetzt schon gebucht, muss also einen Chip haben der hergestellt werden soll.

Das Jahr 2021 ist für die 30er Serie also alles oder nichts. Covid hin oder her, Verzögerungen darf es nicht geben, die Stückzahlen müssen fließen.

Also gehen wir mal strategisch an die Sache als hätten wir Zeitdruck.
Intern hat Nvidia nur den GA102 Chip, das ist das Ding das vom band läuft, egal wie die Gamer das später nennen.

Aus dem Chip werden die 3080, die 3090 und diverse Quadro Karten gemacht.
Die Quadro Karten kommen mit 48GB RAM daher, schwer verfügbar, mit Preisen ab 5000€.
Die 3090 hat 24 GB RAM und ist einigermaßen verfügbar zu überhöhten Preisen.
Die 3080 hat 10GB, besitzt aber 12 RAM Plätze auf der Vorderseite von denen immer nur die 10 Stück belegt sind die funktionieren, der Rest ist also Binning.

Nvidia gibt an die 3090 hat 384Bit Speicherbandbreite und die 3080 hat 320Bit. Wie war das? Bei der 3080 sind nur 10 von 12 Speicherplätzen belegt? Das sind unsere 64 fehlenden Bit zur 3090. Konkret gesagt, wird bei der 3080 der Speicher einfach gebucht, bei der 3090 doppelt und bei den Quadros vierfach. Die Quadro ist selten eine Echtzeitkarte, da ist es auch wichtiger genug Speicher zu haben, auch wenn der im Extremfall etwas die Leistung runterzieht. Bei der 3090 haben wir auf dem Papier einen Vorteil bei den Cuda Cores von 20%. Die PCGH bescheinigt der 3090 aber nur einen 12% Vorteil. Jetzt lässt sich trefflich streiten, ob die restlichen 8% wirklich in der Speicherbandbreite hängen bleiben. Dazu müsste man schon noch einmal sehr genau mit testen, am besten mit fixierten Taktraten auf beiden Karten und Anwendungen mit denen man die 3090 dazu zwingen könnte nur auf 10GB zuzugreifen die auf fünf Kanäle verteilt sind und nicht auf 10. Solange wir das nicht messen macht es keinen Sinn zu unterstellen, dass die Spiecherbandbreite so wichtig wäre. Effektiv wissen wir nicht, wie wichtig sie ist, aber nachdem was die 2090 macht und kann, scheint es ja so dramatisch nicht zu sein. Seit Vega mit HBM wissen wir ja, viel hilft nicht immer viel. Daher hat die PS5 nicht HBM, sondern lieber strategisch Cache auf dem Chip.

Aktuell stellt sich eh nur die Frage warum Nvidia aus den guten GA102 Chips, die sich wahlweise für 2000€ und 5000€ verkaufen billige 700€ Karten fertigen sollte. Entsprechend sieht die Verfügbarkeit aus. Das steht im Kontrast zur 3070 und 3060 die aus dem GA104 gefertigt werden und definitiv besser, wenn auch nicht gut, verfügbar sind.

Eine 3080 mit 20GB würde das Binning 10 von 12 möglichen RAM Plätzen des Speicherinterfaces beibehalten. Die Karte würde dann pro Interface doppelt belegt wie die 3090.

Alternativ könnte man aber tiefer im Ramschregal des GA102 wühlen und Chips benutzen bei denen nur 8 von 12 Kanälen gehen. Das wäre dann die 3080 16GB. Was wir jetzt sehen mit dem Mobile Chip ist dieser Umstieg des Marketings auf die Position, dass eine 3080 am besten 16GB haben sollte. Kein Wunder, dass wir gleichzeitig von der 3080 mit 20GB hören, dass die wieder auf Tauchstation geht.

Ein drittes Weihnachten wird die 30er Serie nicht sehen und schon das erste Weihnachten war alles andere als ideal. Groß wählerisch kann Nvidia nicht sein. Denn in dem Moment an dem AMD weniger von seiner TSMC Produktion für Playstation und Xbox braucht, könnte es ein Gemetzel geben. Denn so ein Ryzen 5600 oder 5800 existiert nicht in einem Vakuum, der braucht GPUs auf dem Markt. AMD wird nicht zulassen, dass sich die Ryzens bei ihnen stapeln und den Markt werden sich auch nicht überfluten, solange GPUs so stark gefragt sind.
 
...und die 10GB Vram werden den Verbrauch massiv nach oben treiben.
Die Konsolen haben nicht 10GB Vram.
Kann Sie eben nicht. Nachts brauch das Game massiv mehr Vram.
Das ist Unsinn, ich habe in Watch Dogs Legion erst in 5120*2160 (30% mehr Pixel als 4K), RT und UHD Texturen stellenweise Vram Mangel festgestellt.
Die aktuellen Karten reichen locker für UHD, die meisten Panels stemmen da ja sowieso "nur" 60Hz.
Nö, reichen nicht in entsprechend anspruchsvollen Spielen.

Alles 1440P, Ultra Settings mit RT (ohne Nvidia DLSS!).
Beide Karten übertaktet.

Battlefield 5 (RTX 3080 88 FPS avg - RX 6800XT 77 FPS avg):
1610846725232.png


Call of Duty Black Ops Cold War (RTX 3080 67 FPS avg - RX 6800XT 45 FPS avg):
1610846731291.png


Control (RTX 3080 87 FPS avg - RX 6800XT 54 FPS avg):
1610846737998.png


Metro Exodus (RTX 3080 83 FPS avg - RX 6800XT 65 FPS avg):
1610846745058.png


SOTR (RTX 3080 76 FPS avg - RX 6800XT 60 FPS avg):
1610846750853.png



Watch Dogs Legion (RTX 3080 54 FPS avg - RX 6800XT 37 FPS avg):
1610846757951.png


Siehe:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Auf Nvidia Seite reicht es mit DLSS oft für 4K, aber auf AMD Seite ist man hier selbst von 1440P/60 FPS mit RT ziemlich weit weg in den meisten Titeln.
 
Zuletzt bearbeitet:
Die Konsolen haben nicht 10GB Vram.

PS5 = 16GB DDR6 Unified Memory
Xbox SX = 16GB DDR6 Split Memory 10GB + 6GB (10GB @ 560 GB/s, 6GB @ 336 GB/s )
In gewisser Weise könnte man schon sagen, dass die Series X effektiv 'nur' 10GB VRAM hat.
Quelle: https://news.xbox.com/en-us/2020/03/16/xbox-series-x-tech/

Das Betriebssystem der Xbox verbraucht 2,5GB (natürlich vom langsamen RAM), dann hat der Entwickler noch 3,5GB für Engine, Audio, etc. bevor es an den 'guten' Texturspeicher geht.

Nur weil Sony ausschließlich gute Speicheranbindung hat, geht ja trotzdem was für Betriebssystems, Spiel, Audio, etc. drauf. Auch hier sind die 16GB nicht 16GB Texturspeicher wie beim PC. Die PS4Pro hatte 1GB DDR3 RAM verbaut, nur für das Betriebssystem, vielleicht hat Sony weiterhin hier einen Vorteil, weil es schlanker ist. Aber dann haben die Spiele trotzdem diese Schallmauer von 10GB - 12 GB. Mehr RAM für Texturspeicher steht nicht zur Verfügung.

Der PC hat es einfacher, das RAM der GPU ist auch wirklich nur für GPU Aufgaben. Das Betriebssystem frisst dir nicht 2,5 GB davon auf. Das Spiel wird in den Arbeitsspeicher geladen. Wo die Xbox Seriex X 10GB + 6GB hat, kommt eine 6800XT Konfiguration auf 16GB (GPU) + 32GB (RAM) in den Systemen der Spieler.


Ein Entwickler der ein Spiel für Xbox, Playstation und PC entwickelt, der schaut sich das an und legt 10GB VRAM Nutzung als Ziel fest. Das ist die Baseline. Vielleicht macht Sony einen Co-Marketing Vertrag und dann schaut man mal, ob man da 1GB für bessere Texturen rausquetscht, die niemand sieht, weil die Youtube Kompression das wieder auffrisst. Vielleicht denkt man gleich an den HD-Remaster, oder bekommt von Lieferanten wie Quixel die höherwertigen Texturen gleich frei Haus, dann haben PCs sofort etwas davon und man hat den Re-Release für die nächsten Konsolenupdates mehr oder weniger schon fertig.

Die Auflösung dürfte dabei zweitrangig sein. Egal ob 4k, 1440p, oder 1080p, wer für 10GB Texturen verschwenden darf wird das hinbekommen. Bei großen 4k TVs auf denen das Spiel gut aussehen muss, wird die Leistung der Konsolen und die Vernunft gebieten, dass wir irgendwo bei 1440p und je nach Raytracing zwischen 30fps und 60fps beheimatet sein werden. Alles keine PC Ultra Settings versteht sich. Dynamische Auflösung, DLSS artike Skalierungsverfahren verwischen die Grenze dann geschickt, so dass das Marketing 4k draufschreiben kann und die Pixel zählt eh nur Digital Foundry nach.

Mit den Rest der Videos hast du natürlich recht und wenn Nvidia daherkommt und das Produkt sein Flagschiff nennt, dann sind 10GB zu wenig, selbst wenn Konsolen effektiv auch nicht mehr haben. Wie auf den Konsolen gilt, kein 4k ohne Tricks und bei wirklichen Grafikbomben sollten wir uns an 1440p gewöhnen die nächsten drei Jahren.
 
Den Spruch höre ich gefühlt schon seit mindestens Maxwell. Wie lange denn noch? ^^
Wenn das so weiter geht, hört man wahrscheinlich 2030 noch immer, das es nicht für 4K reicht. :D
Ich hab mit der GTX280 bereits mit 50% der UHD Auflösung gespielt. Die doppelte Leistung von der gibt es schon ein bisschen länger...
@Topic: Und die 3080Ti wird kommen, das ist so sicher wie das Amen in der Kirche.
 
Warum wird denn hier so wenig auf Art und Anbindung des Speichers eingegangen?

16 GB GDDR6 – schön und gut, aber an einem pro Chip ziemlich schmalen Interface.

Warum ist denn die 3080 in den meisten Titeln in 4K schneller als die AMD-Modelle mit 16 GB Speicher?

Dass die 3080 "nur" 10 GB hat und niedrigere Modelle sogar mehr erklärt sich schlicht dadurch, dass GDDR6X nicht in höheren Kapazitäten pro Chip verfügbar ist.
Und mehr Chips an einem breiteren Interface würden Preis und Verbrauch der 3080 noch ordentlich anheben. Mit mehr aber langsamerem Speicher wäre hingegen die Gesamtleistung der 3080 tatsächlich niedriger!
 
Das Interface muss zum Chip passen. Die Kapazität zum Spiel. Das sind einfach zwei getrennte Themen.
Und dass NV als Technologie um die nötige Bandbreite bei der 3080 zu erreichen GDDRX6 gewählt hat ist deren Problem, nicht das der Endkunden die dann halt unter Umständen wo anders zugreifen.
 
Weshalb es die 3070 mit 8Gb und die 3080 mit 10GB, neben eventuellen Lieferengpässen, so erschienen sind, dürfte wohl nicht zuletzt daher kommen, das man sich über die Leistung von Navi nicht ganz sicher war.
Daher wollte man unbedingt mit einem konkurrenzfähigen Preis auftreten, was bei 16 und 20GB Speicher nicht möglich gewesen wäre und die 3080 wieder in Preisregionen der 2080Ti verortet hätte. (UPE natürlich ;))
 
Zuletzt bearbeitet:
Die RTX 3080 mobile hat mehr VRAM als die Desktop-Variante?
Ja. Nvidia hat das gemacht, um die Käufer teurer 3080 10 GB zu verärgern. Ganz nebenbei is die Laptop Variante mit 16GB natürlich schneller. Logisch. Is ja ne 3080 mit 16GB. Hat ja mehr Speicher. Die Desktop Varianten ruckeln nur so vor sich hin. Das werden die Käufer vor allem dann merken, wenn sie SAM aktivieren, was sie gar nicht brauchen und bisher auch nicht vermisst haben. Dann werden sie schon sehen, was sie davon haben. Und alle 3090 24GB Käufer und Radeon RX Käufer mit 16GB hatten natürlich Recht. Darunter kann man ja mit nichts mehr spielen. 16GB sind schon Minimum Pflicht(besser min. 24GB für die "Zukunftssicherheit" bis zur nächsten Generation), damit nicht alles vor sich hin ruckelt. Man spielt ja in 8K mit Mods. ;) Spätestens in 2-5 Monaten is dann Ende für die 3080 10GB Karten ! Eigentlich kann man die jetzt schon wegwerfen. Geschieht ihnen Recht ! ;)

Und die 3080Ti wird kommen, das ist so sicher wie das Amen in der Kirche.
Ja, schon sehr bald(in 1-2 Monaten). Im Laptop. Die wischen dann mit den Desktopkarten den Boden auf ! ;)
Sind ja 3080 mit mehr Speicher.


Glaub ich brauch ne Pause, von diesem Mecker-PCGH.

Verdirbt mir nur noch die Laune zum Morgenkaffee, so viel Quark auf einem Haufen konzentriert zu lesen. :kaffee:
 
Zurück