Nvidia Ampere: Gerüchte um 20 und 24 GiByte Speicher

Ziemlich schräg, diese Modell- und Optionsflut. So was wie eine 3070 mit 12 und eine 3080 mit 16 GB hätte irgendwie gepasst und die 3080 hätte ich dann auch ernsthaft für meinen neuen Rechner erwogen. Stattdessen soll man jetzt zwischen 8 und 16 bzw. zwischen 10 und 20 GB wählen können? Dabei sind 8 und 10 zu wenig und mindestens die 20 völliger Overkill - insgesamt ziemlich albern. Vor allem werden 3080-Interessenten auf diese Art und Weise gezwungen, für die nicht-beschnittene Version unnötig viel Geld für Speicher auszugeben, den sie in diesem Überfluss überhaupt nicht haben wollten.

Ich hätte mir für eine 3080 ein Limit von 800 bis 900 Euro gesetzt, aber die 20 GB-Version wird sicher bei 1000+ Euro liegen und läppische 10 GB gehen gar nicht.

Naja, dann vielleicht doch Big Navi. Da sieht's ja im Moment eher nach einem - vergleichsweise - bezahlbaren 16-GB-Konkurrenzmodell aus ...

Sehe ich genauso, 10 GB sind für ne 3080 zu wenig, 14-16 GB sollte es sein und 12Gb für die 3070. Was die mit der Titan machen, das juckt eh keine sau, das Teil wird 15% schneller als ne 3080 Ti für 2000€+.
Ich denke Big Navi wird für alle rationalen Enthusiasten die erste Wahl, die wird irgendwo bei 3080 liegen und preislich drunter, wer sich jetzt schonmal die Lederjacke anzieht, für den gibt es natürlich nur 3080Ti für irgendwo bei 1400€.
 
AMd bringt seinen Big Hammer mit 16GB aber dafür für 750 Euro und schneller als die 3080!


Nur das die Gerüchte sagen das Big Navi sich wahrscheinlich mit der 3070 rumschlagen darf.
Den die soll ja diesmal schon schneller sein als die 2080ti und bei AMD wird geschätzt im best case 15% schneller als
eine 2080ti im Worst Case sogar langsamer.
 
Wie kommst du auf so einen Quatsch?
Die 3080 kommt mit 10 und 20 GiB.
Satire bitte immer Kennzeichnen.

Ne jetzt mal ohne Scheiß, warum sollte Nvidia sowas bringen:

RTX3070 8GB
RTX3080 10GB
RTX3070 16GB (WTF?)
RTX3080 20GB

Sorry das macht NULL Sinn.
Warum sollen die ein Mittelklasse-Modell gegen ein Oberklasse-Modell ausspielen?
Und warum so stark abweichende Speicherbestückungen? Aus welchem Grund?

Wahrscheinlich sind die Daten alle zusammengewürfelter Bullshit, den Nvidia gestreut hat um Lecks zu finden.
Die ganzen Leaks machen keinen Sinn.
 
Warum sollen die ein Mittelklasse-Modell gegen ein Oberklasse-Modell ausspielen?
Das hat in der Tat wenig Sinn, es gabs aber schon mal dass eine langsamere GPU mit mehr Speicher kaufbar war als die höhere GPU (man könnte jetzt böse sein und sagen 4GB-GTX960 gegen 3,5GB-GTX970). Ich denke auch nicht dass das kommt.

Und warum so stark abweichende Speicherbestückungen? Aus welchem Grund?
Es gab eine Zeit, wo eine solche Auswahl völlig normal war als man noch um Kundschaft kämpfen musste. Eine GTX580 beispielsweise gabs auch mit 1,5 oder 3GB - je nach Geldbeutel. "Doppelter-Speicher-Modelle" von Grafikkarten für entsprechend mehr Schotter waren früher üblich... bevor man gemerkt hat dass es viel lukrativer ist Boardpartnern zu verbieten mehr SPeicher draufzulöten und selbst ne "Titan"-Klasse einzuführen...
 
Nur das die Gerüchte sagen das Big Navi sich wahrscheinlich mit der 3070 rumschlagen darf.
Den die soll ja diesmal schon schneller sein als die 2080ti und bei AMD wird geschätzt im best case 15% schneller als
eine 2080ti im Worst Case sogar langsamer.

Ja, macht Sinn, doppelte Anzahl Shader gegenüber der 5700XT, höhere IPC, höhere Effizienz bis ca 50% und höherer Takt (7nm+) bis ca. 2,2 Ghz boost und ca. 16 GB VRAM...
Ja, hast Recht, wird bestimmt nur bei 3070 rumdümpeln, vielleicht auch nur 2060Ti.
 
Für was sollte man so viel VRam brauchen? In der Graka Generation wird sich 8K Gaming kaum durchsetzen...dafür wären die Karten auch viel zu langsam. Machen die das nur um die Preise nochmal zu erhöhen?
 
Pack 200-300€ drauf und dann evtl irgendwann.
Ich würde aber schätzen eine RTX3090Ti (neustes begehrtestes Flaggschiff) wird locker 1500-1700€ kosten.
Jeder will das Ding in der Signatur stehen haben. Nvidia schreibt auf, der Kunde zahlt. :ugly:

Für 1200€ bekommste mit viel Glück ne 3080Ti mit 16GB oder wie die das Ding dann nennen wollen.

Ich befürchte auch. Ich tippe sogar auf 2000-2500€ für die 48GB 3090Ti-Variante und 1500-1700€ für 3080Ti bzw. 3090(ohne Ti)... wenn's denn so kommt.
Einziger Trost. Nach diesen Karten kann technologisch mit Single-GPU-Lösungen nicht mehr viel kommen, sodaß deren Einsatzdauer evtl. den Preis wieder reinholen wird, wenn die Karten nicht an Überzüchtung sterben.
 
Für was sollte man so viel VRam brauchen? In der Graka Generation wird sich 8K Gaming kaum durchsetzen...dafür wären die Karten auch viel zu langsam. Machen die das nur um die Preise nochmal zu erhöhen?
Anders geht halt mit dem SI nicht. Und mit Ultra4K-Texturen und RT kann es durchaus sein, das man in UHD mehr als 16 GiB benötigt.

Ich befürchte auch. Ich tippe sogar auf 2000-2500€ für die 48GB 3090Ti-Variante
Die heißt Titan und wird locker 3000-5000€ kosten.
 
Für was sollte man so viel VRam brauchen? In der Graka Generation wird sich 8K Gaming kaum durchsetzen...dafür wären die Karten auch viel zu langsam. Machen die das nur um die Preise nochmal zu erhöhen?

Nicht mal 4K hat sich bisher in der Masse etabliert, sondern wird jetzt erst Dank der Konsolen langsam kommen. Gut, für 250 Tacken bekommt man schon einen angeblichen UHD-Fernseher mittlerweile hinterhergeschmissen aber das liegen qualitativ auch Welten zwischen einem 2500€ UHD TV. Mir persönlich stößt es sauer auf, dass Sony und MS jetzt schon von 8K quatschen. 4K hat so gesehen auch zwei Konsolengenerationen gebraucht um es in der breiten Masse zu etablieren. Von 60+ FPS ganz zu schweigen. Von 8K im Mainstream sind wir mindestens noch einmal genauso weit entfernt. Frühstens in 10-15 Jahren würde ich da irgendwas bezahlbares und qualitativ vernünftiges erwarten. Bis dahin wurde in Deutschland bestimmt auch FHD bei den öffentlich-rechtlichen Sendern eingeführt :ugly:
 
Satire bitte immer Kennzeichnen.
Ne jetzt mal ohne Scheiß, warum sollte Nvidia sowas bringen:
[...]
Sorry das macht NULL Sinn. [...]

In deiner Welt macht das offensichtlich keinen Sinn, nur ist deine Weltsicht für nVidia nicht relevant (übrigens ebensowenig wie deine Preisvorstellungen ;-)).
Noch mal ... zum Dritten oder Vierten ... die in der Tabelle ausgewiesenen Platinen sind bestätigt. Konkret sagte Igor, dass er die Tabelle von Usman erhalten hat und anstatt sie dann einfach zu verwerten, hat er zuerst Rücksprache mit einem seiner Kontakte bei den Boardpartnern gehalten und sich diese Angaben dort bestätigen lassen. 24 und 20 GiB kommen und auch die 16 GiB-Platine existiert, nur der Termin für dieses Modell ist noch unbekannt, da das offensichtlich erst als Antwort auf AMDs Release gedacht ist.
Es ändert sich nichts daran, auch wenn du noch ein weiteres Dutzend Posts hinterlässt, in denen du das für sinnbefreit erklärst. ;-)

> "Warum sollen die ein Mittelklasse-Modell gegen ein Oberklasse-Modell ausspielen?"
Da wird nichts ausgespielt, die vermeintliche 3070 bleibt eine 3070, ob die nun 8 GiB oder 16 GiB hat, die wird dadurch nicht schneller, wie oft denn noch? Bestenfalls dreht man da an 100 MHz mehr Boost Takt, aber das wird es dann schon gewesen sein. Das nennt sich schlicht Produktdiversifikation.
nVidia wird seine Karten schon untereinander sauber absetzen, leistungs- wie auch preistechnisch, da mach dir mal keine Sorgen.
Die vermeintliche 3070 mit 16 GiB wird dazu da sein, ein etwaiges kleineres 12 GiB-Modell von AMD in Schach zu halten, auch relativ absehbar und falls es immer noch nicht angekommen ist ... da der Chip ein 256 Bit-Speicherinterface hat, bleiben nur die beiden sinnvollen Kombinationen mit 8 oder 16 GiB VRAM. Mit letzterer Variante hat nVidia zudem den Vorteil, dass sie durchaus ihre Karte preislich höher ansetzen können, denn sie können immer noch in die Waagschale werfen, dass ihre Karte 4 GiB mehr VRAM hat.

> "Und warum so stark abweichende Speicherbestückungen? Aus welchem Grund?"
Auch das hat man dir schon x-fach erklärt. Das ist schlicht ein direktes Resultat der vorgesehene Interfacebreiten sowie der benötigten, minimalen Speicherbandbreiten. Da ist nichts mystisches dran, eher im Gegenteil, geradlinig und leicht nachvollziehbar.

Ich befürchte auch. Ich tippe sogar auf 2000-2500€ für die 48GB 3090Ti-Variante und 1500-1700€ für 3080Ti bzw. 3090(ohne Ti)... wenn's denn so kommt.
Einziger Trost. Nach diesen Karten kann technologisch mit Single-GPU-Lösungen nicht mehr viel kommen, sodaß deren Einsatzdauer evtl. den Preis wieder reinholen wird, wenn die Karten nicht an Überzüchtung sterben.

Ich glaube nicht, dass nVidia sein Titan-Brand aufgeben wird, schlicht weil die außerhalb des regulären Consumer-Portfolios aufgehängt ist. Die Karte schließt die Lücke zwischen dem oberen Consumer-Segment und dem professionellen HighEnd-Segment und richtet sich eher an semiprofessionelle Nutzer.
Bei der Titan RTX konnte man zumindest zur überschaubaren Mehrleistung noch die 24 GiB ggü. den 11 GiB der RTX 2080 Ti in die Waagschale werfen. Die nun voraussichtlich kommenden 48 GiB sind für Gamer jedoch vollkommen irrelevant und da greift dann doch mal deady1000's "völliger Overkill" und wenn die Karte als Vollausbau (?) dann ebenfalls nur geringfügig schneller ist als das größte Consumer-Modell, wird die kommende Titan für Gamer uninteressanter sein, als jede vorherige Titan.
Darüber hinaus, warum sollte die Karte gar günstiger werden als ihr aktuelles Modell. nVidia fordert aktuell 2749 € für die Titan RTX. Die neue Titan Ampere wird wird ein gutes Stück leistungsfähiger sein, bestätigt bspw. schon bei den Tensor Cores, die beträchtlich zulegen (auch bereits ohne Sparsity Feature) und da gibt es nicht wirklich einen Grund für einen niedrigeren Preis, zumal AMD der voraussichtlich nichts entgegenzustellen hat.

Btw, "Single-GPU" ist eine Definitionsfrage und ein in diesem Fall ein kaum anwendbarer Begriff. Du meintest MCM-Designs? Und die sind bei allen drei Herstellern in Arbeit, zwangsweise, denn die großen monolithischen Chips werden immer aufwändiger in der Fertigung.

Darüber hinaus denke ich nicht, dass es eine "3090 Ti" geben wird. Ich vermute eher, dass nVidia den Namen "3090" in den Raum gestellt hat, weil sie am oberen Ende von dem "Ti" loskommen wollen, das für ein temporär aufgesetztes Zusatzmodell ggf. praktikabel ist, mittlerweile aber zu einer Standardkarte im Portfolio wurde.
Ich vermute dass es am oberen Ende entweder beim bekannten Schema bleiben wird (weil man die Veränderung scheut), also einer "3080 Ti" oder aber der Name entfällt und man benennt das Modell fortan schlicht "3090".
 
Zuletzt bearbeitet:
Eigentlich habe ich ja gehofft die 3080TI kostet ungefähr das was die 2080TI kostet oder weniger :P aber wenn die neuen Karten wirklich mit soviel RAM kommen wirds wohl ein gutes Stück teurer :(
16GB wären eigentlich ok.
 
Jo das meine ich. Höher aufgelöste Texturen sprich 4K oder höher brauchen mehr Speicher. Keine Ahnung was du hier verzapfts. Für FHD werden 8 GB noch lange reichen. Für wqhd muss man eine Stufe vom ultra gehen. Sich deshalb jetzt über 1000 Euro zu verausgaben. Besonders in corona Zeiten halte ich für ziemlich leichtsinnig. Schlecht konsilenports sind natürlich speicherlastig.

Das bezweifel ich. In Horizon und Modern Warfare habe ich bei Full HD die 8GB fast voll.
 
Also bei MW hatte ich bis jetzt nur max 5,6 Vram belegt mit 4K Texturauflösung.

Das andere Game ist ein Konsolenmord.
 
Eigentlich habe ich ja gehofft die 3080TI kostet ungefähr das was die 2080TI kostet oder weniger :P aber wenn die neuen Karten wirklich mit soviel RAM kommen wirds wohl ein gutes Stück teurer :(
16GB wären eigentlich ok.

Die 3080Ti dürfte knapp unter 2.000€ kosten, etwas unter Titan RTX Niveau. Und die neue Titan dann ab 3.000€ aufwärts.
Nvidia lässt sich diesen V-Ram boost definitiv gut bezahlen, verschenken tun die absolut nichts. Und wie schon bei Apple funktioniert es ja.
 
Klar werden Speicherknauser den VRAM erhöhen obwohl sie nicht müssen. Im Moment waren ja beide Hersteller so großzügig mit VRAM damit die Karten lange benutzbar bleiben. /S
 
Zurück