Geforce RTX 3060 mit 12 GiB vorgestellt: Mehr Speicher als RTX 3080 wohl wegen Interface

So langsam scheint Nvidia das Portfolio für Spieler in Angriff zu nehmen. Nachdem Topmodell 3090 mit 24GB jetzt also die kleinste, die 3060 mit 12GB. Die anderen dazwischen mit 16GB (3070(Ti)) und 20GB (3080(Ti)) werden folgen. Dauert halt noch ein bisschen. Schließlich müssen die vornehmlich für die Miner konzipierten 3070 und 3080 mit dem knapp bemessenen Speicher und der hohen Gewinnmarge zuerst bedient werden. Das kann man als Unternehmen natürlich nicht offiziell vermarkten, ist aber die Realität!
 
Klingt super die Karte. Hoffentlich entspannen sich die Preise bald, dann ist es eine super Preis-Leistungskarte.
Denke vor allem für Streamer super, die nicht so aufwendige Games zocken und gerne NVENC und RTX Broadcast nutzen wollen. Da gibt es bisher nichts um die 300 Euro mit mehr als 6GB Ram.
 
@Fafafin: Dem bisherigen Vernehmen nach wird das noch nicht die kleinste raytacingfähige GPU im nVidia-Portfolio sein. Angeblich soll es noch eine RTX 3050 (optional mit Zusatz?) geben.

Dein Blick auf die "Realität" ist da etwas zu einfach gestrickt. nVidia musste mit der Fertigung des GA102 beginnen, weil der auch für die professionellen Karten benötigt wird; da führte kein Weg dran vorbei.
Und entgegen dem vielfach unsinnigerweise unterstellten "doppelt abkassieren" (und ähnlich lautenden "Sprüchen") bzgl. der Launch-Strategie dürfte auch hier die Realität wohl anders ausgesehen haben. Einerseits dürfte es zu einem wesentlichen Teil darum gegangen sein zu sehen/abzuwarten was die Konkurrenz bieten wird und weiterhin dürften die Micron-OC-BGAs sicherlich nur in begrenzter Stückzahl verfügbar sein, sodass eine 3080 Ti mit 20 GiB als deutlich volumenträchtigeres Produkt (i. V. z. 3090) hier weitaus schneller zu eine Knappheit geführt hätte. Letzten Endes war das ein strategisch sinnvolles und wohldurchdachtes Vorgehen und wenn man sich die Verbreitungszahlen der RTX 3080 auf Steam ansieht, scheinen die allen Unkenrufen zum Trotz dennoch in relativ hoher Stückzahl verkauft zu werden.
 
Zuletzt bearbeitet:
Aber wie schon gesagt wurde, Spiele-Entwickler können Pascal (und Volta) auch aussperren. Vollbild-Raytracing und Pascal passen einfach nicht zusammen, gut erkennbar an der Performance in Control (OMG) und Quake 2 RTX (OMFG). ;)

Quake 2 wurde durchaus in 320x240 gespielt, jedenfalls wenn man keine Voodookarte hatte.

Von daher passt da doch ganz gut.
Man kann auch einfach nicht so faul sein und das Speicherinterface anpassen, aber darauf hat Nvidia keinen Bock.
Das hat überhaupt nichts mit den Größen der Speicherchips zu tun.
Bei der GTX 970 ist ihnen das um die Ohren geflogen und die GTX 6600(Ti) hatten auch einen ordentlichen Leistungsverlust, wenn man nicht gerade die 3GB Version genommen hat. Von daher bleibt zu hoffen, dass sich in der Richtung nichtmehr kreativ werden.
 
Ich hoffe nVidia veröffentlicht noch mehr Karten, die keine Sau kaufen kann (also außer die Bot Besitzer, Twitter Bot Nutzer und F5 Hobbydrücker). Das würde mich sehr glücklich machen.
 
Das wird in Zukunft wohl noch gestörter werden, wenn nicht bei den DRAMs endlich Zwischengrößen eingeführt werden.
Die Größen-Abstufungen gehen ja immer weiter auseinander!

Warum sollten sie auseinandergehen?

Dazu müßte man die Abstände zwischen den Speicherchips vergrößern. Z.B. die 2GB Chips verbieten und gleich auf 8GB gehen (wird keiner machen).

Sowas gab es schon immer. Mit der 8800GTX/GTS 640, GTX 470/480 und HD 7900 gab es schon einige Karten, die deshalb üppig bestückt waren.

Nvidia hat ja, mit der GTX 660(Ti) und der GTX 970 in diese Richtung experimentiert, zum Glück ist ihnen das mit der GTX 970 um die Ohren geflogen.
Ich hoffe nVidia veröffentlicht noch mehr Karten, die keine Sau kaufen kann (also außer die Bot Besitzer, Twitter Bot Nutzer und F5 Hobbydrücker). Das würde mich sehr glücklich machen.
Ich glaube, du wirst einer der glücklichsten Menschen überhaupt sein...
 
Man kann auch einfach nicht so faul sein und das Speicherinterface anpassen, aber darauf hat Nvidia keinen Bock.
Das hat überhaupt nichts mit den Größen der Speicherchips zu tun.
Natürlich hat es damit etwas zu tun!
Natürlich hat es nichts damit zu tun!
Doch, das kann man sich auch ganz einfach ausrechen, ist reine Mathematik!
Die Frage lautet, was soll das Speicherinterface anpassen heißen.
Wenn Krabonq damit meint den gleichen Chip mit 50% breiterem Interface neu auflegen, ja klar, dann reicht eine Anpassung des Speicherinterfaces.

Abseits dessen kann man auch mit einem 256bit-Interface und ohne Zwischengrößen, sondern nur 1 und 2GiB-Chips, z.B. eine 12GiB-Karte bauen. Dafür setzt man dann halt vier 1GiB und vier 2GiB-Chips ein, hat aber einen Bandbreitenverlust zu beklagen, wenn die letzten 4GiB auch wirklich genutzt würden.

Der wichtige Part ist: Zwischengrößen würden für mehr Flexibilität sorgen.
 
Ich glaube nicht, dass es das ist, was er ursprünglich mit Zwischengrößen gemeint hat, sondern eher Speicherchips mit 1,333 bzw. 2,667GB. Damit könnte man dann auch mit einem 192 oder 384 Bit Interfache Karten herstellen, die 8, 16 oder 32GB haben.
Hälfte mehr/ Viertel weniger klingt für mich deutlich komfortabler als Drittel mehr/ Drittel weniger. (boah, was tun diese allgemeinen Bezeichnungen weh)
 
Ich habe meine 3080 jedoch trotzdem wieder zurückgeschickt. Sie war die teuerste Grafikkarte, die ich mir privat je angeschafft habe und das schlechte Gewissen war deswegen ohnehin schon recht groß. Der geringe Speicherausbau hat mir nach ein paar Tagen obendrauf noch ein so schlechtes Bauchgefühl verpasst, dass es mir geradezu unmöglich wurde, den Kauf irgendwie zu genießen.

Nun Ruckel ich mich eben doch wieder mit meiner 1070 durch die Covid19-Zeit.
Ein noch schlechteres Gewissen sollten die armen Leutz haben die sich im Oktober 20 noch ne 2080ti mit 11GB gekauft haben, das hier ist jammern auf höchstem Niveu... Na ja dann kannste ja jetzt wieder ruhig schlafen... omg
 
Ist halt so ein Problem mit der Speciheranbindung.
Sie könnten auch ein breiteres Interface einbauen (mehr Chipfläche) und dann niedriger Takten.

Preis ist halt allgemein bei den Karten wirklich übel. Die 970 hatte einen ähnlichen Preis wie jetzt die 3060 haben soll. Midrange und Budget sind quasi tot. ( Auch GN hat erst letzte Woche die 970 nochmal angeschaut - die 3.5GB werden knapp - nachdem man schon auf 30 FPS unten ist. 4K max Settings wird zur Diashow. Darunter läuft sie noch gut.)
 
Für 300€+ wäre es nen Kracher ohne Frage ist nur die Frage bleibt es bei dem Preis und was bringt AMD jetzt raus,

ne MIttelklasse Karte mit 8GB wird es wohl nicht werden da NV ja jetzt erst mal nen guten Start in der Mittelklasse hinlegt :-)

Wird Lustig die wird denke ich mal großteils für FH-HD herhalten müssen und das mit 12 GB :-)
 
Zurück