Geforce RTX 3080: 20-GiB-Version angeblich nicht als Founders Edition - 150 Dollar Preisaufschlag?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 3080: 20-GiB-Version angeblich nicht als Founders Edition - 150 Dollar Preisaufschlag?

Nvidias Geforce RTX 3080 wird es voraussichtlich auf absehbare Zeit auch in einer 20-GiB-Version geben, zu der es nun neue Details aus der Gerüchteküche gibt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Geforce RTX 3080: 20-GiB-Version angeblich nicht als Founders Edition - 150 Dollar Preisaufschlag?
 
Klingt logisch der Schritt über die Customkarten zu gehen. Sonst müssten die der 3080 FE den selben Kühler verpassen wie der 3090 FE und das würde den Preis deutlich nach oben ziehen.

Die Earlyadopter würden sich beim Kauf der FE zum Release außerdem wirklich verar***t vorkommen, wenn die auf einmal auch mit 20GB gekommen wäre.
Damit umgeht man das Problem einfach und nvidia wäscht die Hände in Unschuld.
 
Zuletzt bearbeitet:
Wenn AMD aber wirklich die 3080 schlagen würde und das auch zu einem traumhaften Preis von 550 €uro, wäre ein Aufpreis von 300 €uro für 4 GB mehr VRam aber schon irgendwie nicht die Sahne auf dem Ei. Vielleicht ein paar "wenn" zuviel in dem Satz, aber zumindest eine angenehme Theorie in der Magengegend ;).
 
150$ Aufschlag für die Speicherverdopplung wäre irgendwo im Bereich des zu erwartenden.
Interessant werden dann aber die Straßenpreise. Die liegen bei den meisten 10GB Custom ja leider jetzt schon im Bereich um 850$/€. Würde mich also nicht sonderlich wundern wenn die 20GB Varianten direkt im vierstelligen Bereich einsteigen.
Und wenn es wirklich stimmt, dass die 3080FE in Europa gar nicht mehr vertrieben werden, beraubt Nvidia den Markt hier natürlich auch ganz klar um ein Gegengewicht das den Preisen der Customversionen ein bißchen Einhalt gebietet.
Ziehen die uns Europäern ordentlich die Kohle aus der Tasche..

Schaun wie AMD sich positioniert und Nvidia-Karten dadurch etwas nach unten korrigiert werden.
Der im Artikel erwähnte Die-Shot von Navi21 ist ansonsten eigentlich großteils als Fake eingeordnet.
Die Ähnlichkeit zum wenige Tage später präsentierten PS5 Chip war aber auch wirklich zu groß, als dass dies als realistisch betrachtet werden könnte.
 

Anhänge

  • PS5_vs_N21.jpg
    PS5_vs_N21.jpg
    206,3 KB · Aufrufe: 84
Man könnte zwar meinen, dass die Kühlörper der Nvidia Partner eine Art "Kostüm" (oder hier Costüm) für die Platine darstellen, aber an sich heißt es immer noch "Custom" :)
Nicht böse oder persönlich gemeint, aber es ist der helle Wahnsinn, was es für viele verschiedene Schreibweisen für dieses Wort gibt :)

BTT: Nvidia hat es sich irgendwie selbst recht schwer gemacht. Auf 10 GiB zu setzen war der Leistung der GPU nach zu wenig. 20 GiB hingegen werden wohl eher niemals komplett ausgereizt werden.
Dafür dann mindestens 850€ zu zahlen, wo es bei der Konkurrenz immer noch ausreichende 16 GiB bei max. 700€ gäbe, rechtfertigt einfach nicht den Aufpreis.

Hoffentlich gibt es nach Erscheinen aller Karten mal einen "Worst-Case" Test, bei dem mal gezeigt wird, wie viel VRAM heute bei max. 4K Auflösungen wirklich benötigt werden.
 
Wenn AMD aber wirklich die 3080 schlagen würde und das auch zu einem traumhaften Preis von 550 €uro, wäre ein Aufpreis von 300 €uro für 4 GB mehr VRam aber schon irgendwie nicht die Sahne auf dem Ei. Vielleicht ein paar "wenn" zuviel in dem Satz, aber zumindest eine angenehme Theorie in der Magengegend ;).
Wovon träumst du eigentlich Nachts :wow:
 
Wenn AMD aber wirklich die 3080 schlagen würde und das auch zu einem traumhaften Preis von 550 €uro, wäre ein Aufpreis von 300 €uro für 4 GB mehr VRam aber schon irgendwie nicht die Sahne auf dem Ei. Vielleicht ein paar "wenn" zuviel in dem Satz, aber zumindest eine angenehme Theorie in der Magengegend ;).
Für 550€ wirst du max. eine RX6800XT bekommen, nix 6900 oder 6900XT
 
Klingt logisch der Schritt über die Costumkarten zu gehen. Sonst müssten die der 3080 FE den selben Kühler verpassen wie der 3090 FE und das würde den Preis deutlich nach oben ziehen.
Was ist denn für dich "deutlich"? Und warum würde der Kühler der 3080 nicht reichen?

Die Earlyadopter würden sich beim Kauf der FE zum Release außerdem wirklich verar***t vorkommen, wenn die auf einmal auch mit 20GB gekommen wäre.
"Auf einmal"? Jedem, der sich mit der Materie befasst, muss klar gewesen sein, dass 10GB aus verschiedenen Gründen vergleichsweise knapp sind. Alle die wissentlich oder unwissentlich trotzdem gekauft haben, haben sich die Schuld selbst zu zuschreiben.
Andereseits hat Nvidia gut verhindert, dass diese "günstige" 10GB groß in Umlauf gebracht wird. Denn...
Damit umgeht man das Problem einfach und nvidia wäscht die Hände in Unschuld.
Vor allem umgeht Nvidia das Problem mit ihrem relativ niedrigem Preis für die 3080FE bzw. der niedrigen Marge. Die 20GB Version kann nun von den Boardpartnern genutzt werden, um die Marge wieder zu steigern.
 
Man könnte zwar meinen, dass die Kühlörper der Nvidia Partner eine Art "Kostüm" (oder hier Costüm) für die Platine darstellen, aber an sich heißt es immer noch "Custom" :)
Nicht böse oder persönlich gemeint, aber es ist der helle Wahnsinn, was es für viele verschiedene Schreibweisen für dieses Wort gibt :)

Ich habe es korrigiert, da es scheinbar störend ist, wenn sich am Smartphone mal ein Tippfehler einschleicht - zu große Hände...

Im Endeffekt kann man jetzt wieder weiter spekulieren, dass nvidia mit einem leistungsfähigen Angebot von AMD gerechnet hat, aber wohl doch nicht so dicht an der 3080/3090 ubd mit einem so großen Speicher dazu.
Aber es dauert ja nicht mehr lange, bis "Big Navi" vorgestellt wird und dann erfahren wir wirklich etwas über den Auf- und Ausbau der Karten, ebenso zum Preis und ich glaube, dass hier jeder gespannt ist, egal ob und welchem Lager sein Herz gehört.
Was ist denn für dich "deutlich"? Und warum würde der Kühler der 3080 nicht reichen?

"Auf einmal"? Jedem, der sich mit der Materie befasst, muss klar gewesen sein, dass 10GB aus verschiedenen Gründen vergleichsweise knapp sind. Alle die wissentlich oder unwissentlich trotzdem gekauft haben, haben sich die Schuld selbst zu zuschreiben.
Andereseits hat Nvidia gut verhindert, dass diese "günstige" 10GB groß in Umlauf gebracht wird. Denn...
Vor allem umgeht Nvidia das Problem mit ihrem relativ niedrigem Preis für die 3080FE bzw. der niedrigen Marge. Die 20GB Version kann nun von den Boardpartnern genutzt werden, um die Marge wieder zu steigern.

Der Kühler würde meiner Meinung nach nicht ausreichen um die Karte dann auch nur Ansatzweise so leise zu kühlen, da der Speicher auf der Rückseite zusätzlich für ein "bisschen mehr" abwärme sorgen wird - ausgenommen es kommen 2GB-Module, dann wäre es uninteressant.

Für mich war das keine Frahe, ob eine 20GB Variante kommt, sondern nur wann.
Das Problem ist halt nur, dass sich Käufer manchmal nicht damit befasst haben, was noch so kommen mag - selbst hier im Forum sind ja manche mal überrascht und hier sind Hardwarefreaks unterwegs. Also ja, nvidia wird das PR-Technisch schön vermeiden wollen - würd ich übrigends ebenso machen.

Das 10GB bei 4k schnell nicht mehr ausreichen werden, das sollte jedem klar sein, zumindest wenn man so schaut, was aktuelle Titel sich gerne genehmigen.
 
Zuletzt bearbeitet:
Die Customkarten habe dank des höheren Powerlimits ein paar Mhz mehr. Wenn später die Versionen mit mehr VRAM sonst selbe technischen Eckdaten aufweisen, woher den zusätzlichen Verbrauch nehmen, wenn quasi der zusätzliche VRAM "dem Rest" was klaut?
 
Ein Schlag in die Fresse für alle, die jetzt eine 3080 ergattern konnten...aber irgendwie war das ja auch klar.

Wahrscheinlich landen die Karten direkt in der Region der 2080 ti was den Preis angeht. Warum das nicht gleich so gemacht hat, kann eigentlich nur an der schlechten Verfügbarkeit der GDDR6X liegen.
 
Eine sache fehlt: Was passiert mit dem Powerbudget für den Chip? Der Chiptakt dürfte bei 320W niedriger ausfallen als bei 10GB, womit die Karte langsamer wäre.
 
Eine sache fehlt: Was passiert mit dem Powerbudget für den Chip? Der Chiptakt dürfte bei 320W niedriger ausfallen als bei 10GB, womit die Karte langsamer wäre.

Guter Punkt! Wenn ich meinen Takt anhebe um 1310, dann frisst das schon ordentlich und limitiert dann natürlich die GPU wieder. Wahrscheinlich kann man direkt die Taktraten einer 3090 ableiten die ja mit 24 nur unwesentlich weniger hat.

Hab meine GPU auf 850MV dann kommt die nur noch 1830Mhz und zieht dann aber 330-350 Watt
 
Entweder steigt die Leistungsaufnahme um 25-30W, oder Sie schaffen es durch das gemunkelte bessere Binning auf dem gleichen Level zu bleiben.
 
Ein Schlag in die Fresse für alle, die jetzt eine 3080 ergattern konnten...aber irgendwie war das ja auch klar.

Wahrscheinlich landen die Karten direkt in der Region der 2080 ti was den Preis angeht. Warum das nicht gleich so gemacht hat, kann eigentlich nur an der schlechten Verfügbarkeit der GDDR6X liegen.
Erstens wurde in zahlreichen Tests der 3080 - z.B. auch hier bei PCGH - darauf hingewiesen, dass 10 GB für eine Karte dieses Kalibers in Zukunft knapp werden könnten, und zweitens waren die Meldungen und Gerüchte hinsichtlich einer 20 GB-Variante bereits deutlich vor Erscheinen von Ampere so ziemlich überall dort allgegenwärtig, wo man sich üblicherweise vor dem Kauf informiert. Wer angesichts dessen trotzdem zur 10 GB-Variante gegriffen hat, wird das also entweder bewusst getan haben, weil ihm der Speicher reicht, oder er wird halt daraus lernen, sich vor dem nächsten Kauf besser zu informieren.

Was den Preis betrifft, spricht - ausgehend von diesem Artikel - erst mal nichts dagegen, dass brauchbare Customs zwischen 900 und 1000 Euro erhältlich sein werden. Das wäre schon noch ein Stückchen unterhalb der 2080Ti, wo derartige Modelle eher ab 1100 Euro zu finden waren.
 
Eine sache fehlt: Was passiert mit dem Powerbudget für den Chip? Der Chiptakt dürfte bei 320W niedriger ausfallen als bei 10GB, womit die Karte langsamer wäre.
Genau das.
Nur deswegen hat die 3090 auch 350W statt 320W TBP - die zusätzlichen 30W sind für den Speicher auf der Rückseite.
Die Boardpartner können also entweder bei den 320W stock bleiben dann wird die GPU ~100 MHz runter müssen oder sie halten den Takt und schieben 350W rein.

Erst wenn 2GB-Chips kommen und man keine zusätzlichen vRAM-Steine braucht geht (näherungsweise) Stocktakt + 20 GB innerhalb 320W.
Tja oder halt wenn NV den GA102 bei TSMC fertigen würde... :-D
 
Zurück