Geforce RTX 3080 12GB: Angeblich weiteres Speicher-Upgrade im Januar

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 3080 12GB: Angeblich weiteres Speicher-Upgrade im Januar

Während Nvidias Ampere-Oberklasse mittlerweile bereits recht vollgestopft ist, soll nun angeblich auch noch ein Modell der RTX 3080 mit 12 statt 10 GiByte kommen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Geforce RTX 3080 12GB: Angeblich weiteres Speicher-Upgrade im Januar
 
Nvidia wirkt nervös.

Das Binning des GA102, 104 und 106 in 20 Varianten war irgendwie klar, aber dieses hin und her bei der Speichermenge ist ein Indiz, dass man sich glaubt verkalkuliert zu haben. Der Farcy 6 HD Pack Schock dürfte gesessen haben.

Gleichzeitig die Gerüchte, dass Nvidia Druck auf Boardpartner macht, damit diese keine Topmodelle (z.B. ROG Strix) mit Intel GPU herausbringen und die besten Lüfterdesigns immer Nvidia Exklusiv sind.

Überhaupt der Release einer Karte im Januar, die damit das Weihnachtsgeschäft verpasst und in der Zeit erscheint in der GPU Käufe traditionell am Schwächsten sind.

Die Phase in der RTX und DLSS Alleinstellungsmerkmale waren ist am ablaufen und Nvidia hat kaum etwas an Kundenloyalität vorzuweisen.
 
Nvidia wirkt nervös.

Das Binning des GA102, 104 und 106 in 20 Varianten war irgendwie klar, aber dieses hin und her bei der Speichermenge ist ein Indiz, dass man sich glaubt verkalkuliert zu haben. Der Farcy 6 HD Pack Schock dürfte gesessen haben.

Gleichzeitig die Gerüchte, dass Nvidia Druck auf Boardpartner macht, damit diese keine Topmodelle (z.B. ROG Strix) mit Intel GPU herausbringen und die besten Lüfterdesigns immer Nvidia Exklusiv sind.

Überhaupt der Release einer Karte im Januar, die damit das Weihnachtsgeschäft verpasst und in der Zeit erscheint in der GPU Käufe traditionell am Schwächsten sind.

Die Phase in der RTX und DLSS Alleinstellungsmerkmale waren ist am ablaufen und Nvidia hat kaum etwas an Kundenloyalität vorzuweisen.
Speicherknappheit: 10 statt 12 GB erlauben eben 6 statt 5 Karten bei der gleichen Menge an VRAM Chips.
 
Also ich bin ja dafür, dass erst wieder über irgendwelche Grafikkarten berichtet wird, wenn die tatsächlich zu einem nachvollziehbaren Preis gekauft werden können und das bei Lieferzeiten von durchschnittlich 1,5 Tagen.

Wenn Intel nächstes Jahr tatsächlich liefern sollte und das wie oben angedacht, dann verliert NVidia 2022.
 
Man wenn das so weiter geht, dass immer nur 2 GB mehr Speicher dazu kommt, dann dauert das noch ne Weile bis 800 € Grafikkarten 16 GB RAM haben. (Nvidea)
Also spätestens nächstes Jahr sollten alles über 400 € 16 GB RAM haben, ob nun GDDR6 oder 6x ist egal.
 
Nvidia wirkt nervös.

Das Binning des GA102, 104 und 106 in 20 Varianten war irgendwie klar, aber dieses hin und her bei der Speichermenge ist ein Indiz, dass man sich glaubt verkalkuliert zu haben. Der Farcy 6 HD Pack Schock dürfte gesessen haben.

Gleichzeitig die Gerüchte, dass Nvidia Druck auf Boardpartner macht, damit diese keine Topmodelle (z.B. ROG Strix) mit Intel GPU herausbringen und die besten Lüfterdesigns immer Nvidia Exklusiv sind.

Glaskugelzeug, noch mehr Geschwurbel.

Die Phase in der RTX und DLSS Alleinstellungsmerkmale waren ist am ablaufen und Nvidia hat kaum etwas an Kundenloyalität vorzuweisen.
Du hast völlig Recht. Nvidia wird seine Marktdominanz mit einem Fingerschnippen verlieren und spielt in 2023 höchstens noch eine Rolle in Aufzählungen: XGI, S3, Rendition, Matrox, PowerVR, 3dfx und Nvidia: Vergessene Garafikchiphersteller. Der 3D-Pionierzeit.
 
Du hast völlig Recht. Nvidia wird seine Marktdominanz mit einem Fingerschnippen verlieren und spielt in 2023 höchstens noch eine Rolle in Aufzählungen: XGI, S3, Rendition, Matrox, PowerVR, 3dfx und Nvidia: Vergessene Garafikchiphersteller. Der 3D-Pionierzeit.

Ganz so schlimm wird es nicht werden. Aber ich erinnere an die Playstation 3. Sony kam aus einer Position der totalen Dominanz mit der PS2. Der Preis der PS3 war aber zu hoch. Plötzlich war die Xbox 360 ein riesiger Erfolg.

Es kommt halt hinzu, dass sowohl Intel als auch AMD bei den OEMs klar die bevorzugen werden die Komplettsystem entweder mit nur AMD, oder nur Intel Komponenten bauen. Die FertigPCs mit Nvidia werden nicht verschwinden, aber gegenüber reinen Intel und AMD Systemen könnten sie ab 2023 ganz klar in der Minderheit sein.
 
Man wenn das so weiter geht, dass immer nur 2 GB mehr Speicher dazu kommt, dann dauert das noch ne Weile bis 800 € Grafikkarten 16 GB RAM haben. (Nvidea)
Also spätestens nächstes Jahr sollten alles über 400 € 16 GB RAM haben, ob nun GDDR6 oder 6x ist egal.

Musst Du nen Laptop kaufen. Da gibt es eine RTX 3080 mit der Leistung einer 3060 Ti Desktop schon lange mit 16 GB. Beim Desktop braucht man nicht viel VRAM. Beim Laptop aber schon. Ist doch klar, oder? Nvidia-Logik, digga!!!!111elf
 
Wieso nicht?! Solange die Idioten bereit sind für 2 GB mehr 200€ zu bezahlen, wird Nvidia so weiter machen!
Es wird langsam echt lächerlich, was Nvidia macht. Ich hoffe, dass Intel eine echte Konkurenz wird.
 
Das Binning des GA102, 104 und 106 in 20 Varianten war irgendwie klar, aber dieses hin und her bei der Speichermenge ist ein Indiz, dass man sich glaubt verkalkuliert zu haben. Der Farcy 6 HD Pack Schock dürfte gesessen haben.

Ich schätze mal, dass die das ganze relativ kalt lassen wird. Entgegen dem, was Nvidia verkündet hat (8GB reichen dicke) gab es schon damals diverse Dinge, die 8 und 10GB überfordert haben. Nur haben die meisten davon keine Notiz genommen und die Nvidiafanboys haben den Speichergeiz auch noch ordentlich verteidigt.

Far Cry 6 war nur ein Beispiel in einer langen Reihe. Ein wichtiges, aber nur eines. Weitere werden folgen.

Wenn Nvidia eine Notwendigkeit sieht, dann können die regulären Karten mit 16 oder 20GB bestückt werden, das würde AMD in die Schranken verweisen.

Ganz so schlimm wird es nicht werden. Aber ich erinnere an die Playstation 3. Sony kam aus einer Position der totalen Dominanz mit der PS2. Der Preis der PS3 war aber zu hoch. Plötzlich war die Xbox 360 ein riesiger Erfolg.

Man muß dazu allerdings wissen, dass die X-Box 360 ein Jahr vor der PS3 erschienen ist und schon 11 Mio Exemplare verkauft waren, bevor die PS3 überhaupt in die Läden kam. Taugt also nicht als Vergleich. Wobei man dazusagen muß, dass die X-Box 360 mit 399€ und 299€ zwar billiger, als als die PS3, mit 499€ und 599€, dafür durfte man sich bei der X-Box 360 jedes Einzelteil zusätzlich kaufen (erst spätere Versionen hatten Luxusdinge, wie WLAN integriert).

Insgesamt war es recht ausgeglichen, besonders wenn man bedenkt, dass die PS3 schon HDMI und Blu Ray an Board hatte.
 
Wieso nicht?! Solange die Idioten bereit sind für 2 GB mehr 200€ zu bezahlen, wird Nvidia so weiter machen!
Es wird langsam echt lächerlich, was Nvidia macht. Ich hoffe, dass Intel eine echte Konkurenz wird.
Die "Idioten" werden auch eine RTX 4080 mit 10GB Kaufen für 999€ UVP Hauptsache RT und DLSS :daumen:!
NVIDIA wird immer Unsympathischer ich hoffe Intel und AMD geben jetzt mal Richtig Gas damit Die Speicherkrüppel Karten philosophie von NVIDIA mal so Richtig gegen die Wand Fährt.

"Und das kommt von einem ehemaligem Jahrelangem NVIDIA Kunden"
 
Das wäre eigentlich die Karte gewesen mit der ich meine 1080ti ablösen wollte.
Allerdings hätte sie die 12GB gleich zu Release haben sollen, dann hätte ich auch da gleich zur UVP zugeschlagen. Leider ist der Zug abgefahren und der GPU Ersatz muss noch warten, da ich nicht gewillt bin diese Preise zu zahlen.
 
Als ob ein Milliarden Konzern der auf mehreren Feldern gerade mächtig Staub aufwirbelt auf ein Spiel wie Far Cry schaut. Ja ne ist klar.... da werden schon Monate vorher Entscheidungen getroffen. Und diese Entscheidungen resultieren nach Unternehmerischen Aspekten wie Lieferbarkeit von Bauteilen, Auslastung der Produktion/Entwicklung usw. Und nicht wegen einem Computerspiel. Manchmal hab ich das Gefühl manche Leute denken Sie wären der Mittelpunkt des Universums. :rollen: :stupid:
 
Man muß dazu allerdings wissen, dass die X-Box 360 ein Jahr vor der PS3 erschienen ist und schon 11 Mio Exemplare verkauft waren, bevor die PS3 überhaupt in die Läden kam. Taugt also nicht als Vergleich. Wobei man dazusagen muß, dass die X-Box 360 mit 399€ und 299€ zwar billiger, als als die PS3, mit 499€ und 599€, dafür durfte man sich bei der X-Box 360 jedes Einzelteil zusätzlich kaufen (erst spätere Versionen hatten Luxusdinge, wie WLAN integriert).

Insgesamt war es recht ausgeglichen, besonders wenn man bedenkt, dass die PS3 schon HDMI und Blu Ray an Board hatte.

Das erste Jahr war nice für MS, aber das hat auf die Gesamtmenge weniger Einfluss.

PS2: ~155 Mio
XboX: ~24 Mio

PS3: ~ 89 Mio
360: ~85 Mio

Innerhalb von 5 Jahren von ~85% Marktanteil, auf ~50% Marktanteil bei den Neuverkäufen. Sowas schmeckt den Unternehmen nicht die sich am liebsten jedes Quartal feiern. Aber es ist wichtig zu sehen, dass sowas passieren kann. Nvidia wird wohl nicht in die Falle tappen, dass AMD und Intel ein Jahr Vorsprung haben. Die Falle mit dem Preis hingegen ist akut.
 
Die "Idioten" werden auch eine RTX 4080 mit 10GB Kaufen für 999€ UVP Hauptsache RT und DLSS :daumen:!
NVIDIA wird immer Unsympathischer ich hoffe Intel und AMD geben jetzt mal Richtig Gas damit Die Speicherkrüppel Karten philosophie von NVIDIA mal so Richtig gegen die Wand Fährt.

"Und das kommt von einem ehemaligem Jahrelangem NVIDIA Kunden"
Deshalb einfach ne 3090, dann ist die Speicherproblematik gelößt :banane:
Hatte beides davor nicht, aber auf Raytracing und DLSS will ich nie wieder verzichten (bin aber offen für ergebnisgleiche Technologien von AMD bei der nächsten Karte).
 
Musst Du nen Laptop kaufen. Da gibt es eine RTX 3080 mit der Leistung einer 3060 Ti Desktop schon lange mit 16 GB. Beim Desktop braucht man nicht viel VRAM. Beim Laptop aber schon. Ist doch klar, oder? Nvidia-Logik, digga!!!!111elf
Jetzt wundere ich mich nicht mehr, warum ich von Pokerclock wegen einem Scherz über AMD verwarnt worden bin. Er verhält sich hier ja nicht gerade neutral moderierend. Viel mehr finde ich diese Ausdrucksweise von einem Moderator widerwärtig, als angemessen.

Die Nvidia-Logik bezieht sich eben auf die Nachfrageseite und nicht das technisch sinnvolle. Passende Produktalternativen aus dem grünenPortfolio oder eventuell überlegene Produkte von AMD zu präferieren obliegt uns informierten Usern. Ich nehme an wer das Magazin liest weiß, mit welchem Chip und welchem Speicherausbau er für die von ihm gemochten Spiel auf seinem Monitor gute Ergebnisse erzielt.
Die höchsten Auflösungen fahre ich nicht auf dem 4K-Minitor, sondern meiner Reverb 2G. Auf der wären 10 GB mit 3080 allerdings auch schneller, als meine hart optimierte Aorus 2080ti mit mehr Speicher.
 
Zurück