RTX 3060 mit mehr Grafikspeicher als RTX 3080: Nvidia erklärt die Größe

Ich verstehe es nach wie vor nicht:

Das VRAM problem wird doch erst wirklich ein Problem in 4K, der am wenigsten verbreiteten Auflösung.

Ich kaufe auch immer Enthusiasten Hardware, spiele aber weiter auf WQHD, weil 4K für mich zur Zeit useless ist. Bzw. es bringt mir einfach keinen Mehrwert.

Alle aktuellen GPUs sind gerade gut genug für eine gescheite WQHD Performance wenn man FPS Zahlen zwischen 144 und 240 anpeilt, damit man seine high Hz Monitore auch entsprechend befeuern kann.

4K is overhyped und ein Leistungsfresser, 4 K wie gesagt erst in 8 Jahren und bis dahin is es mir latte ob ich 10, 12 oder 16 GB RAM habe. Ich will rohe GPU Leistung und gescheites RT.

Selbst in FullHD können 3080 und 3090 berechtigt sein wenn man mit Ultra seinen 360Hz Monitor beschicken will.


Jeder der sich jetzt hier aufregt, regt sich über ein absolutes Nischenproblem auf und wären für die meisten Leute die 10GB wirklich ein Problem, würde die Karte wie Blei in den Regalen liegen. Also bitte lasst das rumgeflame auf NVIDIA, stimmt mit eurem Geldbeutel ab, kauft oder kauft eben nicht.


Ich habe jetzt Laune mit meiner 3080, ohne Ende, die Karte macht richtig Spaß und die Karte rennt.

Und für die hohen preise können weder NVIDIA noch AMD was, wenn Ihre UVP nicht eingehalten wird, es ist es euch entweder wert jetzt zu kaufen oder Ihr wartet. Niemand ist gezwungen jetzt etwas zu kaufen.
 
Optimal ist die Situation sicherlich nicht. Weder bei AMD, noch NVIDIA. Die Radeons haben bei der Rohleistung krass aufgeholt, aber hinken bei den USP-Features noch hinterher (RT/DLSS etc.). NVIDIA hat dagegen ein inkonsistentes und aufgeblähtes Portfolio, welches aus strategischen Gründen eventuell "kastriert" gelauncht wurde, um AMD zuvor zu kommen.

Hinzu kommen noch sekundäre Abhängigkeiten wie G-Sync / Freesync, die für Gamer die Auswahl auch noch erschweren können. Viele können oder wollen nicht zusätzlich zu einer 1000+ EUR Grafikkarte auch noch ein 500+ EUR Monitor-Upgrade durchführen, wenn z.B. der alte G-Sync-Monitor noch hervorragend funktioniert. Dann ist man quasi vorerst gezwungen, beim jeweiligen Anbieter zu bleiben (working as intended).

Ich finde es nur schade, dass hier im Forum ein relativ krasses Schwarz-Weiß-Denken vorherrscht, bei dem jeder versucht (mich eingeschlossen) die aktuelle Situation und damit verbundene (Nicht-)Kaufentscheidungen zu rationalisieren/rechtfertigen.

Vermutlich, WEIL die Situation absolut suboptimal für alle ist, auch wenn es sich um letztendlich sehr gute Technik handelt.

Vielleicht redet man sich die Karten aber auch allgemein immer schlechter, als sie in Wahrheit sind.

Thema Generation überspringen: Das ist ein endloser Kreislauf, denn auch bei der 40xx wird man keine perfekten Produkte bekommen. Ich habe z.B. die 20xx-er Generation übersprungen und halte ein Upgrade mittlerweile für gerechtfertigt. Gemessen am Leistungszuwachs der 30xx-er Generation dürften sich alle Besitzer der 20xx-er Generation veräppelt vorkommen. Aber sowas weiß man im Vorfeld einfach nicht. Die 40xx-er kann auch ein minimal besserer Rohrkrepierer werden und dann? Auf 50xx warten?

Es gibt NIE den besten Zeitpunkt zum upgraden :-D

Alle sehen die 1080 Ti als Benchmark für Preis/Leistung, aber vielleicht war das einfach eine unglaublich gute Ausnahmekarte.

Auch genau mein reden ich hab noch die GTX 1080 mit 8 GB wen ich jetzt zum vergleich die 3080 nehme ist das Welten an Leistungs zu wachs. Die 3080 ist eine sau Schnelle Karte. mit GDDR6X.

(6) GTX 1080 Ti vs RTX 3080 - Worth Upgrading? - YouTube das kann noch die 1080 TI :wow:
 
Zuletzt bearbeitet:
nach dem letzten video von igors lab
Und seiner Einschätzung der rtx3060 12gb
ist der sprung vs einer rtx2060 sehr klein ~10%
man ist quasi fast gleichauf mit einer rtx2060s mit mehr vram

Was an sich logisch ist
ampere hat zwar mehr shader aber die shader Architektur entspricht nicht den von turing
somit sind 3584=1792
Das man dennoch dann noch vs 1920 gleich schnell ist spricht für eine Architektur Verbesserung (ipc)
Für die vom nvidia Stream angesprochene ´Zielgruppe also ICH
Ist die gpu ideal
Einziges Manko ist die dxr Leistung von nur 28rt ga106 vs 34rt tu106
Da ampere etwa 1,34 mal bessere rt Leistung hat
Kommt eine rtx3060 auf level der rtx2070s in dxr (40rt tu104)
Und nur auf rtx2060s in reiner Rasterleistung

dass ist brauchbar aber schon arg am limit mit 1080p und meiner cpu

Upgrade meines Unterbaus geht noch bis r9 5950x werde eher r7 5800x kaufen in 3-4 Jahren
Wenn es sich lohnt.
Das wird aber wieder ein voll upgrade weil bis dahin die gpu kaum wechseln werde.
Bleibt nur zu hoffen das lovelace (rtx4000) in samsung 5nm euv kommt.
Dieser sprung wird sich aber auch lohnen auch für Aufrüster der aktuellen gen rtx3000 Serie.
Die 12gb vram geben aber der rtx3060 ein langes leben von min 3 Jahren bis 5 Jahre.
Den ein upgrade wie bei xbone-x wird es nicht geben dieses mal.
Spannend wird es wann mcm bei Konsumenten gpu eingeführt wird amd rdna3 ist offen.
nvidia erst bei hopper irgendwann in 4 Jahren.
Das man weg kommen muss von monolithischen gpu ist klar die drawcalls sind schon jetzt kaum zu schaffen.
Einzig DXR kann hier noch für mehr pixel Erstellung sorgen. aber hier limitieren die Konsolen.
Und vor 2026 sehe ich keine neue Konsolen gen.

bei cpu sehe ich auch noch kaum steigerungspotenzial bei ipc
Intels rocket lake wird vermutlich vs skylake 19% zulegen was vs amd zen3 +2-3% sind
aber danach ist offen amd hat da noch mehr im Ärmel
zen4/3+ wird nochmal Effizienz und takt anheben mit marginalen ipc sprung max 5% ab hier wird ddr5 eingesetzt. 2022
zen 5 dagegen wird nochmal gut 15% Darauflegen.

bei intel cove Architektur steht und fällt alles vom Fertigungsprozess samsung oder tsmc Lizenz euv
7nm oder 5nm
Das aber ist noch poker
Intel cove Architektur in 7nm oder 5nm kommen erst ende 2023
amd zen 5 etwa auch

rosige Zukunft für den PC

max an cpu ipc etwa +15% bis 2024
max gpu ipc bzw tf +30% bis 2023
leider sind die teraflop werte bedingt vergleichbar
Da hier nvidia mal wieder die Topographie des shader neu bestimmt hat.
ampere kann die doppelte Leistung haben vs ältere gpu gen ist aber bei Ganzzahl Berechnungen halbierter Leistung.
Am ende muss es ein Übersetzer möglich viel über die fp32 Einheiten berechnen lassen.
Ob das nvidia anbieten wird oder einfach egal die Antwort darauf ist ist offen.
Das lustige ist ja das int32/64 und co ursprünglich von gpu nicht berechnet werden konnten. bis turing
Das sind explizite HPC Elemente die man mit mühe in neueren games eingeführt hat.
Und jetzt wieder entfernt.
Folge ist man kann ampere in kleienren auflösungen nicht auslasten. Hier wird es interessant ob das noch stimmt mit weniger shader als derzeit 4864=2432
Ein vergleich Artikel wäre mal interessant shader auslastung ampere vs turing
 
Deine CPU-IPC-Abschätzungen gehen recht weit an dem vorbei, was da wohl derzeit offensichtlich auf uns zukommt. Nach bisherigem Vernehmen wird alleine schon ADL deutlich drauflegen, d. h. schon innerhalb der nächsten 9 bis 10 Monate (und nicht etwa wie von dir skizziert nur +15 % innerhalb der nächsten 24 - 30 Monate).
Und selbst AMD teaserte im Rahmen der CES bereits, dass man mit Blick auf Zen4 mit einem grob vergleichbaren Sprung wie bei Zen3 rechnen sollte (also bereits in 2022 und anzunehmenderweise dürfte man das schon als einen realistischen Zugewinn verstehen und eher weniger als den optimistischen best case).

Darüber hinaus spielt die externe Fertigung für Intel in diesem Jahr bei CPUs noch keine Rolle; Alder Lake wird die dritte 10nm-Iteration 10nm Enhanced SuperFin verwenden und kommt. Und die Fertigung ist eher auch grundsätzlich sekundär und primär für Intel's Marge relevant, wenn sie bei ihrem "pragmatischen" Vorgehen bleiben, d. h. ob bspw. ein Meteor Lake in ihren eigenen 7nm (wie bisher vorgesehen) oder möglicherweise in TSMCs N5 (oder gar N4) gefertigt werden wird, spielt für den Kunden nur eine untergeordnete Rolle.
 
Hat ganz schön lange gedauert bis der NV-Verteidigungs-Reflex wieder eingetreten ist.
Du nennst es Verteidigungsreflex, ich nenne es gesunden Menschenverstand. Warst du nicht derjenige, der DLSS und RT aufgrund des Nischendaseins als völlig unwichtig hingestellt hat?

Inwiefern ist dann für dich ein einziges verbuggtes Spiel von Relevanz? Passt einfach nicht so recht zusammen.

Wenn 10GB ja überall so ganz locker reichen ("4-6GB in 4K" :ugly:) ist NV ganz schön blöd jetzt 12GB auf ne 3060er zu bauen.
Blöd wäre es 6GB zu verbauen, denn diese sind zu knapp. Und anders geht es aufgrund des SI ja nicht.

Aber bestimmt wäre die Lieferbarkeit mit 20GB viel besser, da wäre bestimmt jeder zufrieden, wenn die Nachfrage noch schlechter zu bedienen wäre...

Ihr tut ihr ja gerade so als ob die Unternehmen blöd wären. Billige Kommentare vom Spielfeldrand , nach dem Motto ich weiß alles besser.
 
Der allgemeine Ton hier ist doch eindeutig? 10 GB reichen nicht und wer was anderes sagt, ist verblendet und hat keine Ahnung.

Es reicht aktuell, aber was die Zukunft bringt, weiß niemand. In 4K lastest du die 10GB je nach Spiel voll aus.
Viele behaupten, dass 10GB bei HzD nicht reichen. Ich habs in 4K getestet und bin nach 15 Minuten nicht über 9GB hinausgekommen auf Ultra Settings mit 24GB VRAM. Es reicht also sehrwohl.

10 Gb dürften die nächsten ~2 Jahre kein (großes) Problem dastellen.
Püntlich zur nächsten Generation werden die Karten dann auch mehr Speicher haben.
Können uns dann eher freuen wenn man dann nicht den 3fachen Betrag von dem UVP zahlen dürfen. :ugly:

"Zukunft" hat gezeigt das es eh anders kommt als die Wahrsagen vorausgesagt haben.
Aber bei HW hat es sich auch gezeigt das "mehr" nicht wirklich verkehrt ist wenn man HW (etwas) länger nutzen will.
 
Wenn man jede Generation mitnimmt, würden mir die 10GB auch keine Bauchschmerzen machen. Wer allerding erst bei der übernächsten Generation wieder kaufen will, der könnte mir 16-20GB besser aufgestellt sein. Sieht man ja an der 1080, damals war 8GB noch mehr als nötig.
 
Können ja gerne Ihre Meinung sagen, aber warum erst sich darüber aufregen? Man kann ja AMD kaufen. Das war jetzt icht darauf bezogen wer sich die kaufen kann oder nicht, aber wie gesagt von der Hardware her fallen die mit ihrer bisherigen HArdware gar nicht in die Zielgruppe dieser GPUS sondern eher in die der 3060.

Wenn die 3080 so schlecht wäre dann würden hier ja auch die Käufer der AHrdware ihren Unmut kundtun?

Ist dir eventuell mal in den Sinn gekommen, dass wir Nutzer von "veralteter Hardware" bisher schlicht keinen Grund zum Aufrüsten hatten und bei der aktuellen Generation einfach mal so gar keinen Bock auf die Preise haben könnten?

Meine R9 290 verrichtet seit 6 Jahren klaglos ihren Dienst.
Ich hätte auch letztes Jahr auf eine aktuelle Karte wechseln können (meine Frau hat da z.B. eine 5700 XT bekommen), allerdings war ich gespannt, wie sehr die neuen Karten dem Hype entsprechen würden und hab mir das Jahr einfach noch gegönnt, um auf de neuen Karten von AMD und Nvidia zu warten.
Nvidia musste diesmal den Vorschlaghammer rausholen, um weiter vorn zu bleiben.. Immerhin gab es seit knapp 8 Jahren das erste Mal einen wirklichen big Chip der Generation in einer normalen 80er Karte. Das gab es seit Fermi nicht mehr.

Die Preise waren leider sehr der erwarteten Nachfrage angepasst... und selbst dann noch vollkommen unrealistisch niedrig, wie man von den AIBs hören durfte.
Die sind schlicht jenseits von dem, was ich für irgendeine Hardwarekomponente (im PC) jemals auszugeben bereit bin.

Also bleibt es erst mal bei meiner 6 Jahre alten Karte. für die meisten meiner Spiele langt es noch locker.
Das aktuelle Anno ist allerdings leider schon deutlich über der Leistungsgrenze meiner Karte.
Naja... werden aus 770 Stunden Civ 5 halt noch 1000.
 
Zuletzt bearbeitet:
Aber bestimmt wäre die Lieferbarkeit mit 20GB viel besser, da wäre bestimmt jeder zufrieden, wenn die Nachfrage noch schlechter zu bedienen wäre...
Ich glaube die Chips werden nicht bei TSMC in 7nm gefertigt.

Das beste Gesamtpaket liefert meiner Meinung nach die unfassbar gut gelungene RX 6800 mit 16GB, kostet aber leider mindestens 800Euro Inflationsgeld...
 
Zuletzt bearbeitet:
10 Gb dürften die nächsten ~2 Jahre kein (großes) Problem dastellen.
Püntlich zur nächsten Generation werden die Karten dann auch mehr Speicher haben.
Können uns dann eher freuen wenn man dann nicht den 3fachen Betrag von dem UVP zahlen dürfen. :ugly:

"Zukunft" hat gezeigt das es eh anders kommt als die Wahrsagen vorausgesagt haben.
Aber bei HW hat es sich auch gezeigt das "mehr" nicht wirklich verkehrt ist wenn man HW (etwas) länger nutzen will.

Das "mehr" muss es aber auch zu kaufen geben - bestenfalls zu einem rationalen Preis. Eine 3080 ist schon ne Nadel im Heuhaufen. Eine 3080 Ti gibt es noch nichtmal als offizielle Ankündigung und braucht die selben Bauteile wie die 3080 und 90. Ergo dürfte die Verfügbarkeit ähnlich mies sein.

Man kann und will nicht immer "auf das nächste große Ding" warten, weil man auch irgendwie im jetzt leben will. Wenn man immer nur in die Zukuft schaut, kann ich sogar sagen, dass die 4090 bei Erscheinen der 5090 total ablosen wird. Lohnt sich also gar nicht. :ugly:

---

Die 3090 ist darüber hinaus eine ausschließliche Prestige-Karte, mit Ausnahme für professionelle Workflows (die keine Quattro kaufen wollen).

Für 10-12% Mehrleistung zahlt man nahezu den doppelten Preis.

Das machen aber eigentlich alle Hersteller so: Ein Budget-Produkt (bis 3060), Mittelklasse (3070), Oberklasse (3080) und Luxusklasse (3090). Psychologisch tendieren die Käufer immer zur Mitte, daher macht es Sinn, ein "besseres" aber lächerlich teureres Produkt anzubieten, um die Grenze nach oben zu definieren und um vielleicht auch technisches Statement zu setzen.

Deswegen ist die 3080 auch permanent ausverkauft: P/L-mäßig steht sie aktuell deutlich besser da, als die 3090, aber mit dem gewissen Extra-Kick, verglichen mit der 3070 (besserer VRAM z.B.). Warum wohl gibt es die 3090 und 3070 deutlich häufiger zu kaufen?

1000 EUR ist für die meisten Zocker die magische Grenze bei einer Grafikkarte. Und die ist sowieso schon sehr hoch angesetzt. Und wer den Markt, das Hobby und die Branche kennt, weiß, dass man bei der Oberklasse ohne Probleme 5 Jahre bleiben kann, wenn man denn soooo lange mit der Technik planen möchte.
 
Deren Shareholder frohlocken und Jensens Chefposten ist gesichert. Das würde ich nicht blöd nennen. Tut hier ja sonst auch keiner.
Und was jucken mich die Shareholder und Jensen? Seit 20 Jahren gibt es kein GPU Startup Unternehmen mehr, das Risiko und das Know How erfordert extreme Aufwendungen und auch Aussicht auf Gewinne, ansonsten macht’s keiner.
Sein wir nach dem erneuten Scheitern von Intels Xe GPU doch froh, dass es zwei ambitionierte Anbieter gibt.
Ist dir eventuell mal in den Sinn gekommen, dass wir Nutzer von "veralteter Hardware" bisher schlicht keinen Grund zum Aufrüsten hatten und bei der aktuellen Generation einfach mal so gar keinen Bock auf die Preise haben könnten?

Meine R9 290 verrichtet seit 6 Jahren klaglos ihren Dienst.
Wenn du noch eine alte R9 290 hast, die gerade mal GTX 970 oder RX 470 Niveau, eher darunter bietet, und damals rund 300 bis 400 Euro gekostet hat, ergäben sich schon lange Upgradeoptionen für kleines Geld. Etwa eine RX 590 oder GTX 1070 für unter 200 oder 5700XT im gleichen Preisbereich mit mehr als doppelt so hoher Leistung ab 319 Euro ( günstigster Preis 2020).
Du nörgelst hier an Dingen wie Preisen herum, die dich eigentlich gar nicht interessieren. Von einer uralten 290 ist die zeitweise bei 80 Euro Gebrauchtwert lag, ist der Preis wirklich ein Null Argument.

Electricfuchs hat hier völlig recht. Hörst dich an wie ein Wutbürger, der sich einfach über etwas aufregen will, obwohl es ihn eigentlich gar nicht interessiert.
 
Zuletzt bearbeitet:
Zurück