Geforce RTX 3080 Ti: Doch nur mit 12 GB und 10.240 Shadern?

Ist ganz gut von Igor analysiert.
Die Geschichte mit den 10240 Shadern versteh ich jetzt zwar nicht so wirklich, aber zwei Punkte die er anspricht hatte ich jetzt noch nicht direkt auf dem Schirm:
1) 8 Speicherchips weniger = ~30W weniger zu kühlen oder halt ~30W mehr für hohen Takt aufm Chip verfügbar
2) Eine 12GB VRAM Bestückung bekommst du auf der Frontseite der Platine realisierst und musst so die Rückseite des PCB´s nicht anfassen

Und die Leute kaufen es eh. Was ein Glück - so krieg ich auch noch meine 699€ 3080 in ein paar Wochen gut verscherbelt :D
1500-1600 zahlen Leute da aktuell für, das doch echt Wahnsinn.
 
Jup, selbst ne RTX 3090 geht bei Cyberpunk 2077 in 4K mit RT richtig in die knie...da nützt auch der dicke VRAM nix...
Von DLSS noch nie gehört oder? :ugly:
Cyberpunk läuft auf 4K/RT-Psycho (maximale Settings) mit DLSS auf ca 60FPS. Die Optik ist dabei erste Sahne. Es gibt keinen Grund DLSS ausgeschaltet zu lassen, wenn es doch verfügbar ist. Sieht im Quality-Preset aus wie nativ und selbst auf Balanced ist es absolut brauchbar. Die FPS werden damit einfach mal verdoppelt bei nahezu gleicher Qualität. Und jetzt kommst du. :haha:

Techniken wie DLSS werden innerhalb der nächsten 5 Jahre sowieso zum Mainstream werden. Auch die Next-Gen-Konsolen müssten das bekommen - unglücklich, dass die aktuellsten es noch nicht beherrschen. Es gibt einfach so wahnsinnig viel Performance zurück und kostet praktisch gar nichts. AI-Upscaling ist die Zukunft.
 
Zuletzt bearbeitet:
Irgendwie finde ich das ganze Thema nur noch belustigend, in 4. Wochen kommt dann das nächste Gerücht, dann soll es eine RTX 3080 [Ti/Super] mit 16GB werden. Aber egal wieviel oder wie wenig Speicher es am Ende sind, es ändert nichts an der Situation, das die RTX 3080, die Grafikkarte der Ampere Serie bleibt, die am schlechtesten Verfügbar ist, also gar nicht! :hmm:

Mittlerweile ist meine Theorie dazu, das man immer wieder bewußt falsche Gerüchte einer RTX 3080 [Ti/Super], was die Speichergröße betrifft, streut, dass wenn diese Grafikkarte schon nicht Lieferbar ist, diese wenigstens bei den Usern / Kunden im Gespräch bleibt. :kaffee:
 
....und somit gäbe es keinen einzigen Gfund mehr sich eine solche Karte zuzulegen wenn denn der VRAM wirklich nur auf 12GB gesetzt würde. NVIDIA würde sich selbst ins Aus stellen. 16 GBwären das Minimum und 20 sollten es eigentlich werden sonst kann mich NVIDIA ein für alle mal hinten rum heben. Und da bin ich sicher nicht der einzige. Wäre ich nicht so doof gewesen beim kauf meines ViewSonic Monitors vorletztes Jahr nur auf Gsync zu achten statt noch zusätzlich auf Freesync zu setzen wäre ich schon längst weg als Kund e nach dem Verfügbrrkeitsdebakel. Wenn die so weiter machen verscherbel ich das Ding noch.... wie kann man die Leut nur so vergraulen.....
 
Haha Nvidia baut nur noch Mining-Karten. Ich warte ja noch auf die 3090 Ti mit 8192-Bit HBM bei nur 8 GB haha.

Im ernst, wenn die 3080 Ti so kommt, werde ich mir direkt 1000 Stück bestellen, dann kann ich endlich wieder die Laptops verkaufen, sind ja schließlich nicht sonderlich gut geeignet für Dauerbetrieb... haha

Wenn ich Nvidia wäre, würde ich selber damit ETH schürfen... und es später als SUPER verkaufen... haha

Mal als Alternative: Ich muss sagen die RX 6800 ist eine wirklich gute Karte geworden und hat 16 GB, da sieht man schon wer fürs Mining baut und wer nicht... schlechte Business Entscheidung, wer setzt mit mir auf fallende Kurse?

PS: 1000x RTX 3080 = 327 000 €/Monat mit deutschen Strompreisen ( also irgendwas mit +1000% Steuern)... aber man muss jede Karte erstmal individuell tunen...

Wer akzeptiert +1000% Steuern? Die "Grünen" (Olivgrünen)... hahahahaha....
 
Zuletzt bearbeitet:
Da werden dem "toten" Gaul noch mal 2(GB) neue Hufe spendiert,

ich wette, der Klepper geht danach auch weg, wie geschnitten Brot. :D

Sofern sich an der Verfügbarkeit dann überhaupt mal was ändert...
 
Man sollte aber nicht vergessen das die 10gb / 12 GB vernünftig angebunden sind und damit wesentlich schneller arbeiten als die von amd. Die 256bit an 16GB ist doch einfach nur Quark.du wirst eher mit den 16gb an 256bit Probleme haben als an die 10GB 6x mit 320bit.
 
Man sollte aber nicht vergessen das die 10gb / 12 GB vernünftig angebunden sind und damit wesentlich schneller arbeiten als die von amd. Die 256bit an 16GB ist doch einfach nur Quark.du wirst eher mit den 16gb an 256bit Probleme haben als an die 10GB 6x mit 320bit.
Du siehst doch, dass Navi 2X mit dem kleinen Interface ungefähr gleich schnell ist? Wenn wiederum 6 GB fehlen, bist du so schnell wie PCI-E, also 20 FPS... dafür gibts doch den Feature Test beim 3dmark... haha. Nvidia würde sagen, die SSD, die noch langsamer ist, wirds richten... haha... und 10 GB reichen, insbesondere für Compute intensive Vorgänge (wie Mining)... ahahhaha
 
Zuletzt bearbeitet:
Man sollte aber nicht vergessen das die 10gb / 12 GB vernünftig angebunden sind und damit wesentlich schneller arbeiten als die von amd. Die 256bit an 16GB ist doch einfach nur Quark.du wirst eher mit den 16gb an 256bit Probleme haben als an die 10GB 6x mit 320bit.
Jain, das hängt von der verwendeten Bildschirmauflösung ab. Der InfinityCache besteht ja einzig zu dem Zweck ein Kartendesign mit deutlich kleinerem SI realisieren zu können. Bis grob WQHD ist die Cache-HitRate vergleichsweise hoch, d. h. der Cache erfüllt seinen Zweck und kompensiert die deutlich geringere Speicherbandbreite. Ab 4K merkt man dagegen erste, kleinere Einschränkungen aufgrund einer (hierfür) zu kleinen Cache-Größe, weil die Hitrate deutlich unter die 60 % (AMD-Angabe) zu fallen beginnt. Es hängt halt am Ende von den eigenen Bedürfnissen an, was hier zu präferieren ist. nVidia dagegen hat mit dem breiteren SI in Verbindung mit dem stromhungrigeren OC-Speicher dafür einen höheren Verbrauch. Der mag so manchen schlicht nicht interessieren, hier aber genau die gleiche Sachlage: es ist gegen die die eigenen Anforderungen abzuwägen ... was schätzt man höher ein, wie steht man zu DLSS und Raytracing ... Eine Pauschalaussage gibt es hier nicht.

Ich sehe die AMD-Oberen leise in sich hineingrinsen...
Eher ein selbstverursachte Fehleinschätzung, insbesondere gerade jetzt. AMD hat gute Produkte gebracht, konnte nVidia aber nicht ausmanövieren, es wird sich am Absatzverhältnis also voraussichtlich nichts übermäßig ändern (außer dass AMD nun erstmals auch wieder nennenswerte Karten im HighEnd absetzt) und zurzeit werden die sich gar eher noch in den A. beißen, denn nVidia kann offensichtlich deutlich mehr Karten via Samsung fertigen/liefern, als AMD Chips bei TSMC fertigen lassen kann. Die müssen zurzeit offensichtlich die Package-Substrat-, ABF- und ggf. auch Silizium-Lieferprobleme kompensieren, indem die SoC-Verträge priorisiert werden, dann das Zen3-Chiplet und die GPUs werden anscheinend ganz hinten angestellt, mit Blick auf die GPU-Sparte also eine höchst unschöne Situation derzeit für AMD.
 
Zuletzt bearbeitet:
Bei der Leistung die der GA102 teilweise stemmt ist es schon sehr schade, dass der VRAM bei der 3080 so schmal bemessen ist.
Ob in WatchDogs, nach ner Weile in RDR2, dem FlightSim, oder auch gerade eben noch in SOTTR - du bist durch die 10GB immer limitiert. Da bringt auch die höhere Speicherbandbreite durch GDDR6X nichts, wie es Nvidia ja noch im Januar versuchte als Vorteil gegenüber einer 3060 mit 12GB herauszustellen um das zu rechtfertigen.
Also im Microsoft Flight Simulator scheinen ganz andere Flaschenhälse zu limitieren, bevor das VRAM ein Problem wird:

fs-hoch.png

fs-ultra.png


Oder auf welche Einstellungen muss man gehen, dass sich die RTX 3090 und die 16 GB-Radeons deutlich von der RTX 3080 absetzen?

In RDR2 setzen sich die 16-GB-Radeons sich jetzt auch nicht von der 10-GB-3080 ab, selbst eine 8-GB-3070 hält recht gut mit einer teureren 16-GB-6800 oder auch einer 11-GB-2080Ti mit:
1612693247499.png





Shadow of the Tomb Raider sollte eine RTX 3080 so gerade noch so schaffen (Ironie).
 
Ich kann das ganze Speicherkrüppel , zukunftssicher, bla bla bla nicht mehr lesen.

In der Zukunft reicht die Leistung eh nicht mehr um alles auf Ultra zu zocken, da braucht man sich um seinen Speicher keine Gedanken mehr machen.

Ich kaufe jetzt die Hardware die ich jetzt brauche und gerade jetzt wollte ich die 3080, die Karte macht einfach Laune, Cyberpunk ist eine Wucht mit der Karte und erstaunlicherweise reicht der Speicher dafür.

3080/3090 sind Enthusiasten Karten die eh nie länger als max 2 Gens im PC bleiben, was kümmert mich da mein Speicher ?

Wenn Nvidia 2022 die nächste Gen raushaut und die wirklich 50% mehr Leistung raushaut wandert die 3080 schon nächste Gen auf Ebay.

Und auf WQHD sind mir 10GB völlig wayne.


Kauft oder kauft nicht, aber hört auf so einen Unsinn zu labern mit omg wie zocke ich in Zukunft nur auf Ultra HD wenn ich nur 10 GB Speicher habe.


Kleiner Tipp: mit der Grafikkarte die ihr jetzt im Rechner habt garantiert nicht!
 
Ich bin schon lange auf der Suche nach einer neuen Grafikkarte und kann mir nicht vorstellen, dass so viel Speicher nötig ist. Ich komme von einer GTX 970 komme mit meinen 4 GB in Full HD noch sehr gut zurecht.

Sicherlich nicht bei maximalen Settings aber doch bei mittleren.

Was meint ihr wieviel Speicher in FULL HD die nächsten 5 Jahre nötig ist? Ich hätte jetzt gesagt die 12 der 3080 Ti sollten doch auf alle Fälle reichen?

Wer zockt denn schon in 4K, dafür reichte meine 970 2014 nicht und heute reicht die 6800XT oder 3080 doch auch nicht, oder liege ich da völlig falsch?
 
4K ist so useless meiner Meinung nach das ich daran keinen Gedanken verschwende. Keine GraKa ist in der Lage meine Anforderungen => 144FPS dauerhaft zu erfüllen.

Daher ist es auch völliger Unsinnn sich zu echauffieren das 10GB Speicher nicht zukunftssicher sind, da die Leistung der aktuellen GraKas eh meilenweit weg von einem gescheiten 4K Erlebnis ist.

Daher sind mir auch so Monitor Auswüchse mit 4K 144Hz / 175Hz schleierhaft, da gibts einfach keine Grakas für, wenn du nicht gerade CSGo und LoL only zockst.


Wenn dein Ziel eh nur Full HD auf hohen FPS sind reicht ne 3070 oder für nen Full HD 360Hz Monitor halt ne 3080, aber da machste dir nie Gedanken um deinen Speicher, weil die Texturen einfach nicht die Größe haben auf FullHD um den Speicher auch nur ansatzweise zu füllen.

Die meisten jammern über ein absolutes Luxusproblem was nie zum tragen kommt.
 
Zurück