RTX 3080 mit 20 GiB und 3070 mit 16 GiB: Release noch dieses Jahr?

Ist so oder so egal ob das dieses Jahr rauskommt oder nicht weil du kannst die grafikkarte so oder so nicht kaufen die Verfügbarkeit ist total scheiße also es ist total irrelevant der ganze Artikel hier
 
Ich Frage mich immer wieder wieso gerade Nvidia immer diese Krüppel Formate beim Speicher bringt !
Ich meine AMD hatte auch mal 3 gb als Ausrutscher , aber wenn man ehrlich ist die Geschichte Zeigt das die schritte 1mb 2 mb 4mb 8mb 16mb 32mb > waren und man kann rechnen das die Schritte aktuell genauso aussehen nur eben in GB !!!
24 passt ja noch halbwegs in die Matrix aber 1,5gb 11gb 10/20 gb ergibt einfach keinen Sinn , es wird nie ein Spiel geben wo die Progger sagen uhhh mit 20 Gb Vram bist du aber noch gerade so dabei , bei 18 wuerd es aber schon nicht mehr laufen ;)
 
Die große Überraschung im aktuellen Bericht von Videocardz ist der Zeitpunkt, an denen diese Varianten auf den Markt kommen sollen. So seien die Quellen von Videocardz zuversichtlich, dass schon im Dezember entsprechende Karten erscheinen.
Och Leute bitte, Nvidia bekommt es ja bis jetzt noch nicht mal hin, den Markt nur annähernd mit Grafikkarten zu versorgen. Überall in den Online-Shops drücken sich die Vorbesteller die Türklinke in die Hand und reihen sich in die endlosen Warteschlangen ein. Und jede Woche kommen winzige Chargen in den Handel, die schneller verpuffen als man A sagen kann.

Wie will Nvidia da im Dezember die neuen RTX 3080 Grafikkarten mit mehr Speicher bringen, da wird es dann auch für Tausende Vorbesteller und Scalper und Bots und was sonst noch im Netz unterwegs ist, wieder nur eine Handvoll Grafikkarten geben und dann heißt es wieder Wochen oder Monatelang warten. Nvidia soll jetzt erst mal die Verfügbarkeit so steigern, dass man auch mal eine Grafikkarte bekommt und nicht immer wieder irgendwelche Wasserstandmeldungen von neuen Modellen der Customer und neuen Speichergrößen der RTX 3080 liest.

Mittlerweile ist man nur noch genervt und gelangweilt, was Ampere betrifft, vom einstigen Hype ist schon lange nichts mehr übrig. Das Ganze ist einfach nur noch lächerlich und desaströs, weder bekommt man irgendwelche Grafikkarten und wenn doch, ist von dem einstigen so gelobten P/L schon lange nichts mehr übrig! :nene:
 
Ist das alles nervig.....nach 3,5 Jahren steht ein komplett Update bei mir an und ich will bis Cyberpunk damit fertig sein.. ?

LG 38 950G-B
Evtl 3080 20gb oder 3090
Ryzen 5800x
B550 o. X570

Gehäuse und wakü Komponenten stehen schon bereit ?
 
Ein 16GB RTX 3070Ti Paperlaunch in diesem Jahr mag möglich sein, da die Karte ja nur normalen GDDR6 hat. Das könnte theoretisch machbar sein, wenn der GA-104 lieferbar wäre, aber ich schätze der wird Ende Oktober in kürzester Zeit ausverkauft sein und dann erst im Q1/2021 irgendwann etwas besser verfügbar werden.

Die RTX 3080 mit 20GB wird noch sehr lange auf sich warten lassen, weil erstens der GA-102 noch lange Zeit nur in homöopathischen Dosen verfügbar sein wird und zweitens GDDR6X ebenso knapp sein wird bzw. die 2GB Module noch eine ganze Zeit auf sich warten lassen werden.

Das Gerücht mit Dezember ist jedenfalls erstklassiger Bullshit. Wenn dann höchstens ein Paperlaunch und zwar dieses Mal ein richtiger (RTX 3080/3090 waren ja immerhin ein klein wenig verfügbar).
 
Immerhin wissen wir nun nach dem Teaser von AMD, warum nvidia sich auf diese knappe Verfügbarkeit eingelassen hat...

Sollte "Big Navi" wirklich um die 3080 herum mit 16GB wildern können, ohne dass das SI limitiert oder bremst, dann werden wir zwangsläufig noch dieses Jahr eine Verdoppelung des Speichers beim grünen Team sehen.

Intel hat seine Packung mit der Vorstellung von Zen 3 bekommen - selber Schuld, wenn man sich jahrelang auf seine Loorbeeren ausruht (AMD damals mit Athlon 64 genauso). Immerhin sehen wir seit Zen 1 endlich mal wieder Bewegung im CPU-Segment.
Wenn dies nun AMD auch in der GPU-Sparte packt und ähnlich wie Zen agiert, dann werden wir auch hier schöne Fortschritte sehen können in den nächsten Jahren.

Also AMD ich hoffe ihr liefert das, was ich gezeigt habt. xD

Dieses Jahr ist für Zocker einfach nur spitze, neue GPU von nvidia, neue CPU und GPU von AMD und dazu noch neue Konsolen von Microsoft und Sony. Also alles was das Herz höher schlagen lässt (fehlte jetzt nur noch Nintendo mit der Switch 2 für 4k support xD).
 
Warum sollte Nvidia besonders viele RTX3080 mit 10GB fertigen lassen, wenn man genau weiß, das man zeitnah nach Big Navi die RTX3080 mit 20GB verkaufen möchte.

Könnte auch alles hausgemacht sein. Würde so zumindest wieder Sinn ergeben.


Generell muss man, was die Liefersituation angeht auch erstmal abwarten, ob AMD jetzt bald besser liefern kann.

Real entschiedend ist nur was von beidem man wirklich früher kaufen kann. Sofern die Leistungen vergleichbar sind.
 
Is die 90er etwa vergleichbar mit Turing Karten ?

Ne 80er is ne 80er. Feddich.
Das passt doch auch von Preis(siehe Launchpreise 1080) und Speicherbestückung(weniger als 2080Ti).

Also kann man die 80er nicht mit der 80Ti von Turing vergleichen, sondern mit der 80er Turing(und davor 80er Pascal).
Vergleichen kann man grundsätzlich alles. Betrachtet man die zugrundeliegende Technik, gibt es jedoch wenig Interpretationsspielraum. Die 3090 ist Treiberseitig genau so eingeschränkt wie eine 2080Ti. Die 3080 basiert auf dem gleichen Chip wie die 3090. Dementsprechend ist es keine 80er Karte im gewohnten Sinne, wie auch der Energieverbrauch zeigt. Letztenendes kann man das sehen wie man will. Ich sehe nur für Kunden keinen Vorteil sich hier etwas vorzumachen (oder vormachen zu lassen) oder schönzureden.

Warum sollte Nvidia besonders viele RTX3080 mit 10GB fertigen lassen, wenn man genau weiß, das man zeitnah nach Big Navi die RTX3080 mit 20GB verkaufen möchte.

Könnte auch alles hausgemacht sein. Würde so zumindest wieder Sinn ergeben.
Stimmt, sie haben nur gesagt, dass die Produktion gut läuft, aber nicht welche Karten sie produzieren. :ugly:
 
ich hab mir letzten monat ja eine 3080 bestellt, sollte ich doch lieber zu einer 20gb karte greifen ? jetzt bin ich echt sowas von ohne plan unterwegs. ich spiele ja eh nur 1080p 144hz, würde aber auch gerade wegen der power ein 1440p 144hz monitor kaufen....
ich bin momentan echt überfragt und verstehe die masche nicht die nvidia gerade abzieht.... schließlich verfolge ich den markt eigtl. jedes jahr für einige wochen. das müffelt mir alles nach fehlprodukt 10gb mit heißen speichern, und wozu die 20gb ?
neue konsolen -generation kommt ja, aber auch spielegeneration mit ultra-super-duper grafik ?
 
Hmmm ok, glaubst du denn, dass man in solchen Aufbauten tatsächlich "klassisches" SFR nutzen würde?
Irgendwie erscheint mir das (oberflächlich) als ZU simpel. Es muss doch irgendwelche (nicht nur rein wirtschaftliche) Gründe geben, warum kein Hersteller bisher MCM genutzt hat für starke Grafikkarten? Und es muss ja einen Grund geben dass sie jetzt gerüchteweise alle damit anfangen (bzw. damit angefangen haben) - das machste ja nur dann wenn der konventionelle Weg keine ausreichenden Fortschritte mehr erlaubt?

Ob man die Gründe nun "wirtschaftlich" oder "technisch" nennt, ist Betrachtungsfrage: Eine entsprechende Lösung war entweder teurer als ein Monolith oder im vorhandenen Budget war nur ein Monolith umsetzbar. :-)

Das man jetzt wieder intensiver daran arbeitet, liegt an den neuen 2.5/3D-packaging-Verfahren. Seitdem einfache PCBs nicht mehr für den Kommunikationsbedarf ausreichten (=> Voodoo 5), hatte man eigentlich nur die Option auf riesige Silizium-Interposer. Die waren aber teurer und/oder schlechter als ein Monolith. Mit EMIB, Chip-on-Chip und ähnlichem gibt es jetzt eine Menge neuer Möglichkeiten, die man ausprobieren kann. (Ich würde übrigens noch nicht darauf wetten, dass es sich für Nvidia oder AMD auch lohnt, diese zu nutzen. Die haben schließlich keine alten Fabs auszulasten, wie Intel, und habe entsprechende Techniken auch nicht "sowieso schon" für die CPU-Fertigung entwickelt.)
Beim Rendering würde ich gekachelte Ansätze erwarten. Auch heute versucht man, soweit es geht, intern blockweise zu arbeiten, um den Cache effektiver/den Speichercontroller seltener zu nutzen. In Zukunft würden dann halt mehrere Chips je eine Kachel bearbeiten, statt alle an der gleichen, aber klassisches SFR hat zusätzliche Nachteile bei der Ausbalancierung und da man im Zweifelsfall kurz vor Ende des Renderprozesses ohnehin extreme Transferraten für bildschirmfüllende Effekte braucht, kann man auch schon vorher Daten in kleineren Einheiten austauschen. Wenn der Speichercontroller und eventuell sogar Caches zentral vorgehalten werden, bietet sich ohnehin eine 1:1 Beibehaltung der heutigen Arbeitsweise ein. Die CUs kommunizieren auch in einem Monolithen über eine Crossbar, wenn die neuerdings extern sitzt ändert sich an der Arbeitslögik nichts. Die Kunst besteht darin, sie extern platzieren zu können ohne dass es zu Flaschenhälsen kommt.

Moment Torsten. Soweit ich weiß sind die Quadros nicht mit GDDR6X sondern nur mit GDDR6 geplant.

Wenn dem so ist, dann kann man daraus nichts ableiten. Ich dachte, die sollten auch 6X bekommen (und würde in der Fertigung auch keine Probleme für großer Chip + X sehen, die man bei "nur groß" und "nur X" nicht schon jeweils gelöst hätte), aber als Mainboard-Fachredakteuer habe ich nicht alle Specs von Profi-Karten im Kopf. Ich weiß nur, was für ein Problem Querverbindungen zwischen Chips sein können. :-)
 
Ich verstehe nicht warum Nvidia eine 3080 mit 20gb Ram produziert... es gibt doch schon die 3090 mit 24gb.
Warum macht man nicht einfach die 3090 in der Masse etwas günstiger, um näher an der normalen 3080 zu sein?!

Das ist so extrem unlogisch.

Odr beabsichtigt Nvidia die 3080 mit weniger Ram ausbluten zu lassen? So das die neue 3080 mit 20gb die alte ersetzt?

Aber warum hat man das nicht gleich von Anfang an gemacht... um AMD maximal zu verwirren?

Das wäre mal ein Fall für Galileo Mysterie! ??
 
Weil der 3090 Chip weit weniger deaktivierte Einheiten hat.

Und es ist doch extrem praktisch.

3080 10GB - einfaches PCB (einseitige Bestückung) + stark deaktvierter Chip -> 699Euro
3080 20GB - komplexes PCB + stark deaktivierter Chip -> 999 Euro
3090 24GB - komplexes PCH + wenig deaktivierter Chip -> 1499 Euro

so optimiert man die eigene Marge.
 
..ich spiele ja eh nur 1080p 144hz, würde aber auch gerade wegen der power ein 1440p 144hz monitor kaufen....
Ich spiele ebenfalls auf 1080p 144Hz mit aktuell einer 1660 Super. Kann zwar quasi alles mit den höchsten Details spielen,
aber reize mit der Graka dann natürlich nicht dem Monitor aus, da die 1660 S zu schwach ist um auch noch in höchsten
Details durchweg über 100 FPS zu liefern. Mir war erstmal wichtig flüssig mit 60 FPS in FHD und hohen/max. Details
spielen zu können. Alles was darüber hinausgeht - super.

Ich warte auf die 3070 mit mehr (16GB?) VRAM. Gründe:

Denke mal bestes P/L Verhältnis, auch im Hinblick auf den Stromverbrauch (kostet ja jedes Jahr und macht nen Unteschied z.B. zur 3080/90).
Hoffe entsprechend auf eine recht kühle / leise Graka aufgrund weniger Stromverbrauch und damit weniger Abwärme.
16GB VRAM einfach weils zukunftssicherer ist und auch das nicht einfach so, denn es gibt jetzt schon Spiele (auch wenn nicht viele),
wo man 8 (oder 10 GB bei der 3080) voll bekommt - und mit etwas Pech kann sich das relativ schnell ändern (also das es viel mehr werden),
dann steht man da mit seinen 8 oder 10GB. Dann zum Thema wie von dir auch erwähnt...
...der Wechsel von 1080p auf 1440p - kommt bei mir sicher auch mal. Spätestens dann hat man eine Graka (sofern man die 8 o. 10GB gekauft hat)
die von der Leistung her schnell genug ist, aber in meinen Augen dann zu wenig VRAM hat.
Das ist irwie unlogisch.... die Karten hätten gleich mit 16GB kommen sollen und somit empfinde ich das persönlich als Vera....e.
Wie damals bei den 2060/70 als die Super Versionen kamen (halbes Jahr nach den normalen 2060/70).
Bei mir kommt dann noch RT dazu, was ja meine 1660 S nicht kann.
 
Zuletzt bearbeitet:
Also mal ganz ehrlich:
Die Leute die sich eine 3090 kaufen haben mit sicherheit die beste Karte , auch wenn zu Teuer! Aber die Leute die sich eine 3080 oder 3070 kaufen hätten lieber warten sollen!!!
 
ich finde das sehr intressant, dass Founder Edition ncht erhätlich sind aber Cunstorm Karten 3090, 3080 und 3070 überteuert angeboten werden.
Geld schneiderei überteuerte Karten?

 
Zurück