RTX 3080 mit 20 GiB und 3070 mit 16 GiB: Release noch dieses Jahr?

Ich freu mich schon auf die Panikverkäufe der 3080 10GB Besitzer :D
Ich sitz das alles mal schön bis nächstes Jahr aus.

Ja, wird besser sein. Dann hat AMD schon mal wieder was an der CPU Front nachgeschoben, eventuell dann Intel im nächsten Jahr auch. Big Navi ist dann da, Intel schiebt eventuell auch was auf den GPU Markt. Nvidia hat dann sein Amperesortiment sinnvoll erweitert und den Krampfstart hinter sich gelassen. Vielleicht geht da was mit DDR5 im neuen Sys.

Scheint eigentlich kein gutes Jahr derzeit für großartige Upgrades gewesen zu sein.
 
16GB für die 3070 sollen zu viel sein? Ich erinnere mal an die Polaris 580, wahlweise mit 4GB oder 8GB. Waren da 8GB auch zu viel, oder sagt man das jetzt nur, weil man weiß, dass Nvidia für mehr Speicher locker 200€ verlangen wird, wohingegen die 580 mit 8GB lächerliche $30 teurer war. Einfach mal die Kunden mit dem Speicher nicht über den Tisch ziehen hätte ich gesagt. Einfach mal suggested Retail verlangen und nicht 200€ auf Nvidia Preise draufschlagen liebe OEMs. Nvidia verhält sich derzeit wie der Krug der zum Brunnen geht bis er bricht.

Man darf auch nicht vergessen, dass wenn die Spiel wirklich die Details und das Raytracing hochdrehen, dann sind wir selbst mit der 3080 ganz schnell wieder bei 1440p@60fps und nicht bei irgendwelchen 4k@120fps Luftschlössern.
 
Bislang gibt es keine Berichte über Engpässe bei GDDR6X und die Fertigung einer 20-GiB-Karte sollte nicht anders ablaufen als die des 10-GiB-Modells. (Ich persönlich erwarte sogar, dass man auf 2-GiB-Chips setzen möchte, die einfach die bisherigen 1-GiBler ersetzen.) Also sollten auch nach Einführung des neuen Modells insgesamt genauso viele 3080 verfügbar sein, wie heute. Ob das dann "genug" für die Nachfrage ist, hat AMD in der Hand. :-)
Hier gabs doch von Micron eine Meldung, das diese erst ab 2021 in entsprechenden Stückzahlen verfügbar werden?
 
Je früher die Karten rauskommen, umso eher hat sich dann auch das Angebot stabilisiert. Da ich mit ca. 3 Monaten rechne, wird das schon etwas knapp, mit meinem Wunschtermin (18.2.2021).

Ich persönlich schätze die 3070 wiederum für zu schwach ein, um 16 GiB jemals auszureizen – das wäre die Klasse, in der man mit 10 bis 12 GiB ausgesorgt hätte.

Größere Texturen benötigen eigentlich wenig zusätzliche GPU Leistung. Zumal die RTX 3070 auch noch sehr schnell ist, wir reden von einer Karte, die sich irgendwo um die RTX 2080Ti einordnen wird. Selbst die alte Vega FE dürfte wohl langfristig von ihren 16GB profitieren, bei der mehr als doppelt so schnellen RTX 3070 sollte das "ob" keine Frage sein.
 
Am Ampere-Launch sieht man schön wo Hype hinführt. AMD, der Underdog, kann dieses Jahr die beiden Goliaths in ihren Branchen übertrumpfen. Bei den CPUs ganz sicher und so wie es aussieht auch bei den GPUs. Endlich kommt mal wieder etwas Schwung in den Markt. Das kommt uns Konsumenten nur zugute. Nächstes Jahr positioniert sich Intel auch mal wieder mit GPUs am Markt, zumindest laut Planung. Dafür hat NVIDIA etwa keine Konter in petto? :ugly:
 
Ich konnte am Wochenende ausführlich eine RTX390 Founders Edition testen und kann nur sagen "großartige Karte".
Gerade in Verbindung mit UV bin ich schwach geworden :sabber:

Daher begrüße ich die Entscheidung auch den kleineren karten mehr Speicher zu spendieren. Im Verhältnis zu den kommenden Konsolen sollten alle Ampere Karten ab 3070 genüg Leistung bieten um die kommende Next Gen Generation zu begleiten. Gut möglich das in 2-3 Jahren dann 8/10GB eng werden könnten.

Gerade die RTX3070 mit 16GB sind sicher für die Mehrheit (welche die Karte eben 4-6 Jahre behalten wollen) ein tolles Produkt. Auch die Leistungsaufnahme des 8GB Modells soll ja "nur" bei 220 Watt liegen.

Ich bin wirklich heiß was AMD zeigt und wie Nvidia reagiert. Für uns Käufer sehe ich da nur Vorteile und fairere Preise :)
 
Irgendwie witzlos wenn man die beiden Aussagen gegenüberstellt:

"Voraussichtlich wird die 3080 nicht flächendeckend in 2020 verfügbar sein"

"wir bringen im Dezember eine 3080 20gb und 3070 16gb"

Klar ist das zweite aktuell noch ein Gerücht, aber man muss es doch auch verkaufen können wenn man ein Produkt als Antwort auf die Konkurrenz in den Markt schickt ?
 
Wer denkt er bekäme eine RTX 3080 20GB für unter 900 € der wird mit Sicherheit enttäuscht werden. Wenn eine RTX 3090 mit 24GB rund 1500 €+ kosten, werden die 20 GB mit min. 1000€ anbieten.
Prinzipiell schon - wenn AMD nicht ausreichend Druck ausüben kann.
Wenn sie das dagegen können/tun können solche Preiuse schneller und weiter fallen als man es die letzten Jahre (wo AMD nicht konnte...) so gesehen hat.

Angenommen (illusorischer Extremfall): Eine 6900XT mit 16GB ist so schnell wie eine RTX3090, verbraucht dabei 50W weniger und AMD ruft 600$ auf.
Wenn das passiert kostet eine RTX3080 mit 10GB nächstes Jahr 499€ und die 20GB-Version 599€ - und die 3090er unter 1000.

All das gabs schon mal bei Fermi - da hat NVidia auch den dicksten Chip im Vollausbau (!) für unter 500€ verkaufen müssen (GTX580) da sie eben hart unter Druck standen. Nochmal: Technisch gesehen war die GTX580 das, was heute eine imaginäre RTX3090SUPER wäre - für 480€ UVP.

Natürlich ist das eher nicht so zu erwarten und überzeichnet, aber selbst wenn man realistischer rangeht und sagt Navi21 kommt etwa on par mit ner 3080er raus: Wenn AMD da 6GB mehr und 20W weniger für 100-200$ weniger UVP hinstellt hat NVidia ein ziemliches Problem. Dann können sie keine 20GB-3080er für 1000€ hinstellen.
 
@pcgh eventuell könntet ihr ja mal einen Artikel machen zu der tatsächlichen vram auslastung bei Spielen? Hab da nichts gefunden und das Thema ist ja heiß diskutiert. Seit Sept 2020 gibt es mit hwinfo und mis wohl die Möglichkeit den "dedicated vram usage" anzeigen zu lassen hnd nicht nur das was reserviert wird. ?
Das gab es schon des Öfteren. Einfach mal zumindest ab und zu das Heft kaufen. ^^
z.B. hier auf 14! Seiten verteilt.
20201008_155530.jpg
20201008_155327.jpg
20201008_155502.jpg


Hierzu wurde beispielsweise eine RTX Titan mit 24 GB genutzt, auf der ein gewisser Teil des Speichers vor belegt wurde, um auszuloten ab welcher Speichermenge das jeweilige Spiel einbricht bzw. ob spürbare frametime Ruckler auftreten.

Ansonsten jetzt das aktuelle Heft in der DVD Variante kaufen. Dann hast du gleich sämtliche Ausgaben der letzten 20 Jahre drin, worunter auch der genannte Artikel fällt. ;)
 
Zuletzt bearbeitet:
All das gabs schon mal bei Fermi - da hat NVidia auch den dicksten Chip im Vollausbau (!) für unter 500€ verkaufen müssen (GTX580) da sie eben hart unter Druck standen.

Man muß dazu sagen, dass das damals üblich war. Man denke an die GTX 280/285 oder die 8800GTX/Ultra.

Die Unsitte, die mittleren Karten für 500€ zu verkaufen, kam erst mit der GeForce 600.
 
So ein Unsinn, wie du ihn die ganze Zeit verzapfst? Rechne mal nach, wenn du überhaupt dazu in der Lage bist 1+1 zu addieren: Wie groß wäre bei Ampere mit doppelter Speicherbestückung das SI pro GB? Eben, genauso groß, wie bei den Ach so miesen Big Navis... -.-
Aber dass du eh ein extremistischer Markenanhänger bist, hast du schon oft genug bewiesen. Du tarnst es nur etwas besser, als die anderen, immer wieder gebannten (Ex-)Forenmitglieder.

Stellst du dich nur Dumm oder ...? Für AMD geistern zurzeit 256 Bit (zzgl. InfinityCache) durch die Gerüchteküche. Ampere hat 384 bzw. 320 Bit, d. h. egal ob mit einfachem oder doppeltem Speicherausbau wird die Bandbreite unverändert hoch und in beiden Fällen gar deutlich höher liegen als bei AMD und genau deswegen ist AMD bei den RDNA2-GPUs auf den InfinityCache angewiesen.
Du hast ursprünglich geschrieben "aber bei AMD ist ein gleich großes Speicherinterface zu schmal?". AMD hat kein gleich großes SI.
Und deine Rechenkünste im kleinen Ein-mal-Eins können anscheinend deine Logikschwächen auch nicht kompensieren, denn (so hoffen zumindest alle Fans) das große 80 CU-Design wird eine RTX 3080 überbieten oder gar mit einer RTX 3090 konkurrieren können, d. h. hier hat man einen extrem bandbreitenfordernden, großen Chip mit einem sehr kleinen Interface. Bei den Ampere-Modellen mit mehr Speicher dagegen ändern sich die Anforderungen des Chips nicht, denn mindestens bei der größeren RTX 3080 kann man davon ausgehen, dass die performancetechnisch nicht nennenswert zulegen wird und daher gibt es hier auch keine zusätzlichen Bandbreitenanforderungen beim SI.
Wenn du Rummeckern willst, dann lies dir vielleicht zuvor noch einmal durch, was du selbst geschrieben hast bevor du auf Abesenden/Antworten klickst, denn das war und ist Unsinn, da nach aktuellem Stand AMD kein gleich großes SI besitzt, konkret noch nicht eimal relativ/im Verhältnis gesehen.
Aber wie schon erklärt ist die technische Sachlage auch nicht das Problem, denn dafür gibt es den InfinityCache; das Problem war lediglich deine Formulierung.
 
Man muß dazu sagen, dass das damals üblich war. Man denke an die GTX 280/285 oder die 8800GTX/Ultra.
Stimmt. Das war aber das Ergebnis eines viele Jahre andauernden Kampfes zwischen NV, AMD (damals ATi), davor noch 3dfx usw. - sowohl in Preis als auch Performance. NOCH weiter vorher in der "Frühzeit" des PCs ware Hardware ja noch viel teurer als heute, der erbitterte Kampf der hersteller um Marktanteile danach führte aber eben dazu dass fette Chips im 500€-Bereich verkauft wurden mit kaum Gewinn. Erst seitdem es praktisch nur noch zwei Hersteller gibt und der eine den anderen seit langer Zeit dominiert sind die Preise in die heute bekannten Regionen gestiegen (ja, ich weiß komplexer, Inflation, blabla - das ist alles nur ein kleiner Teil). Wenn es tatsächlich wieder so kommen sollte, dass zwei Hersteller etwa gleichauf sind werden die Preise im neuen Kampf auch wieder fallen und das weiter als sich das viele vorstellen können die diese Zeiten eben nicht mehr kannten.
Klar wird man heute keine 600mm^2-GPU für unter 500€ mehr verkaufen können (ohne dass die Firma drauflegt...) aber wenn ernste Konkurrenz da ist werden solche High-End Karten auch nicht mehr in vierstellige Bereiche gehen (und sich Aktienkurse verzehnfachen vom Gewinn...).
 
Hier gabs doch von Micron eine Meldung, das diese erst ab 2021 in entsprechenden Stückzahlen verfügbar werden?

Die Karte wird doppelseitig mit 8Gb-OC-BGAs bestückt, wie auch die 3090.
Igor hatte das doch bereits bestätigt, da er die PCBs schon frühzeitig über seine Bordpartnerkontakte kannte.

Wird es, keine Angst. Die Platinen sind final und die Lötaugen für die Module auf der Rückseite sind sicher nicht zum Spaß drauf :P

Du darfst mich im September gern drauf festnageln oder Dich entschuldigen :)
 
Sorry, aber allen Leuten, die sich auf das Abenteuer "early adopter" einlassen und ungeduldig Produkte kaufen ohne abzuwarten etc., sollte dieses Szenario bewusst sein. Ansonsten malt man sich die Welt schön... Ist eigentlich schon immer so gewesen.

Also schlechte Verfügbarkeit, Probleme mit Treibern oder mit der Hardware würde ich da eher einordnen.

Wenn man sich die 3090 anschaut, klingt der Release einer 3080 mit 20 GB irgendwie total unrealistisch. Hätte ich die Gerüchte hier im Forum nicht gehört, hätte ich wohl nicht so schnell mit dem Release einer solchen Karte gerechnet.
 
Nein, diese 80er ist bis auf 15% am Top Modell dran. Das ist nicht vergleichbar mit den anderen Gx104 80ern.

Is die 90er etwa vergleichbar mit Turing Karten ?

Ne 80er is ne 80er. Feddich.
Das passt doch auch von Preis(siehe Launchpreise 1080) und Speicherbestückung(weniger als 2080Ti).

Also kann man die 80er nicht mit der 80Ti von Turing vergleichen, sondern mit der 80er Turing(und davor 80er Pascal).
 
Zurück