Nvidia Ampere - Neuer Leak zu Modellen und VRAM-Ausstattung

1 x Ampere mit Doppelt V-RAM bitte ? Zumindest kein Problem bei der RTX 3070 Serie die wohl nicht nur mich zumindest beschäftigen wird und mit als letztes auf dem Nvidia Sortiments Verkaufstisch landen wird .Für theoretische Zukunftsicherheit scheint also gesorgt, der Konkurrenz Voluminös die Stirn geboten. Fragt sich ob der Aufpreis sich in vertretbaren Grenzen hält.Bis zur Weihnacht bleibt ja Zeit sich was vom Taschengeld beiseite zu legen und nicht mit irgendwelchen Mädels durchzubringen . Bei Polaris hatte der Kunde ja auch die Wahl zwischen 2 V-Ram Ausstattungen. KaufInteressant wird es wohl erst wenn auch die RTX 3060 zum guten Ende auf dem Tisch liegt und Vergleichstest sowie Verkaufspreise vorliegen.
 
AMD ist aktuell nur günstiger, weil sie keine wirkliche Konkurrenz sind, aber sobald sich das ändert, werden die Preise nicht wirklich weit unter denen von Nvidia sein.

nicht unbedingt. =>siehe Ryzen.
Selbst wenn AMD Karte gleich schnell / ~15% schneller ist werden die Karten deutlich günstiger als die von NV.
AMD hat einfach nicht den Ruf die Nr. 1 zu sein.
Hinzu kommt das es oft heist das die Treiber Mist sind (kann ich als Ex 570 / jeziger Vega 56 Nutzer nicht bestätigen).
Viele kaufen einfachen NV weil sie seit X Generationen / Jahren nichts anders gemacht haben.

Aber warten wir doch erst einmal ab wer als erstes was liefert und was die Karten dann können bzw. kosten. :P
 
Einige haben hier evntl. noch nicht ganz gecheckt, dass der VRam Ausbau bei Release im September/Oktober:

3060 8GB
3070 8GB
3080 10GB
3090 24GB (ehemals Titan)

sein wird.

Die 16 und 20 GB Versionen stellen bereits einen Ampere Refresh dar ("ti" oder "super"), der erst nach dem Release von Big Navi (16GB) kommt. Es passiert also zunächst mal gar nichts aufregendes, worüber man hier schon wieder am Limit diskutieren müsste. +2GB für die Mainstreamserien, wow, echt? Wahnsinn!
 
Die 3080 mit 20 GiB kommt noch im Oktober:
Nvidia-Roadmap.png

Also vor dem Release vom BigNavi der wohl im November kommt.

Für den Mainstream in FullHD sollten die 8 GiB auch erstmal ausreichen.
 
Welche Karten da wie viel Speicher kriegen werden, werden wir in wenigen Wochen von Jensen selber offiziell verkündet bekommen.

Bis dahin bleibe ich weiter skeptisch, was die 24GB Karte angeht(Titan, oder eine Art Dual-GPU ?) und erwarte weiterhin bei der 3080Ti irgendwas im Bereich 12-16GB, damit ich nicht enttäuscht werde.

Leaks sind schön und gut, auch wenn das jemand bestätigt.
Aber glauben tu ich das erst wenn es offiziell raus ist.

Die Vorstellung wird ja nicht mehr lange hin sein.
Die paar Wochen kriegen wir schon noch rum.
 
24GB finde ich persönlich hammer, für die 3080Ti, oder hätte da jemand vorher mit gerechnet ? :what:
Also ich wäre schon froh gewesen, wenn es 16GB gewesen wären. Überrascht euch das nicht auch ?

Hatte schon wieder 11, oder 12GB befürchtet. Nvidia hätt' ich das zugetraut.
Bin wirklich überrascht. :daumen:
 
Solange AMD nicht wieder irgendwas massiv vermasselt wie z.B. die Blackscreen-Problematik bei Navi wird meine nächste Karte rot werden. Nvidia hat diese Generation einfach mal wieder den Vogel abgeschossen. RTX für alle in die größeren Chips klatschen, horrende Preise dafür nehmen und dann kein/kaum RTX-Futter liefern, und wenn dann fast unspielbar. Seine verlogenen Versprechen kann sich Lederjacke in die Haare schmieren. RTX off ist angesagt.

Was, was? RTX steckt in den Kinderschuhen, war doch klar dass da nicht viel kommt. RTX ist einfach mal die Zukunft. Du kennst weder Leistung noch Preise von nVidia noch von den AMD Karten (die sehr wahrscheinlich nicht gut werden) und bist sofort am meckern! :D Kann man sich nicht ausdenken.
 
Du verstehst mich falsch.
Ich will ne Karte mit 12-16GB, aber ich zweifle stark an, dass man 16GB bei einer 70er bzw 20GB bei einer 80er bekommen wird.
Wer 16GB, 20GB oder 24GB haben möchte der wird sich auf 1200-1800€ und mehr einstellen dürfen. [...]

Eher nicht ... laut Igor sind die betreffenden Platinen für diese Bestückungen (somit auch die 16 GiB-Platine PG142-0) bereits bestätigt, d. h. die sind so tatsächlich vorgesehen. Das einzige, was dem wohl noch nachträglich einen Riegel vorschieben könnte, wäre, wenn AMD nVidia keinen Grund gibt, eine solche Karte zu bringen (denn deren Termin steht zurzeit auf TBD, d. h. nVidia plant diese voraussichtlich erst nach dem AMD-Launch zu veröffentlichen, wenn man konkret sieht, was der Konkurrent plant ), bspw. weil AMD nur ein 16 GiB-HighEnd-Modell bringen würde und alles andere darunter nur maximal 8 GiB haben würde. Jedoch mit so einer "Lücke" im Portfolio wird AMD eher nicht in den Markt kommen, d. h. nVidia hat durchaus einen guten Grund auch diese Chip/Speicherkombination zu bringen um AMD das Leben schwer zu machen.

Darüber hinaus, völlig unabhängig davon ob diese kommen wird oder nicht, sind deine Preisvorstellungen absolut überzogen und fernab jedweder Realität mit 1200 € für dieses 16 GiB-Modell. Dieses bezieht sich auf das aktuell von den 2070ern definierte P/L-Segment, es wird also lediglich ein gehobener Mittelklassechip sein (relativ gesehen zum neuen Portfolio, absolut gesehen sicherlich schneller als eine aktuelle 2080 Super), d. h. die Karte wird bereits grundsätzlich nicht so teuer sein, wie du postulierst.
Beispielsweise die ersten, günstigen 2070er kamen für rd. 520 € in den Handel (Mitte Oktober). Rechnet man hier die vielfach erwartete, maßlose Teuerung an, kann man bspw. exemplarisch 650 € für ein neues, derartiges 8 GiB-Design veranschlagen.
1 GiB GDDR6 mit 14 Gbps von Micron kostet zurzeit in Großhandelsmengen rd. 11 € pro BGA. 16 Gbps sind nicht übermäßig teuerer mit 12 €. Werden hier tatsächlich sehr schnelle BGAs verbaut (18+ Gbps) sollte man vielleicht großzügig 16 € veranschlagen und hat einen ordentlichen Puffer. Zudem könnte man noch einen nVidia-Bonus aufschlagen und rundet das Ganze zu 20 € pro zusätzlichem BGA auf, sodass man am am Ende auf einen 16 GiB-Kartenpreis für das auf dem PG142-0 basierende Modell von um die 840 € käme, was mal eben ein ganzes Stück weit weg von deinen 1200 € ist. Und in obiger Überschlagsrechnug habe ich schon bewußt hochgegriffen, sodass der tatsächliche Kartenpreis dieses 16 GiB-Modells gar eher niedriger liegen wird.
 
Wenn man sich das Video zu Horizon Zero Dawn anschaut, wird schnell klar, dass 12Gb Vram nicht mehr zeitgemäß sind (auch wenn der Port nicht sonderlich gut gelungen sein soll). Seit 3 Jahren mit der 1080ti nur 1gb beim top modell aufgestockt zu haben zeigt ja auch dass nvidia eher mit Speicher geizt und dennoch die Preise drastisch erhöht.

Aber bis zu 24gb kommt mir dann doch etwas zu viel vor. 14, 16 und 18gb hätten es ja auch getan? Geschenkt werden wir das nicht bekommen. Von daher darf man bestimmt auf Preise von 1500€ für die 3080ti "freuen". Wenn die 3070 dann auch bei 700€ losgeht und der Rest iwo dazwischen liegt, bin ich endgültig raus und hol mir ne PS5..

Amd wird aufjedenfall günstiger. Ist nur die Frage wo sie sich Leistungstechnisch einordnen.
 
Sry für OT:

Wenn die Karten wirklich 300W und eventuell mehr ziehen sollten, reicht mein Straight Power E11 550W dann noch in Verbindung mit nem 8700k (OC) ?

BTT:
Bin echt auf die Preisgestaltung in Verbindung mit der Leistung gespannt. Sowohl bei der Lisa als auch beim Jensen
 
Sry für OT:

Wenn die Karten wirklich 300W und eventuell mehr ziehen sollten, reicht mein Straight Power E11 550W dann noch in Verbindung mit nem 8700k (OC) ?

BTT:
Bin echt auf die Preisgestaltung in Verbindung mit der Leistung gespannt. Sowohl bei der Lisa als auch beim Jensen

Sollte im Normafall reichen, was hängt denn noch dran?

Meine nächste sollte auch nach Möglichkeit 16GB bekommen, wenigstens 12Gb... Da hoffen ich auf AMD und Nvidia, das da etwas für mich bei ist.
 
Findest du dein Post nicht selber recht peinlich? Gute middle GPUs haben Jahrelang um die 250 gekostet. Dann sind sie künstlich verteuert worden. Die GTX1070 gabs lange Zeit auch für 250Euro im Deal.

Ich tippe mal hier auf auf eine reductio ad adaurdum.

Gute Mittelklassekarten hatten mal 150 gekostet, lass es dir auf der Zunge zergehen.

Aber während die Chipfläche und das Rundherum bei CPUs nahezu gleich geblieben ist über die Jahre, hat sich bei den Grafikkarten einiges verändert. Preiserhöhungen sind daher m.M.n. nicht nur auf Marketing und Marktanteile zurückzuführen sind sondern auch auf verbaute Technik. Es kann nicht immer alled billiger werden, nur weil es neuer ist. Prozesse können nicht endlos verbessert und optimiert werden, sowohl technisch als auch wirtschaftlich. Sieht man ja auch bei Intel. ;)

Wie haben sich die Preise bei RAM und Komponenten die letzten 3 Jahre entwickelt? Wenn sich die Rampreise nicht mindestens halbiert haben kann man weder bei AMD noch Nvidia erwarten dass sie bei gleichem Preis den doppelten Speicher verlöten. Ist vielleicht auch zu simpel betrachtet aber ich denke man versteht was ich meine. Soll nicht heißen dass NV die Marge reduzieren könnte um den Preis zu halten, aber warum sollten sie? Mit der aktuellen Marge verkaufen sie gut, und AMD braucht das Geld um wieder auf Schiene zu kommen. Ich gehe daher ganz instinktiv nicht davon aus dass die nächste Gen gleichpreisig bleibt.
 
Zurück