RTX New Titan, 3090 und 3080: Gerüchte um die Ampere-Spezifikationen

Kommt aufs Spiel und die Einstellungen an. Die FPS sind erstmal wurscht, nur die Auflösung ist entscheidend. Und da gibts Spiele die mit sehr wenig vRAM-Bedarf sehr gut aussehen in 4K und dabei mit 5-6 GB auskommen (Witcher 3, sogar mit HD-Mods) und andere, die die 12 GB meiner ehemaligen TitanXP zum überlaufen gebracht haben wenn man alles hochgeschraubt hat was ging (Shadow of TombRaider, QuantumBreak).

Die FPS spielen dann wieder eine Rolle, wenn man die Grafikeinstellungen kommender Spiele betrachtet. Denn wo 144 fps in 4K in vielen Spielen sicherlich möglich sind wirds dann wahrscheinlich auch noch bei einer 3090 unmöglich bleiben wenn man RTX in 4K aufdreht. Ich gehe mal stark davon aus, dass das nicht möglich sein wird, selbst wenn NV die RT-Performance stark steigern konnte... und selbst WENN es reichen würde: DANN sind 12 GB garantiert zu wenig da RTX vRAM bekannterweise zum Frühstück frisst.

Ja für leute mit 4K, gibt sogar welche die 8k nutzen, ich meine nvidia 2080ti idt die einzige nativ 4k/60 fähige Karte, es gibt ausnahmen ja, aber dafür bietet nvidia eben das Produkt.für 1440p reichen auch 2060s oder 5700xt und die kosten wieviel? Ich bin auf euer seite was preise angeht, aber haten tue ich eine firma dafür nicht, AMD, Intel oder nvidia wollen am ende unser geld und verschenken tun sie nichts, Wobei DLSS ein Geschenk ist, nur muss diese auch supportet werden.
 
VRAM hin oder her, am Ende entscheiden Benchmarks. Wenn die Specs so stimmen, kommt da aber nicht viel auf die 2080ti drauf. Hoffen wir mal auf Architektur- und Taktverbesserungen, sonst wird die Karte ja etwas schwach gegenüber der 2080ti.

Benchmarks bilden Speichermangel nicht mehr ab in der heutigen Zeit, das sollte man als PCGH Konsument mittlerweile wissen.
 
Ja für leute mit 4K, gibt sogar welche die 8k nutzen, ich meine nvidia 2080ti idt die einzige nativ 4k/60 fähige Karte

Ich hab schon mit ner GTX980 in 4K/60 gespielt. :schief:
Es ist wie gesagt ne Frage des Spiels und der Einstellungen. Bei dem was ich momentan spiele (C&C Remastered beispielsweise) reicht übertrieben gesagt auch ne Kartoffel für 4K/60 - und wenn man sich die großen Grafikkracher raussucht klappt auch ne 2080Ti zusammen wenn man alles auf Anschlag dreht.

Wobei DLSS ein Geschenk ist, nur muss diese auch supportet werden.
Letzteres ist der Punkt. Bis das breit unterstützt wird (wenn das überhaupt je passiert) ist die Ampere-generation vielleicht schon Alteisen.
 
Ich hab schon mit ner GTX980 in 4K/60 gespielt. :schief:
Es ist wie gesagt ne Frage des Spiels und der Einstellungen. Bei dem was ich momentan spiele (C&C Remastered beispielsweise) reicht übertrieben gesagt auch ne Kartoffel für 4K/60 - und wenn man sich die großen Grafikkracher raussucht klappt auch ne 2080Ti zusammen wenn man alles auf Anschlag dreht.

Hab auch mit ner 1060 und ner 290 in UHD gezockt, sehe da kein Problem.
 
Ich finds Lustig wie die Leute isch über den Speicher aufregen:
Wenn ihr glaubt mehr zu brauchen dann nehmt so eine Karte nicht. Manche schwafeln hier schon seit Jahren rum, aber wenn ich die Settings so vermurksen muss das ich bei 30FPS lande bevor der Speicher zum Problem wird dann ist mir mehr Speicher auch keine 5€ wert.
Was für eine Karte sollen wir denn deiner Meinung nach nehmen? Titan? Quadro? Tesla?

Zu DLSS: Ist eine nette Krücke, aber mehr eben auch nicht. In meinen Augen ist DLSS zwar teilweise (deutlich) besser als stumpfes Upscaling, aber an die Qualität der nativen Auflösung kommt es eben auch längst nicht ran.
 
Igor hat sich wahrscheinlich mit den Bezeichnungen vertan. Das was er als 3090 bezeichnet hat dürfte eigentlich die Titan sein. Die Titan hat sich bisher immer auch durch deutlich mehr VRAM von den "kleineren" Karten abgesetzt. Wenn die 3090 schon 24GB hat, wieviel soll dann eine Titan bekommen? Mehr geht mit dem GA102 wohl nicht und der GA100 ist offenbar nicht als bildausgebende Grafikkarte zu gebrauchen.
Ich schrieb immer von internen "Arbeitsbezeichnungen". Und mal so nebenbei, zum Launch werden wir wohl nur zwei Karten sehen. Die Dritte dürfte sich Nvidia dann für Big Navi maßschneidern, wenn es soweit ist. Ich schriebs doch schon, die "3080" wird wohl mit 10 GB und 2 Speichercontrollern weniger kommen. Den Rest kann sich Nvidia dann fein anpassen. Die 24 ist fest.

Den Rest darf ich weder bestätigen noch genauer ausführen, aber da ist soviel BS im Umlauf, dass es mittlerweile echt lustig ist. Manchmal frage ich mich wirklich, wer von denen vielleicht sogar zur Nvidia PR gehört :D
 
Ankündigungen von Überläufen zu AMD, wegen des VRAM-Rückschritts von 11GB auf 8GB (GTX 1080 Ti -> RTX 2080) usw.
Das bezweifle ich ganz stark. Wieso sollte man zum Konkurrenten wechseln, wenn der doch gar keine konkurrenzfähige Karte im Angebot hat? Das ergibt ja nun gar keinen Sinn. :D

Wenn N21 nun mit 80(+?) CUs kommt (und sich die 84 SMs für GA102 bewahrheiten), dann sieht das schon anders aus. Dann könnten wir vielleicht endlich mal wieder beide Hersteller leistungstechnisch auf einem ähnlichen Niveau sehen am oberen Ende des Portfolios und die Kunden haben wieder eine echte Wahl.
 
Ich schrieb immer von internen "Arbeitsbezeichnungen". Und mal so nebenbei, zum Launch werden wir wohl nur zwei Karten sehen. Die Dritte dürfte sich Nvidia dann für Big Navi maßschneidern, wenn es soweit ist. Ich schriebs doch schon, die "3080" wird wohl mit 10 GB und 2 Speichercontrollern weniger kommen. Den Rest kann sich Nvidia dann fein anpassen. Die 24 ist fest.

Den Rest darf ich weder bestätigen noch genauer ausführen, aber da ist soviel BS im Umlauf, dass es mittlerweile echt lustig ist. Manchmal frage ich mich wirklich, wer von denen vielleicht sogar zur Nvidia PR gehört :D

Heißt für mich, es kommt eine 3080 und ein Derivat. Die "3090" oder wie sie auch immer heißen mag dann als BigNavi Konter. Vllt dann auch mit 24gb. :)
 
Wirklich witzig die Kommentare hier, niemand erwähnt die RT Performance mit DLSS 2.0 oder bald DLSS 3.0. Die Rohleistung wäre nicht mehr so wichtig wenn immer mehr Spiele den Support von DLSS geben würden. Der VRam von 10GB-12GB ist im grunde völlig ausreichend, wichtiger ist eben die Performance / FPS, selbst wenn Control mit 4K/Ultra mit DLSS 2.0 gerade mal 5,7GB verbraucht. 16GB sind absoluter Unsinn für Spiele, da wird nix kommen das annähernd diese gebrauchen wird und auch wenn macht es grafisch keinen unterschied wenn man das Setting etwas anpasst. Bei Wolfenstein Spielen ist der VRAM Hunger das resultat von schlechter Optimierung der Ressourcen.
Woher stammt deine Expertise? Speicherbedarf steigt bei erhöhter Texturauflösung quadratisch an. Mal abgesehen davon kaufe ich keine High End Karte, wo der Ram bei aktuellen Spielen schon benötigt wird oder schon zum Teil zu klein ist. Wenn der Preis kompromisslos ist, muss es die Hardware auch sein.
Mit einer 11 oder 12GB Karte lockt weder AMD noch nVidia mich hinterm Ofen hervor.
 
Erklär mir mal bitte wie das Speicherinterface dazu ausschauen soll :ugly:

Das wäre eine Möglichkeit :

TITAN, 24 GB „GDDR6X“ (17 Gbps), 8.500 MHz, 384 Bit
3090, 16GB HBM2, 1000MHz , 4096 Bit
3080 Ti, 12 GB „GDDR6X“ (19 Gbps), 10.500 MHz, 320 Bit
3080, 10 GB „GDDR6X" (21 Gbps) , 9.500 MHz, 384 Bit

MfG Föhn.
 
Zuletzt bearbeitet von einem Moderator:
Nachdem es bei AMD bereits bei der Radeon VII 16 GB HBM2 Speicher gab, bin ich ganz optimistisch und hoffe dass Big Navi auch mit 16GB kommt.

Das war aber soweit ich weiß eine Notwendigkeit, da mit dem HBM und dem Speicherinterface 16GB nötig waren um die nötige Speicherbandbreite zu erreichen. Die Vega hängt ja an der Speicherbandbreite.

---

16GB beim Big Navi wären nett, mal schauen. Wäre mit HBM problemlos machbar, die Leaks sprechen aber wohl für GDDR6 bei Navi. Auch hier spielt das Problem mit dem GDDR und dem Speicherinterface herein. Ein 512bit SI ist groß und teuer, hat sehr viel Bandbeite, vielleicht sogar mehr notwendig, damit kommt man auf 16GB mit 1GB Speicherbausteinen. Die andere Möglichkeit auf 16GB zu kommen wäre ein 256bit SI mit 8x2GB Speicher. Das hat nicht genug Bandbreite. Deshalb tippe ich auf 12GB mit 384bit SI. Es gab ja kürzlich auch Gerüchte mit 14GB Speicher, das wäre dann ein 448bit SI. Krumme Zahl, wäre aber möglich. Oder ein um zwei Kanäle deaktiviertes 512bit SI, der Vollausbau ist dann eine HPC Karte oder Navi Frontiers Edition mit 32GB VRAM :ugly:

Das wäre eine Möglichkeit :

TITAN 3080 Ti 3080 3090
Speicher 24 GB „GDDR6X“ 12 GB „GDDR6X“ 10 GB „GDDR6X“ 16GB HBM2
Speicher-Takt 8.500 MHz 10.500 MHz 9.500 MHz 1000MHz
Speicher-Interface 384 Bit 320 Bit 384 Bit 4096 Bit

MfG Föhn.

Meinst du also dass der GA102 zwei Speicherinterfaces mitbringt für HBM und GDDR6? Oder es den GA102 mit zwei verschiedenen Masken produziert gibt mit entweder HBM oder GDDR6?
 
Zuletzt bearbeitet:
für AMD bin ich nicht wohlhabend genug > extremer wertverfall
NV hat mit x90 den verstand verloren.. 2021 kommt dann x90S/Ti oder was?

düstere aussichten
 
Das wäre eine Möglichkeit [...]

Die 16 GiB HBM2 passen da partout nicht rein, weil der GA102 ein GDDR-Design zu sein scheint. ;-)
Und für nur eine Karte ein HBM-Design anzusetzen ist vollkommen unwirtschaftlich. Wenn dann würden die Quadro, Titan und die 3090 auf HBM2 basieren und einen eigenen Chip verwenden, was aber anscheinend nicht der Fall ist, da es ja unter dieser noch zwei kleinere Karten basierend auf diesem Chip geben wird. Wenn nVidia den Chip jetzt aber so weit runter nutzt, dass auch eine 3080 damit realisiert wird, dann wird mit diesem Design ein breites Preisspektrum bedient und am unteren Ende wird HBM zunehmend unwirtschaftlicher. Hinzu kommt, dass man mit einem HBM-Design weniger flexibel ist. Die Chips kann man bei Bedarf per HW/SW-Straps umkonfigurieren und mit einer unterschiedlichen Zahl an GDDR-BGAs kombinieren, dagegen die "HBM-Chips" sind Komplettdesigns mit GPU und Speicher zusammen auf einem (teueren) Interposer. Da ist nachträglich nichts mehr sinnvoll umzukonfigurieren, was den Handlungsspielraum des Vertriebs signifikant einschränkt.

@Gerry1984: Die Radeon VII war schlicht eine (minimal angepasste) Instinct MI50; da gab es keine separate Fertigung und dementsprechend gab es das 60 CU-Design gepaart mit 16 GiB HBM2, schlicht auch, weil kein kleineres Vega 20-Design gefertigt wurde/wird. Das war eher ein Testballon, Marketing-Gag oder aber eine kurzfristige Zweitverwertung, weil man vielleicht zu viele teildefekte Chips anhäufte und die als MI50 mit nur 16 GiB nicht wirklich absetzen konnte. Am Ende war die Karte ja auch schnell wieder EOL, als ihr Retailpreis zu fallen begann.

Dazu den "GA102 in zwei unterschiedlichen Varianten GDDR vs. HBM": Zweifelsftrei nicht, weil nochmals unwirtschaftlicher. Die Verwendung des GA102 für bereits viele Consumer-Modelle in einem breiten Preisspektrum zeugt hier von einer entsprechend ausgerichteten, optimierten Produktentwicklung/Fertigung. Bei nVidia wird dieses Jahr anscheinend alles im Gaming- und ProfViz-Bereich mittels GDDR abgedeckt (wie auch in den Jahren zuvor). *)
Wenn man unbedingt 16 GiB HBM haben will (weniger ist mittlerweile ebenso unwirtschaftlich), dann wird man seine Hoffnungen und Gebete auf AMD fokussieren müssen. Die haben einen deutlich größeren Anreiz zumindest im HighEnd ein HBM-Chipdesign zu präsentieren mit dem man ein, zwei Consumer-Modelle und ein, zwei Radeon Pro-Modelle realisieren könnte.

*) In 2021 kann man voraussichtlich auch noch ein reguläres PCIe-Kartendesign auf Basis des GA100 erwarten, der dann natürlicherweise auch HBM2 verwenden wird. (Mögicherweise wieder unter dem Quadro-Brand, jedoch mit einem Preis von 9000+ US$ wohl nur für professionelle Anwender interessant.) ;-)
 
Zuletzt bearbeitet:
Das kann man so generell nicht sagen. Hängt alles von der Monitorgröße (Pixeldichte), dem Betrachtungsabstand und der individuellen Sehstärke ab. Wenn man es richtig anstellt kann man auch in FHD ein knackscharfes Bild haben, man muss nur entweder den Betrachtungsbastand oder die Monitorgröße ändern. Am Ende hat man halt ein etwas kleineres Bild. Oder größer dafür etwas unschärfer. Wie es einem lieber ist. Aber WQHD hat heute auch kaum noch Aufpreis und stemmen Mittelklasse Grafikkarten. 24" WQHD ist knackscharf auch wenn man nah dran ist und in 27" ist es imho auch noch sehr OK. Für UHD hat man halt plötzlich viel mehr Pixel zu rendern und entsprechend Mehraufwand der dem Gewinn an Schärfe oder Größe des Bildes imho nicht mehr wert ist. UHD macht sich doch erst am 32"oder größer bemerkbar und so ein Drum stell ich mir doch nicht auf den Schreibtisch :ka:

also wqhd auf 24zoll ist super. im 1080p auf 24zoll sieht man Details gar nicht. und auf 27zoll will ich wenigstens 4k. Solange bleibts bei wqhd.

das ziel ist UHD mit hohen settings @144FPS
warum?
 
Meiner Erfahrung nach, weichen die Spekulationen dieser " Leaker" nicht sehr viel von dem ab, was am Ende tatsächlich von Nvidia geleaket wird. Also ich finde die Spezifikationen der RTX 3080 sehr vielversprechend. Waren das 4352 Shadereinheiten und 10 GB GDDR6X V-Ram an einem 320 BIT Interface?
Das wäre doch cool und sicher ausreichend, was Leistung und Performance angeht.

Zudem lässt das noch Platz für Hoffnung, dass die 3080 nicht so absurd teuer werden wird, wie befürchtet!?

Also ich denke, dass 2048 MB zusätzlich, eines schnelleren Speichers, wahrscheinlich in dem Maße schneller, wie GDDR5X schneller war als GDDR5, oder etwas mehr, angebunden an ein schnelleres Speicherinterface, schon überzeugen könnten?!:)
 
Zuletzt bearbeitet:
Zudem lässt das noch Platz für Hoffnung, dass die 3080 nicht so absurd teuer werden wird, wie befürchtet!?

Im Gegenteil - dadurch dass NVidia den großen Chip für die 3080 nutzen wird im Gegensatz zur 2080 (die nur den mittleren Chip hatte) würde ich nicht davon ausgehen, dass die 3080 unter nem Tausender UVP kommt. :schief:

Der Preis steht und fällt mit der Performance von AMD. Wenn BigNavi schnell wird wird die 3080 bei vielleicht 700 landen. Wenn nicht geht unter 1000 eher nix.
 
Zurück