Nvidia Ampere: Neue Gerüchte um 24/20/10 GiByte Speicher für GA102

Sollten die Werte so stimmen muss es bei mir die RTX3090 werden. Hoffentlich steht an erster stelle beim Preis keine "2" :ugly:
Bei knapp 2Ghz wären das dann aber sehr attraktive 20 TF geballte Ampere Power und eine gute Ablöse für meine GTX1080ti (~11,5 TF) :daumen:
 
Dann wäre die AMD Karte aber dennoch zu bevorzugen, da 16 GB viel zukunftsfähiger sind, als 10 GB.

Aber gut das ich nun PCI-E 4.0 habe, bei ausgehendem Speicher, ist immerhin der PCI-E Bus nicht der Flaschenhals und gleicht das ein Stück weit wieder aus. Oder es wird eben doch AMD :D
 
Sollten die Werte so stimmen muss es bei mir die RTX3090 werden. Hoffentlich steht an erster stelle beim Preis keine "2" :ugly:
Bei knapp 2Ghz wären das dann aber sehr attraktive 20 TF geballte Ampere Power und eine gute Ablöse für meine GTX1080ti (~11,5 TF) :daumen:

Auch, wenn jetzt vielleicht ein Weltbild für dich zusammenbricht, aber TF ist so ziemlich der irrelevanteste Wert für den Vergleich von GPU's den es überhaupt gibt.
 
Ich beeeeete, dass AMD die 3080 10GB sowas von verprügelt, mit 16GB, tick schneller und um 750€, besser 700€

Das mit dem "schneller sein" kannst du nur erreiche, wenn bei Nvidia ale Features ausgeschaltet werden. Sobald etwas wie DLSS 2.0+ aktiviert ist, sieht AMD nur noch Rücklichter.

Wird so ausarten, dass die AMD Fans die übliche "Unfairkarte ziehen" müssen und es in jedem Test niederschreien. Scheinbar bietet Nvidia Karten mit minimum (=ausreichend) und maximum Konfigurationen an.

Bei den Preisen werden wie sehen!

Da wäre ich sogar bereit, meine Schmerzgrenze von 400€ für GraKa zu überschreiten, um dann die Rechnungskopie an Nvidia zu schicken, oder besser auf Socialmedia zu posten ��

Das klingt ehrlich gesagt ziemlich kleinlich. Tust du dasselbe auch bei Apple, Alienware und Nike? :devil:

BTW Wenn du deine "Schmerzgrenze" fast verdoppeln kannst, ist es keine wirkliche Schmerzgrenze! Oder natürlich du bist hardcore Masochist. ;)
 
Ich finds interessant, mit welcher Wehemenz manche User die einen oder anderen Karten so weit vorne oder hinten sehen und dazu völlig substanzlose Dinge wie "man hört nichts" oder "man hört viel" zu Grunde legen einfach weils GAR KEINE Informationen über die Performance der Karten gibt. :ugly:

Es könnte passieren dass die RTX3080/90 mit ner R6900XT den Boden aufwischt.
Es könnte auch umgekehrt sein.
Vielleicht sind die jeweils größten Karten auch in etwa gleich schnell.

Völlig egal was davon zutrifft - wer etwas kauft aus seiner (völlig grundlagenlosen) Überzeugung heraus Hersteller X müsse ja überlegen sein bevor beide Parteien ihr Angebot auf dem Tisch haben handelt ums vorsichtig auszudrücken ziemlich kurzsichtig. Wir haben jetzt über 2 Jahre gewartet bis irgendwelche neuen Highend-GPUs kommen. Da kommts auf keine Ahnung 6 Wochen Unterschied beim Releasedatum jetzt wirklich nicht mehr an.
 
Genau das alles wurde bei der letzten Generation auch immer wieder im Vorraus gepredigt und niemand kauft solche Karten und NVidia verarscht uns und das kommt alles niiiiemals nicht so.

Und was ist passiert? Die 1660/2060 kam mit nur 6 GB und die 2070/2080 mit nur 8 GB - so wie ihre Vorgänger 1060/70/80 auch schon. Genau das was ja niiiiemals passieren kann. Und? Die Karten haben sich verkauft wie blöd.

Und auch dieses Mal wirds genau so kommen. 16GB auf 500€ Karten? Ich (bzw. NVidia) lacht sich tot. Wird nicht passieren. Grund: Gekauft wie blöd wirds trotzdem.

Exakt so siehts aus... es wird weiterhin gekauft und die Leute sind Teil des Problems.

Anstatt mal zu verzichten oder auf die Alternative zu warten.


Das Gelaber mit der RTX3070 und den 16GB halte ich weiter für ein gestreutes Phantom-Gerücht bzw zusammengereimten Unfug, der Null Sinn ergibt, aber die Tabelle da oben halte ich grob für korrekt.

Die RTX3090 (wovon ich schon seit Wochen rede, weil die Bezeichnung marketingstrategisch 100% Sinn macht) wird ihre 20GB bekommen und das Flaggschiff der Consumerkarten darstellen. Selbstverständlich wird hier aufgrund der Namensgebung (höher als 80Ti) auch deutlich mehr Kleingeld notwerndig sein. Später wird sehr wahrscheinlich eine RTX3080Ti dazwischengeschoben, naheliegenderweise mit 16GB Speicher.

Nvidia hat wieder alles vorbereitet, um die Kunden optimal zu melken.
Denke für die RTX3090 werden 1299$US UVP beanschlagt und in DE können wir dann mit ca 1349€ rechnen. Customs evtl ab 1400€, wenn verfügbar.

Holy Shit.:ugly:

Dämlich wer das auch noch unterstützt ohne sich kritisch mit der Preispolitik von nVidia in den letzten Jahren auseinander zu setzen.
Einfach blindlings kaufen ist imho falsch.

Anstatt einfach abzuwarten bis beides aufm Markt ist und die eh schwachsinnigen Early Adopter Preise gefallen sind...
Du bist ja echt der optimale Kunde den sich jedes Unternehmen wünscht, lol.
 
Zuletzt bearbeitet:
Vielleicht mag ich nicht ganz aufm laufenden sein, aber hatte PCGH nicht DLSS getestet? Die Vergleichsbilder mit DLSS sahen wirklich schrecklich aus!
Ich möchte diese Grafikdetails nicht missen, die da weggefallen sind!
 
Ich habe schlechte Neuigkeiten für dich: AMD sagt nix über die Leistung von Big Navi im Vergleich zu Nvidia Karten. So eine Funkstelle heißt meistens, dass Big Navi gut, aber nicht viel schneller als eine RTX 2080 Ti ist, vielleicht 10-15% schneller. Deswegen haut Nvidia RTX 3080 mit nur 10GB Vram raus. Sie haben nichts zu befürchten.
Warte doch erst Mal ab Anfang September wäre der richtige Zeitpunkt um dem Konkurrenten in die Suppe zu spucken.
Jetzt ist noch etwas zu früh dafür.
Und Falls die letzten Gerüchte stimmen sollten und big Navi in 7nm+ 505mm2, 5120 Shader mit 512Bit SI kommt. (Meiner Meinung nach sollte sie auch in etwa 2GHz / 16Gbps (1024GB/s) takten und ein IPC + wurde extern bereits bestätigt)
Wenn das also in etwa hinkommen sollte, sind +30% relativ zur 2080ti nach meiner Meinung das absolute zu erwartende Minimum dies wird wahrscheinlich gar für eine 3080ti ein harter Brocken werden.

Als kleine Anmerkung Speicherbandbreite 2080tiFE 616GB/s / big navi min. 768 max. 1024GB/s (unter der Annahme das kein HBM2 verwendet wird)
 
Zuletzt bearbeitet:
Nvidia hat wieder alles vorbereitet, um die Kunden optimal zu melken.
Denke für die RTX3090 werden 1299$US UVP beanschlagt und in DE können wir dann mit ca 1349€ rechnen. Customs evtl ab 1400€, wenn verfügbar.

Holy Shit.:ugly:

da offenbar das loch OBERHALB einer möglichen 3080(Ti) geschlossen wird, stell dich auf einen realistischen wert zwischen der bisherigen 2080 Ti und der Titan ein: also ca. 1600-1900 EUR.

wir sind hier nicht bei der wohlfahrt.
 
Dann wäre die AMD Karte aber dennoch zu bevorzugen, da 16 GB viel zukunftsfähiger sind, als 10 GB.

Aber gut das ich nun PCI-E 4.0 habe, bei ausgehendem Speicher, ist immerhin der PCI-E Bus nicht der Flaschenhals und gleicht das ein Stück weit wieder aus. Oder es wird eben doch AMD :D

Genau aus diesme Grund hat nVidia ja auch 16, 20 und 24 GiB im Portfolio, was AMDs 16 GiB weitestgehend aushebelt, sodass sie hier weiterhin über den Preis argumentieren werden müssen.

Darüber hinaus, PCIe bleibt immer der Flaschenhals, sogar ein extremer und insbesondere in Verbindung mit den jetzt kommenden GPUs, die am oberen Ende grob um die 900 - 1000 GiB/s Speicherbanbreite haben werden. (Und selbst im Vergliech zu regulärem DDR4-PC-RAM ist PCIe 4.0 noch langsamer; wenn der VRAM ausgeht, wird es immer langsam, das ist schlicht unvermeidbar.)
 
Ich finds interessant, mit welcher Wehemenz manche User die einen oder anderen Karten so weit vorne oder hinten sehen und dazu völlig substanzlose Dinge wie "man hört nichts" oder "man hört viel" zu Grunde legen einfach weils GAR KEINE Informationen über die Performance der Karten gibt. :ugly:

Es könnte passieren dass die RTX3080/90 mit ner R6900XT den Boden aufwischt.
Es könnte auch umgekehrt sein.
Vielleicht sind die jeweils größten Karten auch in etwa gleich schnell.

Völlig egal was davon zutrifft - wer etwas kauft aus seiner (völlig grundlagenlosen) Überzeugung heraus Hersteller X müsse ja überlegen sein bevor beide Parteien ihr Angebot auf dem Tisch haben handelt ums vorsichtig auszudrücken ziemlich kurzsichtig. Wir haben jetzt über 2 Jahre gewartet bis irgendwelche neuen Highend-GPUs kommen. Da kommts auf keine Ahnung 6 Wochen Unterschied beim Releasedatum jetzt wirklich nicht mehr an.
Das klingt alles logisch und verständlich nach deutscher Mentalität, die Amis ticken aber anders und es handelt sich um amerikanische Firmen. Das Schweigen bedeutet dort tatsächlich das Nichtvorhandensein eines Gegenschlages.
da offenbar das loch OBERHALB einer möglichen 3080(Ti) geschlossen wird, stell dich auf einen realistischen wert zwischen der bisherigen 2080 Ti und der Titan ein: also ca. 1600-1900 EUR.

wir sind hier nicht bei der wohlfahrt.

Der Preis ist eher zutreffend. Ich vermute mal bei 1700€. Ich werde eine Megustameme bereit halten, wenn Nvidia den offiziellen Preis verkündet.
 
Vielleicht mag ich nicht ganz aufm laufenden sein, aber hatte PCGH nicht DLSS getestet? Die Vergleichsbilder mit DLSS sahen wirklich schrecklich aus!

Das hat sich inzwischen geändert!
Nvidia hat bei Turing bereits DLSS 2.0 gebracht und die Qualität ist z.B. bei Death Stranding besser als in Nativer Auflösung. Man kann durchaus annehmen Ampere verbessert die Technologie weiter.

Ich möchte diese Grafikdetails nicht missen, die da weggefallen sind!

Bei inzwischen durchschnittlich +25% bis +60% besseren FPS mit DLSS 2.0 spielt das für nur wenige eine entscheidende Rolle. In manchen Szenarien macht das genau den Unterschied zwischen gut spielbar und unspielbar aus.

Exakt so siehts aus... es wird weiterhin gekauft und die Leute sind Teil des Problems.

Die Leute kaufen was sie sich leisten können. Das wird sich nie ändern! Viel schlimmer finde ich die Möchtegern-Proleten mit ihren 1000€ Smartphones jedes Jahr. Da kauft man sich lieber eine 1000€ GPU und hat einige Jahre Ruhe. :schief:

Anstatt mal zu verzichten oder auf die Alternative zu warten.

Du bist vielleicht witzig!
Was denkst du denn machen viele Gamer seit Jahren? Warten auf einen würdigen Nachfolger. Es gibt immernoch genug Spieler mit alten Maxwell KArten von 2014 oder Gott bewahre Kepler Grafikkarten. :hmm:

Die warten ewig und der nächste Kracher wird gekauft. Karten gehen ja auch irgendwann einmal kaputt. Dann muss man kaufen oder das Hobby sein lassen.

Bei AMD-Seite dürften das alle Kandidaten mit 290x oder Tonga/Tahiti mit ihrem halben dutzend Refreshs sein. Leider hat AMD rückblickend ein schlechtes Zeugnis, wenn es ums Warten geht. :nicken:
 
Das klingt alles logisch und verständlich nach deutscher Mentalität, die Amis ticken aber anders und es handelt sich um amerikanische Firmen. Das Schweigen bedeutet dort tatsächlich das Nichtvorhandensein eines Gegenschlages.

Man könnte auch sagen hey, Ampere kommt im September deswegen gibts Mitte August viel Trommelwirbel und im Mai war noch nichts.
Navi kommt im Dezember deswegen gibts Mitte November viel Trommelwirbel und im August ist noch nichts.

Vielleicht ist die einfache Variante "je näher ein Release ist desto größer die Leaks und das Geraschel" (was in der Hardwarewelt quasi immer so ist) aber auch zu... einfach und man muss sich was aus amerikanischer Mentalität konstruieren. :schief:
 
Gut formuliert zumal sich ja jeder mit etwas Sachverstand ungefähr ausrechnen kann, wo die Karten in etwa landen werden. Aber es gibt auf beiden Seiten eben auch immer noch eine Reihe von Ungereimtheiten (Raytracing bei AMD, Steigerung Raytracing Nvidia, DLSS 3.0 wirklich bei jeden Spiel das TAA hat, DLSS ähnliches Derivat bei AMD? und eben auch der Preis) die noch niemand jetzt beurteilen kann.

Als Nvidia Nutzer - und mit dementsprechender Hardware bei meinen Monitoren versorgt (GSync) - sollte ich per se Nvidia präferieren, aber diesmal werde ich konsequent abwarten (die TI reicht noch bis AMD Release) und mir dann das beste Paket für meine Bedürfnisse kaufen. Ich kann es verstehen, wenn insbesondere Menschen mit weniger finanziellen Mitteln, die Preisentwicklung bei Grafikkarten nicht sonderlich toll finden. Mittelklasse ab 400+ Euro ist halt schwierig vermittelbar, wenn die neuen Konsolen 2080 Niveau schaffen (wahrscheinlich) und das bei 500-600 Euro Anschaffungskosten. Allerdings kann man ja auch mit Karten wie der 2060 Super oder RX 5700XT prima in Full HD bzw. WQHD spielen.

Die meistgespielten Spiele allemal, da muss man sich in Zukunft keine Sorgen machen. Es muss ja nicht immer die teuerste Karte sein und wir hier im Enthusiasten Forum sind eben eine Minderheit und nicht die Allgemeinheit. Dieses Lagerdenken geht einem halt irgendwann als vernunftbegabter Mensch auf den Keks - ich kann sowas nicht nachvollziehen. Ob Grün oder Rot spielt doch keine Rolle - beide Hersteller bieten tolle Karten an und da ist für jeden etwas dabei. Außerdem - Konkurrenz belebt das Geschäft und ist für uns als Kunden immer gut.
 
Auch, wenn jetzt vielleicht ein Weltbild für dich zusammenbricht, aber TF ist so ziemlich der irrelevanteste Wert für den Vergleich von GPU's den es überhaupt gibt.

Wieso sollte mein Weltbild zusammen brechen? ich gehe einfach mal stark davon aus, das Ampere ggü. Turing gleich oder besser performt mit der gleichen Rohleistung. Gegenüber Pascal kann sich Turing in neueren Spielen schon gut absetzen.
Ergo wird solch eine RTX3090 wohl gut 100% Mehrleistung auf meinen Monitor zaubern als meine jetzige GPU.

Ziemlich oberflächliches und zudem inhaltlich falsches Kommentar von dir :schief:
 
Warte doch erst Mal ab Anfang September wäre der richtige Zeitpunkt um dem Konkurrenten in die Suppe zu spucken.
Jetzt ist noch etwas zu früh dafür.
Und Falls die letzten Gerüchte stimmen sollten und big Navi in 7nm+ 505mm2, 5120 Shader mit 512Bit SI kommt. (Meiner Meinung nach sollte sie auch in etwa 2GHz / 16Gbps (1024GB/s) takten und ein IPC + wurde extern bereits bestätigt)
Wenn das also in etwa hinkommen sollte, sind +30% relativ zur 2080ti nach meiner Meinung das absolute zu erwartende Minimum dies wird wahrscheinlich gar für eine 3080ti ein harter Brocken werden.

Als kleine Anmerkung Speicherbandbreite 2080tiFE 616GB/s / big navi min. 768 max. 1024GB/s (unter der Annahme das kein HBM2 verwendet wird)

2GHz bei dem Speicherinterface, der Shadermenge und der kleinen Fläche zur Hitzeabfuhr? Man, bin ich froh, dass du bei AMD nicht fürs Design zuständig bist.
 
2GHz bei dem Speicherinterface, der Shadermenge und der kleinen Fläche zur Hitzeabfuhr? Man, bin ich froh, dass du bei AMD nicht fürs Design zuständig bist.

Die Fläche ist hier nicht das Problem (auf 500 mm^2 könntest du wenn die Kühlung stark genug ist 500W mindestens abführen - 1 W/mm^2 ist ohne große Kunstgriffe machbar, da liegen schnelle CPUs schon lange) - aber ich glaube auch nicht, dass über 2 GHz bei derart großen Chips mit 5000+Shadern dauerhaft möglich sind ohne dass die Leistungsaufnahme enorm hoch wird. Sowohl bei NV als auch bei AMD. Die Gerüchte sprechen ja schon von 300-350W für die Karten - was nebenbei auf beiden Seiten als Indiz gesehen werden kann dass man nicht glaubt, mit den "üblichen" 250W-Karten gegen die jeweilige Konkurrenz gut dastehen zu können. Offenbar traut jeder der beiden dem anderen einiges zu wenn das mit den derart hohen TDPs stimmt.
 
2GHz bei dem Speicherinterface, der Shadermenge und der kleinen Fläche zur Hitzeabfuhr? Man, bin ich froh, dass du bei AMD nicht fürs Design zuständig bist.

Der Takt der GPU wird wohl kaum markant niedriger als 2GHz ausfallen.

Man sollte bedenken das die XBOX bereits 1.8GHz und die PS5 2.2Ghz taktet. (Und Desktop ist verglichen mit den Konsolen nochmals eine ganz andere Nummer)
Die RX5700XT taktet ja auch schon 1.9GHz weswegen für mich ca. 2GHz für Big Navi als gesetzt gelten.

Glaub mir ist auch besser so, wenn ich nicht dafür verantwortlich bin. Die wissen nämlich selbst ganz genau Bescheid wie sie dieses Problem lösen können bzw. bereits gelöst haben.


Was erwartest denn du bei einer Karte die +50% Performance/Watt liefern wird. 1.6GHz? Komm wieder auf den Boden der Realität zurück sonst können wir auch gerne eine Wette machen wenn du dir da so sicher bist das der Takt deutlich geringer als 2GHz ausfallen wird.
 
Zurück