Nvidia Ampere: Gainward leakt Spezifikationen der RTX 3090 & RTX 3080

Ich versuche es so kurz zu erklären wie ich kann:
Im Markt gibt es eine unheimlich hohe und stetig wachsende Nachfrage nach sehr schnellen GPUs mit sehr viel VRAM. Die Nachfrage wird getrieben von Unternehmen (z.B. Google) und wissenschaftlichen Instituten die GPUs für Parallel Compuation Use Cases (z.B. AI) nutzen. In diesem Markt sind die Margen deutlich höher als bei Gaming Karten, zudem kann Nvidia hier noch ihre Software und Beratungsdienstleistungen verkaufen. Nvidia Ingenieure sitzen z.B. bei Banken und helfen ihnen dabei, ihre Financial/Trading Analytics Tools auf GPUs zu optimieren.

Dafür baut Nvidia sehr potente Produkte und verkauft Derivate davon als Gaming Hardware, man könnte schon fast Abfallprodukte sagen wenn man gemein ist. Hier ein Link dazu:
NVIDIA's Data Center Business Is Now Almost as Big as Gaming | The Motley Fool

Hm, erst mal danke für die ausführliche Erläuterung. Der Punkt, den ich nicht verstehe: Für die von Dir aufgezählte Klientel gibt's doch imho GX 100. Bekommt der RTX-Kunde denn keine Gamingkarte wie es zumindest bis Pascal üblich war, sondern "Abfallprodukte" ? Sind die sich abzeichnenden 1,3 bis 2 K nicht etwas viel für "Abfall" um jetzt gleich mal bei dem Wort zu bleiben? :hmm:
 
Das ist doch eine ganz andere Situation.

Nvidia hat ja nicht dermaßen viel verschlafen wie Intel. AMD hat aufgeholt weil Intel einfach Mist gebaut hat. Aber Tatsache ist, dass AMD mit 7nm CPUs nicht in der Lage ist, die 14nm Intel CPUs, welche auf einer alten Architektur basieren, in Games zu schlagen. Sollte Intel die selbe alte Skylake Architektur bei einem Auftragsfertiger in 7nm herstellen, würde sie damit AMD gegen die Wand fahren. So gut steht AMD nicht da, wie es viele glauben.

Trotzdem hoffe ich, dass sie AMD weiter aufholt und irgendwann überholt, was für den Kunden das Beste ist.

Vorsicht mit den nm Angaben, 14nm Intel entspricht ca. 10nm TSMC. 10nm Intel ca. 7nm TSMC. Die NM Angaben sind aktuell eher Marketingwerte und nicht mehr Wirklichkeitsgetreu
 
Ich finde nicht, dass es im Enthusiasten Bereich ein zuviel geben kann :D.
NVIDIA weiß halt wie man richtig melkt erst mal bis Big Navi die 3080 mit höherer Marge mit 10 GB verticken und danach eine 20 GB Version bringen um zu zeigen, dass man seine GPU's doch besser ausstattet :ugly: und ich bin mir ziemlich sicher, dass das verdammt gut funktionieren wird, der 0815 Käufer informiert sich 0.

Ja das mag sein, so bildet sich aber kein sinniges Produkt mit gutem P/L Verhältnis was attraktiv wäre. Ne 10GB Karte kaufe ich nicht mehr, die 24GB Karte wird mir wohl zu teuer. Kann doch nicht so schwer sein mal ein attraktives Produkt zu entwerfen. Ich würd auch gern mal wieder ne grüne Karte kaufen. Ist der selbe Unsinn wie mit der 2080, die war auch useless.
 
Im Grunde knausert NV fast schon traditionell mit dem VRAM. Aus wirtschaftlicher Sicht verständlich. Es spart Kosten und bringt User dazu regelmäßiger aufzurüsten. Für den Kunden ist das jedoch nicht so toll.
 
Für mich eine einfache Entscheidung, die RTX 3090 wird es, falls Sie mein Budgetlimit nicht überschreitet. Ist Sie zu teuer wird es entweder BigNavi mit 16GB oder die RTX 3080 mit 20GB, sofern die leaks stimmen und diese Karte wirklich kommt.
 
Nvidias Augen wenn die Enthusiasten sich die "Day One" Edition der 3090 Karte kaufen und die noch eine 3090Ti in Petto haben: $ $

Spaß beiseite, die wollen ihren Kunden doch nur das bestmögliche Produkt zu einem fairen Preis anbieten. :D
 
Mal die Präferenz einer Marke außen vor gelassen - bei den zeitlichen Abständen der Releases ergibt es einfach keinen Sinn Ampere zu kaufen solange man nicht weiß was RDNA2 bietet.

Das ist Pauschal richtig, aber die Vergangenheit hat gezeigt, dass AMD in der Regel nicht aufschließen kann. Vor allem werden dann manche die ganzen Nvidia Features mitbegründen, RTX, Hairworks und der ganze Kram.

Faszinierend finde ich aber, dass die RTX 3090 wohl die neue Titan ist, oder Nvidia bastelt noch im Geheimen an einer Titan mit 32gb...
 
RDNA2 = 80CU
3090 = 82SM

Wo siehst du da "absolut keine Konkurrenz", wenn du als Basis RDNA/Turing nimmst und wie sich dort beide bei identischer Rohperformance schlagen?

Du vergisst, dass bei AMD die CUs für RT benutzt werden sollen. Diese fehlen dir dann beim nicht RT Part.

- Full-Cover-Wasserblock
- 1399€ incl Versand
- Lieferung in 2 Werktagen

Nie im Leben :D
Wohl eher 1800+ und 1 Woche Wartezeit.
 
Das ist Pauschal richtig, aber die Vergangenheit hat gezeigt, dass AMD in der Regel nicht aufschließen kann.

Ich denke, dass wir die Vergangenheit mal Vergangenheit lassen sollten. Du hast natürlich Recht, dass AMD längere Zeit Probleme hatte die durchaus Potente Rohleistung in FPS umzuwandeln.
Mit Erscheinen von RDNA (1) hat AMD es aber geschafft, ca. 50% mehr Leistung pro TFLOP in Spielen zu erreichen (gemäß dem Fall, dass ich mich jetzt nicht komplett verrechnet habe). Und wir wissen alle, dass RDNA (1) noch auf Teile von GCN setzt.
Demnach halte auch ich es für sinnvoll, nicht direkt blind Ampere zu kaufen, bevor nicht zumindest mehr Details zu RDNA2, bzw. Big Navi verfügbar sind. Eine Enttäuschung, wie nach den Hypetrains zu Polaris (RX 480 Launch) oder Vega wird es dieses Mal meines Erachtens nach bei AMD nicht geben.

Vor allem werden dann manche die ganzen Nvidia Features mitbegründen, RTX, Hairworks und der ganze Kram.

Durchaus möglich, aber zumindest RTX, bzw. Raytracing wird ja in naher Zukunft auch kein Nvidia-Exklusives Feature mehr sein.

Es bleibt spannend!
 
Ich dachte das einer Compute Unit vier Raytracing-Beschleuniger haben? Bei Nvidias RTX-20-Turing wird nur ein Raytracing-Kern pro Shader-Cluster verbaut.

Okay vielleicht liege ich auch falsch. Ich dachte, dass AMD die CUs gleichzeitig auch fürs RT verwenden will, anstatt zusätzliche Cores/HW zu verbauen, so wie es bei NV der Fall ist.
 
Leute... Das kann vielleicht sein (DLSS und Tensor), aber schickt mir nicht dafür irgendein Werbematerial der Hersteller. Wo sind wir denn hier?

Mein Stand war, daß man Tensor braucht um den DLSS-Set zu erstellen, aber nicht um... beim Endkunden das Ergebnis zu visualisieren. Das DeepLearning also z.B. nicht erst während des Spielens stattfindet.
Sorry dafür ;)
 
Okay vielleicht liege ich auch falsch. Ich dachte, dass AMD die CUs gleichzeitig auch fürs RT verwenden will, anstatt zusätzliche Cores/HW zu verbauen, so wie es bei NV der Fall ist.

mWn will AMD die CUs zum raytracen benutzen, aber entgegen der meisten sehe ich da nicht so ein großes problem. Denn auch wenn Nvidia dedizierte RT cores hat, teilen sie sich das power budget mit den normalen cuda cores, sodass beide karten beim raytracen gleich viel strom ziehen dürfen wie unter normaler vollast auch. Es kommt also schlussendlich eher darauf an, wie viel schneller dedizierte RT cores gegenüber general purpose CUs mit angeflanschter RT technik sind
 
CU cores, als "general purpose" units, werden nie so effektiv sein (was das Powerbudget angeht) als dedizierte, fixed function Einheiten.

Dafür muss man auf der anderen Seite auch keine Chipfläche dafür drangeben, die für nicht RT- und nicht-DLSS-Anwendungen dann völlig brach liegen. Wie immer ein Trade-Off. Es ist gut, dass man als Kunde die Wahl hat, welchen Weg man gehen möchte (wenn es so kommt, wäre MEINE Entscheidung bereits gefallen!).
 
Hm, erst mal danke für die ausführliche Erläuterung. Der Punkt, den ich nicht verstehe: Für die von Dir aufgezählte Klientel gibt's doch imho GX 100. Bekommt der RTX-Kunde denn keine Gamingkarte wie es zumindest bis Pascal üblich war, sondern "Abfallprodukte" ? Sind die sich abzeichnenden 1,3 bis 2 K nicht etwas viel für "Abfall" um jetzt gleich mal bei dem Wort zu bleiben? :hmm:

Ja das könnte man so sagen wenn man etwas gemein ist. Hier die Spezifikation des A100: 6912 CUDA Cores, 40GB VRAM, 1.6TB/s Memory Bandwidth.
Die Ampere Architektur hat Nvidia nicht wirklich deshalb entwickelt, damit z.B. ich noch besser Flight Simulator in 4K spielen kann. Aber den Gaming Markt nimmt Nvidia einfach nebenbei mit. AMD spiel hier aktuell kaum eine Rolle.
 
Aber den Gaming Markt nimmt Nvidia einfach nebenbei mit.
Das ist so nicht richtig. nVidia sieht sich selbst gerne so und arbeitet auch darauf hin, aber die Gaming Sparte wirft nach wie vor das meiste Geld ab und alles andere ist auch aus jener erwachsen.
Aber ja, die Gamer bekommen schon lange den "Abfall" der Vollausbauten serviert. Einfach nur, weil es so reicht, da die Konkurrenz fehlt.
 
CU cores, als "general purpose" units, werden nie so effektiv sein (was das Powerbudget angeht) als dedizierte, fixed function Einheiten.

Ja das ist klar, aber ich wollte auf was ganz anderes raus. Wenn bei AMD die CU Cores gerade Raytracen, können sie nichts anderes machen bzw. für was anderes verwendet werden.
Bei Nvidia können gewisse Berechnungen aber parallel laufen, weil hier extra Cores fürs RayTracen existieren. Unabhängig jetzt vom Performanceunterschied zwischen CU cores und RT Cores.
 
Ja das ist klar, aber ich wollte auf was ganz anderes raus. Wenn bei AMD die CU Cores gerade Raytracen, können sie nichts anderes machen bzw. für was anderes verwendet werden.
Bei Nvidia können gewisse Berechnungen aber parallel laufen, weil hier extra Cores fürs RayTracen existieren. Unabhängig jetzt vom Performanceunterschied zwischen CU cores und RT Cores.

Mein Kenntnisstand ist der, dass bei nVidia's Rendering Pipeline die 'klassischen' Rendereinheiten auch für Raytracing integriert sind, die RT Cores aber eben ff also potenteill performanter/Watt sind.

Alles was ich bisher zur Raytracing Leistung von RDNA2 weiß sind die Aussagen der Programmierer, die für die nextGen Konsolen RT implementieren und damit angeblich nicht happy sind. Ob sie mit RT per se oder der AMD spezifischen Technik unzufrieden sind weiß ich nicht.

Sollte es aber so sein, dass die CUs von RDNA2 mithin general purpose sind, dann ist es zumindest nicht von der Hand zu weisen, dass die Errechnung der Vergleichbarkeit von Ampere vs RDNA2 auf Basis SM vs CUs mal Anzahl und plus 20% IPC Steigerung 'schwierig' im Bezug auf RT Performance ist.

Aber ganz ehrlich, in 36 Stunden legt der eine vor und bis Ende des Jahres haben beide ihre Karten auf dem Tisch.

Für mich zählt reine VR Performance, da ist die Entscheidung quasi vorgegeben. Würde ich mehr am Monitor zocken, würde ich diesmal definitiv bis zur Vorstellung von RDNA2 warten.
 
Zurück