Nvidia Ampere: GA100-GPU angeblich mit 8.192 Shadern und bis zu 48 GiByte HBM2e

Im allg. kann ich dir da nur zustimmen was du gerade gesagt hast,
bei den Kosten für einen 7nm, 250mm[SUP]2[/SUP] Die allerdings, habe ich jedoch ganz andere Zahlen im Kopf.
Kannst du mir da mal einen Link schicken der auf die Herstellugskosten näher eingeht?
 
Deine Probleme / FPS möchte ich haben … ;-)

MfG Föhn.

Ich nutze ausschließlich VR, da ist durch SS, die ohnehin hohen Auflösungen und Blickwinkel und recht hohen Bildwiederholraten (144hz zB bei der Valve Index) noch unendlicher GPU Power Bedarf.

bin sehr gespannt wie HL:Alyx laufen wird, an mehr als 90fps wird aber bei hohen Details nicht zu denken sein.
 
Also 100 fps als 1% low in 1440p + RT hoch in AAA Titeln(edit: Ohne VR, oder HDR) wäre fein. :)

Hoffe auf dementsprechendes Leistungsplus der 3080 zur 1080Ti.

Wie viele shader/recheneinheiten/Gnupps und pupps das nu sind, is mir latte. ;)
Hauptsache mehr Power. :daumen:

Oh ... ich lese gerade "bis zu 48GB HBM2e", also genauer gesagt, 10 GB GDDR6 für die 3080. Is ok ... besser als nix. Kost ja nix, so n Dingen. ;)
 
Ich nutze ausschließlich VR, da ist durch SS, die ohnehin hohen Auflösungen und Blickwinkel und recht hohen Bildwiederholraten (144hz zB bei der Valve Index) noch unendlicher GPU Power Bedarf.

bin sehr gespannt wie HL:Alyx laufen wird, an mehr als 90fps wird aber bei hohen Details nicht zu denken sein.
Naja 90Hz reichen für Optikbomber ja auch vollkommen aus.
144Hz sind doch aktuell vermutlich nur für fast-paced games wie BeatSaber, Pistol Whip, etc wirklich lohnenswert oder?
 
700-800mm² Die halte ich für Consumer Karten als zu groß, da 7nm+EUV ein relativ neuer Fertigungsprozess ist und bei so großen Dies der Yield in den Keller geht. So ein riesen großer Chip wäre extrem teuer und wenn man sich mal an Volta zurückerinnert, dann brauchte Nvidia dafür eine extra angepasste Fertigung (12nm) um überhaupt so einen Monster-Die herzustellen. Für den HPC Bereich wo eine einzelne Karte auch gerne so viel kosten darf wie ein Kleinwagen, wenn die Leistung passt, ist das vorstellbar aber für Consumer Karten nicht.

Navi nutzt aktuell Dies mit ca. 250mm² und soll um die 150$ in der Produktion kosten. Wenn der Die jetzt ca. 3x so groß werden soll kostet der sicherlich 6-8x so viel weil der Yield runter geht. Der Die würde dann bereits um die 1000$ das Stück kosten, ca. 100-150$ für PCB, Kühler usw. und dann die Gewinnmarge drauf. Macht dann rund 2000$ für so ein Monster als Consumer Karte, im HPC Markt sind die Margen noch deutlich höher. Nvidia wurde von den Konsumenten aber auch Investoren bereits für den Preis der 2080ti von rund 1000$ abgestraft mit zu wenig verkauften Einheiten wodurch die erzielten Gewinne nicht den projezierten entsprachen. Für den Consumer Markt kann sich Nvidia keine noch teurere Karten leisten oder muss die Gewinnmargen für die High-End Produkte noch stärker nach oben drehen um mit einer noch geringeren Stückzahl die gewünschten Gewinne einzufahren.

Für den Consumer Bereich gehe ich noch immer von ca. 500mm² Dies aus was in den alten Fertigungsprozessen mehr oder weniger die Maximalgröße war. Nimmt man die 36 TFlops bei 2,2Ghz und 700mm² und rechnet das auf 500mm² runter (mit linearer Skalierung) dann kommt man auf rund 26 TFlops. Eine 2080ti kommt übertaktet auf 2,2GHz (was die wenigsten Karten überhaupt schaffen) auf rund 19 TFlops. Mit 500mm² Die wäre die neue Karte also rund 37% schneller bei gleichem Takt. Die meisten 2080ti schaffen aber nur 1,9-2,0 GHz, also 17 TFlops wodurch die neue Karte dann 53% schneller wäre und wenn man den offziellen Boost der 2080ti von 1,635GHz hernimmt dann kommt man auf 83% schneller. Mit den Werten liegt man dann bei den Leaks aus dem Januar wo von 50-70% mehr Leistung gesprochen wurde.

Ich hab mir jetzt mal die Mühe gemacht deine 150$ pro 250mm[SUP]2[/SUP] Die zu wiederlegen.

Ich beginne mal mit der relativ aktuellen Defect Density von 0.09/cm² für den TSMC 7NProzess. TSMC 5-Nanometer Update | WikiChip Fuse
Kosten pro 300mm Wafer laut Recherche ca. 8000 -10'000$ (Ich gehe mal bei meiner Berechnung vom worst case 10'000$ aus)

Navi 10 (251mm[SUP]2[/SUP]) --> (14.4x17.5mm[SUP]2[/SUP]) Yield pro Wafer 80%. Resultiert in 174 good / 20 teildefekt / 43 defekt ---> 10'000$ / 174 = 57.50$ (teildefekte nicht miteinkalkuliert)

Ich spinne das mal noch ein wenig weiter: (Alles unter der Voraussetzung das der 7nm+ (EUV) Prozess sobald als möglich die selben Yield's wie der bereits etablierte 7N Prozess erreichen kann was sicherlich noch etwas dauern wird) ---> Doch anscheinend schneller als zuerst gedacht.

Defect Density von 0.09/cm² --> Navi 21 / NVIDIA Kontrahent (505mm[SUP]2[/SUP]) ??? (18x28mm[SUP]2[/SUP]) ??? Yield pro Wafer 65%. Resultiert in 63 good / 14 teildefekt / 35 defekt ---> 10'000$ / 63 = 159$ (teildefekte nicht miteinkalkuliert)

Nur zur Veranschaulichung was es für eine Einfluss auf den Preis hätte bei verschiedenen Yield Raten:
Defect Density von 0.15/cm² --> Navi 21 / NVIDIA Kontrahent (505mm[SUP]2[/SUP]) ??? (18x28mm[SUP]2[/SUP]) ??? Yield pro Wafer 49%. Resultiert in 48 good / 14 teildefekt / 50 defekt ---> 10'000$ / 48 = 208$ (teildefekte nicht miteinkalkuliert)

Defect Density von 0.20/cm² --> Navi 21 / NVIDIA Kontrahent (505mm[SUP]2[/SUP]) ??? (18x28mm[SUP]2[/SUP]) ??? Yield pro Wafer 40%. Resultiert in 39 good / 14 teildefekt / 59 defekt ---> 10'000$ / 39 = 256$ (teildefekte nicht miteinkalkuliert)

Defect Density von 0.09/cm² --> Ampere (800mm[SUP]2[/SUP]) ??? (24x33mm[SUP]2[/SUP]) ??? Yield pro Wafer 51%. Resultiert in 30 good / 6 teildefekt / 28 defekt ---> 10'000$ / 30 = 333$ (teildefekte nicht miteinkalkuliert)

------> Gut möglich das wir uns bereits jetzt bei einer Defect Density von ca. 0.09/cm[SUP]2[/SUP] befinden -----> siehe folge Post: The N7+ volume production is one of the fastest on record in Fab 15. It is matching yields similar to the original N7 process that has been in volume production for more than one year.

Defect Density von 0.15/cm² --> Ampere (800mm[SUP]2[/SUP]) ??? (24x33mm[SUP]2[/SUP]) ??? Yield pro Wafer 34%. Resultiert in 20 good / 6 teildefekt / 38 defekt ---> 10'000$ / 20 = 500$ (teildefekte nicht miteinkalkuliert)

Defect Density von 0.25/cm² --> Ampere (800mm[SUP]2[/SUP]) ??? (24x33mm[SUP]2[/SUP]) ??? Yield pro Wafer 19%. Resultiert in 11 good / 6 teildefekt / 47 defekt ---> 10'000$ / 11 = 909$ (teildefekte nicht miteinkalkuliert)

Defect Density von 0.35/cm² --> Ampere (800mm[SUP]2[/SUP]) ??? (24x33mm[SUP]2[/SUP]) ??? Yield pro Wafer 11%. Resultiert in 7 good / 6 teildefekt / 51 defekt ---> 10'000$ / 7 = 1430$ (teildefekte nicht miteinkalkuliert)

Die Yield Calculator:
Die Per Wafer Calculator -

Dann kommen noch ca. 10$ pro GB für den GDDR6 hinzu (Bei Grossabnehmern bis zu 40% Rabatt)
8GB ---> 50-80$
16GB ----> 100-160$
24GB ------> 150-240$
(bei HBM2 dürfen wohl gerne nochmals min. 50% drauf gelegt werden)

Dann noch fürs Board, Kühlung etc. keine Ahnung 50 -100$??? Für den Ampere

Das wären dann 333$ (inkl. teildefekte sogar noch weniger) + ca. 200 -300$ (24GB) + 100$ = ca. 600$ -700$ für den Ampere + Marge NVIDIA > 60% + Marge Händler + Marge (Asus , Gigabyte etc.) + 300 Millionen Design Kosten 7nm --> The Impact of Moore's Law Ending

Für einen ca. 500mm[SUP]2[/SUP] Chip von Nvidia oder AMD mit 16GB würde das in etwa auf 160$ + 130$ (mean) + 60$ (Board + Kühling) = ca. 350$ hinauslaufen.
(160$ + >60% Marge NVIDIA = > 400$) + siehe oben.

Eben die Marge von >60% kommt bei NVIDIA nicht von ungefähr.

Chiplet 8 core:
Zen 2 (74mm[SUP]2[/SUP]) --> (7.1x10.5mm[SUP]2[/SUP]) Yield pro Wafer 94%. Resultiert in 732 good / 58 teildefekt / 50 defekt ---> 10'000$ / 732 = 13.70$ (teildefekte nicht miteinkalkuliert)

Hier noch einige Beiträge die sich mit meinen Zahlen decken oder ein ähnliches Resultat liefern.
Informativ aber yield Rate nicht mehr aktuell:
Zen2: Chiplet Quality Examined By Cost – AdoredTV

Kommt auch auf ca. 60$ für den Navi 10:
Analysis of Why Navi is Such Poor Value And Shouldn'''t Be Purchased Until Prices Go Down : Amd
 
Zuletzt bearbeitet:
Ich hoffe mal das eine Titan oder 3080ti noch dieses Jahr kommt, sonst müsste der PC den ich im Q4 bauen will erst einmal mit der jetzigen Karte laufen :(
 
Interessant könnte auch das folgende sein, dass ich gerade auf der Webseite von TSMC entdeckt habe:
Leider ist keine detaillierte Zeitangabe angegeben, allerdings könnte ich mir gut vorstellen das es sich beim kurzzeitigen Anstieg der defect density bzw. Abfall der Yield Rate (<70%) um den letzten Oktober handelt. Im folgenden Artikel der auf den letzten Oktober fällt wird spekulativ aus diesem Grund die nicht Verwendung des 7nm+ Prozesses für den ca. 100mm2 grossen Apple A13 erwähnt. TSMC's N7+ EUV Yield Dropped Below 70% Claims Report

Falls das wirklich der Fall sein sollte, hätten wir bereits jetzt eine vergleichbare Yield bzw. defect density zum bereits etablierten 7nm Prozess.
Dies wäre wirklich erstaunlich und würde wiederum bedeuten, dass dieses Jahr, mit ein wenig Glück, vielleicht doch noch ein Gaming Ableger kommen könnte.

N7+ Technology - Taiwan Semiconductor Manufacturing Company Limited
TSMC 7nm+.png
 
Zuletzt bearbeitet:
Naja 90Hz reichen für Optikbomber ja auch vollkommen aus.
144Hz sind doch aktuell vermutlich nur für fast-paced games wie BeatSaber, Pistol Whip, etc wirklich lohnenswert oder?

Wenn es irgendwie geht versuche ich immer mindestens 120hz/fps zu bekommen, aber ohne synthetische Hilfe. Fühlt sich für mich spürbar direkter und 'smoother' an.
 
Interessant könnte auch das folgende sein [...]

Vorab danke für die Arbeit, die du dir zuvor/oben gemacht hast.

Als Ergänzung: Der temporäre Yield-Drop beim N7+ kann nichts mit Apples Entscheidung bzgl. des A13 (der übrigens mehr als doppelt so viele Transistoren wie AMDs Chiplet hat) zu tun gehabt haben. Der N7 und N7+ sind bzgl. der Design Rules inkompatibel, d. h. die Entscheidung zugunsten des N7P muss schon in 2018 getroffen worden sein. Abseits dessen war sie auch nicht abwegig, denn der A12 wurde auf/für den N7 entwickelt und so ließen sich Teilkomponenten ohne Aufwändige Neuimplementation übertragen. Die Vermutungen bzgl. einer Verwendung des damals neuesten/modernsten Prozesses N7+ (mit EUV) bei Apple sind weitestgehend den Medien zuzuschreiben.

Zudem, wenn TSMC den Graphen nicht geschönt hat, war auch der N7+ auf einem sehr guten und vergleichbarem Weg wie der N7 und der Drop war ein unvorhersehbares Produktionsproblem und konnte somit gar nicht vorab berücksichtigt werden. Abseits dessen verwundert der gute Yield auch nicht, denn hier gibt es beträchtliche Ähnlichkeiten zwischen den Prozessen, jedoch verwendet der N7+ vier EUV-Lagen, was den Aufwand an Multipattering bereits etwas reduziert.

Ergänzend zu deiner Abschließenden Spekulation: AMD hat nicht ohne Grund vor ein paar Tagen herausgestellt, dass nicht zwingend anzunehmen ist, dass man zeitnah (teilweises) EUV verwenden wird, denn deren in den vormaligen Sheets verwendetes "7nm+" sollte lediglich einen aktuelleren 7 nm-Prozess bedeuten und war nicht synonym zu TSMCs N7+ gedacht. Hier geht es seitens AMD wohl um Erwartungshaltungsmanagement. ;-)
Abseits dessen besteht auch keine Notwendigkeit für ein derartiges Vorgehen. Die Prozessvorteile des N7P und N7+ sind sich sehr ähnlich; lediglich die geringfügige Flächenreduktion des N7+ durch die vier EUV-Lagen entfällt beim N7P natürlich. Die Verwendung des N7P würde für AMD zudem einen wesentlichen Zeit- und Konstenvorteil bedeuten, sodass ich davon ausgehen würde, dass eine (Weiter)Verwendung des N7P in 2020 weitaus wahrscheinlicher ist.

"Höhenflüge" in der Leistung? [...] Ich ahne neue Rekorde...vor allem in der Preisgestaltung [...]

Mit deinen Preisabschätzungen wirst du wahrscheinlich nicht einmal ansatzweise hinkommen, vornehmlich, weil es sich bei obigem um ein Datacenter-Design zu handeln scheint, also einen Volta-Nachfolger. Hier bleibt noch abzuwarten, ob man auf Basis der Ampere-Architektur beide Segmente bedienen wird oder ob der Turing-Nachfolger ein komplett eigenes, von Ampere unabhängiges Design sein wird.
 
Zuletzt bearbeitet:

Das ist durchaus realitisch so. Es konnte doch keiner ernsthaft annehmen dass die 3080Ti auf dem GA100 basieren wird mit ~8.000 Shadern und 24GB HBM2. Das ist der Volta GV100 Nachfolger. Ist doch klar dass jener Chip ein HPC Chip is und für "Consumer" bestenfall als >5k€ Titan kommt. Für die 3080Ti ist ein Chip mit 384bit SI und ~5.000 Shadern naheliegend, sowie dass der Release des Consumer Lineups später in der Zukunft liegen wird.

Aber wozu die scjon wieder die melki melki Aufregung? Nvidia hat doch nichts zu verschenken, warum sollten sie auch, sind ein gewinnorientiertes Unternehmen. Man muss deren überteuerte Produkte ja nicht kaufen, sondern erst dann wenn man für sein jeweiliges Budget die gewünschte Mehrleistung bekommt oder es passende Alternativen (RDNA) gibt. Ich werd aus vielerlei Gründen wahrscheinlich auch darum ene Bogen machen und mir einen mittleren RDNA2 Chip gönnen falls mir die Vega nicht mehr ausreicht :D
 
Zuletzt bearbeitet:
Zurück