Nvidia Volta: GV100 kostet fast 1.000 USD in der Produktion, keine Geforces 2017

Wenn GV100 so teuer in der Herstellung ist, wie viel werden dann GV104 und GV102 in der Herstellung kosten?
Und wieviel kostet die Herstellung von GP102?

Die GP104 und GV104 sind so kleine Chips dass die Kosten sehr klein sind (Größenordnung 50$ pro Chip).
Die GP102-Chips mit Größen von um die 500 mm^2 Die-Size liegen im Bereich von 100$.

Erst wenn du an die technischen Grenzen gehst und 800 mm^2-Chips wie den GV100 bauen willst kostet sowas 500+$ pro Chip.

Als Vergleich damals veröffentlichte Zahlen was eine Grafikkarte mit sehr großem Chip kostet, Zahlen für die GTX580, 520mm^2:
GPU: 120$
RAM: 27,68$
Mosfets: 9,77$
Kühler: 33,39$
Logic: 0,25$
Taktgeber: 0,50$
Passivkühler/Backplate: 2$
Connectors: 4$
PCB: 7,29$

Gesamtherstellungskosten: 205,41$

Marktpreis: 500$

Gewinnspanne: ~240%


Heute verkaufste einen kleineren Chip als TitanXP für 1400$ mit ner Gewinnspanne von 700% weil keine Konkurrenz da ist. So kleine Karten wie etwa eine GTX1080 (was früher die GTX x60-Karten waren) kostet in der Herstellung insgesamt vielleicht 100$. Auch hier sind 500-700% Gewinn drauf (ohne natürlich Kosten für Vertrieb, Marketing, F&E usw. einzubeziehen).

Bei aktuellen Grafikkartenpreisen verdient sich NV auf deutsch gesagt dumm und dämlich - was man beispielsweise am Aktienkursverlauf des letzten Jahres gut erkennen kann. ;-)
 
Zuletzt bearbeitet:
Die nächsten Generationen von AMD und Nvidia werden dann sowiso anders aufgebaut sein.
eher modular wie ca. AMD Threadripper (Fabric)

MULTI-CHIP-MODULE:
Nvidia arbeitet an MCM-basierter Grafik
https://www.golem.de/news/multi-chip-module-nvidia-arbeitet-an-mcm-basierter-grafik-1707-128732.html

Nvidia PDF:
http://research.nvidia.com/sites/de...PU:-Multi-Chip-Module-GPUs/p320-Arunkumar.pdf

MCM-GPU: Multi-Chip-Module GPUs for Continued Performance Scalability
ISCA ’17, June 24-28, 2017, Toronto, ON, Canada

------------
AMD's Infinity Fabric Detailed - The Innovative, Real-World Implementation of The Company's 'Perfect Lego' Philosophy

The Heart Of AMD’s Epyc Comeback Is Infinity Fabric
 
Zuletzt bearbeitet:
Was den Großteil im OEM Consumermarkt aber nicht interessiert, muss man auch klar dazu sagen. Retail macht wol 10-20% aus, AMD muss viel mehr OEM'ser finden um damit eine höhere Marktdurchdringung zu erlangen. Erst dann werden Entwickler auch zielgerichtet darauf eingehen, ohne die dazugehörigen Marktanteile würde man sonst eine gesamte Sparte abkoppeln.
Den OEM-Markt muss SummitRidge so oder so gar nicht interessieren. OEM, Desktop und Gaming ist einer Dreierkombi, die so gar nicht zueinander passt und das kommt zum Glück langsam aber sicher auch im Markt an, die Welt ist im Wandel und so...
...OEM im Consumer-Desktop muss ausschließlich RavenRidge vs. CoffeeLake-S interessieren. Und der OEM-Servermarkt interessiert sich nur für EPYC.
Sowas wie Dell Alienware im Desktop ist eine einzige Randerscheinung. Daher müssen auch die Desktop-Grafikkarten kaum wen interessieren:
Kein Polaris, kein Vega, kein Pascal, kein Volta. Alle drei sind nur für den Mobile- und AllInOne-Markt interessant, Vega und Volta aufgrund von HBM naturgemäß mehr als Polaris und Pascal.
 
Mit anderen Worten Volta wird nicht für dem Massenmarkt kozeptiert sein,
sondern nur für die High End Plattformen von Rechenzentren,Wissenschaftliche Anwendungen,Server ect.
Doch könnte auch die Teildefekte GPU,s für normalo Menschen zu erwerben sein,später eventuell?
Schaun war mal.Ich glaube die neuen Vram DDR6 im nähsten Jahr müßten dann immer noch günstiger
in der Fertigung sein als die HBM2 Speicher.Dann ist doch die frage,was sie real leisten werden und wie
gut Nvidia dagegen halten wird.Leider ist meine Glaskugel kaputt gegangen und muß warten bis next Jahr.

grüße Brex
 
Warum sollte man morgen in Santa Clara große Augen machen ?
Über eine Vega 56, die möglicherweise minimal über eine mittlerweile seit 1 Jahr erhältlichen GTX 1070 liegt und dabei einen guten Schluck mehr aus der Steckdose sich genehmigt ?
Das wird allenfalls Gelächter geben, weil es das Konkurrenzprodukt 1 geschlagenes Jahr später mit Ach und Krach auf das ungefähr gleiche Leistungsniveau schafft, aber dabei deutlich ineffizienter ist.

Es ist leider so, das AMD bei dem GPUs weit weit davon entfernt ist, ähnlich zu agieren, wie man es mit Ryzen im CPU Bereich geschafft hat. Man zieht mit 1 Jahr Verspätung gerade mal so gleich, hat aber auch das deutlich iniffizientere Produkt. Also nichts, was bei den Grünen wirklich Unruhe auslöst. Wohl eher im Gegenteil, da man mit der nächsten Generation wohl schon deutlich weiter sein dürfte und man mit dieser AMD wohl wird erneut deutlich auf Abstand wird halten können.
Was so eine faktisch konkurrenzlose Marktposition mit sich bringt, durfte man ja leider in der Vergangenheit bei Intel und Nvidia gleichermaßen erfahren.
 
Warum sollte nvidia noch dieses Jahr ihre eigenen Produkte kannibalisieren?! Die wären ja mal schön doof... Zumal die Leistung der 1060 / 1070 / 1080ti auch noch locker bis Mitte des nächsten Jahres reicht.

Persönlich wünsche ich mir auch eine neue Karte, die 1080ti ist schon hart an der Grenze bei 4K Ultra Gaming, selbst meine beiden 1070 waren ne ganze Ecke schneller im SLI als eine 1080ti.

Ja, von den Frames vielleicht, dank Mikroruckler aber ganz sicher nicht vom subjektiven Spielgefühl :ugly::lol:
 
eben genau das bringt mich zum weinen
keine Konkurrenz keine fairness im Preis

nun Nvidia hat dasselbe Problem wie amd
Die gpu ist für 1080p zu stark bei dx11 und den aktuellen CPu arch

eine gtx1080ti braucht etwa 4,6ghz Singlecoretakt idealerweise allcore bis auf 4 Kerne weil physisch gerade nicht mehr geht.

nun wo ist der Ausweg
4K
abseits des Problems das 4K also besser gesagt uhd ist.
Gibt es da einen Markt für?
Klar man kann eine titan xv bringen und diese als 120fps 4K Karte Verkaufen
nämlich der gv102 wird sicher 50% mehr leisten als pascal gp102
Gründe sind Fertigung verkleinerte chip, shader menge erhöht und mehr Takt durch weniger Abwärme.
Bedeutet das nvidia aktuell ein gv102 gv104 nicht benötigt
Allein wenn nvidia die Fertigung umstellt und pascal ein Takt boost gibt auf ~2,5ghz würde das komplette portfolio bis 2019 bringen
erst 2019 mit gv104 dann die chips in gtx1280 1270 in Leistungsbereich der titan xp/gtx1080ti mit 2,5ghz
Dann könnte bis dahin hoffen das endlich dx12/vulkan verwendet wird und langsam in engines fester Bestandteil sind.
am anfang könnte man 4k mit 120fps bewerben was nur eine Nische bedient
Später bei dx12 Nutzung als Argument schnellste gpu am Markt für 1080p 1440p gaming
Derzeit sehe ich nur die Herabstufung der chips bei nicht Takt Erhöhung als Lösung
quasi wie schon beschrieben umlabeln von 1080ti auf 1080, 1080 als 1070 1070 als 1060 usw
nun ist die frage was billiger ist zu produzieren
dieselben chips günstiger verkaufen und Produktion für volta optimieren und direkt mit gtx 1280 gv104 in 12nm oder Produktion umstellen pascal shrinken und Takt erhöhen chipklasse behalten
Und später von der Erfahrung der Produktion direkt volta optimiert verkaufen mit voraussichtlicher höheren preisen gtx 1280 ab 1000€
Solange amd nicht aufschließt, wird es teuer für uns.
Zum Glück betrifft das nur gamer die auf 4k wollen.Es hängt alles davon ab wie der Kunde auf win 10 reagiert.
Schluckt er das Datenschutzauflösung oder gibt es endlich eine bewegung am markt diese OS zu meiden.Und win8,1 blüht auf.
Aus Schäfchen sicht würde ich sagen sie schlucken das. Aus Kundensiucht mit etwas verstand würde ich sagen das Win7 bis zu 2020 ohne Hardwarewechsel sich nicht auf win 10 einlässt
Dieses api limit ist das Problem, entweder die CPu knacken die 5ghz oder vulkan setzt sich durch.
und solange Nvidia von dx12 maximal dieselbe Leistung hat wie dx11 wird sich dx12 nicht durchsetzen.
Sorry amd fanboys aber der gcn Ansatz funktioniert nur in einer neuen api optimal. Das war 2012 schon klar gewesen. Ich vermutete damals aber ein AMD Treiber Problem.Und musste erst 4 Jahre später erfahren das es ganz anders ist.
Nur durch solche Sachen lernt man dazu. vorher war mir nicht klar das die API die gpu limitiert und cpu Takt immer noch das limit ist.
Und solange die spiele engines nicht darauf ausgelegt sind Parallel zu arbeiten solange wird sich dx12 sowie vulkan nicht durchsetzen.
Und hier Kommen die Konsolen ins Spiel. Vor PS5 / xbox ? wird keine neue api in game engines verwendet.
 

Man muss dazu aber auch erwähnen das es intel hier nicht um Spiele sondern Compute GPUs geht die relativ lokal laufen und stark parallelisierbar sind. Bei Spielen kannst du eine derartige Architektur vergessen, da wandern noch ein paar Generationen an Grafikkarten über den Tisch bis sich das was bringt.

Denn Spiele haben gewaltige Unterschiede in ihrem Verhalten, vor allem Texturen und Echtzeit.
So ziemlich alles was gerendert wird erhält sein Aussehen durch Texturen. Da kann man dann nicht einfach den Die durchsägen und hoffen alles Funktioniert. Wenn jetzt jeder Die seinen eigenen Speicher erhält dann müssen die Daten zwischen den Dies noch herumgeleitet werden. Das wiederum führt dazu das die Cores ewig auf was zum rechnen warten müssten.
 
Die GP104 und GV104 sind so kleine Chips dass die Kosten sehr klein sind (Größenordnung 50$ pro Chip).
Die GP102-Chips mit Größen von um die 500 mm^2 Die-Size liegen im Bereich von 100$.

Erst wenn du an die technischen Grenzen gehst und 800 mm^2-Chips wie den GV100 bauen willst kostet sowas 500+$ pro Chip.

Als Vergleich damals veröffentlichte Zahlen was eine Grafikkarte mit sehr großem Chip kostet, Zahlen für die GTX580, 520mm^2:
GPU: 120$
RAM: 27,68$
Mosfets: 9,77$
Kühler: 33,39$
Logic: 0,25$
Taktgeber: 0,50$
Passivkühler/Backplate: 2$
Connectors: 4$
PCB: 7,29$

Gesamtherstellungskosten: 205,41$

Marktpreis: 500$

Gewinnspanne: ~240%


Heute verkaufste einen kleineren Chip als TitanXP für 1400$ mit ner Gewinnspanne von 700% weil keine Konkurrenz da ist. So kleine Karten wie etwa eine GTX1080 (was früher die GTX x60-Karten waren) kostet in der Herstellung insgesamt vielleicht 100$. Auch hier sind 500-700% Gewinn drauf (ohne natürlich Kosten für Vertrieb, Marketing, F&E usw. einzubeziehen).

Bei aktuellen Grafikkartenpreisen verdient sich NV auf deutsch gesagt dumm und dämlich - was man beispielsweise am Aktienkursverlauf des letzten Jahres gut erkennen kann. ;-)

Sehr schöne und ausführliche Ausführung :daumen: :hail:

Ich schreibe das hier schon seit Jahren ins Forum rein, dass Nvidia seit der GTX 670/680 Mittelkassechips als High-End vermarktet und somit Mondpreise für ihre Grafikkarten rechtfertigt,
aber es gibt leider trotzdem genug Leute die eine GTX 670/680 oder GTX 970 aka "Speicherkrüppel des Todes"/980 gekauft und dann stolz behauptet haben sie hätten eine High-End-Kart,
nur um dann ein Jahr später feststellen zu müssen dass der Vram nicht mehr ausreicht :ugly: :lol:

Eigentlich müssten einem diese Leute leid tun, aber wer wirklich so schlau ist und 400-600 Euro in eine Mittelkassekarte versenkt, der hat auch nichts anderes verdient...:devil:

Da habe ich für meinen Teil lieber 300 Euro für eine gebrauchte GTX 980TI mit 1400 MHz Chiptakt ausgegeben, die dann auch noch schneller ist als eine GTX 1070 die zu dem Zeitpunkt noch 150 Euro mehr gekostet hat und habe einen High-End-Chip, der nicht an einer zu niedrigen Speicherbandbreite verhungert :daumen:
 
Zuletzt bearbeitet:
Das weist du woher genau? Spar dir die Luft bis morgen gg 15uhr auf, dann darfste dich nochmal realistisch zur Leistung äußern!

Wenn AMD nicht konkurrenzfähig wäre dann würdest du für NVIDIA Karten noch mehr zahlen, also sei froh das es so ist. Außerdem verdienen die Hersteller das meiste Geld nicht im oberen preissegment, sondern darunter was auch logisch ist.
ich sage dir schonmal Voraus das NVIDIA ab morgen 15uhr große Augen machen wird zu Vega, gerade was die kleine 56er betrifft. Die ti wird man nicht schlagen können, aber es wird Szenarien geben in höheren Auflösung wo der Abstand nicht mehr so groß ist. Ich denke es wird so ähnlich ablaufen wie beim ryzen Release, nicht das schnellste Produkt aber alles andere an Board.
Einmal noch schlafen dann können wir hier realistisch argumentieren weil wir Ergebnisse schwarz auf weiß haben!


Warum soll man bis Morgen warten !!!Nur weil PCGH dann was veröffentlichen was schon die meisten wissen oder denken können . Da sieht man schön wieder wie du/ihr PCGH von der hand frisst

Und warum soll Nvidia grosse Augen machen .die haben schon Erfahrungen bzw ihre Daten wo sie brauchen schon bevor wir irgendendwelchen Sachen als Leaks lesen/erfahren . Und da braucht NVIDIA keine PCGH dafür um irgendwas zu erfahren was HW angeht

Vllt schaust du morgen Gross und bist verplext
 
Zuletzt bearbeitet:
Na toll jetz macht Nvidia nen ruhigen und lässt schleifen, man hats ja momentan nicht nötig und die 1000 $ pro chip nehm ich dem auch nicht ab. Heißt wohl das wenn Volta nächstes Jahr kommt die 2000er Marke für ne Graka gesprengt werden dürfte.

Ich glaub da zäumst du irgendwie das Pferd von hinten auf.

Mal von vorne: Alle Volta Chips werden im neuen 12nm FFN Prozess hergestellt. Den Prozess muss TSMC erst mal in den Griff bekommen und dann gleich mit sonem Klopper von 815 mm² (Das ist die größte Die bisher und wirklich das Limit des momentan technisch möglichen.) rauszuhauen ist an sich schon kein billiges Vergnügen. Man beachte, dass es nur eine Hand voll Auftragsfertiger gibt, die bei mehr als 500 mm² keine kalte Füße bekommen. Wenn man jetzt die Kosten nur für den auf Nvidia zugeschnittenen Prozess sich ansieht reden wir schon von irgenwas um 50 Millionen Dollar, die alleine TSMC für Entwicklung, Umrüstkosten usw. wieder haben will, wird das die Kosten pro belichteten Wafer nicht gerade günstiger als beim "normale" 14nm FF machen. (Da ist schon berücksichtigt, dass der Prozess größtenteils auf dem TSMC 14nm FF basiert.) Und erst wenn TSMC den Prozess im Griff hat und die Yield entsprechend hoch (alles über 60% wäre beim GV100 wohl schon mehr als gut für den überschaubaren HPC und Deep Learning Markt) können sie mit der Massenproduktion der kleineren und in der Herstellung sowieso günstigeren Chips (die ja in der Pipeline warten) anfangen. Der Preis der Grakas wird daher in etwa so bleiben, wie er jetzt ist, und nicht steigen, was der Fall wäre, wenn jetzt schon damit begonnen würde.
 
Das Ding würden auch nVidia Fanboys kaufen, müsste Huang die Marge nur kleiner machen :ugly:
Interessant wird es so oder so wie ich persönlich finde, freue mich schon auf kleine Voltas nächstes Jahr :daumen:

Schöner G-Sync Monitor mit einer vernünftigen Geforce wäre schon was, mal sehen was mich das dann kostet.
 
nun wo ist der Ausweg
4K
abseits des Problems das 4K also besser gesagt uhd ist.
Gibt es da einen Markt für?

4K - Pffft, dass können doch schon Konsolen 16K ist das nächste 4K: :devil:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Wir haben einige aufregende neue Technologien in der Pipeline zu bieten. Aber für die Holiday-Season, für die absehbare Zukunft, glaube ich, dass Pascal unschlagbar ist. Es ist einfach die beste Sache da draußen.

Also für mich heißt das: "Solange die Konkurrenz nichts bringt, dass uns abhängt könnt ihr Plebs ruhig weiterhin unsere 1 Jahr alte Produkt-Serie kaufen. Ihr habt eh keine andere Wahl."

Ich hoffe das beißt sie ähnlich in den Hintern wie es bei Intel der Fall war/ist.
 
Also für mich heißt das: "Solange die Konkurrenz nichts bringt, dass uns abhängt könnt ihr Plebs ruhig weiterhin unsere 1 Jahr alte Produkt-Serie kaufen. Ihr habt eh keine andere Wahl."

Ich hoffe das beißt sie ähnlich in den Hintern wie es bei Intel der Fall war/ist.

Nö, ist der ganz normale Releaserythmus: GTX980 = 2014 / GTX1080 = 2016 / GTX xx80 = 2018
Genauso die Titan X und GTX xx80Ti-Serien: GTX Titan X; GTX980Ti = 2015 / GTX Titan X + Xp; GTX1080Ti = 2017 / GTX Titan XYZ; GTX xx80Ti = 2019

Buisness as usual und nicht das was du hier suggerieren willst ...
 
Na toll jetz macht Nvidia nen ruhigen und lässt schleifen, man hats ja momentan nicht nötig und die 1000 $ pro chip nehm ich dem auch nicht ab. Heißt wohl das wenn Volta nächstes Jahr kommt die 2000er Marke für ne Graka gesprengt werden dürfte.
Lesen sollte man schon können
ALLES zusammen (Chip, der 800mm² groß ist mit vermutlich niedrigen Yieldraten, speziellem Prozess, sauteurer HBM Ram und zwar gleich 16 GB davon, Trägermaterial, Produktion...) kosten mehrere hundert KNAPP 1000$
Und wo man "langsam" macht, weiß ich nicht. Ist eig. lange so bekannt, dass keine Volta Gaming Karten mehr kommen heuer.

Übrigens: Wenn man einen reinen Gamingchip der 820mm² groß ist, samt mit 1TB/s angebundenen 16 GB RAM Anbieten würde, gäbe es genug, die 2000 hinlegen würden. Allein für die technische Machbarkeit dieses "geilen" Stücks Hardware.

Ich bezweifle stark, dass die "nen ruhigen" machen, sondern es dürfte schlicht daran liegen, dass man eine neue Modellreihe nicht eben aus dem Ärmel schüttelt.

Maxwell hat mit der 970/980 im September 2014 das Licht der Welt erblickt, der Abschluss erfolgte mit der 980Ti am Juni 2015.
Pascal betrat mit der 1070/1080 im Mai/Juni 2016 die Bühne und schloss mit der 1080Ti/Titan XP im April 2017 ab.

Man darf also annehmen, dass ca. zur Mitte 2018 neues Spielzeug verfügbar wird, vielleicht dann die 1170/1180
daumen.gif



Genau so ist das. Zwischen Release Maxwell und Release Pascal waren es knapp 2 Jahre und warum sollte man seinen eigenen Produkten jetzt schon Konkurrenz machen?

Na gut, man könnte Volta 12nm Gaming Chips rausbringen, wo vermutlich der 120mm² Chip in Form der "2050" in die Performance-Fußstapfen der 1060 tritt und AMD weiterhin ein paar klatscht, damit man noch weiter die Konkurrenz ausm Markt drückt. Ist wohl aber nicht im Interesse von Nvidia, wenns auch ohne geht.
 
Zuletzt bearbeitet:
Ohh wow. Mit $1000 pro GV100 ist man tatsächlich schon bei 4-5 funktionierenden Dies pro Wafer angekommen - deutlich besser als ich erwartet hatte.
Das steht da nicht. Das hat niemand so gesagt. Bitte lesen!
Glaub kaum dass Nvidia Morgen große Augen machen wird. Die wissen schon längst was Vega kann.
Natürlich nicht, die haben Vega längst selbst getestet. Glaubst du, die warten da auf ein NDA?
Krass, wer hättet gedacht das meine Titan X Pascal so lange durchhalten wird.
In der letzten Zeit wechselten sich die High-End-Chips schneller ab^^
Eigentlich jeder als klar war, dass AMD Polaris nur in den Mainstream bringt und Nvidia wieder einen Highendchip bringt in 2016. Danach war nur fragwürdig ob Vega schneller ist als Pascal, aber da man von GCN ausging, war eigentlich auch das nicht wirklich eine Frage nach Polaris-Release.
 
Zuletzt bearbeitet:
Ich sehe etwas schwarz als Consumer für bei den Preisen für die nächste Grakageneration bei NV.

VEGA hält nicht mal mit der 1080ti mit.., jetzt hat NV absolut freies Spiel und können ihre Preise weiter anheben..

Nächstes Jahr wohl eine 1170 für 600€ und 1180 für 900€.

Wer soll das denn noch bezahlen können.., vllt. wirds doch kein Gaming PC nächstes Jahr, sondern eine PS4.. :(
 
Zumal die Leistung der 1060 / 1070 / 1080ti auch noch locker bis Mitte des nächsten Jahres reicht.

Würd' ich meine Hand nicht für ins Feuer legen; UHD kommt langsam bei immer mehr Leuten an und es werden weiterhin neue Spiele produziert. Ich luns' mal schief auf Star Citizien ...
 
Würd' ich meine Hand nicht für ins Feuer legen; UHD kommt langsam bei immer mehr Leuten an und es werden weiterhin neue Spiele produziert. Ich luns' mal schief auf Star Citizien ...

Bei mir ist meine 1080 mit FHD unterfordert, jedoch möchte ich einerseits auf WQHD andererseits gerne auf 4K aber nur wenn es eine Karte gibt die auch stable 60 FPS auf hohen Einstellungen schafft, denke mit einer 2080 ti könnte es soweit sein.
 
Zurück