Nvidia Ampere im ersten Halbjahr 2020? Wie ein Satz die Runde im Internet macht

Früher war es mal selbstverständlich, dass die Leistung um teilweise 100% stieg und die Karten etwa gleich viel gekostet haben. Viele sind eben Anspruchslos geworden und geben sich mit extrem wenig zufrieden.

Früher sah die Kostenseite auch ganz anders aus. Schau Dir einfach mal an, wie sich die R&D Kosten bei TSMC, nVidia, Intel oder AMD im Laufe der Jahre entwickelt haben. Bei TSMC zum Beispiel haben sich die R&D Ausgaben von NT$ 40 Mrd. in 2012 auf ca. NT$ 86 Mrd. in 2018 mehr als verdoppelt. Die neuen, immer feineren Fertigungsprozesse, inklusive Aus- und Umrüstung der Fabs mit exorbitant teuren ASML Belichtungsmaschinen, kosten nun mal immens viel Geld. Ebenso sind auf Seiten der Chiphersteller die Kosten für die Designs explodiert. Es wird immer teurer und aufwändiger.

Gleichzeitig wollen die Chiphersteller natürlich auch nicht auf ihre Margen verzichten. Hohe Margen sichern hohe Gewinne und hohe Gewinne sichern die Investitionen in R&D und damit in die Zukunft (und sind keineswegs nur gut für die Boni der CEOs und für die Dividenden wie manche Kommunisten einen glauben lassen wollen). Ohne Gewinne kann man nicht groß investieren, woran AMD aufgrund ihrer Ertrags- und erdrückenden Schuldensituation lange Zeit gelitten haben. Wenn Zinsen & Tilgung die Gewinne auffressen, kann man keine großen Sprünge machen. Jetzt geht es nach langer Durststrecke endlich wieder etwas bergauf bei AMD.

Man sollte die Zeichen der Zeit akzeptieren und nicht immer den "guten" alten Zeiten hinterher trauern. Das wird so nicht wieder kommen, es sei denn es gibt irgendwann einen sensationellen Durchbruch, wie sich hochperformante Strukturen günstig(er) herstellen lassen. Allzu wahrscheinlich ist das nach jetzigem Kenntnisstand nicht und bis dahin werden AMD und nVidia sich sicherlich nicht gegenseitig in Preiskriegen aufreiben. Warum und wozu denn auch? Nur um ein paar Gamer-Freibiergesichter zufriedenzustellen?
 
Früher sah die Kostenseite auch ganz anders aus. Schau Dir einfach mal an, wie sich die R&D Kosten bei TSMC, nVidia, Intel oder AMD im Laufe der Jahre entwickelt haben. Bei TSMC zum Beispiel haben sich die R&D Ausgaben von NT$ 40 Mrd. in 2012 auf ca. NT$ 86 Mrd. in 2018 mehr als verdoppelt. Die neuen, immer feineren Fertigungsprozesse, inklusive Aus- und Umrüstung der Fabs mit exorbitant teuren ASML Belichtungsmaschinen, kosten nun mal immens viel Geld. Ebenso sind auf Seiten der Chiphersteller die Kosten für die Designs explodiert. Es wird immer teurer und aufwändiger.

Mag sein, dafür ist der Halbleitermarkt aber auch vom Volumen explodiert, das sollte es mehr als nur kompensieren. Selbst wenn das nicht der Fall wäre, die enorm gestiegenen Kosten sind in keinem Verhältnis zu dem, was da prozentual fällig wäre.

Man sollte die Zeichen der Zeit akzeptieren und nicht immer den "guten" alten Zeiten hinterher trauern.

Nein, sollte man nicht, man sollte die Kosten kritisch hinterfragen.

Das es anders geht zeigt AMD mit seinen CPUs. Mit deiner Einstellung würden 8 Kern CPUs wohl heute noch 1000€ kosten.

Nur um ein paar Gamer-Freibiergesichter zufriedenzustellen?

Sich nicht abzocken zu lassen ist bei dir also mit Freibiergesicht gleichgesetzt?

Eigenartige Ansicht, ich hoffe du bist immer so großzügig.
 
Dann wäre Turing 1,5 Jahre am Markt, zusätzlich kann man noch einmal die Preise erhöhen und Ampere darüber platzieren.
Das dürfte Nvidia schmecken.

Da glaube ich nicht dran. Im letzten oder vorletzten Quartalsbericht hat Nvidia seinen Investoren gesagt dass man die Margen nicht weiter steigern kann, da der Absatz der High-End GPUs (damals noch 2080 und 2080ti) sehr niedrig war. Auch die anfangs schlechten Verkaufszahlen der 2070 und später 2060 hat Nvidia mit den hohen Preisen erklärt. Nvidia hat ähnlich wie Apple den Maximalpreis den User bereit sind zu zahlen erreicht und werden wahrscheinlich die Preise langsam wieder senken. Wahrscheinlich ähnlich wie Apple so um 50-100€, was die neuen Karten aber noch immer um einiges Teurer machen würde als die Pascal Karten.
 
Da glaube ich nicht dran. Im letzten oder vorletzten Quartalsbericht hat Nvidia seinen Investoren gesagt dass man die Margen nicht weiter steigern kann, da der Absatz der High-End GPUs (damals noch 2080 und 2080ti) sehr niedrig war. Auch die anfangs schlechten Verkaufszahlen der 2070 und später 2060 hat Nvidia mit den hohen Preisen erklärt. Nvidia hat ähnlich wie Apple den Maximalpreis den User bereit sind zu zahlen erreicht und werden wahrscheinlich die Preise langsam wieder senken. Wahrscheinlich ähnlich wie Apple so um 50-100€, was die neuen Karten aber noch immer um einiges Teurer machen würde als die Pascal Karten.
Dazu müssen zuerst mal die Chipgrößen runter.
Abgesehen davon gibt es mit Raytracing wieder ein Zugpferd. Für gutes Raytracing werden die Leute schon bereit sein zu zahlen. Wird noch ein bisschen dauern, aber wenn mehr und mehr Spiele kommen, wer weiß...
so nen Typen ausm Internet
;) jaja immer diese Random Typen ausm Internet. Am besten noch youtuber. Weil die können immer irgendwas behaupten, da gibts keine Gegenkritik wie etwa bei einer Website, die schnell mal zerrissen werden kann. Per Video kann man immer allen alles erzählen ;)

Jedenfalls hat Nvidia kürzlich klar gestellt, dass GPUs weiterhin bei TSMC vom Band laufen. Bei Samsung werdens wohl diverse Chips für Auto und Co sein.

Letzten Endes werden die Sprünge sowieso immer kleiner. Also die Abstände zwischen den Prozessen.
Früher war eine nominelle Halbierung des Prozesses (etwa 90 auf65 und 45nm) tatsächlich mit einer Verdoppelung der Transistoren einhergehend, heute sinds eher 20% statt 100

N7+: TSMC liefert 7-nm-EUV-Chips in hoher Stueckzahl - ComputerBase
 
Zuletzt bearbeitet:
Letzten Endes werden die Sprünge sowieso immer kleiner. Also die Abstände zwischen den Prozessen.

Wenn nVidia TSMC N7+ verwendet, wird der Sprung beträchtlich sein, da nVidia aktuell noch bei denen in 12 nm fertigt. Im Vergleich zu deren 10 nm-Prozess ermöglicht der N7+ bereits grob um die 45 % Flächenverkleinerung und 45 % Power Savings.
Die Werte dürften für Samsungs 7LPP ähnlich aussehen.
Der nächst größere Schritt bzw. der nächste "Full-Node" wird 5 nm sein, bei TSMC in Form des N5 (Intel nennt diesen "7nm" bzw. P1276), der erneut beträchtliche Zugewinne bieten wird. AMD wird jedoch vorerst von dem keinen Gebrauch machen, was auch eine Kostenfrage ist, zumal man sich vorerst auf den N7+ festgelegt hat. Möglicherweise übergeht man den N5 auch komplett und verwendet in 2HJ21 direkt den performance-optimierten N5P.
 
Ich habe dich damals gebeten mich nicht mehr zu zitieren oder anderweitig auf meine Posts einzugehen.

Wenn dir meine Meinung nicht passt, dann kannst du meinen Post auch ignorieren, gleiches Recht für alle.
Diese Aufrufe zum Boykott funktionieren vielleicht bei non-Bio Produkten oder belastetem Trinkwasser oder bei Produkten mit viel CO2 Verbrauch, weil alle Menschen die gleichen Interessen haben.
Bei GPU´s funktioniert das nicht.

Deine Meinung interessiert mich nicht, und ich möchte mich nicht weiter mit dir belasten.
Deine Meinung interessiert mich auch nicht. Wichtig sind auch nicht Meinungen, sondern die Argumente dahinter.
Ich unterhalte mich lieber mit einer Wand,als mit so jemanden wie dir.

Danke fürs Kompliment, sehr sozial.:schief:
 
"Sehr schön". Dann kostet eine angenommene RTX 3070 ja nur ab 599€. Zu teuer für manche? Tja, Performance und Schönheit/dolle Optik wollte schon immer gut bezahlt werden. Und wenn der Konkurrent im oberen Segment pennt...

Auf den VRAM der neuen Karten wär ich ja mal gespannt. Sehen wir endlich mehr wie 8/11GB?

Gruß

Wer's noch bemerkt hat...
Nvidia "steigert" die Leistung ihrer GPUs durch eine retrokrative Typenbezeichnung...leider zählt der Preis dabei nicht mit runter... ;)
Eine 3080Ti wird kaum unter 1500€ zu bekommen sein, wohl eher etwas mehr, so dass OC-Customer-Karten sich eng an die 2000€ Marke anlehnen werden...die 3080 (ohne Ti) wird dann die Leistung der 2080Ti erreichen, oder leicht übertreffen, aber auch mindestens so viel kosten wie diese...der Sabberbei Nvidia(-Aktionären) läuft bestimmt schon... :)

mfg
 
Solange wie die brauchen gibts schon Zen3... und dann muss man diese Diskussion mit was ist besser PC oder PS6, nach binnen von 2 Monaten auch nicht mehr anhören
 
Letzten Endes werden die Sprünge sowieso immer kleiner. Also die Abstände zwischen den Prozessen.
Früher war eine nominelle Halbierung des Prozesses (etwa 90 auf65 und 45nm) tatsächlich mit einer Verdoppelung der Transistoren einhergehend, heute sinds eher 20% statt 100

Ja weil die Chipfläche für Tensor Cores für verwaschenes und vorberechnetes Anti Aliasing oder mäßig funktionierende Raytracing Kerne (eine Titan V ohne RT Kerne war sehr schnell in BF5) verbraten wird.
Eine 2080Ti die keinen mm² für solchen Schnickschnack hergeben hätte müssen wäre ein echtes Monster geworden.

Ich habe nichts gegen Raytracing, aber wenn dann bitte gleich richtig - in Form einer (Zusatz-)Karte nur für Raytracing - so wie damals die 3DFX Beschleuniger-Karten.
Das tolle an RT ist zB das das relativ linear skaliert - man könnte also auf die Packung drucken welche Framerate in welcher Auflösung geht - aber dann gäbs auch weniger zu testen für PCGH_Raff ;)
 
Müsste da nicht ein ODER statt dem UND stehen

Nein, in diesem Fall ist es tatsächlich ein UND (wie Tech_Blogger bereits bemerkte). nVidia's Sprung in der Fertigungstechnologie wird in diesem Fall tatsächlich beträchtlich sein (egal bei wem sie fertigen lassen).
Und darüber hinaus, wie schon angemerkt, ist ein nachfolgender, signifikanter Sprung erst bei Verwendung der 5nm-Prozesse zu erwarten. TSMCs N7+ (N6) und N7P sind nur kleinere Iterationen, auch wenn mit den beiden erstgenannten nun auch erstmals EUV ins Spiel kommt.
 
Nein, in diesem Fall ist es tatsächlich ein UND (wie Tech_Blogger bereits bemerkte). nVidia's Sprung in der Fertigungstechnologie wird in diesem Fall tatsächlich beträchtlich sein (egal bei wem sie fertigen lassen).
Und darüber hinaus, wie schon angemerkt, ist ein nachfolgender, signifikanter Sprung erst bei Verwendung der 5nm-Prozesse zu erwarten. TSMCs N7+ (N6) und N7P sind nur kleinere Iterationen, auch wenn mit den beiden erstgenannten nun auch erstmals EUV ins Spiel kommt.

wenn die ebenfalls nur sowenig rausholen wie AMD da wird das kein riesiger Sprung

hoffe mal Nvidia bekommt das besser hin
 
Zurück