Die AD-104 Preisfalle

4thVariety

BIOS-Overclocker(in)
Quelle 1: (https://www.techpowerup.com/gpu-specs/geforce-rtx-4070-ti.c3950)
der AD-104, der Chip der in der 4070Ti verbaut ist, misst 295mm²

Anmerkung: in dieser Quelle ist ein Fehler. TSMC nennt den Prozess zwar 4N, aber es ist dennoch der 5nm Prozess.

Quelle 2: (https://hardwaresfera.com/en/noticias/hardware/precio-oblea-tsmc-5nm/)
Der Preis eines 300mm Durchmesser Wafers von TSMC 5nm ist $17.000

Quelle 3: (https://www.silicon-edge.co.uk/j/index.php/resources/die-per-wafer)
Aus einem Wafer bekommt man 198 Chips heraus.
Einige Chips sind gut genug für eine 4070Ti, andere Chips werden Teildefekte besitzen, diese werden dann zu 4070, oder 4060Ti, oder was auch immer Nvidia will.

Wichtig: TSMC interessiert sich nicht dafür als was Nvidia die Chips verkaufen kann. Nvidia will einen belichteten Wafer, die bekommen einen belichteten Wafer, und der Wafer kostet $17.000. Egal ob da einen 4070TI oder 4060 später daraus wird, der Preis pro Chip sind immer $17.000 geteilt durch 198. Das macht aufgerundet $86.


Quelle 4: (https://s22.q4cdn.com/364334381/files/doc_financials/2022/ar/2022-Annual-Review.pdf)
Seite 35 ist interessant. Da steht Cost of Revenue 35%. Damit ist gemeint, dass wenn Nvidia 100€ einnimmt, dann entfallen 35€ davon die Chips bei TSMC zu beschaffen. Entwicklung, Werbung etc. kommt erst weiter unten. Nvidia verkauft aber die Chips von TSMC als Bundle mit RAM und da wird es schwierig gute aktuelle Zahlen zu bekommen. Nur weil man bei Alternate keine GDDR6 Chips zum selbstlöten kaufen kann, bedeutet das nicht, dass man das nicht anderswo kann.

Quelle 5: (https://www.igorslab.de/nvidia-mach...geforce-rtx-4070-ti-suprim-x-12-gb-im-test/3/)
Danke IGOR für das Bild, wir wollen also 12GB von Micron "2RU47 D8BZC", besser bekannt als Produkt "MT61K256M32JE-21:T"
Kostet auf Ali Express 7,7€ pro GB, wir sollten den Preis den Nvidia zahlt an der Stelle mal halbieren.

Chip + RAM = $133 (aufgerundet). Kombiniert mit der Marge aus dem Jahresbericht sollte das Bundle damit für $380 zu Asus, Gigabyte, MSI, etc. verschifft werden. Der Jahresbericht 2022 auf Seite 35 hilft uns einzuordnen wie NVidia die $380 verballert. Nach Abzug der Einkaufskosten, der ganzen Gehälter, der Entwicklung und Werbung bleiben Nvidia stolze $137 Reingewinn pro verkaufter 4070Ti.

Das ist insofern eine schlechte Nachricht, weil das ist die Summe die Nvidia nachgeben kann. Unter der Annahme, dass die im Jahresbericht genannten Durchschnittswerte hier Anwendung finden. Sicherlich lässt sich hier argumentieren, dass man der Gamingkarte nicht die ganzen Kosten aller Entwickler anrechnen kann, Serversparte muss sehen wo sie bleibt, damit ist der Anteil der Dev-Kosten geringer als den Firmenschnitt zu nehmen, aber am Ende des Tages wissen wir, dass wenn Nvidia den Chip und den RAM für $137 kauft, dann hat das eine Untergrenze die ein AD-104 sehr schwer unterschreiten wird.

Quelle 6: (https://arstechnica.com/gaming/2022...h-longtime-partner-nvidia-exiting-gpu-market/)
Hier lesen wir, dass die Hersteller der Karten inzwischen nur noch 5% Marge haben.

Vorher gilt es die Fertigungskosten zu bedenken. Kühler, Bestückungsautomat und leider haben wir hierzu keine verlässlichen Zahlen irgendwo. Das sind wohl gehütete Geheimnisse. Ich stelle daher einfach mal die Zahl $150€ in den Raum. Wir hätten dann $380 an Nvidia plus $150 Fertigungskosten und 5% Marge. Macht $556, was zunächst nicht so übel klingt. Aber der Importeur (Dienstleister, selbst wenn Asus China an Asus Deutschland liefert) nimmt 5%, der Distributor nimmt 5%, der Händler nimmt 5%, der Dollarkurs addiert 6% und Olaf Scholz will 19%. Schon sind wir bei 811€. Da sind wir so weit gar nicht drüber. Ab 933€ bekommt man einen AD-104 bei uns. In den USA kostet die Karte $799 ohne dass die MWSt. enthalten ist (Typischerweise 7%), sind dann auch 900€ umgerechnet.

Würde Nvidia für den RAM den gleichen Preis zahlen wie ich auf AliExpress dann würde der Preis passen.
Wären die Herstellungskosten höher, würde der Preis auch so hinkommen. Ihr könnt ja mal auf Youtube nachsehen was in China mit Covid abgeht, das kann für die Kosten nicht gut sein..
Wenn wir uns das Geschäftsmodell von Nvidia ansehen, dann können die maximal $137 im Preis nachgeben, würden dann aber einen S#i!storm von den Investoren bekommen warum sie Chips zum Selbstkostenpreis durchschieben.

Damit schnappt die Preisfalle zu. TSMC wird nicht nachgeben, die müssen strategisch ihre Produktion von Taiwan nach USA und in die EU ausweiten, das kostet Geld, das Geld nimmt man sich mit teuren Wafern. Nvidia kann gar nicht so groß nachgeben und sobald sie das tun, werden die Kartenhersteller versuchen ihre ausgetrockneten Margen wiederbeleben. Die Jagd nach immer höheren TDPs macht die Karten nicht leichter zu produzieren, also werden die Herstellungskosten hoch bleiben. Selbst wenn die Hersteller die Preise nicht hochhalten, dann werden es die Distributoren und Händler tun. Aktuell bekommt niemand die Stückzahlen produziert um das Angebot so zu überfluten, dass die Margen von allen gedrückt werden. Einer wird immer ausscheren.

Nennt mich Schwarzseher, aber ich würde ich geistig schon mal von der Generation verabschieden. Der Preis kommt leider nicht von ungefähr, sondern ist tragische Konsequenz die schon bei TSMC und MIcron ihren Anfang nimmt.

Die 4080 sollte nach meiner Rechnung $183 pro Chip Kosten, mit RAM und Preisaufschlag geht die für $700 an die Boardpartner raus und der Rest vom System den die Karte durchläuft führt dann auch zu den 1400€ die wir aktuell sehen. Niemals Importeure, Distributoren, Händler etc. vergessen, da läppert sich immer etwas zusammen und plötzlich ist man bei solchen Preisen.

Ich will damit aber in keinem Fall Nvidia von der Schuld an den Preisen entlasten. Die haben sich auf dieses Rennen eingelassen mit AMD, jetzt zahlen sie den Preis für große Chips auf teuren TSMC Prozessen und der ganzen Kette an anderen Faktoren.
 
Was du dabei unterschlägst ist die Tatsache, dass nicht jeder Chip auch tatsächlich so "wenig" teildefekt ist, dass man ihn noch für irgendeine GPU nutzen kann.
Abgesehen davon, da ich wenig Lust habe 200 Seiten durchzusuchen, auf was für eine Stückzahl werden die Entwicklungskosten denn runtergebrochen?
Ansonsten aber danke für die Arbeit ist, echt mal interessant was die Karten in der Herstellung grob kosten:daumen:.
 
Danke für die Aufklärung.
Wenn das alles halbwegs stimmt sieht die Zukunft was Preise angeht tatsächlich nicht rosig aus.
Zum Glück habe ich zur Zeit keine Not, die 6700XT reicht für meine Ansprüche in WQHD und wenn
die FPS zu gering werden gibts ja noch den FPS-Verschlimmbesserer FSR :ugly:
 
Sehr informativ, danke für die Arbeit.
Selbst wenn die Preise nur grobe Schätzwerte sind, sieht man schon, dass da Einiges zusammenkommt.
 
Konsolen sind nicht teurer geworden nur die ps5 um sagenhafte 10%. Die erste Konsole um 499 erschien 2017. Komisch warum geht es dort?
 
Wobei die Spiele jetzt auch nicht unbedingt teurer sind wenn man nicht sofort beim Start kauft.
Auch auch XBOX und PS gibts inzwischen regelmäßig Angebote.
Bei den Konsolen wird das denke ich über Masse geregelt.
Die wird einmal entwickelt und dann massenweisee verkauft, anders als jegliche PC Hardware die sich praktisch im Jahrestakt erneuert.
 
Vielen Dank für die Recherche. Damit kann man sich Diskussionen um Preissenkungen sparen, womit Kritiker am ehesten mit Humor überzeugt werden können. Oder ich lasse es gleich sein. Für mich spart das Zeit. Die Leaks zu Ada Lovelace führten zu einer Analyse der Chips und allen wurde ein sehr gutes Preis Leistungverhältnis attestiert mit Vorteilen für den Käufer.
 
Vielen Dank für die Aufklärung. Kostet sicherlich eine Menge Zeit die Informationen aus verschiedenen Quellen zu sammeln. :hail:
 
Wobei die Marge von den Distris schon niedrig angesetzt ist, die nehmen auch gerne im niedrigen zweistelligen Bereich, wenn du nicht grade als großer Handelspartner anfragst.

Nvidia könnte durchaus mehr nachlassen, wenn sie die GPUs nicht im Bundle mit dem Speicher verkaufen.
 
Konsolen sind nicht teurer geworden nur die ps5 um sagenhafte 10%. Die erste Konsole um 499 erschien 2017. Komisch warum geht es dort?

Was ist das denn für eine Logik? Die PS5 hat heute die selbe (veraltete) Hardware verbaut wie 2020. Da ist es wohl kein Kunststück ohne großartige Preiserhöhungen die Konsole noch anbieten zu können.
 
[...]
Quelle 5: (https://www.igorslab.de/nvidia-mach...geforce-rtx-4070-ti-suprim-x-12-gb-im-test/3/)
Danke IGOR für das Bild, wir wollen also 12GB von Micron "2RU47 D8BZC", besser bekannt als Produkt "MT61K256M32JE-21:T"
Kostet auf Ali Express 7,7€ pro GB, wir sollten den Preis den Nvidia zahlt an der Stelle mal halbieren.

Habe vor rund 2 Jahren GDD6X für rund 4 Dollar pro 1GB-Chip aus China gekauft. Bei 100 Stück gab's schon Rabatte. Leider gibt es jetzt nicht mehr viele seriöse Anbieter, die an Endkunden verkaufen. Die von dir genannten 7.70€ pro GB sind mehr ein Scalper-Angebot.

Trotzdem denke ich, dass Nvidia als Großabnehmer ohne Zwischenhändler nicht viel mehr als 2 oder vielleicht max. 3 Dollar Bezahlen wird.

Was ist das denn für eine Logik? Die PS5 hat heute die selbe (veraltete) Hardware verbaut wie 2020. Da ist es wohl kein Kunststück ohne großartige Preiserhöhungen die Konsole noch anbieten zu können.

Nunja, veraltet würde ich das nicht unbedingt nennen. Die APUs werden sowohl bei der Playstation als auch bei der Xbox in 7nm bei TSMC gefertigt. Das ist zwar eine "Generation" älter, aber immer noch aktuelle Fertigungstechnik.
TSMC hat generell die Preise angezogen, es trifft also auch die 7nm-Wafer.

Und selbst wenn der Wafer an sich nur die Hälfte kostet, wären das grade mal rund 40 Dollar Ersparnis...
Dafür hat eine Grafikkarte aber auch nur diesen einen Chip. Viel mehr, außer den Spannungswandlern, ist ja heutzutage nicht mehr auf den Platinen.

Eine Konsole ist da doch noch deutlich komplexer: Southbridge, SSD Controller und Speicherchips, USB-, Wifi- und BT-Controler, Bluraylaufwerk, Game-Contoller und Netzteil. Und ein vollständiges Betriebssystem will dafür auch noch entwickelt werden.

Trotzdem kann ich zwei Konsolen zum Preis einer Grafikkarte kaufen.
 
Nunja, veraltet würde ich das nicht unbedingt nennen. Die APUs werden sowohl bei der Playstation als auch bei der Xbox in 7nm bei TSMC gefertigt. Das ist zwar eine "Generation" älter, aber immer noch aktuelle Fertigungstechnik.
TSMC hat generell die Preise angezogen, es trifft also auch die 7nm-Wafer.

Und selbst wenn der Wafer an sich nur die Hälfte kostet, wären das grade mal rund 40 Dollar Ersparnis...
Dafür hat eine Grafikkarte aber auch nur diesen einen Chip. Viel mehr, außer den Spannungswandlern, ist ja heutzutage nicht mehr auf den Platinen.

Eine Konsole ist da doch noch deutlich komplexer: Southbridge, SSD Controller und Speicherchips, USB-, Wifi- und BT-Controler, Bluraylaufwerk, Game-Contoller und Netzteil. Und ein vollständiges Betriebssystem will dafür auch noch entwickelt werden.

Trotzdem kann ich zwei Konsolen zum Preis einer Grafikkarte kaufen.

Die Hardware der PS5 basiert auf einer Zen 2 CPU und einer RDNA 1.5 GPU. Natürlich ist das aus heutiger Sicht veraltet und ist in Punkto Herstellungskosten etwas vollkommen Anderes als aktuelle Hardware.
 
Die Hardware der PS5 basiert auf einer Zen 2 CPU und einer RDNA 1.5 GPU. Natürlich ist das aus heutiger Sicht veraltet und ist in Punkto Herstellungskosten etwas vollkommen Anderes als aktuelle Hardware.

Es ist doch egal, wie alt ein Chip ist, er muss trotzdem hergestellt werden!
Und wie gesagt, so veraltet ist 7nm nun auch nicht.

Wenn man die oben verlinkte Tabelle heranzieht, kostet ein 7nm Wafer rund 10.000 Dollar, anstelle der 17.000 für 5nm! Die PS5 APU hat nur geringfügig mehr Chipfläche als der AD-104 (308mm² ggü. 295mm²). Es müssten sich also ungefähr gleich viele Chips aus einem Wafer gewinnen lassen. Im Gegensatz zu Nvidia kann Sony aber keine teil-deaktivierten Chips verwenden, denn eine "Playstation 5 Light" gibt es nicht.

Eine PS5-APU müsste also mindestens rund 50 Dollar in der Fertigung kosten!
Würde Sony für die Playstation eine gleich große APU in 5nm fertigen lassen, würden die Produktionskosten der Konsole lediglich um 36 Dollar steigen!
 
Habe vor rund 2 Jahren GDD6X für rund 4 Dollar pro 1GB-Chip aus China gekauft. Bei 100 Stück gab's schon Rabatte. Leider gibt es jetzt nicht mehr viele seriöse Anbieter, die an Endkunden verkaufen. Die von dir genannten 7.70€ pro GB sind mehr ein Scalper-Angebot.

Trotzdem denke ich, dass Nvidia als Großabnehmer ohne Zwischenhändler nicht viel mehr als 2 oder vielleicht max. 3 Dollar Bezahlen wird.



Nunja, veraltet würde ich das nicht unbedingt nennen. Die APUs werden sowohl bei der Playstation als auch bei der Xbox in 7nm bei TSMC gefertigt. Das ist zwar eine "Generation" älter, aber immer noch aktuelle Fertigungstechnik.
TSMC hat generell die Preise angezogen, es trifft also auch die 7nm-Wafer.

Und selbst wenn der Wafer an sich nur die Hälfte kostet, wären das grade mal rund 40 Dollar Ersparnis...
Dafür hat eine Grafikkarte aber auch nur diesen einen Chip. Viel mehr, außer den Spannungswandlern, ist ja heutzutage nicht mehr auf den Platinen.

Eine Konsole ist da doch noch deutlich komplexer: Southbridge, SSD Controller und Speicherchips, USB-, Wifi- und BT-Controler, Bluraylaufwerk, Game-Contoller und Netzteil. Und ein vollständiges Betriebssystem will dafür auch noch entwickelt werden.

Trotzdem kann ich zwei Konsolen zum Preis einer Grafikkarte kaufen.
Der eine Chip ist ja das Problem. Selbst der Xbox X Scarlet SOC kommt gesamt nur auf 360mm² in 7nm, da gegen ist AD104 mit 295 mm² schon groß und AD103 mit 378mm² geradezu riesig. Die Playstation liegt bei rund 300mm² in 7nm.
Besonders wenn sich mal die Transistorenanzahl ansieht. Der gesamte XBox X SOC hat rund 15 Milliarden, ein Ad104 hat 35 Milliarden.
 
Der eine Chip ist ja das Problem. Selbst der Xbox X Scarlet SOC kommt gesamt nur auf 360mm² in 7nm, da gegen ist AD104 mit 295 mm² schon groß und AD103 mit 378mm² geradezu riesig. Die Playstation liegt bei rund 300mm² in 7nm.
Besonders wenn sich mal die Transistorenanzahl ansieht. Der gesamte XBox X SOC hat rund 15 Milliarden, ein Ad104 hat 35 Milliarden.

Nun, ein Problem würde ich das nicht unbedingt nennen, bzw. ist das kein neues Problem.
Mit einer neuen Fertigungstechnik muss man sich halt entscheiden, ob mehr Transistoren auf die selbe Fläche gebracht werden oder die gleiche Anzahl an Transistoren auf weniger Fläche, bzw. einen Mittelweg zu finden.

Nvidia hat schon viel größere Chips fertigen lassen. Tatsächlich war der letzte Chip, der als x70 "kleiner" war, die der 770 mit 294mm².
Alles danach war größer: 970=398mm²; 1070 Ti=314mm²; 2070 Super=545mm²; 3070 Ti=392.5/628.4 mm².
Die 4070 Ti ist dagegen sogar noch recht klein. Die 2070 Super und die zweite Generation 3070 Ti waren sogar doppelt so groß.

Ja, die Fertigung ist teurer geworden, auch dank TSMC. Das will ich gar nicht bestreiten. Aber Nvidia hat sich daran gewöhnt, das sie mit einer neuen Fertigungstechnik immer Geld sparen können und dadurch mehr Gewinn machen! Das sieht der "Businessplan" halt so vor. Und ihr Ross ist hoch genug, dass sie nicht, wie andere Hersteller, dazu bereit sind davon abzurücken und einen Teil der kosten durch geringere Gewinne zu tragen.
 
Die Ansatz stimmt endlich mal quellen von meine Behauptungen
ja nvidia verkauft ram mit chip und ja das ist im groben 8$ pro 16gbit chip das sind 2gb
Nvidia marge zu normalen zeit ist etwa 70% das kommt aus dem Quartalsberichten hervor zwar nicht direkt aber davon können wir ausgehen
Das ist brutto marge die netto marge beträgt nur 20% aktuell haut nvidia 300% marge rein vom chip vram bundle
Daraus wird
(86+60)*3 +75$(*1,2*1,1*1,1) +20=764$ Endkundenpreis ohne steuern in EU dann 849€ machbar aktuell 899€
Wie schon öfters erwähnt ist diese sku ein Friedensangebot oder nvidia nimmt etwa 350% marge.
Kann auch sein das der Kühler mit pcb 100$ oder noch mehr kostet 150$ dann passt die uvp
Und ja nvidia hat Luft bei der marge von min 200$

Was wir nicht wissen ist inwiefern nvidia bestehende ampere gpu aufkauft im gebr markt (Asien)
Und inwieweit nvidia die aib die gpu abkauft. Beides wird mit in dem preis der ad104 gpu verrechnet.
Nvidia R/D kosten liegen bei etwa 35% das aber ist auf Jahre vorgeplant und wird zu 7-3 aufgeteilt
7 für Datencenter preise und 3 consumer preise.
Der Umsatz der consumer liegt bei etwa 7 consumer -2 datacenter-1 Rest (Automotiv ai und Quadro)
Finanziell glättet sich das auf 5 consumer 4 data und eine Quadro und Rest
Also ist nvidia primär eine gaming Firma womit die am meisten verdienen gefolgt von Datacenter weniger chips aber mehr Geld.
Darum machen auch 2 parallele gpu arch Sinn
Derzeit hopper und ada

ampere war ne Ausnahme und gar nicht für consumer geplant gewesen. Das ergab sich aus dem turing Desaster. Was ebenfalls nicht geplant war fürn Desktop ebenfalls wegen mining boom zu viele pascal chips am Markt.
Und ampere zeigt sich durch die zu hohe Produktion auch als Grab daher sind die preise aktuell allein dem mining folgen anzurechnen
Solange ga104 und ga106 am markt sind bzw noch hergestellt werden bleiben die preise der ad104 chips hoch.
Man versucht sogar die ad106 als notebook chips zu vermarkten sobald die alten bestände weg sind fallen die notebookpreise drastisch.
Am desktop sehe ich ad104 cut ab q2 2023 und ad106 erst q4 2023

nvidia macht keine Verluste mit ad102 ad103 ad104 chips die kosten sind Vergleichsweise moderat.
Im vergleich zu amd kosten aber deutlich höher. Amd kann angreifen mit n33 und n32 aber wie es aussieht erst q3 2023. bis dahin bestimmt nvidia die preise während ampere abverkauft wird.

Das belegt zumindest die zahlen die ich auch recherchiert habe. viele infos stammen vom leak im März 2022 bei nvidia. Seitdem kennen wir die Pläne die sich ändern können bis 2026 dazu infos von tsmc und forschung.
Und wie von mir beschrieben ab 2024 wird es eng mit low end gpu und maxed settings da ab dann 4k langsam zum standard wird mangels neuer 1080p/1440p monitore

1080p = 100%, 2160p = 400%

Darum brauchen wir mehr Leistung im low end ab 2024 muss man min 25tf haben um 30fps in 4k zu realisieren.
ich rate jedem zuvor nen monitor auf 1080p oder 1440p noch zu kaufen um den Umschwung erst 2026 zu machen wenn n2 node und 3d Bauweise kommen und die gpu langsam in dem Bereich vordringen beginnt mit 35tf.

Nvidia Formel für tf ist faktisch falsch da 88fp32 pro sm rechen seit ampere/ada
Hopper rechnet 128fp32 pro sm ist aber keine gaming gpu.
Amd Formel wurde mit rdna3 komplizierter
Bisherige Formeln

2006 g80/tesla 1 sm 8 fp32*2 +2 sfu die 4 Operationen fp32 können= alu*3* Shadertakt.
2008 g200b tesla2 (gtx200) 1sm 8fp32 +2sfu*4*shadertakt
2010 gf100 fermi (gtx400/500) 1 sm 16fp32 + 4sfu formel alu*shadertakt+4*sm count*shadertakt*4
2012 gk110 kepler (gtx6000/gtx7000) 1 sm 32fp32 16sfu Formel 32* sm count*Takt *2+sm count * 16 *4*Takt
2014 gm200 maxwell2 (gtx900) 64fp32*2*takt*sm count
2016 gp102 pascal (gtx10) 128 fp32*2*Takt*sm count
2018 tu102 turing (rtx20)64*2*sm count*Takt
2020 ga102 ampere (rtx30) 64+16*2*takt+4 sfu *4*sm count *Takt vereinfacht 88*sm count *2*Takt
2022 ad102 ada lovelace (rtx40) identisch

Begrenzung je Jahr auf Speicherbandbreite
2006-2013 etwa 50-200gb/s notwendig für 720p bis 1600p
2013-2016 etwa 100gb/s bis 400gb/s notwendig für 720p-1440p
2016-2020 etwa 200gb/s bis 600gb/s von 720p -2160p
2020-2023 etwa 200gb/s bis 1000gb/s von 720p bis 2160p
Prognose
2023-2026 etwa 200gb/s bis 1536gb/s von 720p bis 2160p

Hat man weniger als das braucht man mehr Speicherbuffer.

Seitdem man von gddr3 bis gddr6 muss die latenz berechnet werden zwischen den gddr Generationen
dabei ist die effektive Bandbreite je spiele gen zu berücksichtigen und dann die Latenz des Speichers was zwischen normal 1,1-2,9ns sind.
Das hat sich seit gddr 3 Einführung nicht geändert nur die Datenmenge wurde größer
Latenzen

gddr3 2006-2009 rum cl5= 5/2200*1000=1,8ns bsp 9800gtx+ maxed 70gb/s 2009
gddr5 2010-2018 rum cl10 =10/8500*1000=1,25ns bsp gtx1060 maxed 192gb/s 2016
2,5ns gtx460 maxed 115gb/s 2010
2,0ns gtx760 maxed 192gb/s 2013
gddr6 2019-2023 rum cl20 =20/15000*1000=1,33ns bsp rtx3060 maxed 360gb/s 2021

Kommend
gddr7 2024-2028 cl40 40/32000*1000=1,25ns ~192bit si =768gb/s 256bit =1024gb/s 128bit =512gb/s
Und somit ideal für die nächste gen

Es ist schade das ada nicht schon gddr7 hat.
 
Nvidia hat im Rahmen seiner Möglichkeiten also das beste herausgeholt, um den riesigen Ansprüchen von 4K Spielern und schlecht programmierten Spielen Rechnung zu tragen. Sie ist viel besser als die meisten Grafikkarten auf dem Markt und die Besitzer können stolz sein. Die Industrie gesundet und Spieler bekommen wieder echte Neuware. Danach brauche ich auch nichts Neues mehr kaufen. Alles teurere ist für normale Spieler ungeeignet. GDDR7 ist Zukunftsmusik und ihr könnt euch für diese Karte einsetzen euch bekennen. Sie verdient es verteidigt und gerecht behandelt zu werden. Ich gebe eine Kaufempfehlung.
 
Nun, ein Problem würde ich das nicht unbedingt nennen, bzw. ist das kein neues Problem.
Mit einer neuen Fertigungstechnik muss man sich halt entscheiden, ob mehr Transistoren auf die selbe Fläche gebracht werden oder die gleiche Anzahl an Transistoren auf weniger Fläche, bzw. einen Mittelweg zu finden.

Nvidia hat schon viel größere Chips fertigen lassen. Tatsächlich war der letzte Chip, der als x70 "kleiner" war, die der 770 mit 294mm².
Alles danach war größer: 970=398mm²; 1070 Ti=314mm²; 2070 Super=545mm²; 3070 Ti=392.5/628.4 mm².
Die 4070 Ti ist dagegen sogar noch recht klein. Die 2070 Super und die zweite Generation 3070 Ti waren sogar doppelt so groß.

Ja, die Fertigung ist teurer geworden, auch dank TSMC. Das will ich gar nicht bestreiten. Aber Nvidia hat sich daran gewöhnt, das sie mit einer neuen Fertigungstechnik immer Geld sparen können und dadurch mehr Gewinn machen! Das sieht der "Businessplan" halt so vor. Und ihr Ross ist hoch genug, dass sie nicht, wie andere Hersteller, dazu bereit sind davon abzurücken und einen Teil der kosten durch geringere Gewinne zu tragen.
Die großen setzten aber nie auf einen neueren Prozess. Turing 12nm war ja nur ein verbesserter 16nm.
 
Zurück