Rollora
Kokü-Junkie (m/w)
Natürlich "haut" man nicht mal eben noch ein Feature mit ein, aber es sind wohl eher 20 Forschungsteams und diverse Bibliotheken, es gibt Designteams die sind aber agil. Das mit den 3 starren Teams ist iene alte Mär, das habe ich versucht damit zu sagen.Sie werden nichtmehr in alte CPUs integriert, der Zug ist relativ schnell abgefahren. Sonst würde man ewig herumdoktorn und nie etwas herausbringen
Natürlich wissen sie, was das anderen Team macht, aber dennoch zieht jedes Team sein Ding durch.
In den letzten 3 Fertigungsschritten (28,14,7) sind die Wafer enorm teuer geworden und werden auch massiv teurer. 3nm Wafer kosten deutlich mehr als 7nm Wafer. https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-8-september-2021 bzw https://www.tomshardware.com/news/t...aled-300mm-wafer-at-5nm-is-nearly-dollar17000Die Chipfläche ist nicht das Problem, es sind die Platinen, mit zusätzlichen Lagen, die es teurer machen. Wobei schon die HD 2900er GTX 280 und R9 290/390(X) 512 Bit hatten. So teuer kann es also nicht sein und bei 1500€, fürr eine Luxuskarte, erwarte ich einfach einiges.
Waferkosten b. TSMC in Dollar (die für GPUs relevanten sind fett):
90nm: 1650$
65nm: 1937$ (+17,4%)
40nm: 2274$ (+17,4%)
28nm: 2891$ (+27,1%)
20nm: 3677
16nm: 3984$ (+37,8%)
10nm: 5992
7nm: 9346$ (+134,6% vs 16nm)
5nm: 16988$ (+81,8%)
3nm: 30000$ (+76,6%)
Anders gesagt: seit der 90nm Chips haben sich die Kosten pro mm² Chipfläche knapp verzwanzigfacht. Und da wird man wohl immer vorsichtiger sein, was großflächiges betrifft: das geht nur, wenn auch die Preise nach oben gehen.
Ein 512bit GDDR6 Speicherinterface braucht viel Platz und das kostet viel Geld und bringt gar nicht mehr so viel.
ein HBM SI ist, was die Fläche betrifft extrem klein im Vergleich zum 512 bit GDDR5 Interface. Ich bin mir nicht mehr sicher, aber ich dachte es kam bei Fiji bei knappen 5% Chipfläche raus, entgegen geschätzten 35% die ein 512bit GDDR5 Interface ausgemacht hätten.Da hat man es ja mit einem 2048 oder 4096 Bit Interface zu tun, das ist ja noch schlimmer.
Das ist der große Vorteil von HBM:
Es braucht kaum Chipfläche und macht es damit möglich kleinere, sparsamere Chips zu bauen ODER eben die gewonnene Fläche mit tausenden zusätzlichen Shadern auszustatten. Gleichzeitig braucht es damit auch weniger Strom, es macht den Chip also obendrein noch effizienter und gibt die möglichkeit dieselbe Performance wesentlich sparsamer umzusetzen oder eben man hat mehr Spielraum beim Verbrauch/Takt etc.
Nachteil ist natürlich, dass HBM teurer ist und man einen Interposer benötigt.
Zuletzt bearbeitet: