AW: Navi 21: Chip mit über 500 mm², Tape-Out bereits erfolgt
@BraveNeo:
"
Zuerst muss man sich an der Radeon7 messen und die wird man sicher locker überbieten."
Kein Kunststück, denn bspw. eine Sapphire RX 5700 XT Nitro Plus erreicht jetzt schon mit ihrem High-BIOS-Setting eine Radeon VII und ist verlusttechnisch dennoch genügsamer (256 W ggü. 289 W). Eine Radeon VII zu übertreffen kann also nicht das Ziel sein.
"
Für nVidia selbst wird es immer schwieriger ..."
Warum sollte es das? nVidia hat nach wie vor die effizientere Architektur und jetzt könnten sie im einfachsten Fall gar nur einen Turing-Shrink im N7P oder N7+ anbieten und würden damit beträchtliche Power-Savings verbuchen können.
Navi 10 (mit der RX 5700 XT) und die RTX 2070 (Super) sind beide recht gut vergleichbar. Beide (bzw. alle drei) Karten werden direkt gegeneinander positioniert, erreichen eine vergleichbare Grafikleistung, haben vergleichbar komplexe Chips und verbrauchen grob gleich viel. Der wesentliche Unterschied ist, dass AMD dieses Leistungsniveau mit Navi 10 nur unter Zuhilfenahme von TSMCs modernem N7 zustande bringt, während nVidia weiterhin mit 12 nm fertigt.
TSMC gibt im Vergleich von seinen 10 nm auf 7 nm (N7 bzw. 7FF) bis zu 40 % power savings und über 35 % area savings an und nVidia nutzt sogar nur deren aktuellen 12 nm-Prozess, d. h. ein Navi 10 gefertigt in 12 nm müsste einen beträchtlich höheren Verbrauch hinnehmen, was seine geringere Effizienz offenkundig werden lässt. AMD vergleicht nicht ohne Grund die erzielten Fortschritte bei Navi gegen seine eigenen Vorgängerarchitekturen und nicht etwa gegen die Konkurrenz.
Zudem kann man bei nVidia davon ausgehen, dass der Turing-Nachfolger nicht nur ein Shrink wird, sondern durchaus auch architektonische Verbesserungen aufweisen wird. Konkret wird hier von einer deutlich besseren Raytracing-Performance gemunkelt. Das sagt bisher nicht viel aus, deutet aber schon an, dass es für AMD weiterhin schwer bleiben wird, am Ball zu bleiben.
"
Das wird auch im HPC Bereich von Bedeutung sein."
Eher weniger. Das Design wird dann für Consumer- und Radeon Pro W-Karten genutzt werden. Im HCP-Bereich geisterte zuletzt
Arcturus durch den Äther, ein spezifisch darauf angestimmtes Design, was auch nicht verwundern sollte, denn AMD kann es sich bei der aktuellen Marktentwicklung (BigData, ML/DL) nicht mehr leisten, alle Märkte mit nur einem Design erschlagen zu wollen. Ein dediziertes HPC-Design ist hier unumgänglich.
Und dieses muss spätestens 2021 marktreif sein für den Frontier, wobei noch abzuwarten bleibt, ob man ggf. schon in 2020 ein erstes Design (Update der Instinct-Serie) veröffentlichen wird und die Frontier-GPGPUs dann vielleicht schon auf einer weiterentwickelten Variante basieren werden.
@KuroSamurai117:
"
Eine Ampere Ti kommt dann wenn Nvidia sie für die Leistungskrone benötigt."
nVidia wird mit sehr hoher Wahrscheinlichkeit direkt zu Beginn mit einer RTX 3080 und RTX 3080 Ti am Markt erscheinen. Die Ti jetzt wieder zu streichen und erst später rauszuholen, wird markttechnisch nicht mehr gehen. Bei Turing war ein direkter Launch erforderlich, weil die Turing-Verbesserungen primär auf die Tensor und RT Cores abziehlten, d. h. die gemäß der normalen Rasterizer-Leistung erziehlten Zugewinne der neuen Generation waren (relativ gesehen) zu gering, sodass man die Ti direkt mitveröffentlichen musste, weil man sonst keinen Wow-Effekt gehabt hätte (insbesondere nicht unter Verwendung von Raytracing).
Eine mögliche RTX 3080 wird ggf. eine RTX 2080 Ti leicht übertreffen, aber zweifelsfrei nicht weit hinter sich lassen, d. h. ein Release der neuen Generation wäre ohne eine RTX 3080 Ti vergleichsweise langweilig/unspektakulär und daher vermarktungstechnisch problematisch. (
Betrachtungen zu Raytracing mal außen vor gelassen, da man aktuell nicht abschätzen kann, wie sich das hier entwickeln wird und was von nVidias Zusagen zu bedeutend "mehr RTX-Leistung" zu halten ist.)
@sandworm:
Diverses Die-Spekulatius ...
Zu viel würde ich hier nicht erwarten. Die 505 mm2 klingen zwar erst mal nach viel, können aber sicherlich nicht direkt übertragen werden und der Verbrauch stellt hier klar einen limitierenden Faktor dar.
Gleicht man eine Radeon VII und Navi 10 leistungstechnisch an, indem man das High-BIOS der Sapphire RX 5700 XT Nitro Plus verwendet, so hat man bei der Vega 20 rd. 4,82 W/CU und bei Navi 10 6,40 W/CU. (Beide Karten laufen mit um die 1,7 GHz wobei die Sapphire im Peak mit dem High-BIOS bis zu 300 MHz mehr Boost erreicht, aber auch nur kurzzeitig.)
Die Berücksichtigung einer höheren Logikdichte kann man durchaus außen vor lassen, denn einerseits bietet nur der N7+ diese und auch nur im überschaubaren Rahmen (bestenfalls 17 - 20 %) und andererseits ist eine Erhöhung auch mit dem N7+ nicht zwingend garantiert, denn das Design einer GPU mit ihren vielen parallel laufenden Rechnenwerken setzt andere Limits als eine CPU oder gar DRAM. Vereinfachend könnte man eine minimale Steigerung auf 42 MTr/mm2 annehmen (ggü. 41 bei Navi 10 und 40 MTr/mm2 bei Vega 20). Abgesehen davon wäre auch gar eine Verringerung der Dichte zwecks höherer Leistung nicht abwegig ... hier wird man sich vorerst mit der Ungewissheit arrangieren müssen.
Sollten die 505 mm2 tatsächlich zutreffen, würde das auf 21,2 Mrd. Transistoren hinweisen.
Rechnet man unveränderte "Navi 10 CUs" auf diese Transistorzahl um, so käme man auf gut 82 CUs. Eine Anzahl, die bei hohem Takt zu 525 W führen würde. Selbst wenn man sehr optimistische power savings von 20 % anrechnet (bspw. 10 % vom Prozess und 10 % architektonisch) käme man immer noch auf 420 W, einen Wert, der nach aktueller Marktlage so nicht mehr als Produkt angeboten werden wird.
Wenn die CU-Anzahl halbwegs zutreffen sollte, müsste also der Takt deutlich sinken und zudem berücksichtigten die bisherigen Betrachtungen noch nicht einmal Raytracing. Wahrscheinlicher ist jedoch meiner Meinung nach eine deutlich geringere CU-Anzahl.
Hinzu kommt, dass man noch gar nicht abschätzen kann, welchen zusätzlichen Flächen/Transistoraufwand die Neuerungen von RDNA2 inkl. Raytracing benötigen werden. Beispielsweise im Mittel benötigen die CUs von Navi 10 bereits 25 % mehr Transistoren als die CUs von Vega 20.
Hinzu kommt, dass man auch nicht weiß, wie genau AMD Raytracing implementieren wird. Bei nVidia (
die ihre RT Cores im Detail nach wie vor nicht offengelegt haben), gehe ich davon aus, dass diese sogenannten "RT Cores" über keine eigenen Funktionseinheiten für die Intersection-Berechnung verfügen, sondern die FP32-Einheiten der SMs oder aber die Tensor-Cores (FP16) mitverwenden. Wenn AMD hier bspw. jedoch dedizierte Recheneinheiten zur Verfügung stellt, weden sich die CUs insgesamt deutlich vergrößern, zumal eine grundsätzliche Vergrößerung aufgrund des notwendigerweise überarbeiteten Cache-Systems eh unausweichlich bleibt. Die Frage ist halt um wie viel Prozent.
Nimmt man +25 % an pro CU an, wovon ein wesentlicher Teil wohl auf Raytracing zurückzuführen sein wird, kommt man in etwa bei 65 CUs raus, sodass erneut ein 64 CUs umfassendes Design nicht warhscheinlich erscheint.
Wenn AMD architektonisch an der Effizienz jedoch nicht übermäßig schrauben kann und davon gehe ich bei RDNA2 aus (weil man Navi 10 nicht künstlich ineffizienter gemacht haben wird), wird dennoch ein leicht niedrigerer Takt notwendig sein und man wird dennoch eine 300+ W-Karte erhalten. Das High-BIOS der Sapphire RX 5700 XT Nitro Plus kann man hier nicht mehr als Ableitungsbasis heranziehen; der reguläre Verbrauch im Gaming liegt bei 226 W gemäß Igor. Veranschlagt man hier dann +15 % power savings durch den Prozess und die "neue" Architektur, so käme man auf 307 W ohne nennenswerte Raytracing-Nutzung für ein derartiges 64 CU-Design.
Am Ende vielleicht alles nur ein Griff ins Klo von mir? Ich bin auf jeden Fall gespannt, was AMD hier präsentieren wird und es bleibt zu hoffen, dass man nVidia zumindest etwas die Stirn bieten wird im neuen Jahr.