Nvidia Ampere: Neue Gerüchte um 24/20/10 GiByte Speicher für GA102

Nicht bis 1.8 GHz, davon gehe ich bei Nvidia aus. Sie haben auch verdammt viele Shader verbaut. RDNA1 kommt mit 7nm trotzdem schlechter weg als 14nm Nvidia (Turing).

Turing ist 12nm. Und die neuen RTX werden bei Samsung in 8LPP gefertigt, was eher 10nm entspricht. Der Sprung ist also von 12 auf 10 jetzt nicht so wahnsinnig groß.
 
Turing ist 12nm. Und die neuen RTX werden bei Samsung in 8LPP gefertigt, was eher 10nm entspricht. Der Sprung ist also von 12 auf 10 jetzt nicht so wahnsinnig groß.
Deswegen werden die Karten saufen gehen, auch bei 1,6 oder 1,8 GHz, sie habe zu viele Shader. Ich gehe von 320 bis 350W aus.
 
Turing ist 12nm. Und die neuen RTX werden bei Samsung in 8LPP gefertigt, was eher 10nm entspricht. Der Sprung ist also von 12 auf 10 jetzt nicht so wahnsinnig groß.

Find es immer lustig, wie man Gerüchte als Fakt hinnehmen kann. Es ist doch noch gar nicht raus ob komplett, teilweise oder überhaupt was in 8nm kommt von Samsung. Wartet doch einfach ab und schreibt nicht soviel dummes Zeug bevor man es auch belegen kann! Ich finde das so albern.��
 
Find es immer lustig, wie man Gerüchte als Fakt hinnehmen kann. Es ist doch noch gar nicht raus ob komplett, teilweise oder überhaupt was in 8nm kommt von Samsung. Wartet doch einfach ab und schreibt nicht soviel dummes Zeug bevor man es auch belegen kann! Ich finde das so albern.��

Also das ist ja nun wirklich schon fast bestätigt und wurde überall auch so schon als fest gesagt: Samsung ist als Hersteller sicher, weil Nvidia zu spät bei TSMC für 7nm gebucht hatte. In wie weit jetzt die großen Chips produziert werden, ist noch das letzte Fragezeichen. Es kann auch sein, dass ab 3080+ (geschätzt) einige auch in 7nm bei TSMC produziert werden. Das muss man abwarten. Die kleineren Chips aber wahrscheinlich zu 100% bei Samsung.
 
1. Es stimmt nicht, dass AMD ineffizienter als Nvidia ist.

Ein optimierter 12 nm Prozess von Nvidia ist ein 7 nm Prozess von AMD.

[...]

Lol, der erste Satz ist einfach nur falsch, kann ja mal vorkommen, aber beim zweiten musste ich mich dann schon echt fragen, ob du was getrunken hast? Jetzt fertigt nVidia implizit schon den Turing aus 2018 quasi in 7 nm, weil das ja nahezu gleichwertig ist? Du kannst mir aber natürlich auch gerne deine Auslegungsweise dieses kryptsichen Satzes anbieten. ;-)

Um diesen Unsinn einmal aufzulösen:
Turing verwendet TSMCs 12FFC in seiner minimal angepassten Variante 12FFN, einen 12 nm-Prozess, bei dem es sich genaugenommen gar um die vierte Iteration von TSMCs 16 nm-Prozess handelt. Die Turing-GPUs werden mit einer durchschnittlichen Logikdichte von um die 25 MTr/mm2 gefertigt.
AMD verwendet dagegen mit Navi 10 den N7P und damit bereits einen 2nd Gen-7 nm-Prozess (hier konkret mit etwa 40 MTr/mm2), eine kleinere Optimierung des 7FF (alias N7). Navi 10 ist sehr gut mit den kleineren nVidia-Modellen 2060/2070 Super zu vergleichen. Die Chips leisten vergleichbares, haben eine vergleichbare TDP, das gleiche Speicherinterface mit 14 Gbps-BGAs und verwenden sogar in etwa gleich viele Transistoren (nVidia faktisch gar etwas weniger, wenn man deren Tensor und RT Cores rausrechnet).
Jedoch genau das dürfte nicht der Fall sein, denn AMD verwendet hier den 7FFP (alias N7P) als Fertigungsprozess, d. h. einen Node, der mal eben mindestens 1,5 Full-Nodes unterhalb dem nVidia-Prozess liegt. Navi 10 müsste dementsprechend entweder deutlich sparsamer oder deutlich schneller als die beiden nVidia-Modelle sein, ist es aber nicht.
TSMC vergleicht seinen 7FF zum 10FF (wohlgemerkt den 7FF, nicht den neueren 7FFP und auch nicht gegen 12FFC/N) mit bis zu 40 % Power Reduction, wovon bei Navi 10 im Vergleich zu Turing gar nichts zu sehen ist und 7FFP ggü. dem ursprünglichen 7FF soll gemäß TSMC noch einmal bis zu 10 % Power Reduction (oder bis zu 7 % Performance) ermöglichen.
Absolut gesehen sind die Designs durchaus gleichwertig, berücksichtigt man jedoch, dass Navi 10 alias RNDA den weitaus moderneren Fertigungsprozess verwendet, dann "verheizt" die RDNA-Architektur die beträchtlichen Power Savings, die der modernere Prozess mit sich bringt vollständig, d. h. die Architektur ist deutlich ineffizienter.

Dementsprechend kann man bspw. auch AMDs zu RDNA2 getätigtes Versprechen bzgl. "+50 % mehr Perf/Watt" (i. V. z. RDNA) auch durchaus gelassen sehen, denn AMD hat viel Potential auf der Straße liegen lassen, sodass es vergleichbar einfach ist, das zu realisieren, denn nVidia ist architektonisch aktuell offensichtlich bereits effizienter. Bzgl. RDNA2 muss AMD erst einmal beweisen, dass sie auch tatsächlich liefern können (wovon man jedoch ausgehen kann) und dann wird man vergleichen müssen, wie sich das im Vergleich zu Ampere darstellt ...

Sind die 12nm nicht eigentlich optimierte 14nm?

TSMC hat keine eigene 14 nm-Prozesslinie. Der 12FFC stammte aus der 16 nm-Prozesslinie; konkret handelt es sich hierbei um die vierte Prozessiteration vorgestellt Ende 2016 als Nachfolger des 16FFC, in Produktion ab Mitte 2017. Der Prozess wurde damals nicht mehr mit einer "16" sondern nun abweichend mit einer "12" als "12 nm"-Prozess vermarktet um vertriebstechnisch besser mit Samsung's (und GloFo's) 14 nm-Prozessen mithalten zu können.
 
Zuletzt bearbeitet:
Darüber hinaus müssen Boardpartner bei nVida komplette "Chipsätze" kaufen, d. h. die GPU zzgl. den zugehörien Speicherchips. Aus nVidia's Sicht auch vollkommen nachvollziehbar, da man finanziell etwas mitverdienen kann, die Chipunterstützung sicherstellt und andererseits auch verhindert, dass Boardpartner die Portfolio-Planung zerschießen, zumal die sich eh alle Designs von nVidia freigeben lassen müssen.

So hab ich es auch im Hinterkopf.

Ich hoffe echt, dass die top Geforce SKU nicht schon wieder mit nem beschnittenen Speicherinterface kommt. Mal unabhängig von der geringeren Transferrate bekommt man doch Brechreize beim Kühlerwechsel, wenn man die nackten Stellen aufm PCB sieht.
 
Ich hoffe echt, dass die top Geforce SKU nicht schon wieder mit nem beschnittenen Speicherinterface kommt.

Der GA102 hat 384 Bit, also 12 Controller, die jedoch nach aktuellen Kenntnisstand nur auf dem größten PCB mit 24 GiB VRAM genutzt werden. Die beiden nächstkleineren Modelle werden 320 Bit nutzten, also zwei Controller deaktivieren und damit 20 und 10 GiB realisieren ... zerstörte Hoffnungen ... ;-)
Ob "beschnitten" oder nicht spielt aber faktisch auch keine Rolle, da nVidia die Speicherinterfaces passend zu der anvisierten Chipleistung auslegen muss. Wenn sie der Meinung sind, dass 320 Bit mit einer hohen Pro-Pin-Geschwindigkeit für diesen konkreten Chip ausreichend sind, wird das schon so sein.
 
Absolut gesehen sind die Designs durchaus gleichwertig, berücksichtigt man jedoch, dass Navi 10 alias RNDA den weitaus moderneren Fertigungsprozess verwendet, dann "verheizt" die RDNA-Architektur die beträchtlichen Power Savings, die der modernere Prozess mit sich bringt vollständig, d. h. die Architektur ist deutlich ineffizienter.

Dementsprechend kann man bspw. auch AMDs zu RDNA2 getätigtes Versprechen bzgl. "+50 % mehr Perf/Watt" (i. V. z. RDNA) auch durchaus gelassen sehen, denn AMD hat viel Potential auf der Straße liegen lassen, sodass es vergleichbar einfach ist, das zu realisieren, denn nVidia ist architektonisch aktuell offensichtlich bereits effizienter.
Du vergisst natürlich (mal) wieder zu erwähnen, das die 7nm deutlich kleiner sind und eine Turing GTX bei weiten nicht so schnell daherkommt wie eine 5700xt, da muss man unter dx12 schon die 2070s bemühen, die 505mm² groß ausfällt und mittlerweile fast 40% mehr kostet. Wie Nvidia mit dem Problem der steigenden Energiedichte bei feinerem Prozessverfahren und sinkendem Flächenverhältnis umgeht, lesen wir jeden Tag. Sie kommen also gerade da an wo AMD schon ist, seit zwei Gens (Vega20 und Navi 10, beide sind übrigens kein RDNA2).

Keine Ahnung warum man sich ständig so viel Mühe geben muss AMD's (oder besser TSMC's) 7nm so schlecht zu reden. Die Herausforderung liegt beim Kühlkonzept, die Leckströme oder architektonische Belange wie IPC können da kaum greifen, denn ein 250mm² Design darf um die 200W ziehen, weiß nicht was daran verkehrt sein soll. Eine IP ist in viele Richtungen steigerbar oder skalierbar, da ist nicht nur effizient ein wichtiger Teil.

Nvidia könnten die "Riesenchips" also noch auf die Füße fallen. Nämlich dann wenn die Wafer sich verknappen und man mehr Fläche braucht als andere. Effizienz definiert sich in einem Prozessverfahren nicht nur am letztlichen Verbrauch beim Endverbraucher oder Anwender.
 
Zuletzt bearbeitet von einem Moderator:
Das hat nur einen symobilischen Charakter. Nvidia könnte genauso 7 nm schreiben und wir könnten dann alle sagen, wie schlecht Nvidia ist. AMD könnte aber 12 nm sagen und man könnte sagen, wow, wie gut AMD ist. .... Das hat überhaupt nix damit zu tun, wie viele Transistoren, usw. verbaut werden, weil 12 nm, 10 nm, 7 nm, 5 nm .... einfach herstellerabhängig aufgefasst werden. Intel versteht unter 10 nm ganz was anderes als AMD unter 10 nm und Nvidia versteht unter 12 nm einen verbessteren Prozess von 16 nm und das wiederum sieht AMD anders. Somit sind Nvidias 12 nm aka 16 nm++ und AMDS 7nm einfach nicht miteinander vergleichbar. Beide GPUs liefern angesichts dieses Fertigungsprozesses unterschiedliche Qualitäten.

Man kann lediglich die Korrelation zwischen den 12 nm und den 7nm aufstellen und sagen, AMD ist mit den 7 nm jetzt da wo Nvidia mit seinen 12 nm ist. Ob das tatsächlich 7 nm oder 12 nm sind ist doch wirklich irrelevant. Das hat Symbolcharakter und mehr nicht.

Auch heißt es nicht, dass mehr Transistoren mehr Power bieten ... Das kommt auch immer darauf an, wie die Software die Hardware nutzt. Was nützt mir ein Spiel, das schlecht auf AMD optimiert ist, aber womöglich die GPU mehr Transistoren hat als die von Nvidia oder umgekehrt? Ein Spiel zu gestalten und dabei exakt die Architektur miteinzubinden ist ein sehr komplexes Thema.

Man erkennt aber doch deutlich, dass AMD bei unoptimierten Titeln die Nase vorne hat und Nvidia doch verliert. Dass aber Nvidia immer so stark ist hat nichts mit deren wahnsinnig guter Architektur zu tun ... beide GPU-Hersteller machen das zig-Jahre schon und wissen woraufs ankommt und wie man Grafikkarten herststelle und AMD hat nun Mal mit Navi 1 eine deutlich bessere Architektur am Start als Nvidia mit seinem warp32 Ansatz und den CUDA-Cores. ... Nur weil Nvidia momentan noch in vielen Spielen sozusagen seine "Features" mit drinnen hat und AMD eben nicht ... meint man halt, Nvidia baut extrem gute Grafikkarten.

Blödsinn. Würde man nun endlich auch anfangen auf AMD gut zu optimieren, dann würde man doch erkennen, wie stark AMD ist. Man machts aber nicht ... hoffentlich aber bald, wenn Navi 2x rauskommt.
 
Das Problem ist aber, dass ein 7nm Design nicht 200W ziehen sollte, sondern 120W, da der Prozess eine um 40% niedrigere Leistungsaufnahme ermöglicht.

Ergänzend die "Größe" eines Prozess bestimmt die Foundry aka TSMC. Fertigen nun AMD und NV in der gleichen Foundry, kann man die Prozesse auf Basis der Daten der Foundry vergleichen.
 
Man erkennt aber doch deutlich, dass AMD bei unoptimierten Titeln die Nase vorne hat und Nvidia doch verliert.

Diese Aussage stellst Du einfach mal in den Raum ohne sie zu begründen. Vermutlich sind für Dich alle Spiele, bei denen NVidia Karten vergleichsweise besser dastehen, per Definition Gameworks verseucht, oder?

Auffällig ist eher, dass tatsächlich in letzter Zeit Pascal öfter mal unter die Räder kommt. Das bestätigt zumindest teilweise die Behauptungen einiger Leute, AMD wäre besser für die Zukunft gerüstet gewesen, zumindest was das angeht. Wobei der Unterschied aus meiner Sicht jetzt nicht sooo gravierend ist, dass man als Pascal Nutzer sofort in Tränen ausbrechen müsste.
 
7nm liefert "immer" die höhere Logikdichte, egal wie ein minimal Pitch ausfallen kann. Was die physikalischen Structurgrößen angeht hat Intel immer die nachvollziehbar'sten Angaben gemacht und ist am dichtesten dran.

Wie viel man in seinem Design von dieser Logikdichte auch effektiv verwenden kann, um die Leistung zu steigern, (die unterteilt sich unter 7nm in Low Power und High Power Nodes), ist die Aufgabe des Chipdesigners. Natürlich ist es wichtig, ein Desgin dann so aufzulegen das es in das eigene Softwareumfeld passt (und wir Spieler nehmen uns da immer viel zu wichtig). Das Nvidia dort bisher Vorteile hat ist unbestritten, auf der anderen Seite kann AMD diese eigene "Schwäche" ausnutzen, wenn es darum geht sichtbare Steigerungen auszuweisen.

Jemand der bereits am Limit oder Optimum angekommen ist, fällt es schwieriger immer noch und noch einen draufzusetzen. Vor allem wenn die eigne Kundschaft das dann sehen will. Das dort aber auch Potential brachliegen kann, ist definitiv so. Die Verfolgerrolle ist sicher die einfachere, wenn man sichtbare Steigerungen braucht. Nach oben raus kostet alles mehr, wie mehr Fläche. Die muss man dann auch bezahlen.

7nm bringt die bis zu 1,6fach höhere Logikdichte als 10nm mit, bei bis zu 20% Leistungssteigerung und 40% höherer Effizienz. Was ich dabei letztlich wirklich ausnutze, um mein gestecktes Ziel zu erreichen steht auf einem anderem Blatt Papier. Es gibt auch ein Morgen.

Wenn man sich diesen veorherigen Satz mal auf der Zunge zergehen lässt, kann Nvidia nicht +70% bei 50% höherer Effizienz liefern, weil der vom TSMC Ceo stammt (8nm dürften deutlicher unter dem liegen). Man setzt in dem Fall also schon auf Softwareoptimization. Ob die jeder im Markt auch so übernimmt ist die zweite Frage, was auf AMD genauso zutrifft. Und wenn dauert es oft Jahre und erst dann sieht man was das Design hätte leisten können.

Ich bin in dem Fall der Speicherausstattung gespannt ob Nvidia mit NV Cache daher kommt und damit einer HBCC ähnlichen Technologie, die schnelle Speichermedien in Cachekonzept einbindet. Scheint wohl so das beide von ihren Entwicklungen und der des Konkurrenten profitieren, wenn der Markt sie annimmt.
 
Zuletzt bearbeitet von einem Moderator:
Xbox Series X hat ein SoC mit Navi, der 52 aktive cus hat, RX 5700XT hat 40 zum Vergleich. Big Navi soll 80 haben. Und ja, bei so viel cus und IPC Optimierung, reichen auch 1,6 GHz um fast die doppelte Performance einer RX 5700XT zu erreichen, was AMD auch so anpreist.
Die 2GHz Variante wäre ein Wattschlucker, der seinesgleichen sucht.

Ich erwarte von BigNavi nichts anderes als einen weiteren Versuch mit der Brechstange. Jenseits des "Sweet Spots" wird es sicher wieder ein stromvernichtender nuklearer Reaktor kurz vor der Kernschmelze".

Die 2020 Next-Gen Konsolen sind wahrscheinlich nur etwas auf Niveau einer RX5700. Für die Konsoleros reicht das, aber PC-Gamer brauchen viel viel mehr. Einfach nur die Einheiten verdoppeln sollte m.M. nach nicht reichen. Da fehlt noch einiges, besonders wenn man die Nvidia spezifischen Features mit einbezieht!

Nicht bis 1.8 GHz, davon gehe ich bei Nvidia aus. Sie haben auch verdammt viele Shader verbaut. RDNA1 kommt mit 7nm trotzdem schlechter weg als 14nm Nvidia (Turing).

Turing ist pseudo 12nm, basierend auf 16nm FinFET. Es ist und bleibt ein Architekturproblem bei AMD. Das werden sie auch mit RDNA² noch nicht in den Griff bekommen. Zu viel auf einmal geht nicht ohne Shrink! Diesen Vorteil haben sie allerdings bereits verbucht. Bei Nvidia kommt das erst noch!

Turing ist 12nm. Und die neuen RTX werden bei Samsung in 8LPP gefertigt, was eher 10nm entspricht. Der Sprung ist also von 12 auf 10 jetzt nicht so wahnsinnig groß.

TSMC 7nm ist auch ein pseudo 10nm Prozess. Aus marketinggründen übertreiben die Foundries aktuell mit den Strukturgrößen. TSMC 7nm == Intel 10nm

Die Übersichtlichkeit ist schon lange verloren gegangen. Ob 7 oder 8nm macht da nicht den riesen Unterschied. Werden sie allerdings verglichen mit älterem 16nm FinFET Derivaten, ändert sich das schlag artig!

Deswegen werden die Karten saufen gehen, auch bei 1,6 oder 1,8 GHz, sie habe zu viele Shader. Ich gehe von 320 bis 350W aus.

Man darf den zusätzlichen Stromverbrauch der vRAM ebenfalls nicht vergessen. Igor's Lab geht von rund 60W für 24GB GDDR6 aus. Die schnelleren Chips rechnet er mit 2,5W pro 1GB Modul.

Bei 10GB sind das bereits 25W. Die 20GB sind dann etwa 50W davon. Sind die GPU chips selbst weiterhin bei 200-230W TDP kann man sich ausrechnen wo das hingeht. Das übliche Gedöns außenrum bitet ebenfalls mit einbeziehen.

Alles nicht so tragisch, wie es auf den ersten Blick aussieht!

Sind die 12nm nicht eigentlich optimierte 14nm?

TSMC 12nm sind mehrfach optimierter 16nm FinFET Fertigungsprozess. Die einzige Foundry mit 14nm war GlobalFoundry, aber der Prozess war ein Flop. Jeder hat ihn übersprungen und Nvidia ist mit Turing bei TSMCs pseudo 12nm gelandet.

Intel lasse ich hier aus, da sie nur intern für sich selbst fertigen!
 
Du vergisst natürlich (mal) wieder zu erwähnen, [....]

Es wird nicht besser, richtiger oder weniger falsch, wenn du es drei oder vier mal hin und herwendest. Ebenso wie beim 8LPP, der dennoch absolut nichts mit EUV zu tun hat, wie du es dennoch behauptet hast und danach erneut zu rechtfertigen versuchtest.

Auch hier ist wieder erstaunlich warum dich die Faktenlage triggert, was nur auf deine rosarote Brille hinweisen kann (ich weiß, die du ja angeblich nicht hast, nur belegen deine Posts immer wieder das Gegenteil).
Und ich rede hier niemanden schlecht, sondern beschreibe nur einen messbaren Ist-Zustand und TSMC hat damit mal rein gar nichts zu tun, denn deren Prozess liefert und ist wie er ist. Resultierend liegt es vollends in AMDs Verantwortung wie sie den Prozess nutzen und mit welchem Design sie hier an den Start gehen.
Von theoretisch fast möglichen 100 MTr/mm2 hat AMD sich bei Navi 10 auf im Mittel rd. 40 MTr/mm2 beschränkt, übrigens genau so wie, wie bei Vega 20 im N7, und es dennoch nicht geschafft nennenswerte Power Savings mitzunehmen, obwohl man hier zudem nun den N7P nutzt, also einen optimierten 2nd Gen-7 nm-Prozess. Das sollte doch auch für dich nicht so schwer zu begreifen sein, insbesondere, da die Chips und Karten ansonsten in etwa sehr gut vergleichbare Resultate und Leistungswerte liefern.
Und was bitteschön hat hier plötzlich eine GTX-Karte im Vergleich zu suchen? Alle hier im Forum reden/spekulieren über HighEnd und entsprechend vergleiche ich hier eine 5700 (XT) (das schnellste was AMD derzeit an aktueller Hardware zu bieten hat) mit einer 2060/2070 Super und nicht am anderen Ende des Spektrums im LowEnd.
Und eine Radeon VII bzw. Vega 20 ganz allgemein solltest du zu deinem eigenen Seelenfrieden besser ganz aus der Betrachtung rauslassen, denn die schneidet ebenfalls schlechter ab.
Die deutlich schnellere RTX 2080 Ti FE zieht im Gaming- als auch Torture-Loop um die 279 W und bspw. 1 nm-Peaks bis zu 375 W.
Die Radeon VII zieht im Gaming-Loop 289 W und im Torture-Loop 307 W und erreicht bei 1 ms-Peaks bis zu 442 W.
Und diese Leistungswerte erreicht die Radeon VII bereits mit nur 60 CUs. Im Vollausbau würde es noch schlechter aussehen und die Renderleistung der Karte ist signifikant schlechter i. V. z. RTX 2080 Ti, die zudem dennoch effizienter ist. War ein netter, aber reichlich hilfloser Versuch von dir. ;-)
Unterm Strich ist AMD mit Vega 20 und Navi 10 in 2019 absolut gesehen grob dort angekommen, wo nVidia schon in 2018 war, brauchte dafür jedoch zusätzlich den deutlich moderneren Fertigungsprozess von TSMC.

Und um es mit deinen Worten zu sagen, "keine Ahnung warum DU dir ständig so viel Mühe geben musst" schlicht nachvollziehbare Fakten in Abrede zu stellen. Rechnet man die 36 CUs umfassende RX 5700 zurück und vergleicht sie bspw. mit einer MSI RTX 2060 Super Gaming X dann hat man leistungstechnisch nahezu gleichwertige Karten und beide GPUs ziehen knapp über 120 W TDP, was eben bei der AMD-GPU nicht sein dürfte, denn die nutzt den weitaus moderneren Fertigungsprozess. Wenn dir der daraus resultierende Rückschluss nicht schmeckt, ist das dein Problem, ändert aber nichts an den Leistungseckdaten der jeweilgen Karten und GPUs.

In ähnlicher Art war übrigens auch schon deine Effizienz-Aussage zum GA100 vor zwei, drei Tagen falsch, denn hier erreichte man deutlich über 50 % Zugewinne mit dem neuen Desing in TSMCs N7 (hier mit rd. 66 MTr/mm2):

GA100, 1,41 GHz, 400 W, 312 TFlops : 0,78 TFlops/W (+77 % bis +86 %)
TU102, 1,77 GHz, 295 W, 131 TFlops : 0,44 TFlops/W
GV100, 1,53 GHz, 300 W, 125 TFlops : 0,42 TFlops/W

Ampere A100, Quadro RTX 6000 und Tesla V100, Boost-Takt, Tensor Cores FP16/FP16 oder FP16/FP32 (da beide Varianten mit dem gleichen Durchsatz; und bei Ampere ohne das Sparsity Feature zu berücksichtigen, das deren Durchsatz theoretisch gar noch bis zu verdoppeln kann).

Offensichtlich konnte hier nVidia in Bezug auf einen der beiden wesentlichen Standbeine des GA100 (Deep Learning; das andere wäre HPC) einen großen Nutzen aus der verbesserten Architektur in Verbindung mit dem deutlich moderneren Fertigungsprozess ziehen.

[...]Die einzige Foundry mit 14nm war GlobalFoundry, aber der Prozess war ein Flop. [...]

Genaugenommen Samsung (und natürlich Intel). GloFo hat den 14 nm-Prozess von Samsung lizensiert und deren 12 nm-Weiterentwicklung basiert auf diesem Lizenzprozess.
Das mit dem "Flop" würde ich so jedoch nicht unterschreiben und immerhin hat er AMD Zen ermöglicht. Ein Flop kam erst später mit dem Ausstieg aus den 7 nm, jedoch ist hier die Frage, ob man das nicht eher dem arabischen Hauptinvestor zuschreiben muss, der ggf. die Konkurrenz und die notwendigen Investitionen fürchtete.
 
Zuletzt bearbeitet:
TFlops, dass ist für Spiele tatsächlich so wichtig als wenn in China ein rostiges Fahrrad umfällt. Marketing mit Zahlen.

Und nein, ich habe jetzt extra geschrieben, wo der Unterschied zwischen 8nm (7 DUV) und 7nm (7 EUV) liegt, und zwar beim minimal Pitch. Von Samsung's 7/8nm gibt es drei Verfahren und jedes davon lässt sich (im Gegensatz zu TSMC 7nm (N7)) als Node in EUV überführen, je nach density und minimal Pitch. Aber ignoriere es ruhig weiter. Du wiederholst es ja stetig.

Samsung 8nm (DUV)=61.2
Samsung 7nm (EUV)=95.1
TSMC HPC 7nm=66.7
TSMC 7nm EUV mobile=96.5
TSMC 7nm EUV HPC=115.8

Bei der Packdichte hätte AMD unter DUV also nur minimale Vorteile, aber bei der Effizienz nicht. Wenn GA102 von TSMC kommt, dürften beide gleich auf sein. Da Nvidia grundsätzlich mehr Fläche braucht um effizienter zu sein, sind sie absolut nicht fortschrittlicher.
 
Zuletzt bearbeitet von einem Moderator:
Sondern was? Teurer was sonst, was genau in das Profil passt. Die Effizienz geht also zu Lasten der Waferfläche die du bezahlst. Das ist bei euch also Fortschritt. Effizienter im Zusammenhang mit größer, zwangsläufig teurer und irgw. mal unbezahlbar für den Großteil, wobei kaum/knapper verfügbar?

Sie gehen davon aus, dass das DL Inferencing eine irgendwann mal 6xfach höhere ratio ermöglicht (als ohne), nur muss das erst mal angenommen werden und musste man die v1 bzw. v2 in Vorlage schon anpassen.

Ansonsten fällt das Kartenhaus zusammen. Und was diese Cores verbraten ist offensichtlich.
 
Genaugenommen wäre dieser hypothetische 7 nm-Turing gar noch deutlich kleiner, wenn du hier einen Vergleich in der Art RTX 2070 Super zu RX 5700 XT anstrebst. Die AMD-GPU verwendet den Vollausbau des Chips, die nVidia-GPU dagegen nur einen stark beschnittenen TU104, der 48 SMs auf dem Die hat. Hier werden effektiv jedoch nur 40 SMs genutzt.
Für eine Rückrechnung nimmt man besser den Tr/SM-Wert des TU106 wg. dem Verhältnis Cache/Recheneinheiten zu Speichercontrollern und käme damit für einen dedizierten 2070er-Chip mit 40 CUs und 8 Controllern zu etwa 12,0 Mrd. Transistoren, d. h. in deiner Rechunung käme ein solcher, hypothetischer Chip effektiv auf etwa 182 mm2 Wafer-Fläche.
 
Zurück