Gaming-Ampere: Angeblicher Tape-Out des GA104-Chips

Ich sehe nur eins, dass die Gerüchte um eine nicht wirklich signifikante Leistungssteigerung immer näher an die Realität rücken. Nicht, dass sich Nvidia völlig verzockt hat und eine 3080 nicht, oder gerade so an die NonRT Leistung einer 2080ti kommt und AMD mit BigNavi plötzlich vorne liegt. Dazu ein schlechter Yield und NV hat ein ganz großes Problem.
 
Sag doch sowas nicht, 500 Tacken oder die Konkurrenz bekommt die Kröten.
Ich habe noch Hoffnung, ok das ich mir einer der Teuersten 2080S gekauft hatte
wirkt auch etwas äh nun ja, mach ich auch normalerweise nicht.
Mein alter Zen1 PC +1070 hat weniger gekostet als die 2080S.
Aber die Wasserkühlung auf dem Teil sah einfach nur extrem gut aus und ich bin so Faul wie es eben
grade noch so durchgeht und selber bauen wollt ich nen WK auf ne GK nicht.
Wenn AMDs BigNavi was taugt, bekommt eh meine bessere hälfte die 2080S.
 
Zuletzt bearbeitet:
Ich sehe nur eins, dass die Gerüchte um eine nicht wirklich signifikante Leistungssteigerung immer näher an die Realität rücken. Nicht, dass sich Nvidia völlig verzockt hat und eine 3080 nicht, oder gerade so an die NonRT Leistung einer 2080ti kommt und AMD mit BigNavi plötzlich vorne liegt. Dazu ein schlechter Yield und NV hat ein ganz großes Problem.

Hmm, was versprichst du dir von einem Schrink von 12nm auf 7nm? Guck dir einfach mal die Entwicklung der Strukturverkleinerung über die Zeit an.

MOSFET scaling
(process nodes)

10 µm – 1971
6 µm – 1974
3 µm – 1977
1.5 µm – 1981
1 µm – 1984
800 nm – 1987
600 nm – 1990
350 nm – 1993
250 nm – 1996
180 nm – 1999
130 nm – 2001
90 nm – 2003
65 nm – 2005
45 nm – 2007
32 nm – 2009
22 nm – 2012
14 nm – 2014
10 nm – 2016
7 nm – 2018

Future

5 nm – ~2020
3 nm – ~2022

Quelle: Semiconductor device fabrication - Wikipedia

Prozentual gesehen ist das vielleicht ein größerer Schrink als z.B. der Sprung von 90nm auf 65nm im Jahre 2005. Aber absolut bzw. elektrisch gesehen ist das fast nichts. Die Mikrotechnologie ist an ihrer Grenze angekommen. Ob nun 14, 12, 10, 7, 5 oder 3nm ... wayne. Da ist nicht mehr viel zu holen, jenseits von IPC-Optimierungen per cleveren Designverbesserungen und dem einen oder anderen Fertigungtrick/Porzeßtuning. Eigentlich lohnt sich der ganze Spaß jetzt schon garnicht mehr. GloFo als Nichtbörsianer ist deshalb ja auch ausgestiegen, weil der technologische (und damit finanzielle) Aufwand viel zu hoch ist für den geringen Nutzen/Gewinn, den man hinterher davon hat. Und BigNavi kocht mit dem gleichen Wasser wie NVidia und sogar im gleichen Kochtopf namens TSMC. AMD und NVidia müssen sich zwangsläufig in ihrer Leistung immer mehr annähern... und damit ist dieser ganze Glaubenskrieg, was nun besser ist, imo irgendwie bald total sinnlos.
 
Könnte auch sein, dass die Leistungsdifferenz zwischen GA104 (3080) und GA102 (3080ti) so groß ist, dass noch locker Platz für eine neue Karte (GA103) ist.

3080 Supermotherfuckergaming EXtended ... abgekürzt als 3080 SEX :cool:
 
Also eins weiß ich....
Mich interessiert kein deut welcher Hersteller irgendeine GPU rausbringt... Ich kann ja schließlich noch immer keine Kaufen. Ständig News über neue GPU´s/Chips und es wird immer nur blöde drüber gequatscht. Aber echte Fakten gibts keine. Weniger News, Mehr Tatsachen!;)
Her jetzt mit dem Mist völlig egal wie der blöde Chip heißt, AMD, NVidia, Big Banana... Haupsache es passiert auch mal was... Leak hier. Prognose, Da. Theorie Theorie Theorie...und einige Sternendeuter. Das macht mich irre erlich. Ich erwarte Informationen bei manchen Thread-Titeln und bekomme nur Spekulation. Holt doch mal irgend´son CEO von der Schule ab und bestecht und Foltert ihn mit Süßigkeiten und Karies
:ugly::banane:
 
"Beim Elektronikdesign ist Tape-Out oder Tapeout das Endergebnis des Designprozesses für integrierte Schaltkreise oder Leiterplatten, bevor diese zur Herstellung gesendet werden. Das Tapeout ist speziell der Punkt, an dem die Grafik für die Fotomaske der Schaltung an die Fertigungsanlage gesendet wird."

Also werden jetzt die Maskensätze gefertigt, dann Protolose durch die Linie geschickt. Geguckt, ob alle Prozeßschritte so funktionieren, wie designt/geplant ... das sind zusammen mit diversen Meßschritten an die 1500 Schritte. Sollten keine gravierenden Probleme mit den Prototypen auftreten, startet dann vielleicht in 1-2 Monaten der Ramp, d.h. die Massenproduktion und nach 2-3 Monaten plumpsen dann die ersten fertigen Wafer vom Band. In ca. 5 Monaten werden wir dann also die ersten Chips für die Kartenhersteller zur Verfügung stehen haben. Frohe Weihnachten schon mal....

AMD, Intel und Nvidia haben in den letzten 10 Jahren meist 12 Monate vom Tape-out bis zum Produkt im Regal gebraucht.
Wenn der GA104 wirklich erst diesen, oder auch letzten Monat Tape-out hatte, wird das vor April 2021 (edit: mit breiter Verfügbarkeit) nix.
 
Zuletzt bearbeitet:
An Nachrichten wie dieser sieht man ja, dass an eine reibungslose Produktion derzeit nicht zu denken ist. Egal wer, es werden alle zu tun haben alle Teile zusammenzukratzen um ein Produkt in die Massenproduktion schicken zu können.
TechCrunch ist jetzt Teil von Verizon Media


Nur weil der Biergarten wieder auf hat, ist noch lange nicht alles normal, da kommt noch einiges auf uns zu.
 
Zum Thema Tapeout:
Einerseits ist zu berücksichtigen, dass es sich hier lediglich um ein unbestätigtes Gerücht handelt. Die Info, insbesondere, dass es sich um eine "Tapeout" handelt, kann durchaus falsch sein.

Darüber hinaus hängt die Vorlaufzeit von der Komplexität des Produkts sowie der Plattform ab.
- Beispielsweise Zen2/Rome hatte seinen Tapeout Mitte 1Q18, d. h. bereits 16 Monate vor seiner Veröffentlichung.
- Zen3/Milan hatte seinen Tapeout im März/April 2019, d. h. ebenfalls min. 15 Monate vor seiner Verfügbarkeit.
- Cooper Lake SP und Ice Lake SP dürften ihren Tapeout beide etwa Anfang 2019 gehabt haben und beide befinden sich bereits seit Mai 2019 in der Sampling-Phase bei Großkunden. Beispielsweise Facebook nutzt Cooper Lake SP im Backend schon gesichert seit min. August 2019 und damit lange vor dem offiziellen Launch, der ursprünglich etwa für März/April'20 vorgesehen war.
- Sapphire Rapids SP hatte seinen Tapeout gemäß SemiAccurate im Januar 2020 und wird frühestens in 2Q21 erscheinen, tendenziell eher später.
- Tiger Lake U-ES-Chips mit 4,3 GHz Takt wurden bereits im Dezember 2019 gesichtet, d. h. dessen Tapeout hat bereits deutlich davor stattgefunden und die CPUs werden erst im Herbst diesen Jahres im Markt ankommen.
- Erstes Silizium der Xe/DG1 wurde im September oder Oktober 2019 in Betrieb genommen und die Karten werden erst Ende 2020 erwartet (auch wenn jetzt schon Entwickler-Kits mit ES/QS-Chips verfügbar sind).

Darüber hinaus kann man annehmen, dass das Tapeout des GA100 schon in 2019 stattgefunden hat. Auch der GP100 hat etwa 1 Jahr gebraucht, bis er Mitte 2016 in Form erster SXM2-Karten verfügbar war, während PCIe-Karten gar erst in 2017 folgten.
Bezüglich der kleineren Chips GA104, etc., wäre es jedoch durchaus denkbar, dass nVidia die Validierungs- und Testingphase deutlich kürzer halten kann, wenn bspw. der GA102 zuvor schon ausgiebig getestet wurde, da anzunehmen ist, dass bspw. diese kleineren Chips eine reine Skalierung darstellen und der Aufbau bzw. die Zusammensetzung der Funktionseinheinheiten unverändert bleibt.

Man wird abwarten müssen, aber es ist nicht sonderlich wahrscheinlich, dass nVidia im Herbst nur mit einer RTX 3080 Ti und ggf. einer RTX 3080 startet und eine 3070 und 3060 erst etliche Monate später liefern wird. Alleine schon aus vertriebstechnischen Gründen wird man sich hier den Launch vor AMD nicht nehmen lassen.
 
Zum Thema Tapeout:


Man wird abwarten müssen, aber es ist nicht sonderlich wahrscheinlich, dass nVidia im Herbst nur mit einer RTX 3080 Ti und ggf. einer RTX 3080 startet und eine 3070 und 3060 erst etliche Monate später liefern wird. Alleine schon aus vertriebstechnischen Gründen wird man sich hier den Launch vor AMD nicht nehmen lassen.

Naja.. die könnten mit der 3080ti und 3080 das Portfolio erstmal nach oben hin erweitern..
100-200€ Preisnachlass auf die 2080s und 2080ti und die 3080 für UVP 999dollar und die Ti für UVP 1199 Dollar

Die 850-900dollar UVP 2080ti wird dann ausverkauft und durch die 3070 ersetzt sobald es Zeit ist

Natürlich zum gleichen preis

Und man steht wieder davor und hat die Wahl zwischen ner rtx 3070.. rtx 2080ti oder ner big Navi .. alle 3 ca gleiche Leistung zu um die 750-800€
 
Das sähe eigentlich vor, dass der GA102 eine Geforce RTX 3080 Ti und der GA104 eine Geforce RTX 3080 befeuert. Den GA106 würde man bei der Geforce RTX 3070 und 3060 antreffen.
Ich finde es bei Nvidia immer verwirrend und merkwürdig, dass die Chipbezeichnungen, sich entgegensetzt der Bezeichnung des Grafikkarenmodells verhalten.
Normalerweise würde man ja denken der Chip mit der höheren Nummer ist der stärkere.:hmm:
 
@gerX7a
Bei CPUs sollte man bedenken das da auch noch eine Plattform mit Chipsatz dazugehört. Das zusammen braucht einfach mehr Vorlauf wie eine GPU.
 
Hmm, was versprichst du dir von einem Schrink von 12nm auf 7nm? Guck dir einfach mal die Entwicklung der Strukturverkleinerung über die Zeit an.

MOSFET scaling
(process nodes)

10 µm – 1971
6 µm – 1974
3 µm – 1977
1.5 µm – 1981
1 µm – 1984
800 nm – 1987
600 nm – 1990
350 nm – 1993
250 nm – 1996
180 nm – 1999
130 nm – 2001
90 nm – 2003
65 nm – 2005
45 nm – 2007
32 nm – 2009
22 nm – 2012
14 nm – 2014
10 nm – 2016
7 nm – 2018

Future

5 nm – ~2020
3 nm – ~2022

Quelle: Semiconductor device fabrication - Wikipedia

Prozentual gesehen ist das vielleicht ein größerer Schrink als z.B. der Sprung von 90nm auf 65nm im Jahre 2005. Aber absolut bzw. elektrisch gesehen ist das fast nichts. Die Mikrotechnologie ist an ihrer Grenze angekommen. Ob nun 14, 12, 10, 7, 5 oder 3nm ... wayne. Da ist nicht mehr viel zu holen, jenseits von IPC-Optimierungen per cleveren Designverbesserungen und dem einen oder anderen Fertigungtrick/Porzeßtuning. Eigentlich lohnt sich der ganze Spaß jetzt schon garnicht mehr. GloFo als Nichtbörsianer ist deshalb ja auch ausgestiegen, weil der technologische (und damit finanzielle) Aufwand viel zu hoch ist für den geringen Nutzen/Gewinn, den man hinterher davon hat. Und BigNavi kocht mit dem gleichen Wasser wie NVidia und sogar im gleichen Kochtopf namens TSMC. AMD und NVidia müssen sich zwangsläufig in ihrer Leistung immer mehr annähern... und damit ist dieser ganze Glaubenskrieg, was nun besser ist, imo irgendwie bald total sinnlos.

Ja und Nein.

1.) Die Entwicklung ist grds. schon prozentual zu sehen, die absolute Auswirkung ist für eine Bemessung nicht relevant.
Beispiel, wenn du einen Transistor in 100nm hast, und einen Shrink auf 50nm durchführst, bekommst du statt einem zwei Transistoren
Wenn du jetzt aber von 10nm auf 5nm shrinkst, hast du nur ein Zehntel der absoluten Auswirkung, aber den gleichen Effekt, zwei statt einem!

2.) Das es sich nicht mehr lohnt ist leider auch Schwachsinn, der Umstieg von 14nm auf 7nm hat eine Verbesserung der Effizienz zur Folge die eben weit über dem hier sich immer weiter realisierenden Performancevorteil liegt. Gerade bei Grafikkarten kann man auch den Vorteil oft sehr gut ausschöpfen, da eben viele Shader gebraucht werden und solche Chips oft im Sweetspot laufen können ohne allzugroße Taktsprünge machen zu müssen. Aber schau hier einfach mal, welchen Sprung AMD machen konnte, ein 3950X z.B. ist der Nachfolger des 2700X, eine Verdoppelung der Leistung bei gleichzeitig verringertem Energieverbrauch. Das war eigentlich auch in der GrakaSzene erwartet worden.

3.) Tatsächlicherweise nähern wir uns aber so langsam dem Ende der Fahnenstange. Bereits jetzt muss vermehrt mit EUV (also extremen Ultraviolettenlich) belichtet werden, in den Inkarnationen 5nm und 3nm wird dies dann fast ausschließlich der Fall sein. Mit den aktuell zur Verfügung stehenden Materialen wird das schon schwierig. Ich meine im Kopf zu haben, dass Fahrpläne bis hinunter zu 1,4nm aktuell vorliegen, eine Veröffentlichung bei Intel ist meine ich Ende des Jahrzehntes geplant. Wird also noch viel Wasser den Rhein hinunterfließen.

Im Fazit muss ich deiner Aussage leider komplett widersprechen, ein Shrink ist die derzeit die Möglichkeit die größt möglichen Performancegewinne zu realisieren. Gerade wenn wir von SingleCore Leistungen weggehen und auf massive Parallelisierung setzen spielen Chips immer kleinerer Fertigungsgrößen Ihre Vorteile perfekt aus. Ein 7nm Chip hat in etwa die doppelte Effizienz eines 14nm Chips (Die zahlreichen Iterationen von 14nm haben diesen Abstand sicherlich etwas verkleinert), was gerade bei Grafikkarten bedeuten könnte, dass sie die doppelte Leistung realisieren könnten. AMD kann dies dank BigNavi vieleicht sogar schaffen (man muss es ja eigentlich noch mit VEGA vergleichen), brauchte aber auch einige Zeit um die maximalen Vorteile aus 7nm zu ziehen. Nvidia scheint ebenso Probleme zu haben und Ampere wird zunehmend in eine Ecke gedrückt, wo eben die RT Leistung massiv wächst, eben aber die Shaderleistung nicht annähernd das bringen wird, was AMD mit BigNavi bringen kann. Daher ist die Forschung an immer neuen und kleineren Strukturen essentiell und in den letzten Jahrzehnten waren es im Wesentlichen immer neue Fertigungsprzesse die uns Leistungssprünge gebracht haben, oder die sukzessive Anhebung der Powerlimits. Zu Beginn meiner Zeit, waren CPUs noch ohne Kühlkörper, selbst Jahre später war ein Minipassivkühlkörper noch Standard (und wurde damals sogar mißtrauisch beäugt, als wenn die Leute wussten, dass Netburst kommt. :D
 
Das es sich nicht mehr lohnt ist leider auch Schwachsinn, der Umstieg von 14nm auf 7nm hat eine Verbesserung der Effizienz zur Folge die eben weit über dem hier sich immer weiter realisierenden Performancevorteil liegt.
Aber erst EUV als Node ermöglicht diesen Shrink auf 5 oder 3nm. Ohne dem wäre es Stand der Technik nicht möglich. Auch der Waferdurchsatz wird erhöht, was dann letztlich doch irgendwie kostengünstiger werden kann (zukünftig).

Leider ist die Absorptionsrate ziemlich hoch und EUV stellt besondere Anforderungen an die durchgehende "Rauheit", was bei so großen Designs problematisch werden kann.

Ansonsten ja. Performance wird nicht immer nur an dem gemessen was du im PC betreibst, sondern auch schon bei der Entwicklung, Kosten und Herstellung. Nv braucht von allem mehr, ich hoffe das ihnen dies nicht irgendwann zum Nachteil wird. Solange ihnen das Zeug abgekauft wird haben sie erstmal kein Problem. Da war RT ein wichtiger Strategieansatz andere Schwächen zu kaschieren. Sie sind ja dafür bekannt nur das zu bringen was sie müssen, zuweilen nicht was sie könnten, wobei Volta und alles was darauf beruht einer Machbarkeitsstudie gleich kommt. In Zukunft werden sie sicher andere Ansätze suchen.

Edit sagt: ... der angekündigte Wechsel zu Samsung war einfach nur Druckmittel auf TSMC, weil die ihre Preisvorstellungen als Vorreiter halt durchsetzen und Nv dort keine Vorteile eingeräumt werden. Das spiegelt sich dann auch im Kaufpreis der Hardware wieder, wenn du eine Marge halten musst oder willst. Nv hat also längst erkannt das diese Preisspirale von NNF oder "N7N"* nicht alle mitgehen wollen.

*"N7 nVidia" als seperat effizienter 7nm-Node.
 
Zuletzt bearbeitet von einem Moderator:
Zurück