AW: Nvidia Ampere vielleicht auf der GTC Ende März
Nö überhaupt nicht, dieser Satz ist FUD! Warum? Weil TSMC noch nie dagewesene Gewinne mit 7nm Zen einfährt und Nv kein Exklusivkunde mehr ist, das Volumen ist mickrig und sie damals frühzeitig von 7nm abgesprungen sind, TSMC dabei Verluste eingefahren hat. Die kriegen nur noch was übrig bleibt, es wird wie immer FFN und die Konditionen dafür möchte nicht wissen. Freut euch schon mal. Nv ist ein F*rz zu Zen und Apple. Apple nimmt ja auch 7nm AMD ab. Nicht umsonst schielt Nv für kleinere Die's zu Samsung. Apple will ja schon alsbald 5nm.
Nv's große Chips dürften selbst im eigenständigen Verfahren Risikoproduktion sein und die werden sich schön absichern, dass sie an TSMC nicht für Ausschuss zahlen.
Du lieferst gerade die besten Argumente. Nvidia hat die Produktion aus dem alten 12nm Prozess (der ein umbenannter 16nm Prozess ist) abgenommen, während AMD und Apple die 7nm Produktion abgenommen haben. Ohne Nvidia wäre der 12nm Zweig wohl nicht so profitabel gewesen.
Weil es höchst selten gut ist, wenn man einen großen Kunden verliert. Alleine schon deshalb, weil es nun weniger Nachfrage nach TSMCs Produkten gibt und die Konkurrenz gestärkt wird.
Das AMD keine Eierlegendewollmilchsau mehr baut, sondern zwei Designs (einmal Gaming und einmal HPC Markt) verfolgt ist dir bekannt? Von daher sind so Probleme wie sie mit Vega im Gamingmarkt entstanden sind, sehr unwahrscheinlich... Da fragt man sich ernsthaft was solche Postings sollen?
AMD kann immer noch einen Flop hinlegen, da ist nichts ausgeschlossen. Wenn man es skeptisch betrachtet, dann haben sie 7nm gebraucht, um mit Nvidia, von der Leistung sowie dem Verbrauch, gleich zu ziehen und haben keine Spielereien, wie Raytracing oder Tensorkerne. Nvidias Gegenschlag steht noch bevor, von daher ist alles möglich.
Das ist mal wieder bullshit hoch zehn, aber wundert mich ehrlich gesagt auch nicht, dass keine Möglichkeit ausgelassen wird um so einen Unfug von sich zu geben. Dass Bulldozer ein Hochtaktdesign war und Glofo AMD hohe Taktraten in ihrem Prozess versprochen hatte ist dir bekannt? Die erste Iteration von Bulldozer kam mit 3,5 GHz, angedacht waren ~ 5GHz, da wäre die Performance dann auch nicht ganz so schlecht gewesen (über den Verbrauch kann man nur Mutmaßen ob Brechstange oder nicht). Aber aufjedenfall war ein sehr großes Problem, dass Glofo AMD etwas versprochen hatte, was sie dann letztendlich nicht einhalten konnten und dieses Problem hat AMD mit TSMC eben nicht.
Das höre ich heute zum allerersten mal. Tatsache ist, dass der Bulldozer ein Flop war, das hat auch AMD so bestätigt (allerdings erst nachdem sie mit Ryzen wieder die Siegerstraße betreten haben).
Natürlich kann man auch einen Flop, mit den entsprechenden Taktraten, zum Erfolg prügeln. Beim Bulldozer wären dazu 6-7 GHz notwendig, denn hätte er gehalten, was versprochen wurde. Die Taktraten wären keine Überraschung, spätestens beim Phenom I konnte jeder sehen, woran man beim SOI Prozess ist.
Der eigentliche Clou, beim Bulldozerdesign (wenn es denn so funktioniert hätte, wie gedacht) wäre gewesen, dass man, durch die gemeinsamen Kerne, zwei Kerne mit jeweils 80-90% eines normalen Kerns, erhalten und den Aufwand nur um 10-20% gesteigert hätte. Es wären also 8 Kerner, zum Preis von 4 Kernern möglich gewesen, wenn es denn geklappt hätte.
Dummerweise hat es das nicht, die Leistung lag eher bei unter 50% eines Intelkerns, mit HT, bzw. etwa 60% eines Intelkerns ohne HT. So waren die FX 8000er bestenfalls so schnell wie die i7, anstatt doppelt so schnell, der Rest ist Geschichte.
Gleichzeitig ist die Komplexität explodiert, da man viel Cache braucht, damit der Bulldozer nicht völlig abgehängt wird. 315mm² beim Zambezi standen 270mm² beim Sandybridge i7 gegenüber und der hatte noch zusätzlich eine IGP.
Ich würde eher sagen, dass du den Bullshit hoch 10 verzapfst.
Wenn du da andere wirkliche Quellen hast, dann her damit.
Bitte:
AMD Bulldozer: Rechenkerne in Modul-Bauweise | 3DCenter.org
Ich hätte ganz gerne eine Quelle für das angebliche Hochtaktdesign.
Ja, und Kaffeekochen kann sie am Ende auch noch ... wieder mal alles heiße Luft, genauso wie die 7nm Wunderkarten die schon vor ca. zwei Jahren kommen sollte.
Korrigiere mich, wenn ich falsch liege, aber Nvidia hat momentan die stärkeren GPUs, mit Raytracing, die obendrein noch im alten 12nm Prozess gefertigt werden. Von daher ist die Ausgangslage von Nvidia deutlich besser.