Nvidia ohne Eile beim Chiplet-Design für GPUs

AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Das hat was mit dem Yield in Abhängigkeit von der Die-Größe zu tun. Nehmen wir mal an, du sammelst bei deiner Fertigung 100 Killerdefekte pro Wafer. Wenn du kleine Chips hast, wo sagen wir mal 500 auf einen Wafer passen, sind im schlimmsten Fall 100 Chips Schrott. Aber du hast noch 400 gute... also 80% Yield. Jetzt hat du so Monsterchips, wo vielleicht 50-100 auf einen 300mm-Wafer gehen und bei gleicher Defektdichte sind in schlimmsten fall alle Chips teildefekt oder komplett Schrott... also 0% Yield. Null Ausbeute bei einem extrem teuren Prozeß ist gleich null Verkaufswert. Umso teurer werden dann die funktionierenden Dies verkauft. So ein Wafer läuft durch die Linie über mehrere Monate, bis er fertig ist und hat zig tausende Arbeitschritte hinter sich, wenn er dann fertig ist. Ich hoffe du siehst jetzt das Problem, was auftritt, je größer die Dies werden.

Das ist mir schon alles klar, ich kenne das Problem - ich meinte das eher so, dass Chiplet-Design aus rein technologischer Sicht eigentlich ein Rückschritt ist und an vielen Stellen halt Kompromisse gemacht werden müssen (gerade bei Interconnects). Bei gleichem Prozess und gleicher Güte des Siliziums, wenn das technisch erreichbar wäre, würde eine MCM-CPU gegen eine monolithische CPU kein Land mehr sehen. Deswegen finde ich es schade, aber anders gehts halt nicht ;)
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

50 % power savings, 20 % bessere Schaltgeschwindigkeit, 40 % Platzersparnis. Das wir aber kaum alles zusammen gleichzeitig möglich sein oder doch? [...]

Samsung vergleicht seine Prozesse intern folgendermaßen:
7LPP vs 10LPE: 50 % power, 20 % performance, 40 % area

Bei Samsung ist zu beachten, dass deren 7LPP bereits EUV nutzt, also mit TSMCs N7+ zu vergleichen ist und nicht mit dem aktuell von AMD genutzten N7 (Zen2, Navi 10, Vega 20). Samsung's 8LPP dürfte in etwa mit TSMCs N7 vergleichbar sein, der im Okt/Nov'18 freigegeben wurde und weiterhin vollständig auf DUV basiert.

TSMC vergleicht seine Prozesse intern folgendermaßen:
N7 (7FF) vs 10FF: 40 % power, ? performance, 38 % area (DUV only)
N7+ (7FF+) vs N7: 10 % power, ? performance, 17 % area (4 Lagen mittels EUV)
N7P vs N7: 10 % power ODER 7 % performance (DUV only, "P" für Performance-optimiert)
N6 (6FF) vs N7: ? power, ? performance, 15 % area (5 Lagen mittels EUV, frühestens ab Ende 2020)

Die oberen beiden Perf-Fragezeichen werden üblicherweise als nur recht geringe Steigerung angesehen.
Der N6 ist eine Weiterentwicklung des N7+ und sollte mit diesem bzgl. der Parameter weitestgehend identisch sein. Wesentlicher Vorteil bei diesem ist jedoch, dass die Design Rules und das Tooling weitestgehend dem N7 entsprechen, d. h. man verhältnismäßig leicht vom N7 auf den N6 upgraden können wird, während der aktuell schon verfügbare N7+ hier beträchtliche Unterschiede (zum N7) aufweist und daher kostenintensiver ist.

Bezüglich Deiner Frage gibt Samsung also tatsächlich an, alle drei Parameter optimieren zu können, was aber auch nicht verwundert, da TSMC Vergleichbares für seinen N7 angibt. Und man beachte: verglichen mit dem eigenen 10LPE, wohingegen nVidia zurzeit mit TSMCs 12 nm-Prozess fertigen lässt.
Weiterhin zu beachten ist natürlich auch ein grundsätzlich implizites "bis zu", da es hier auch durchaus Abhängigkeiten zum konkreten Design gibt.

Etwas wie einen "doppelten Navi" wird man bei AMD voraussichtlich nicht sehen. Das Navi-Design wurde für das Low-Power Envelop der Konsolen entworfen und skaliert schlecht nach oben hin. *) Nicht umsonst sitzt AMD an RDNA2, das zweifelsfrei mehr auf HighEnd ausgerichtet sein wird, zumal sie auch etwas Leistungsfähiges für Radeon Pro's brauchen, denn Vega ist mittlerweile ein alter Hut und die Dual-Polaris reißt da auch nicht mehr viel (und die Dual-Vega 20 scheint sich vorerst Apple exklusiv gesichert zu haben, aber für Consumer ist dieses viel zu teuere Design eh nichts).
Rein auf die Fertigung bezogen wird man im nächsten Jahr bei AMD wohl N7+ zu sehen bekommen, unter Umständen auch N7P, jedoch ist es nicht allzu wahrscheinlich, dass sich AMD mit zwei unterschiedlichen Prozessen befassen wird, sodass ich eher vom N7+ ausgehe, da man die zusätzliche Flächeneinsparung für Milan brauchen wird.


Und bezüglich "vernichten/terminieren" ... wie gesagt, nVidia hat einen signifikanten technologischen Vorsprung, der sich in einer effizienteren Architektur bemerkbar macht. Die Prozess-"Lücke", schließt man vergleichsweise schnell, denn beide Unternehmen sind fabless, d. h. man kauft hinzu und passt seinen Entwicklungsprozess an.
Aber um einen Eindruck von den Dimensionen zu bekommen ... zum Jahr 2018:

AMD
Revenue 6,5 Mrd. US$
Net income 337 Mio. US$ (kein Typo, inkl. teilweisem Schuldenabbau)
R&D 1,4 Mrd. US$
Employees 10.100

nVidia
Revenue 11,7 Mrd. US$
Net income 4,1 Mrd. US$
R&D 2,4 Mrd. US$
Employees 13.300 (davon 9.500 in R&D)


*) Als überschlagene Milchmädchenrechnung zum doppelten Navi 10: Aktuell als 5700 XT ohne OC bereits 225 W im Mittel und eine Performance zwischen einer RTX 2070 und RTX 2070 Super, wobei letztere in 12 nm um die 230 W im Mittel verbraucht. Ein doppelter Navi (im N7+) hätte also 225 * 2 - 10 % also rund 400 W. Hier bliebe dann schwer zu hoffen, dass bei der Leistungsaufnahme zumindest die Performance linear skaliert, denn eine 5700 XT erreicht in Far Cry 5 107 (91) Fps, während eine RTX 2080 Ti FE 140 (102) Fps erreicht (99. bzw. 1. Percentil, 1440p). Eine Titan RTX ist noch einmal 5 - 7 % schneller bei nur 280 W (ohne OC und in 12 nm).
 
Zuletzt bearbeitet:
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

keine Eile, natürlich! aber preise anziehen geht schnell... ist ja auch gut und günstig
Wolltest du dir mit dem Fanboystatement wieder Daumen erhaschen ? Fun Fact; Die Mittelklasse bzw. High-End Entry kostet auf den Dollar inflationsbereinigt genau so viel wie vor 10 Jahren :ugly:.

Im Moment hat Nvidia einfach die Oberhand. Sie schlagen AMD mit der alten 14nm Technik und können auch noch die neuen Raytracingfunktionen etablieren. Von daher ist klar, dass der Druck etwas in den Markt zu bringen gering ist, Forschung ist allerdings immer wichtig und darf nie vernachlässigt werden.



Das hört sich im Moment sehr nach dem ehemaligen Staatsratsvorsitzenden Erich Honecker, am Ende der DDR, an. Auch Walter Ulbricht und der irakische Informationsminister Muhammad as-Sahhaf, hätten ihre Freude daran gehabt.
14nm Technik, das sind die Blauen ?
Ich denke Nvidia weiß schon wat sie so machen, auch der Wechsel vom langen Partner bei 12nm+ TSMC zu Samsung wird seine Gründe haben. Wenn die Zeit reif ist wird sicherlich eine starke GeForce Generation wieder kommen, Chiplet Design hin oder her.
 
Zuletzt bearbeitet:
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Frage mich jetzt wie du auf 3x größer kommst?

AMD
Marktkap. 33,3 Mrd. US$ $
Unternehmenswert 32,7 Mrd. US$

nVidia
Marktkap. 110,8 Mrd. US$
Unternehmenswert 103,2 Mrd. US$

Und um das nachträglich noch zu komplettieren:

Intel
Marktkap. 235,2 Mrd. US$
Unternehmenswert 250, 4 Mrd. US$

Und weil jetzt bestimmt auch wer auf sein Handy schielt ;-)

Apple
Marktkap. 988,6 Mrd. US$
Unternehmenswert 886,5 Mrd. US$
 
Zuletzt bearbeitet:
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Nun ja, den aktuellen Ansatz funktionen auszulagern, finde ich auch nicht verkehrt - klar ist die Leistung noch bescheiden, aber es ist ja auch erst die 1. GEN. Ich rede hier natürlich von den Tensor / RT Kernen. Vielleicht gibt es auch noch weitere Möglichkeiten die GPU durch zusätzliche spezielle Recheneinheiten zu entlasten?

Ein neues Multi GPU Design wäre tendenziell cool, jedoch dürfte das einiges an Entwicklungsleistung benötigen um die alten Probleme der unregelmäßigen Frametimes abzustellen.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Ich rede hier natürlich von den Tensor / RT Kernen. Vielleicht gibt es auch noch weitere Möglichkeiten die GPU durch zusätzliche spezielle Recheneinheiten zu entlasten?
Spezielle Einheiten: potenziell mehr Performance, aber unflexibel
Universaleinheiten: potenziell weniger Performance, aber flexibel

AMD ist der Meinung, dass für RT angepasste Shader sinnvoller als spezielle Recheneinheiten sind. RDNA2 wird zeigen, ob das stimmt und wer den besseren Ansatz hat.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

AMD hat nichts unter den Teppich gekehrt, die verkaufen schon lange die ersten Produkte mit Ciplets.

Das stimmt so nicht. Als Intel mit den Core2Quad herausgebracht, machten sie sich noch über die Klebe CPUs lustig und verwiesen auf ihren Phenom I, der der erste native x86 Quadcore werden sollte. Blöd war nur, dass der Phenom I den Ankündigungen nicht gerecht werden konnte und damals die schlechtere CPU war.

Heute wollen sie nichts mehr davon wissen, der Ansatz hat ihnen den Hintern gerettet, so wie er damals Intel geholfen hat. Die Vorteile sind die selben geblieben, allerdings hat AMD die Nachteile ganz gut ausgebügelt. Das ändert allerdings nichts daran, dass sie sich über den Ansatz zuerst lustig gemacht haben.

14nm Technik, das sind die Blauen ?
Ich denke Nvidia weiß schon wat sie so machen, auch der Wechsel vom langen Partner bei 12nm+ TSMC zu Samsung wird seine Gründe haben. Wenn die Zeit reif ist wird sicherlich eine starke GeForce Generation wieder kommen, Chiplet Design hin oder her.

Der 12nm Prozess ist nichts weiter als ein verbesserter 14nm Prozess, der vom Marketing einen neuen Namen bekommen hat. Zugegeben 12nm hört sich erheblich besser an als 14nm+++, allerdings würde Intels 10nm Prozess dadurch ein namenstechnisches Problem bekommen. Faktisch werden die Turingkarten in einem 14nm Prozess gefertigt (oder die neuen Intel CPUs in einem 12nm und bald 11nm Prozess, wie es einem beliebt).
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Welche Handbremse? Im Enterprise Markt gibt es auch nicht mehr Leistung zu kaufen, Volta ist fast zwei Jahre alt und ein Nachfolger noch nicht in Sicht. Der Markt stagniert allgemein momentan, die Physik und steigende Kosten werden zu einem immer größeren Hindernis.


Das stimmt so nicht ganz Nvidia hat den Fokus verlegt, von Leistung zu spezialisierter Leistung!
Den Turing Optimierungen bringen bei alten Apple Herrschaftsgebieten sogar den großen Sprung.
Nur das bringt halt nichts für uns Spieler, weil wir davon nicht proftieren wir zahlen aber die Entwicklungskosten.

Der Sprung von Optimierungen ist teilweise enorm siehe z.b. Linus Tech Tips
YouTube

Das Problem ist halt das uns das wenig interessiert und Nvidia aktuell an ihren Hauptkunden vorbei Entwickelt aber die kosten
genau diesen Kunden auflegt.
Es würde sogar deutlich schneller gehen, nur Volta,Turing sind nicht für ein deutliches FPS plus Entwickelt worden, sondern für Sonderfunktionen.

Die will man jetzt irgendwie in Gaming verwenden und wie das läuft weis jeder. Nvidia hat einfach den Focus verschoben, was auch kein Wunder ist den wirklich anstrengen
und auf Leistung gehen müssen sie ja nicht um die Konkurrenz zu schlagen.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Man kriegt es halt nicht hin und wird wie Intel von AMD vernichtet. :daumen:

Man hat das doch schon vor Jahren hinbekommen mit den Dual GPU Karten denn nichts anderes ist das Chiplet Design und das war bisher wie bereits gesagt wurde eher eine Sackgasse, da die Software diese Multi-GPU Lösung nicht so gut unterstützt haben. Bei CPUs schaut das komplett anders aus, da dort der Support für mehr Kerne und Threads von den Entwicklern viel besser angenommen wurde. Wenn man sich die Researchpaper von Nvidia zum Thema MCM von 2017 und 2018 anguckt ist der neue Plan das man ähnlich wie bei Ryzen einen Control-Die verbaut der quasi wie eine VM funktioniert und quasi aus vielen GPU Dies in der VM einen riesigen macht. Das wäre als wenn man anstatt 12 Kerne mit 24 Threads@3GHz dann in der VM nur noch 4 Kerne mit 8 Threads@5-6GHz (also komplett anders als es Ryzen aktuell macht). Auch da hat man durch die Virtualisierung einen Leistungsverlust, jedoch sieht die Software wie schon jetzt nur eine einzelne GPU was den Softwaresupport verbessert.

Ob es Sinn macht auf Chiplets im GPU Bereich zu gehen hängt von vielen Faktoren ab. Wie groß ist der Leistungsverlust über die VM des Control-Die gegenüber dem Leistungsverlust bei bisherigen Multi-GPU Betrieb mit unoptimierter Software? Wie wird der Sofwaresupport für Multi-GPU Systeme in Zukunft aussehen? Intel hat z.B. Ansätze die iGPU der CPU mit der dedizierten GPU zu kombinieren, was ein Kaufargument für Intel sein könnte. Wann ist eine maximale Chipgröße erreicht, wo das Chiplet Design inklusive Leistungsverluste usw. Kosten- und Leistungsgleich mit einem monolithischen Riesen-Die ist?

Man sollte MCM nicht als nächste Evolutionsstufe sehen die man unbedingt so schnell wie möglich erreichen will, da bereits seit Jahren bekannt ist, dass es Leistungsverluste geben wird. Es ist mehr als ein Ausweg aus einem Problem zu sehen, was sich bereits jetzt im CPU Markt abzeichnet und irgendwann im GPU Markt ankommen wird. Samsung produziert erste Chips in 4nm und es scheint als wenn die maximale Chipgröße in 4nm irgendwo bei um die 300mm² liegt. Die maximal herstellbare Größe der Chips wird also immer kleiner und den Vorteil den man sich durch die immer kleinere Fertigung erkaufen kann ebenso. Bis man in der Fertigung mit Silizium am Ende ist wird es wahrscheinlich noch 10-15 Jahre dauern und vielleicht hat man bis dahin andere Halbleiter entwickelt die ein Ausweichen auf MCM unnötig machen.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Man hat das doch schon vor Jahren hinbekommen mit den Dual GPU Karten denn nichts anderes ist das Chiplet Design und das war bisher wie bereits gesagt wurde eher eine Sackgasse, da die Software diese Multi-GPU Lösung nicht so gut unterstützt haben.
Die bisherigen MultiGPU-Lösungen sind genauso wenig Chiplets wie zwei DIEs über den FSB kommunizieren zu lassen. Eigentlich sogar noch weniger, weil die MultiGPU-Systeme ihren eigenen RAM pro DIE haben und alles doppelt vorgehalten werden muss.
Es ist eher wie OOP mit Semaphoren und der Interconnect/RAM-Controller muss als Objekt so effizient wie möglich sein. Bei GPUs nur kritisch weil die schneller am Bus verhungern als eine CPU.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Das stimmt so nicht ganz Nvidia hat den Fokus verlegt, von Leistung zu spezialisierter Leistung!
Den Turing Optimierungen bringen bei alten Apple Herrschaftsgebieten sogar den großen Sprung.
Nur das bringt halt nichts für uns Spieler, weil wir davon nicht proftieren wir zahlen aber die Entwicklungskosten.

Der Sprung von Optimierungen ist teilweise enorm siehe z.b. Linus Tech Tips
YouTube

Das Problem ist halt das uns das wenig interessiert und Nvidia aktuell an ihren Hauptkunden vorbei Entwickelt aber die kosten
genau diesen Kunden auflegt.
Es würde sogar deutlich schneller gehen, nur Volta,Turing sind nicht für ein deutliches FPS plus Entwickelt worden, sondern für Sonderfunktionen.

Die will man jetzt irgendwie in Gaming verwenden und wie das läuft weis jeder. Nvidia hat einfach den Focus verschoben, was auch kein Wunder ist den wirklich anstrengen
und auf Leistung gehen müssen sie ja nicht um die Konkurrenz zu schlagen.

Guter Post das ich auch so sehe nur frage ich mich ob Nvidia deshalb Raytracing-Kerne verbaut da es immer schwerer wird Leistung zum fairen Preis zu bringen und den Leistungsverlust zu verschleiern. Von Raytracing hatte ich vor Turing nichts gehört oder nicht mehr daran gedacht da es früher ja auch mal versucht wurde. Als Gamer bin ich nicht gefragt worden und Nvidia haut einfach diese Technik raus wo ich lieber Leistung möchte und aktuell 1080TI-Leistung für 300€ Top wäre das 4K endlich mal Standard wird. Die letzte gute GEN war Pascal da Lesitung kam aber dieser überteuerte Kram heute mit Turing und dem unnützen Raytracing hat AMD auch nicht gekontert und verlangt für Mittelklasse heute 400-500€ was aber Nvidia seit Pascal die Preise in die Höhe treibt aber die Leistung dafür weniger wird.

Man merkt heute schon das die GPU-Entwicklung große Schwierigkeiten hat gerade für uns Gamer da wir eine gute und günstige GPU brauchen denn zocken in VGA mit 640*480 macht heute wohl keiner mehr ;-)
Im CPU-Markt hat AMD frischen Wind gebracht und man bekommt gute und günstige CPU´s aber warum schaffen die das nicht im GPU-Markt? Dafür hauen sie GPU´s ohne RT raus aber 500€ verlangen. Turing und Navi ist keine GEN für mich aber Ryzen 3000 ist interessant und lockt zum Aufrüsten.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

AMD
Marktkap. 33,3 Mrd. US$ $
Unternehmenswert 32,7 Mrd. US$

nVidia
Marktkap. 110,8 Mrd. US$
Unternehmenswert 103,2 Mrd. US$

Und um das nachträglich noch zu komplettieren:

Intel
Marktkap. 235,2 Mrd. US$
Unternehmenswert 250, 4 Mrd. US$

Und weil jetzt bestimmt auch wer auf sein Handy schielt ;-)

Apple
Marktkap. 988,6 Mrd. US$
Unternehmenswert 886,5 Mrd. US$

Ok kann man vielleicht so sehen und an Aktien fest machen, scheint mir nur sehr abwegig das an einem durch Spekulation entstandenen Wert fest zu machen.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

wofür auch, eigentlich kann Nvidia erstmal paar Monate den Laden dicht machen und dann irgendwann frisch erholt vom Urlaub weitermachen. Es gibt quasi 0 Konkurrenz und AMD kommt bei weitem nicht an das was Nvidia hat. Da gehts um ganz andere Faktoren als der 0815 User denkt.

Ich würde sagen der hat direkt gesessen bei Nvidia, gute Arbeit geleistet bisher und jetzt die verdiente Ruhe. Leider ist es auch irgendwie langweilig ohne Konkurrenz.


Sprach der Hase zu dem Igel. :-))

Du weißt aber schon, dass nVidia in letzter Zeit ordentlich Federn von dem Technologievorsprung lassen musste?
Von ehemals vielleicht bis zu etwa 40% Effizienzvorsprung sind im schöngeredeten Zustand maximal noch 10% übrig geblieben.
Und hätte AMD mit Navi geklotzt und die 4096 Shader Variante auf den Markt geworfen, wäre eine RTX Titan rechnerisch vor Neid zu Staub zerfallen (<DramatikModusaus>^^).
Ne mal im Ernst, RNDA 2.0 die "Vollversion" steht vor der Tür und man sollte sich also mit solchen Sprüchen in Vorsicht nehmen.
Natürlich kann man wie Intel erst einmal Pause machen, das geht dann aber schnell nach Hinten los.
Und ist die Konkurrenz erst einmal wieder dran, kann das Kartenahus auch schnell zusammenbrechen.
Eine Generation "unterlegener" Hardware reicht aus, um Aktionäre und den Geldhahn empfindlich schrumpfen zu lassen.
AMD hat nun schon Jahre erfolgreich mit Chiplets gearbeitet.
Sollten die also als erster mit dem Design auch auf dem GPU Sektor starten, ist es womöglich sehr schnell vorbei mit NVidias Traumtänzerei vom einfachen Geldregen für fast nichts.
Ich würde mich jedenfalls freuen, wenn schon bald neue Zeiten abrechen, und man dann zumindest kurzfristig auch mal wieder hohe Leistungssteigerungen im GPU Sektor verbuchen kann, wo sich der Kauf aufeinanderfolgender Generationen lohnt, und nicht nur gefühlt der Preis für sinnfreie Features gezahlt werden müssen.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Guter Post das ich auch so sehe nur frage ich mich ob Nvidia deshalb Raytracing-Kerne verbaut da es immer schwerer wird Leistung zum fairen Preis zu bringen und den Leistungsverlust zu verschleiern. Von Raytracing hatte ich vor Turing nichts gehört oder nicht mehr daran gedacht da es früher ja auch mal versucht wurde. Als Gamer bin ich nicht gefragt worden und Nvidia haut einfach diese Technik raus wo ich lieber Leistung möchte und aktuell 1080TI-Leistung für 300€ Top wäre das 4K endlich mal Standard wird. Die letzte gute GEN war Pascal da Lesitung kam aber dieser überteuerte Kram heute mit Turing und dem unnützen Raytracing hat AMD auch nicht gekontert und verlangt für Mittelklasse heute 400-500€ was aber Nvidia seit Pascal die Preise in die Höhe treibt aber die Leistung dafür weniger wird.

Man merkt heute schon das die GPU-Entwicklung große Schwierigkeiten hat gerade für uns Gamer da wir eine gute und günstige GPU brauchen denn zocken in VGA mit 640*480 macht heute wohl keiner mehr ;-)
Im CPU-Markt hat AMD frischen Wind gebracht und man bekommt gute und günstige CPU´s aber warum schaffen die das nicht im GPU-Markt? Dafür hauen sie GPU´s ohne RT raus aber 500€ verlangen. Turing und Navi ist keine GEN für mich aber Ryzen 3000 ist interessant und lockt zum Aufrüsten.


AMD bietet eine gewisse Leistung für um 450 Euro an und Nvidia etwas mehr Leistung und Zusatzfunktionen für um 530Euro. Also das man irgendetwas bei Nvidia aktuell an den Preisen schlechter redet, als bei AMD ist für mich nicht nachvollziehbar!
Beides nicht berauschend, aber seit den Super Karten nur noch halb so wild.

Wenn AMD mal wieder in der Lage ist, Top Leistung zu bieten, ohne dabei die eigenen Produktionskosten explodieren zu lassen können wir vielleicht wieder etwas bessere Preise erleben. Aber nicht so, wie es vor fünf, sechs Jahren mal war, da kommen wir aufgrund des schwachen Euros und der Inflation nicht wieder hin.

Sprach der Hase zu dem Igel. :-))

Du weißt aber schon, dass nVidia in letzter Zeit ordentlich Federn von dem Technologievorsprung lassen musste?
Von ehemals vielleicht bis zu etwa 40% Effizienzvorsprung sind im schöngeredeten Zustand maximal noch 10% übrig geblieben.
Und hätte AMD mit Navi geklotzt und die 4096 Shader Variante auf den Markt geworfen, wäre eine RTX Titan rechnerisch vor Neid zu Staub zerfallen (<DramatikModusaus>^^).
Ne mal im Ernst, RNDA 2.0 die "Vollversion" steht vor der Tür und man sollte sich also mit solchen Sprüchen in Vorsicht nehmen.
Natürlich kann man wie Intel erst einmal Pause machen, das geht dann aber schnell nach Hinten los.
Und ist die Konkurrenz erst einmal wieder dran, kann das Kartenahus auch schnell zusammenbrechen.
Eine Generation "unterlegener" Hardware reicht aus, um Aktionäre und den Geldhahn empfindlich schrumpfen zu lassen.
AMD hat nun schon Jahre erfolgreich mit Chiplets gearbeitet.
Sollten die also als erster mit dem Design auch auf dem GPU Sektor starten, ist es womöglich sehr schnell vorbei mit NVidias Traumtänzerei vom einfachen Geldregen für fast nichts.
Ich würde mich jedenfalls freuen, wenn schon bald neue Zeiten abrechen, und man dann zumindest kurzfristig auch mal wieder hohe Leistungssteigerungen im GPU Sektor verbuchen kann, wo sich der Kauf aufeinanderfolgender Generationen lohnt, und nicht nur gefühlt der Preis für sinnfreie Features gezahlt werden müssen.

Wenn RDNA 2.0 vor der Tür steht, steht auch schon der Turing Nachfolger vor der Tür und damit dürfte die gleiche Runde eigentlich nur von vorne beginnen.
Man muss auch immer den Aufwand sehen. AMD mit angegebenen 7nm mit schlechterer Effizienz, als Nvidia mit 12nm. Da hat sich betimmt einer bei Nvidia tränen gelacht. Das ist eigentlich traurig.

Ich denke, es ist beides möglich. Wir erleben einfach eine Widerholung dessen, was wir schon aus den letzten Jahren kennen. Nvidia muss sich keine Mühe geben.
Genau so wie es möglich ist, das AMD mit RDNA2.0 einen Effizienzsprung hinlegt wie Nvidia vor ein paar Jahren und plötzlich wäre AMD effizienter und hat damit mehr Spielraum für große Chips und hohen Takt.

Zum Technologievorsprung. Auch RT bei Nvidia ist ganz klar ein Technologievorsprung!
 
Zuletzt bearbeitet:
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Du weißt aber schon, dass nVidia in letzter Zeit ordentlich Federn von dem Technologievorsprung lassen musste?
Von ehemals vielleicht bis zu etwa 40% Effizienzvorsprung sind im schöngeredeten Zustand maximal noch 10% übrig geblieben.
Wie kannst du denn den Effizienzvorsprung so genau bestimmen, wo die Chips doch in unterschiedlichen Fertigungsverfahren hergestellt werden und ein Großteil des Unterschieds genau da her kommt.

Und hätte AMD mit Navi geklotzt und die 4096 Shader Variante auf den Markt geworfen, wäre eine RTX Titan rechnerisch vor Neid zu Staub zerfallen (<DramatikModusaus>^^).
Hätte, hätte, Fahrradkette.

Haben sie aber nicht. Heute haben Sie immer noch nichts größeres im Angebot, als eine 2070.

Da gähnt man doch.

Ne mal im Ernst, RNDA 2.0 die "Vollversion" steht vor der Tür und man sollte sich also mit solchen Sprüchen in Vorsicht nehmen.
Wo steht RNDA2.0 denn "vor der Tür"? Es gibt weder eine Ankündigung, noch ein konkretes Launchtermin.

Könnte sogar - wie es so in den letzten Jahren üblich war - dass lange vor der AMD Präsentation von was Neuem, NVIDIA wieder mal was noch besseres und schnelleres zeigt.

Das ist durchaus die realistischere Möglichkeit :-P

AMD hat nun schon Jahre erfolgreich mit Chiplets gearbeitet.
Bei GPUs? Wo und Wann?

Sollten die also als erster mit dem Design auch auf dem GPU Sektor starten, ist es womöglich sehr schnell vorbei mit NVidias Traumtänzerei vom einfachen Geldregen für fast nichts.
:lol::lol::lol::lol::lol:

Oben hatte jemand die R&D Ausgaben verlinkt. 1,4 Milliarden bei AMD vs. 2,4 Milliarden bei NVIDIA, wenn ich mich nicht täuschen. "für fast nichts". Großartig!

Es ist wirklich beschämend, was für ein völlig verkorkstes Weltbild manche User in diesem Forum haben.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Interessant, dass Nvidia auch daran forscht.

Warum interessant?

Ist die nächste logische Schritt.

Shrinking hin oder her, irgendwann sind die Chips so gross und komplex dass nicht mehr wirtschaftlich hergestellt werden können.
Und jeder ist, oder sollte, bewusst sein, dass eine gute Parallelisierung deutlich mehr Leistung bringt als mehr Takt.

Der Hacken ist nur das ganze sauber zu implementieren.
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Du weißt aber schon, dass nVidia in letzter Zeit ordentlich Federn von dem Technologievorsprung lassen musste?
Von ehemals vielleicht bis zu etwa 40% Effizienzvorsprung sind im schöngeredeten Zustand maximal noch 10% übrig geblieben.

trotz 7nm vs 16nm is Nvidia nur noch 10% mehr Effizient ... ja .. wow ... absoluter Win für AMD!
 
AW: Nvidia ohne Eile beim Chiplet-Design für GPUs

Wo steht RNDA2.0 denn "vor der Tür"? Es gibt weder eine Ankündigung, noch ein konkretes Launchtermin.

Na in 8 bis 12 Monaten so etwa. Sagen zumindest die aktuellen Vermutungen. Und die sind auch nicht weniger Gehaltvoll, als aktuelle Ankündigen von NV... da ist mir zumindest noch so gar nix bekannt.

Könnte sogar - wie es so in den letzten Jahren üblich war - dass lange vor der AMD Präsentation von was Neuem, NVIDIA wieder mal was noch besseres und schnelleres zeigt.

Das ist durchaus die realistischere Möglichkeit :-P

Nach dem, was NV dazu von sich gibt, klingt das wirklich nicht danach. Überraschen würde es mich zwar dennoch nicht, aber ich sehe es im Moment eher Richtung 50/50


Bei GPUs? Wo und Wann?

Na, gar nicht. Hat ja auch keiner von geredet :schief: Sie haben mit CPU-Chiplets gearbeitet. Und das ja auch offensichtlich recht erfolgreich. Es wird halt vermutet, dass sie mit der bisherigen Erfahrung auch im GPU-Bereich positiv voran kommen werden. Wie relevant die CPU-Chiplet-Erfahrung für eine entsprechende GPU-Entwicklung ist, kann man aus meiner Perspektive trotzdem so gar nicht sagen... kann auch völlig unnütz sein. Dazu würde mich mal eine Aussage von AMD interessieren, wie nützlich dass von ihnen selbst eingeschätzt wird.

Oben hatte jemand die R&D Ausgaben verlinkt. 1,4 Milliarden bei AMD vs. 2,4 Milliarden bei NVIDIA, wenn ich mich nicht täuschen. "für fast nichts". Großartig!

Naja, das bezog sich wohl eher auf die Richtung der technologischen Entwicklung, die halt auf Kunden mit anderen Leistungsanforderungen als Gamer abziehlt, wodurch eben der Leistungsgewinn in Games nur marginal und quasi "nebenbei" produziert wird, für seeehr viel teure Forschung in eine andere Richtung.

Es ist wirklich beschämend, was für ein völlig verkorkstes Weltbild manche User in diesem Forum haben.

Ich wage zwar auch zu bezweifeln, dass AMD jetzt tatsächlich die als "Nvidia-Killer" (von AMD selbst so genannt) bezeichnete Karte wirklich aus dem Hut zaubern wird - aber hey, falls doch: passiert endlich mal wieder was :) Haben wir doch alle was von.

trotz 7nm vs 16nm is Nvidia nur noch 10% mehr Effizient ... ja .. wow ... absoluter Win für AMD!

Jaaaaa.... dass sieht dann bei NV's nächstem Schrink wieder etwas bescheiden für AMD aus. AMD hätte jetzt 20% Vorsprung gebraucht - da tippe ich, wird NV mit dem Schrink landen. Sagt jedenfalls meine Kristallkugel ;)
 
Zurück