Nvidia Geforce RTX 2060/2070: TU106 aus Korea stiftet Verwirrung

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Nvidia Geforce RTX 2060/2070: TU106 aus Korea stiftet Verwirrung

Die Angabe der Fertigung in Korea sorgte für die TU106-GPU für einige Verwirrung. Medien vermuteten bereits, dass Nvidia den Chip bei Samsung fertigen lässt. Dem ist aber nicht so. Nvidia klärte die Nummer auf und betont dabei, dass TSMC wie auch Samsung wertvolle Partner seien.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Nvidia Geforce RTX 2060/2070: TU106 aus Korea stiftet Verwirrung
 
Ist es für mich als Endverbraucher nicht völlig schnuppe von welcher asiatischen Kinderhand die Dinger geschnitzt werden?

Von mir aus dürfen die auch gern mal bei einer Größe stehen bleiben, denn abgesehen vom höheren Gewinn für den Hersteller aufgrund höherer Stückzahlen pro Wafer, hat man als Verbraucher nur Nachteile. Anfälliger für Elektronenmigration, schlechter zu kühlen, da weniger Fläche-mehr Lautstärke und höhere Preise da die Fertigung aufwendiger ist.
 
@darpa, wenn du mir sagst worin dein Problem in meinem Post liegt, kann ich dem gerne konstruktiv begegnen.

Ich bin der Meinung das Architekturveränderungen effizienter sind als die Struktur zu verkleinern, sicher spart dies letztlich auch Energie aber langsam nähert sich die Grenze zum unwirtschaftlichen, dies wird auf den Verbraucher abgewälzt.
 
Klar ist es wichtig, auch über Verbesserungen an der µArch Fortschritte zu erzielen. Sogar sehr wichtig. Aber es ist bei weitem nicht so, dass Node Sprünge nur Nachteile bringen. Sie sind immer noch ein zentraler Faktor.

Wahrscheinlich hat mich aber auch deine Einleitung ala "ist mir doch egal" getriggert ;)
 
@darpa, wenn du mir sagst worin dein Problem in meinem Post liegt, kann ich dem gerne konstruktiv begegnen.

Ich bin der Meinung das Architekturveränderungen effizienter sind als die Struktur zu verkleinern, sicher spart dies letztlich auch Energie aber langsam nähert sich die Grenze zum unwirtschaftlichen, dies wird auf den Verbraucher abgewälzt.

Architekturverbesserungen bringen nicht so viel wie man z.B. beim Vergleich von Maxwell zu Pascal zu Turing sieht bezogen auf Leistung pro Transistor und Takt. Was viel bringt sind komplett neue Architekturen wie man es z.B. bei Maxwell und jetzt Navi sieht, jedoch brauchen die um die 5 Jahre an Entwicklung. Würde man nicht immer kleinere Prozesse anstreben würden die Chips immer größer werden was am Ende teurer ist als kleinere Chips im neuen Verfahren herzustellen. TU102 ist mit rund 750mm² schon sehr groß und viel größer können die Chips nicht hergestellt werden. Aktuell hat man von Jahr zu Jahr kleine Listungssprünge durch kleine Verbesserungen der Architektur, größer werdenden Chips und den Wechsel auf kleinere Fertigungsprozesse. Würde man den Sprung auf die nächste Node verzögern hätte man die ersten 2-3 Jahre ähnliche Leistungssprünge wie jetzt und dann immer kleiner werdende Leistungssprünge bis die nächste Architektur fertig ist oder die nächste Node günstiger ist. Für die Unternhemen wäre das unwirtschaftlich, da es einen geringeren Anreiz zum Kauf neuer Karten gäbe (wenn wir anstatt 30% mehr Leistung nur 10% mehr Leistung je Generation hätten) und für uns Konsumenten würden die Karten wahrscheinlich auch nicht günstiger werden.

Man muss ja nur gucken was AMD und Nvidia mit den Gewinnmargen machen. Nvidia hat die Margen von Jahr zu Jahr erhöht obwohl die Fertigung der Node günstiger wurde und AMD macht das selbe. Von 30% Marge wurde auf 42% Marge erhöht obwohl die 7nm Node von TSMC einen höheren Yield liefert als angenommen wurde.
 
Von mir aus dürfen die auch gern mal bei einer Größe stehen bleiben, denn abgesehen vom höheren Gewinn für den Hersteller aufgrund höherer Stückzahlen pro Wafer, hat man als Verbraucher nur Nachteile.

Wenn wir vor 15-20 Jahren bei der Größe stehengeblieben wären hätte ein imaginärer Turing-Grafikchip mit der vergleichbaren Leistung gefühlt die Fläche deiner Tastatur und 5 kW Leistungsaufnahme.

Euch muss klar sein, dass die Verkleinerungen der hauptsächliche Grund sind, warum Leistungszuwächse in nennenswertem Ausmaß überhaupt möglich sind - und das nicht nur weil Chips bei gleicher Leistung kleiner und sparsamer werden (und damit bei gleicher Fläche und Verbrauch mehr Leistung drin ist) sondern weil modernere Architekturen auch darauf ausgelegt werden - oder anders gesagt: Einen Turingchip könntest du, selbst wenn man ihm nur 200 statt 3000 Shadereinheiten verpasst um die Größe/Abwärme im Griff zu halten, nicht in 90nm fertigen - die elektrischen Eigenschaften dieses prozesses würden eine Funktion des Chips nicht zulassen (ohne den Takt extrem zu verringern bzw. interne Latenzen zu erhöhen) da beispielsweise Hotspots im Chip diesen zerstören, längere Signallaufzeiten zu Rechenfehlern führen und so weiter. Es ist etwas komplizierter als "Entwerfe Architektur x und suche dann Prozess y aus". :schief:
 
Zuletzt bearbeitet:
PR Nummer, wenn so eine Nachricht hypst, bist halt im Gespräch, das ist für Nvidia wichtig, da in letzter Zeit zuviel über Navi geredet wurde, und nun vermehrt das Augenmerk der Kundschaft auf "Super" gelegt werden muß. Macht AMD auch nicht anders.

Das einzige was bei mir Verwirrung stiftet sind derzeit die Preise.
 
Zurück