Nvidia Pascal: Samsung schrumpft GPUs auf 14 nm

Oha, AMD hat 14nm also brauchen wir das auch. Mehr ist das nicht.

Eher ein TSMC verlangt Arsch hohe Preise und Samsung GloFo ist da billiger also bleibt mehr fuer uns selbst ...
Die 1060 bei TSMC fertigen lassen war sicher nicht gerade das schlaueste da wette ich bleibt AMD mehr von jeder verkauften RX Karte :)
 
Oha, AMD hat 14nm also brauchen wir das auch. Mehr ist das nicht.

Nennt sich Diversifizierung, man sollte niemals von einem Lieferanten abhängig sein, es würde mich nicht wundern wenn sie dann irgendwann mal auch etwas bei GloFo fertigen lassen werden (ist ja eh unabhängig von AMD). Das ganze hätte den Vorteil das Nvidia immer up to date ist, auch wenn es bei TSMC mal klemmt.
 
Ich denke das alles hängt mit der momentanen Liefersituation zusammen. Die aktuellen GPUs sind schlecht lieferbar, TSMC ist voll ausgelastet und Apple möchte seine Chips nicht weiter bei Samsung fertigen lassen -> Noch mehr Aufträge und Auslastung für TSMC. Ich denke jedoch auch, dass es sich hier im die gp107 und 108 handeln wird. Diese werden hauptsächlich in Notebooks zum Einsatz kommen. Der Notebook Markt ist DEUTLICH größer als der Markt für Desktop PC und entsprechenden Grafikkarten. Nvidia braucht hier also Stückzahl und günstige Chips, damit im Mediamarkt wieder Notebooks mit Nvidia Sticker stehen. Momentan werden im MM Notebooks mit Geforce 920 bis 940 als Gaming verkauft, nur weil ein NVidia Sticker drauf ist. Diese Chips werden nun ersetzt durch GP107 und 108.
In Sachen Taktfrequenz gehe ich davon aus, dass der 14nm LPP Prozess kein Nachteil zu 16+FF sein wird. Die niedrigen Taktfrequenzen bei AMD sind eher im Chipdesign begründet. War ja auch schon so im 28nm Prozess, den beide verwendet haben. AMD packt seine Chips sehr dicht mit Low Density Librarys, Leiterbahnen und Transistoren liegen sehr dicht beieinander. Dies bedeutet: Höhere Leckströme. Dies bedeutet auch; Sehr viele Transistoren auf der Fläche möglich, somit auch sehr viele Shader Einheiten. Der GP106 besitzt bei 200mm² 4,4 Mrd Transistoren. Die RX480 besitzt bei 232mm² 5,7Mrd Transistoren. Nvidia geht auf Takt, AMD mehr auf hohe Shaderzahl. In der Theorie sollten sich beide Methoden ebenbürtig sein.

Edit meint noch, dass der Stromverbrauch bei Erhöhung der Shaderzahl linear ansteigt, bei Erhöhung des Taktes steigt er jedoch exponentiell an. Darum können NVidia Chips nicht so viel höher takten um auf die gleiche Rechenleistung zu kommen wie AMD-Karten. Darum haben AMD-Karten eine höhere Rohrechenleistung, die sie aber nicht in Form von FPS auf die Straße bringen. Zumindest nicht in DX11.
 
Zuletzt bearbeitet:
Auch eine Möglichkeit. Ich ging ja bisher davon aus, dass die Taktraten einfach außerhalb des effizientesten Bereichs lagen. Bei der R9 Nano konnte man es ja sehen; mit ihrem niedrigeren Takt war die auf einmal fast so effizient wie die GTX 980 und geringfügig effizienter als jetzt die RX 480 (basierend auf PCGH-Messungen). Brach liegende Funktionseinheiten, die dennoch Leistung umsetzen, könnten aber vielleicht auch eine Erklärung sein, keine Ahnung.

Betrachte einfach mal die Nvidia Fermi Karten, diese waren auch sehr stark Compute Lastig ausgelegt und waren deshalb im allgemeinen nicht sehr Stromsparend um es freundlich auszudrücken, bei Kepler wurde dann der Chip gerade der GK104 in Richtung Gaming ausgelegt, sich dem unnötigen Ballast entledigt und schon hatte man ein für diese Zeit Effizienzwunder und bei Maxwell wurde nochmals ausgemistet.
 
@Bluebird
Das definitiv, der Wechsel zu GloFo wurde mit Sicherheit auch deswegen durchgeführt, weil GloFo durch den Vertrag und auch die Zugehörigkeit zu Mubdala deutlich weniger verlangen werden.
 
Betrachte einfach mal die Nvidia Fermi Karten, diese waren auch sehr stark Compute Lastig ausgelegt und waren deshalb im allgemeinen nicht sehr Stromsparend um es freundlich auszudrücken, bei Kepler wurde dann der Chip gerade der GK104 in Richtung Gaming ausgelegt, sich dem unnötigen Ballast entledigt und schon hatte man ein für diese Zeit Effizienzwunder und bei Maxwell wurde nochmals ausgemistet.

die 6970 lag auf dem selben Level je nach Custum Version nur hatte die 512 mb mehr ram , also Wunder ist das keins gewesen damals , das war bestenfalls das Kurve kriegen :)
 
Die niedrigen Taktfrequenzen bei AMD sind eher im Chipdesign begründet. War ja auch schon so im 28nm Prozess, den beide verwendet haben. AMD packt seine Chips sehr dicht mit Low Density Librarys, Leiterbahnen und Transistoren liegen sehr dicht beieinander. Dies bedeutet: Höhere Leckströme. Dies bedeutet auch; Sehr viele Transistoren auf der Fläche möglich, somit auch sehr viele Shader Einheiten. Der GP106 besitzt bei 200mm² 4,4 Mrd Transistoren. Die RX480 besitzt bei 232mm² 5,7Mrd Transistoren. Nvidia geht auf Takt, AMD mehr auf hohe Shaderzahl. In der Theorie sollten sich beide Methoden ebenbürtig sein.
[...]
Die Packdichte vom P10 ist im Vergleich zum GP106 ~12% höher, die Taktfrequenzen aber weit darunter.
In der Theorie ist der breite, aber niedrig getaktete Weg wesentlich effizienter, solange der Rest grob vergleichbar bleibt.
Es liegt sehr wahrscheinlich primär an der grundlegenden Architektur, Sekundärfaktoren wie die Implementierung und der Prozess wirken sich natürlich auch positiv bzw. negativ auf das Taktverhalten aus.
Durchaus wird es interessant zu sehen sein, mit welcher Spannung und Taktfrequenz die kleinen Pascal-Chips ausgestattet werden.

Betrachte einfach mal die Nvidia Fermi Karten, diese waren auch sehr stark Compute Lastig ausgelegt und waren deshalb im allgemeinen nicht sehr Stromsparend um es freundlich auszudrücken, bei Kepler wurde dann der Chip gerade der GK104 in Richtung Gaming ausgelegt, sich dem unnötigen Ballast entledigt und schon hatte man ein für diese Zeit Effizienzwunder und bei Maxwell wurde nochmals ausgemistet.
Bei Maxwell hat man eig. nichts anderes gemacht als wieder stark drauf zu legen.
Gespart hat man an der Texturierleistung und es gab keinen Chip mit vielen FP64-Einheiten.
 
Der reine Chip ist relativ Effizient, 110 Watt sind jetzt nicht die Welt, nur die 8 GB Ram samt Speicherinterface und Wandler verbrauchen halt recht viel. Die GTX 1060 hat zwar 2 Ram Chips weniger und das kleinere Interface, aber irgendwie habe ich das Gefühl Nvidia bekommt das besser hin. Hinzu kommt man kann die AMD Karten relativ gut undervolten, also den Chip und Speicher. So kann man nochmal 20 - 30 Watt einsparen und der Boost wird auch mal gehalten, weil die 160 Watt nicht überschritten werden. Der Sweetspot dürfte irgendwo bei 1100 - 1200 MHZ liegen.

Das ist zwar schön und gut das man das machen kann, aber ich würde mir wünschen das die Karten von Haus aus optimiert wären, so wie es bei Nvidia ist.
 
Das ganze kommt aus den 70ern und bezeichnet den Abstand zwischen Source un Drain..
Nö.
Der Prozeß bezeichnet die kleinste herstellbare Strukturbreite.
Das mit Source und Drain hab ich noch nie gehört und wüßte auch nicht, wo das stehen sollte.

Die Gatelänge stellt zwar ein Maß dafür dar, ist aber so nicht konkret festgelegt in der Halbleitertechnologie, jedenfalls so lange ich studiert habe.
 
Nö.
Der Prozeß bezeichnet die kleinste herstellbare Strukturbreite.
Das mit Source und Drain hab ich noch nie gehört und wüßte auch nicht, wo das stehen sollte.

Die Gatelänge stellt zwar ein Maß dafür dar, ist aber so nicht konkret festgelegt in der Halbleitertechnologie, jedenfalls so lange ich studiert habe.

Transistors & The End of Moore's Law - YouTube

Konkret festgelegt (im Sinne von was genau zählt wie zu messen ist) ist da eh nichts, das ist im Prinzip alles nur Marketingbullshit. so wie früher die 120W PMPO Lautsprecher, die nur 2-3W real hatten (gut, ganz so krass ist es bei der Strukturbreite doch nicht).
 
Der reine Chip ist relativ Effizient, 110 Watt sind jetzt nicht die Welt, nur die 8 GB Ram samt Speicherinterface und Wandler verbrauchen halt recht viel. Die GTX 1060 hat zwar 2 Ram Chips weniger und das kleinere Interface, aber irgendwie habe ich das Gefühl Nvidia bekommt das besser hin. Hinzu kommt man kann die AMD Karten relativ gut undervolten, also den Chip und Speicher. So kann man nochmal 20 - 30 Watt einsparen und der Boost wird auch mal gehalten, weil die 160 Watt nicht überschritten werden. Der Sweetspot dürfte irgendwo bei 1100 - 1200 MHZ liegen.

Das ist zwar schön und gut das man das machen kann, aber ich würde mir wünschen das die Karten von Haus aus optimiert wären, so wie es bei Nvidia ist.

Liegt eher daran, das Nvidia plötzlich die neuen Karten vorgestellt hatte und AMD nachziehen musste. Da half dann eben nur mehr Takt und Spannung um die GTX1060 einzuholen, sowie die 970 zu überholen.
 
Zurück