Nvidia Pascal GP104: Foto der neuen GPU im Umlauf; mit GDDR5-Speicher

Denke das 8GB HBM einfach zu teuer für die obere Mittelklasse der 300-550€ Klasse ist, denke das wird da dann eher mit der nächsten richtigen Architektur kommen.

Könnte mir aber durchaus vorstellen das Nvidia erstmal mit normalen GDDR5 kommt und nächstes Jahr höher getaktete bringt mit auch erhöhten Chiptakt als Refresh - wie GTX 670 zu GTX 770 nur mit mehr Neuerungen (war auch beides Kepler)
Dann kommt evtl auch der Big Chip - vll ja sogar als Only Titan und wenn se AMD gezwungen werden als Ti... irgendwann 2017.

Ich denke das die GP104 Top-Karte ca. an die 980Ti rankommen - etwas schneller wenn die Taktraten stimmen damit die Leute auch von einer Titan oder 980Ti Aufrüsten können sofern man Geld loswerden will :ugly:
 
Denke das 8GB HBM einfach zu teuer für die obere Mittelklasse der 300-550€ Klasse ist

Das Problem ist aktuell nicht der Preis, sondern dass entsprechender HBM schlicht noch nicht (in nennenswerter menge) existiert.
HBM2 wird erst im Q4/2016 in Massen produziert - vorher kann er auch nicht auf Karten auftauchen. Da gibts nur ne Handvoll preproduction samples mit sehr sehr schlechten yieldraten zu extrem hohen Preisen. Und die werden sobald sie da sind auf die GP100-Karten im HPC-Bereich geklebt wo 1000€ mehr oder weniger pro Karte keine Rolle spielen.
 
Was ja letztendlich trotzdem richtig ist das HBM2 aktuell zu teuer für die Mittelklasse ist und deswegen frühestens nächstes Jahr mit dem Big-Chip im Gaming Bereich kommen wird.
Mit Glück folgt 2017 halt wenn es preislich und damit dann wohl auch von der Yield-Rate passt auch nen Pascal Chip in der Mittelklasse mit HBM2 dann wäre auch die Speicherbandbreite kein Thema mehr.


Bin irgendwie froh mir letztes Jahr die 980Ti geholt zu haben so kann ich mir das ganze erstmal entspannt anschauen und wenn ich wieder mehr Leistung brauche kann ich immer noch schauen aber mit ner 670 würde ich jetzt nicht mehr warten wollen :)
 
Der GP104 im Vollausbau (GTX 1080) wird aber höchstwahrscheinlich deutlich mehr Speicherbandbreite benötigen als der GM204 Vollausbau (GTX 980), er wird vermutlich auch (fast?) die GM200 (Titan X) Rechenleistung bieten können.

Super ein paar Posts nach meinem Post schreibst du das, sehr lustig. Erkläre doch mal wie du zu dieser Einschätzung kommst?
 
Vermutlich aus einem erfundenen linearen Zusammenhang zwischen Rechenleistung und benötigter Bandbreite...

Mal sehen...
Fermi (GTX580): 1580 GFlops bei 192 GB/s --> ~8 GFlops pro GB
Kepler (Titan): 4500 GFlops bei 288 GB/s --> ~15 GFlops pro GB
Maxwell (TitanX): 6600 GFlops bei 336 GB/s --> ~20 Gflops pro GB

Wie zu erkennen ist steigt die Rechenleistung SEHR viel schneller als die Bandbreite des verbauten Speicherinterfaces.
Ohne es mit konkreten Zahlen zu belegen ists auch dabei so, dass Bandbreite je nach verwendeter GPU-Architektur einen größeren oder kleineren Einfluss hat, einen direkten Zusammenhang gibts nicht.

Von "der Chip rechnet schneller" auf "die Karte muss mehr Bandbreite haben" zu schließen ist kurz gesagt Unfug.
 
Super ein paar Posts nach meinem Post schreibst du das, sehr lustig. Erkläre doch mal wie du zu dieser Einschätzung kommst?
Meinst du diesen?
Das in der Tat der Fall bei dem ganz großen ausbau der neuen GPU Generation! Nicht nur die 4MB L2 Cache sind nennenswert, sondern die massiv erhöhte Anzahl der Register! Dadurch kann man die Breite des Speicherinterfaces in der Tat etwas vernachlässigen, allerdings wird hier im Forum nur selten ein Thema sein, da die meisten User dies nicht verstehen.

Aber wieviel Cache und Register Speicher der GP104 hat wissen wir noch nicht...
Wenn Speicherbandbreite kaum eine Rolle spielt bei steigender Rechenleistung, wozu dann überhaupt hier die HBM Diskussion in der Performance Klasse, ist also völlig überdimensioniert und unnötig teuer?! So kann man sogar fragen, wozu überhaupt GDDR5X gefordert wird?! Mal sehen ob das nVidia ebenfalls für Unfug halten wird.
 
Zuletzt bearbeitet:
Vermutlich aus einem erfundenen linearen Zusammenhang zwischen Rechenleistung und benötigter Bandbreite...

Mal sehen...
Fermi (GTX580): 1580 GFlops bei 192 GB/s --> ~8 GFlops pro GB
Kepler (Titan): 4500 GFlops bei 288 GB/s --> ~15 GFlops pro GB
Maxwell (TitanX): 6600 GFlops bei 336 GB/s --> ~20 Gflops pro GB

Wie zu erkennen ist steigt die Rechenleistung SEHR viel schneller als die Bandbreite des verbauten Speicherinterfaces.
Ohne es mit konkreten Zahlen zu belegen ists auch dabei so, dass Bandbreite je nach verwendeter GPU-Architektur einen größeren oder kleineren Einfluss hat, einen direkten Zusammenhang gibts nicht.

Von "der Chip rechnet schneller" auf "die Karte muss mehr Bandbreite haben" zu schließen ist kurz gesagt Unfug.
Und dennoch stieg stetig die Speicherbandbreite siehe deiner Auflistung. So ist es nur halbwegs logisch nachvollziehbar das GM204 und GP104 nicht die gleiche Speicherbandbreite besitzen werden bei signifikant höherer Rechenleistung letztgenanntem.
 
Wenn Speicherbandbreite kaum eine Rolle spielt bei steigender Rechenleistung, wozu dann überhaupt hier die HBM Diskussion in der Performance Klasse, ist also völlig überdimensioniert und unnötig teuer?!

Der große Vorteil von HBM ist NICHT, dass er viel schneller ist (deswegen wird er beim GP100 ja auch nur mit 720 MHz betrieben statt der 1000 für die er spezifiziert ist), sondern dass er sehr sehr viel sparsamer ist und viel weniger Platz braucht.
Dadurch, dass HBM bei der gleichen Speichermenge und etwas mehr Performance nur ein Drittel des Stromverbrauchs hat verglichen mit GDDR5 hat die GPU mehr Strombudget und kann länger und höher boosten.

Nicht die Bandbreite von HBM macht die Karte schneller sondern die 50W mehr die die GPU jetzt verbraten darf weil der Speicher sie nicht mehr braucht. ;)
 
Und dennoch stieg stetig die Speicherbandbreite siehe deiner Auflistung. So ist es nur halbwegs logisch nachvollziehbar das GM204 und GP104 nicht die gleiche Speicherbandbreite besitzen werden bei signifikant höherer Rechenleistung.

Oder die Rechenleistung steigt einfach nicht signifikant höher.
 
Was spricht denn da nicht für HBM? Dass er so viel weniger Strom verbraucht dass der Chip auf der FuryX so hoch takten kann? Oder die sehr hohe Bandbreite die dabei hilft dass nur 4GB weniger einschränkend sind als sie es bei GDDR5 wären? Vielleicht auch der viel viel geringere Platzverbrauch der die Nano ermöglicht hat?

HBM ist selbst in seiner ersten Form was fast noch ein Prototyp ist auf der Fury dem GDDR um Welten überlegen in allen Belangen außer dem Preis. Bereits die 2. Generation an HBM ist nochmal doppelt so schnell und bietet die 8-fache mögliche Speichermenge (das einzige was der Fury das Genick bricht weil HBM1 nur 4GB kann)!

Klar ist das bei der teuren neueinführung nur was für Nerds und Early-Adopter aber in ein paar Jahren wird GDDR-Speicher abgesehen vom Low-End wo heute noch DDR3 auf den Karten ist verschwunden sein, der Technologievorsprung ist schlichtweg immens groß.

Es hat doch auch keiner was gegen HBM gesagt, oder? Nvidia wird wohl erst mal bei den HighEnd/Enthusiast-Karten damit aufwarten und das Performance-Segment weiter mit GRRD5(X) versorgen, was kein Beinbruch ist. Natürlich überwiegen die Vorteile, aber ich kann verstehen dass nVidia nicht gleich sofort das ganze Programm mit HBM2 anbieten will.
Ich denke AMD wird bei der R9 490 auch nicht auf HBM setzen und dies der Fury 2 überlassen. Bei der nachfolgenden Generation wird man dann HBM2 auch im Performance-Segment finden.
 
Der große Vorteil von HBM ist NICHT, dass er viel schneller ist (deswegen wird er beim GP100 ja auch nur mit 720 MHz betrieben statt der 1000 für die er spezifiziert ist), sondern dass er sehr sehr viel sparsamer ist und viel weniger Platz braucht.
Dadurch, dass HBM bei der gleichen Speichermenge und etwas mehr Performance nur ein Drittel des Stromverbrauchs hat verglichen mit GDDR5 hat die GPU mehr Strombudget und kann länger und höher boosten.

Nicht die Bandbreite von HBM macht die Karte schneller sondern die 50W mehr die die GPU jetzt verbraten darf weil der Speicher sie nicht mehr braucht. ;)
Komisch, ich habe es bisher so verstanden, das der große Vorteil von HBM genau genommen die Kombination aus den drei Faktoren aus 'kleinerem Speichercontroller Platzbedarf' sowie 'niedrigere Leistungsaufnahme' bei gleichzeitig enorm 'hoher Speicherbandbreite' ist.

Oder die Rechenleistung steigt einfach nicht signifikant höher.
Das ist wohl Definitionssache was 'signifikant' bedeutet für jeden einzelnen. Ich halte es für signifikant, wenn der GP104 in der Nähe vom GM200 rauskommen sollte, was bisher spekuliert wird.
 
Komisch, ich habe es bisher so verstanden, das der große Vorteil von HBM genau genommen die Kombination aus den drei Faktoren aus 'kleinerer Speichercontroller' sowie 'niedrigere Leistungsaufnahme' bei gleichzeitig enorm 'hoher Speicherbandbreite' ist.

Stimmt so auch - nur ist die enorm hohe Speicherbandbreite der mit abstand unbedeutendste Teil gegenüber den anderen beiden Faktoren. Kleinerer Speichercontroller bedeutet mehr Platz auf dem DIE und mehr mögliche Recheneinheiten bei gleicher Chipgröße, niedrigere leistungsaufnahme bedeutet höheres Leistungsbudget für die GPU und höhere Taktraten.

Mehr Shader bei höherem Takt bedeutet massiv mehr Leistung, die Speicherbandbreite zu verdoppeln bringt dagegen oftmals nur wenige Prozent.

Das hat höchstens dann einen Vorteil wenn man auch die kleinen GPUs irgendwann mit HBM ausstattet, denn da könnte man mit nur einem einzigen HBM-Stack auf der Karte schon ausreichend Bandbreite für Unter-/Mittelklassekarten liefern. Etwa eine imaginäre GTX1050 mit nem 4 GB HBM Einzelchip bei 1000 MHZ entsprechend ~250 GB/s oder sowas.
 
Naja wenn die Gerüchte stimmen ist die Anzahl der Transistoren beim GP104 vs GM200 etwas geringer, dafür wohl höhere Taktraten @Stock wenn man von der GP100 Vorstellung auf die kleinen Modelle schließt (wohl durch die kleinere Fertigung möglich und ggf. durch die neue Architektur) dafür ist die Speicherbandbreite geringer wobei ich davon ausgehen das der schnellste GDDR5 Speicher eingesetzt wird der verfügbar ist.

Da aber der Speicher OC meist recht wenig bringt würde ich sagen das wenn ne gewisse Grundbandbreite da ist eher die Leistung des Chips wichtig ist.
 
Gerüchteweise war bereits bekannt, dass Nvidia im Voraus der Computex-Messe die Geforce GTX 1080 vorstellen würde. [...] ein 256-Bit-Interface deckelt die Übertragungsgeschwindigkeit aber auf 256 Gb/s.
Für 1080 wird GDDR5 schon reichen. Und wie wir alle gelernt haben, reichen auch 224Bit (+32 Placebo Bit) für die Marktführerschaft.

Für die GTX 1440 und die GTX 3840 erwarte ich dann aber mindestens GDDR5X oder HBM2!

Wer Ironie findet, darf sie behalten!
 
Stimmt so auch - nur ist die enorm hohe Speicherbandbreite der mit abstand unbedeutendste Teil gegenüber den anderen beiden Faktoren. Kleinerer Speichercontroller bedeutet mehr Platz auf dem DIE und mehr mögliche Recheneinheiten bei gleicher Chipgröße, niedrigere leistungsaufnahme bedeutet höheres Leistungsbudget für die GPU und höhere Taktraten.

Mehr Shader bei höherem Takt bedeutet massiv mehr Leistung, die Speicherbandbreite zu verdoppeln bringt dagegen oftmals nur wenige Prozent.

Das hat höchstens dann einen Vorteil wenn man auch die kleinen GPUs irgendwann mit HBM ausstattet, denn da könnte man mit nur einem einzigen HBM-Stack auf der Karte schon ausreichend Bandbreite für Unter-/Mittelklassekarten liefern. Etwa eine imaginäre GTX1050 mit nem 4 GB HBM Einzelchip bei 1000 MHZ entsprechend ~250 GB/s oder sowas.
Und dennoch hat nVidia den HBM2 Speicher beim GP100 (auf der Tesla P100) mit ~740MHz getaktet statt noch mehr Speicherenergie zu sparen bei 500MHz, was immernoch eine deutliche Steigerung der Speicherbandbreite mit 512GB/s im Gegensatz zum GM200 mit 336Gb/s gewesen wäre. Zufall?


Naja wenn die Gerüchte stimmen ist die Anzahl der Transistoren beim GP104 vs GM200 etwas geringer, dafür wohl höhere Taktraten @Stock wenn man von der GP100 Vorstellung auf die kleinen Modelle schließt (wohl durch die kleinere Fertigung möglich und ggf. durch die neue Architektur) dafür ist die Speicherbandbreite geringer wobei ich davon ausgehen das der schnellste GDDR5 Speicher eingesetzt wird der verfügbar ist.

Da aber der Speicher OC meist recht wenig bringt würde ich sagen das wenn ne gewisse Grundbandbreite da ist eher die Leistung des Chips wichtig ist.
Klingt einleuchtend. Da der GP104 laut Spekulationen beim GM200 rauskommen soll, glaube ich nicht, das der GP104 mit (deutlich) weniger Speicherbandbreite erscheint als der GM200, also GDDR5 mit max 256GB/s irgendwie zu wenig erscheint als 'Grundbandbreite'.
 
Und dennoch hat nVidia den HBM2 Speicher beim GP100 (auf der Tesla P100) mit ~740MHz getaktet statt noch mehr Speicherenergie zu sparen bei 500MHz, was immernoch eine deutliche Steigerung der Speicherbandbreite mit 512GB/s im Gegensatz zum GM200 mit 336Gb/s gewesen wäre. Zufall?

Die 720 MHz dürften der beste Kompromiss zwischen Stromverbrauch und Bandbreite sein. Sprich mehr als 720 verbrauchen beim aktuellen (frühen) HBM2 unverhältnismäßig mehr Strom, weniger als 700 sparen aber auch nicht mehr wesentlich mehr Strom ein.
Es ist davon auszugehen, dass kommender HBM2 bedeutend höher takten wird bei gleichem verbrauch. Dann sehen wir auch Karten mit ~1000 MHz HBM-Takt.

Weitere Möglichkeit falls der Takt einen sehr geringen Einfluss auf den verbrauch hat: Bei etwa 700 MHz liegt der Takt, wo nahezu alle aktuell gefertigten HBM Chips fehlerfrei laufen. Sprich die Ausschussrate/Preis wäre bei 800 MHz zu hoch.
 
Die 720 MHz dürften der beste Kompromiss zwischen Stromverbrauch und Bandbreite sein. Sprich mehr als 720 verbrauchen beim aktuellen (frühen) HBM2 unverhältnismäßig mehr Strom, weniger als 700 sparen aber auch nicht mehr wesentlich mehr Strom ein.
Es ist davon auszugehen, dass kommender HBM2 bedeutend höher takten wird bei gleichem verbrauch. Dann sehen wir auch Karten mit ~1000 MHz HBM-Takt.

Weitere Möglichkeit falls der Takt einen sehr geringen Einfluss auf den verbrauch hat: Bei etwa 700 MHz liegt der Takt, wo nahezu alle aktuell gefertigten HBM Chips fehlerfrei laufen. Sprich die Ausschussrate/Preis wäre bei 800 MHz zu hoch.
Das heißt doch aber das Speicherbandbreite doch ein wichtiger und entscheidender Faktor ist. Wozu sonst hat sich NVidia für ~740MHz ~757GB/s entscheiden, wenn die Bandbreite von 500MHz 512GB/s ebenso genügt sowie gleichzeitig den minimalen Stromverbrauch dessen entsprochen hätte?! Wozu die Speicherbandbreite zum GM200 mehr als verdoppeln wenn 512GB/s auch schon eine sichtbare Steigerung gewesen wäre?!

Warum soll dann die Speicherbandbreite beim GP104 nicht entsprechend der Performance Steigerung ansteigen zum Vorgänger GM204?! Naja lange Rede kurzer Sinn, ich denke bald folgende Leaks werden da Klarheit bringen, wie nVidia sich entscheiden hat dies zu handhaben.
 
Das heißt doch aber das Speicherbandbreite doch ein wichtiger und entscheidender Faktor ist. Wozu sonst hat sich NVidia für ~740MHz ~757GB/s entscheiden, wenn die Bandbreite von 500MHz 512GB/s ebenso genügt sowie gleichzeitig den minimalen Stromverbrauch dessen entsprochen hätte?!

Weil man auch 1% Mehrleistung nicht verschenken muss wenns sonst keinerlei Nachteile hat. Wie gesagt ich weiß nicht wie die Kurve Takt zu verbrauch bei HBM aussieht - es ist nur in dem Bereich davon auszugehen (wie bei fast allen Chips), dass der Verbrauch von 500, 600, 700 MHz nahezu gleich ist und es dann stark ansteigt. Der SweetSpot scheint wohl bei ~740 zu liegen wo man keine Bandbreite vershenkt aber auch nicht unverhältnismäßig viel Powerbudget verbraucht.

Bedenke dabei bitte, dass der GP100 eine HPC-Karte ist. Hier gibt es Anwendungen die tonnenweise Bandbreite brauchen und wo diese tatsächlich sehr viel Performance bringt.
Nur gehts im Thread ja um den GP104 was eine SPIELER-Karte ist - und in dem Bereich bringt sehr viel mehr Bandbreite in dem Bereich meist kaum noch etwas - 50 MHz mehr GPU-Takt sind hier meist schneller als 500 MHz mehr Speichertakt.
 
Wieso haben solche geleakten Fotos eigentlich fast immer eine miese Bildqualität und wieso hat man nicht einfach die ganze Platine abfotografiert? :schief:

Und die Ur-Quelle für das Bild kann ich im Artikel auch nicht finden. (Oder ich übersehe sie.)
In dem verlinkten Thread auf Chiphell sehe ich es jedenfalls nicht. Der hat aber auch Datumsstempel vom 13.1. ? :huh:
 
Sagen wir mal so... wenn du ein Foto machst das du nicht machen darfst haste nicht die Gelegenheit, dich mit der Kamera super hinzustellen, in aller Ruhe ein gut gemachtes Foto zu schießen. Da drückste eher aus Entfernung so dasses keiner sieht heimlich schnell aufn Auslöser.

Und wenn das Foto gefaked ist macht der faker es auch so dasses echt aussieht. :ugly:
 
Zurück