Nvidia Ampere: Gerüchte um GA103 für RTX 3080

Da wurde aber der Chip nicht geändert.
Anderer Chip heißt andere Eigenschaften.


Das hatte Nvidia halt mit den 8nm Pech. Bei AMD scheint man mit 100W weniger auszukommen.
Wie kommst du auf das schmale Brett, mit den 100W weniger.

Es gab bisher doch nur eine Info, die von 238W nur für die GPU, ohne Board, VRam, Spannungsbereitstellung, weiterer Bauteile war.

Dannn nimm die 238W und vergleiche die mit anderen Karten der letzten Jahre. Wenn die 238W stimmen sollten, wird man wohl eher bei 300+ landen, genau wie bei Nvidia. ich habe nur die Hoffung, das AMD es schafft, knapp die 3080 zu schlagen und genau genommen dabei sparsamer ist. Weil 16GB und der selbe Verbrauch, wie die 3080 bei selber, oder gar höherer Leistung bedeutet das AMD effizienter wäre.
 
Wenn man an keiner sonstigen Stellschraube dreht [...]

Zwei, drei Anmerkungen:
- Mit einer höheren Effizienz können sie auch ohne an ausbautechnischen "Schrauben zu drehen" den Takt etwas höher ziehen, d. h. auch mit weiterhin 68 SMs könnte ein auf dem GA103 basierendes Kartenmodell bereits ein paar Prozentpunkte drauflegen.
- Die GPU zieht deutlich mehr als 170 W. Das was GPU-Z da ausweist, ist nur die halbe Geschichte, sprich das "GPU Chip Power Draw" entspricht möglicherweise nur NVDD, jedoch wird die GPU bei Ampere nun über zwei getrennte Stränge versorgt, wovon einer für den Speicher vorgesehen ist, d. h. diese Komponente fehlt ggf. in der Ausweisung im Tool, denn mit 170 W für die gesamte GPU kommt man rechentechnisch nicht einmal ansatzweise, selbst nicht mit vielen unnötigen Reserven, in Richtung 300+ W TBP.
- Die Frage bzgl. der Logikdichte ist derzeit kaum zu beantworten, da unklar ist, welchen Weg nVidia hier eingeschlagen hätte (oder hat). Beispielsweise implementiert nVidia mit ihrem 8N bereits eine höhere Logikdichte, als AMD bei Vega 20 und Navi 10 im N7(P). ;-)

Da Problem bei einer zusätzlichen Erhöhung der GPU-Specs bei der 3080 zur Ti/Super ist, dass die voraussichtlichen 20 GiB OC-GDDR6, also noch einmal +10 BGAs, einen beträchtlichen Mehrverbrauch auf das Kartenbudget aufschlagen werden. Das auszubalancieren wird interessant zu beobachten sein, denn die Ti/Super wird ggf. auch eine höhere TBP aufweisen? Eine andere Möglichkeit wäre, dass nVidia die durch die N7-Effizienz hinzugewonnenen Reserven für den Speicherausbau nutzt, die TBP unverändert beibehält (und damit mögicherweise auch die GPU-Specs), was dann aber eher darauf hinauslaufen würde, dass diese "größere" Karte keine Leistungszugewinne bieten würde? In ein paar Wochen wissen wir mehr ...

[...] Das hatte Nvidia halt mit den 8nm Pech. Bei AMD scheint man mit 100W weniger auszukommen.

AMD wird gesichert nicht mit 100 W weniger "auskommen". Da du nichts weiter spezifiziert hast, hast du bzgl. deiner Aussage natürlich ein kleines "Sicherheitspolster", aber wenn man für die 3080 gemittelte 330 W annimmt, ist es vollkommen abwegig anzunehmen, dass AMD hier für sein großes Modell eine vergleichbare Leistung im Bereich um 230 W TBP anbieten kann. TSMCs 7nm-Prozesse sind nur etwas effizienter und vollbringen keine Wunder. ;-)
Nimmt man einen doppelten Navi 10 mit AMDs "+50 % Perf/Watt"-Teaser an, kommt man auf grob um die 200 W für die GPU. Entsprechender Wert deckt sich in etwa auch mit den letzten Leaks, die für das große Modell 200 - 238 W TDP(!) angeben, d. h. nur für die GPU, also noch ohne Speicher, PCB- und Wandlerverluste, etc.

Sollten die 238 W TDP übrigens in der Praxis tatsächlich erreicht werden (und nicht nur ein theoretischer Peak-Wert sein ) und das Design 16 GiB GDDR6 verwenden, wird dieser Wert ebenso gesichert zu deutlich über 300 W TBP führen
Darüber hinaus darf man annehmen, dass wenn der Leak halbwegs zutreffend ist und die 2,2 GHz tatsächlich als praxisrelevanter Takt realisiert werden, man sich tatsächlich im Bereich bis zu 238 W bewegen wird, denn in diesem Bereich dürfte der Chip deutlich ineffizienter werden, was den Verbrauch überproportional steigen lässt. Das wäre dann in diesem Fall AMDs Version einer "Brechstange". ;-)
 
Zuletzt bearbeitet:
Was ich von dem neuen Chip erwarte:
1. Billiger für Nvidia zu produzieren.
2. Der Verbrauch könnte gesenkt werden.
3. Die Taktrate bleibt gleich, da Samsung 8nm auf 1,8GHz zugeschnitten ist. Da ist der Sweetspot.
4. Hoffentlich stabil und mit 20GB, dann könnte man die Karte ohne Vorbehalte empfehlen.
 
Eine andere Möglichkeit wäre, dass nVidia die durch die N7-Effizienz hinzugewonnenen Reserven für den Speicherausbau nutzt, die TBP unverändert beibehält (und damit mögicherweise auch die GPU-Specs), was dann aber eher darauf hinauslaufen würde, dass diese "größere" Karte keine Leistungszugewinne bieten würde? In ein paar Wochen wissen wir mehr ...
Das klingt so, als könnte man den Fertigungsprozess einfach wie eine Unterhose wechseln. Da der Prozess aber bereits 2-3 Jahre vor Veröffentlichung festgelegt wird, kann ich mir das kaum vorstellen. Oder liege ich falsch?
 
Was ich von dem neuen Chip erwarte:
1. Billiger für Nvidia zu produzieren.
2. Der Verbrauch könnte gesenkt werden.
3. Die Taktrate bleibt gleich, da Samsung 8nm auf 1,8GHz zugeschnitten ist. Da ist der Sweetspot.
4. Hoffentlich stabil und mit 20GB, dann könnte man die Karte ohne Vorbehalte empfehlen.

Kann ich mir auch gut so vorstellen.
Billiger und man kann dadurch gut das VRam Plus kompensieren.
 
Das klingt so, als könnte man den Fertigungsprozess einfach wie eine Unterhose wechseln. Da der Prozess aber bereits 2-3 Jahre vor Veröffentlichung festgelegt wird, kann ich mir das kaum vorstellen. Oder liege ich falsch?

2 -3 Jahre zuvor ist zu weit gegriffen, aber ja, hier gibt es beträchtliche Vorlaufzeiten, aber das ist hier nicht relevant, weil das hier unter der Annahme geschrieben wurde, dass der GA103 explizit für TSMCs N7 ausgelegt wurde.
Es steht immer noch die Aussage von J.Huang im Raum (Nov/Dez.), dass der Großteil der GPUs bei TSMC gefertigt werden soll. Wenn er hier nicht falsch zitiert wurde (oder gar was falsches behauptet hat), dann könnten einige Ampere-Chips durchaus noch bei TSMC vom Band laufen. Und unter dieser Annahme ist dieser Teil meines Posts zu lesen.

Darüber hinaus als Randbemerkung: Bereits bei Pascal fertigte nVidia über beide Hersteller und ein Schritt, der jedoch zu Verzögerungen führte, war, dass Samsung leichte Prozessanpassungen vornehmen musste um sich an TSMCs Prozessdesign anzupassen. Das dauerte aber schlussendlich zu lange, sodass es bei Pascal erst recht spät nur wenige kleine Kartenmodelle in Samsungs 14nm gab.

Als zweite Anmerkung: Nennenswerte Logikblöcke für Ampere hat nVidia ja bereits für TSMCs N7 entwicklelt (GA100), d. h. die lassen sich bei der Verwendung des gleichen Prozesses ggf. wiederverwenden für ein neues Chipdesign, wenn man in der gleichen Art fertigen will.
Man wird einfach abwarten müssen, ob das zutrifft. Schlussendlich fährt man am besten mit der Annahme, dass nVidia schon wissen wird was sie tun, denn schließlich sind sie seit Jahren der Marktführer. Aktuell kennt man lediglich den GA102 und der wird nur einen kleineren Teil des Portfolios bedienen, konkret, wenn es den GA103 tatsächlich gibt, gar nur einen sehr kleinen, denn dann wird der primär für die 3090, Quadro und Titan vorgesehen sein. Die 3080 über den GA102 wäre dann nur Resteverwertung, was besonders während der Prozessanlaufphase von großer Bedeutung ist. Es könnte durchaus sein, dass der weitaus größere Teil der 3080er und auch 3080 Ti/Super-Karten später eher auf Basis des GA103 basieren wird (der gar hinunter bis zur 3070 Ti/Super Verwendung finden könnte). Bisher ist das jedoch alles nur Spekulation.
 
Zuletzt bearbeitet:
Wie viele von solchen Sprüchen hast du eigentlich noch auf Lager? :D
Also, nicht, dass ich es nicht gut finden und im stillen selbst drauf hoffen würde , aber die Einzeiler von dir andauernd muten schon etwas, ich sag mal, lustig an. ^^

Wenigstens ließt es sich fluffiger, als die walls of text, die hier noch so vorkommen. Und transportiert letztlich auch nicht weniger.
+1 für Fluffigkeit. Imho ?
 
Wie viele von solchen Sprüchen hast du eigentlich noch auf Lager? :D
Also, nicht, dass ich es nicht gut finden und im stillen selbst drauf hoffen würde , aber die Einzeiler von dir andauernd muten schon etwas, ich sag mal, lustig an. ^^
Fertigung kann man imho nicht hinterfragen, denn 7nm TSMC ist 8nm Samsung schon in jeder bekannten Metrik überlegen. Gut beim Design ist das natürlich Spekulation, aber zumindest müsste AMD deutlich mehr Potential für eine bessere Effizienz haben als NV.
 
In manchen Threads ist das hier fast wilder als bei Xbox Dynasty. Gut, deren Filterblase ist jenseits von gut und böse, aber....
Ich erwarte persönlich nicht das sich AMD die Krone holt. Das war auch schon bei der Radeon VII so ein Totalversagen...
 
In manchen Threads ist das hier fast wilder als bei Xbox Dynasty. Gut, deren Filterblase ist jenseits von gut und böse, aber....
Ich erwarte persönlich nicht das sich AMD die Krone holt. Das war auch schon bei der Radeon VII so ein Totalversagen...

Wenn du ausgerechnet die VII als Bezugspunkt heran ziehst könnte man aber denken du traust es AMD doch zu die Krone zu holen. ;)
Die VII war ja noch nicht einmal RDNA1.
 
In manchen Threads ist das hier fast wilder als bei Xbox Dynasty. Gut, deren Filterblase ist jenseits von gut und böse, aber....
Ich erwarte persönlich nicht das sich AMD die Krone holt. Das war auch schon bei der Radeon VII so ein Totalversagen...

Zwischen Totalversagen und nicht (ganz) die Krone holen ist halt reichlich Luft. Und einfach halb blind Computepower in eine Pipeline knallen und Wattage en Masse obendrauf, zeigt sich ja jetzt auch nicht so als der einfallsreiche Burner.
Es bleibt halt nur noch konkrete Tests abzuwarten, denn was zählt ist doch "auf'm Platz". Der theoretische Teil ist imho langsam ausgelutscht - so unterhaltsam es hier auch war/ist. Zeit für den BN-Launch!
 
Wenn du ausgerechnet die VII als Bezugspunkt heran ziehst könnte man aber denken du traust es AMD doch zu die Krone zu holen. ;)
Die VII war ja noch nicht einmal RDNA1.

Ich würde es mir wünschen, ja. Ich habe als Kunde keinen Vorteil wenn Nvidia keine echte Konkurrenz hat.
Selbst wenn AMD was stärkeres bringen würde, wäre meine Wahl trotzdem auf die Kombination Intel + Nvidia gefallen, gerade weil ich damit die letzten 20 Jahre gut gefahren bin.

Aber das würde Nvidia unter Druck setzen was uns allen zugute kommen würde.
 
Ich würde es mir wünschen, ja. Ich habe als Kunde keinen Vorteil wenn Nvidia keine echte Konkurrenz hat.
Selbst wenn AMD was stärkeres bringen würde, wäre meine Wahl trotzdem auf die Kombination Intel + Nvidia gefallen, gerade weil ich damit die letzten 20 Jahre gut gefahren bin.

Aber das würde Nvidia unter Druck setzen was uns allen zugute kommen würde.

Gleich die letzten 20 Jahre?
Puh.. dann hast du ne Menge besserer Produkte links liegen gelassen, nur um bei blau/grün zu bleiben.

Nur drei Beispiele für suboptimale Produkte in der Zeit:
Pentium 4
GeForce 4
GeForce FX

Fermi war jetzt auch kein Meisterstück.. aber zumindest bei Intel gab es seit der Core 2 Architektur eigentlich kaum Schwächen.. bis 2016.
 
Die Geforce 4 TI 4200 und 4600 waren doch gut?

Edit: Ansonsten kann ich dir nur recht geben, Finde so Argumente wie "bin ich immer gut gefahren mit" valide, aber man kann auch viel gutes damit verpassen.
 
Zurück