Radeon RX 6900 XT: Angebliches Bild des Navi 21-Chips aufgetaucht

gerX7a
So weit mir bekannt ist hatten [...]

Richtig. Dennoch fertig kaum einer in dem Prozess und das Xbox-SoC verwendet offensichtlich DUV (entsprechend voraussichtlich ebenso die PS5). AMD hat alles auf den kompatiblen N7 und N7P-Prozessen. Sofern ihnen den zusätzliche Aufwand keiner bezahlen wird, werden die davon nicht weggehen. Der nächste, sinnvolle Upgrade-Pfad für sie ist der N6 in 2021.
Darüber hinaus wird EUV teuerer sein. Die paar Masken weniger machen da den Kohl nicht fett, zumal diese Rechnung erst beim N5 greift, der umfangreich EUV nutzt, nicht jedoch beim N7+ mit seinen nur 4 EUV-Lagen. Ebenso sind die EUV-Scanner weitaus teuerer, sowohl in der Anschaffung als auch im Betrieb. Beispielsweise die 11 im 1HJ19 verkauften EUV-Scanner kosteten im Mittel 103 Mio. Euro/Stück, die 30 ArFi-Scanner dagegen nur 59 Mio. Euro/Stück. Diese Kosten legt TSMC natürlich um, ebenso wie die zusätzlichen Entwicklungskosten für diese erste Integration von teilweisem EUV.
 
Zuletzt bearbeitet:
Das komische Foto lockt hier aber Mal wieder richtig viel Input hinterm Ofen hervor :)

Und ich denke nur: ui, großer Chip = teuer, teuer, teuer
 
das bild ist doch einfach nur ein per photoshop hochskalierter n10... manche sollten die videos vllt besser schauen und zuhören anstatt nur die bilder an zu gucken.....
 
Das komische Foto lockt hier aber Mal wieder richtig viel Input hinterm Ofen hervor :)

Und ich denke nur: ui, großer Chip = teuer, teuer, teuer
Hmm GA102 auf der 3080 ist fast 100mm² größer.
das bild ist doch einfach nur ein per photoshop hochskalierter n10... manche sollten die videos vllt besser schauen und zuhören anstatt nur die bilder an zu gucken.....
Jein ...da solltest du dich an die eigene Nase fassen und genau zu hören ;) .... die Kondensatoren drum rum sind von Navi10 und die Chipmarkierungen die auf dem Heatspreader waren hat er wegretuschiert (um seine Quelle zu schützen weil die Anordnung von Kondensatoren von Engineeringsamples und natürlich auch die Beschriftungen Rückschlüsse auf die Quelle geben könnten). Aber der Rest ist mit nichten ein skalierter Navi10.
 
ganz schön lustig mit all die themen über big navi, das ständig über si bandbreite diskutiert wird und darüber sich sorgen macht !

lustiger geht es wohl nicht mehr !

aber egal, den big navi verratet schon allein sein namen und jetzt auch das aktuelle bild des gpu chip, worum es hier eigentlich geht !!!

ansonsten, den echten big navi stelle ich mir mit 128 rops+hbm2e+über 80 cu und bis zu 6000 shader vor !!!

nur so wird der big navi sein namen in aller ehre verdienen :D

also da wird was ganz grosses bald auf uns zu kommen, versprochen !
 
@gerX7a

Auf den ersten Blick mag das so scheinen allerdings muss man aufpassen wenn man die Chip Density
von verschiedenen sehr unterschiedlichen Designs miteinander vergleicht.
Eine GPU mit einem SoC zu vergleichen der (GPU, CPU + I/O) enthält ist gefährlich man denke nur an Renoir der ja anscheinend auch im gleichen Prozess gefertigt wird:
Renoir: 7nm, 9.9bn transistors / 156mm² / Density 63.3M/mm²
NAVI14: 7nm, 6.4bn transistors / 157mm² / Density 40.7M/mm²

Klar scheint es auf den ersten Blick verdächtig danach auszusehen das die beiden Designs den selben Prozess verwenden
aber wie gesagt der Schein kann manchmal auch trügen.
XBOX SoC: 7nm, 15.3bn transistors / 360mm² / Density 42.5M/mm²
NAVI10: 7nm, 10.3bn transistors / 251mm² / Density 41M/mm²

Bezüglich der 15.3bn könnte ich mir auch gut vorstellen, das es sich dabei lediglich um eine Finte seitens AMD handelt
um die Konkurrenz auf einen falschen Pfad zu locken.
Den das erste was mir durch den Kopf ging als ich das zum ersten Mal gelesen hatte, war das dies eigentlich schon fast zu viel internes Betriebsgeheimnis bzw. Details wiedergibt und falls das wirklich stimmen sollte wohl eher unbeabsichtigt weiter gegeben wurde.
Ich mein die bei NVIDIA sind ja auch nicht blöd und werden diesen Wert mit großer Aufmerksamkeit zur Kenntnis genommen haben.

Der genaue Transistor Count wie auch der genaue Fertigungsprozess gehören meiner Meinung nach nicht zu den Angaben, die man der Öffentlichkeit weit vor dem Veröffentlichung mitteilen sollte (Stichwort Betriebsgeheimnis) mal davon abgesehen das diese mit so detaillierten Angaben eh nichts anzufangen weiß.
 
Hm ... ziemlich viel Spekulation in dem Video. Irgendwie is falsch, was er früher sagte und es könnte auch falsch sein, was er jetzt sagt, aber wenn alles mögliche so wäre, wie es kommen könnte, könnte dies und das der Fall sein.

Oder auch nicht.

Aha. :crazy:

Mir egal.

Hauptsache das Ding wird gut und säuft vielleicht noch n Tick weniger, als Ampere am Limit(350W+ muss ja nich unbedingt sein ;) ).
Wünsche den AMD Käufern auch richtig Highend. :daumen:

Vor allem vor dem Hintergrund der ganzen RT Titel(wie ein baldiges CP77), die zukünftig kommen.
Und Witcher Remake, was ja dann auch alles auf Next Gen Konsolen kommt und somit für AMD Hardware optimiert ist.

Dahingehend bin ich mal gespannt, ob sich die Konsolennähe für AMD auszahlt und features wie DLSS/RTX eher links liegen gelassen werden, außer in einzelnen Nvidia gesponserten Titeln, oder alles am Ende ganz anders kommt.

Vielleicht sollte man auch nicht zu viel hypen und die Erwartungen lieber etwas niedriger halten. Sonst is man hinterher nur enttäuscht.
Lieber weniger erwarten und positiv überrascht sein. :D

Aus dem Video hier bin ich ehrlich gesagt nicht viel schlauer geworden, außer was eh schon durch die Spekulatiussuppe gezogen wird. Alles sehr vage.

Er will schnellere GPUs zu günstigen Preisen. Ok. Ich auch. :)

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.


Und in ein paar Wochen wissen wir mehr ...
Jo, das wussten wir vorher auch schon. Thx!
 
Also die Fläche könnte wirklich passen, wenn man eine teilweise Verdopplung des Chips nimmt+ Raytracingeinheiten, die da auch noch wo rein müssen.
Denn genau hingesehen ist der Chip ja etwas mehr als doppelt so gro´, oder halt nur nicht 1:1 im Verhältnis als Bild abgelichtet worden.
Jedenfalls wäre ich mit einer 3080 Leistung mit 16GB, aber mindestens 50W weniger Verbrauch auf jeden Fall bestens zufrieden.
Es wäre ja so oder so schon erst einmal überhaupt ein Wunder, könnte AMD den zwischenzeitlich großen Rückstand wettgemacht haben.
Man hätte ja eigentlich meinen müssen, Intel und Nvidia bekommen AMD auf Dauer kaputt, weil ein Zweifrontenkrieg bei gleichzeitig viel zu wenig Feuerkraft in einem teufelskreislauf endet. Zu wenig Leistung = zu wenig Umsatz = zu wenig Gewinn = zu wenig Entwciklungsgelder = zu wenig Leistung.
Aber dann schaut man sich einen Film mit Bud Spencer beim Armdrücken an udn alles ist wieder auf Null resettet. ^^
 
Zuletzt bearbeitet:
Vor allem vor dem Hintergrund der ganzen RT Titel(wie ein baldiges CP77), die zukünftig kommen.
Und Witcher Remake, was ja dann auch alles auf Next Gen Konsolen kommt und somit für AMD Hardware optimiert ist.
Witcher Remake? Das höre ich hier zum ersten mal, wobei ich ja eigentlich der Meinung bin das The Witcher 1 noch ziemlich gut gealtert ist, allerdings kann mich meine Erinnerung auch etwas trügen, ist mittlerweile sicher auch schon wieder 3 Jahre her als ich es zum letzten mal gespielt habe.
 
Nvidia kann sich auf die Pyrrhischen Kriege einstellen. Mit der RTX 3090 mögen sie die schnellste Karte im Angebot haben, aber die Herstellungskosten wegen der übergroßen Chips wird sie endlich mal in den allerwertesten beißen.
 
Nvidia kann sich auf die Pyrrhischen Kriege einstellen. Mit der RTX 3090 mögen sie die schnellste Karte im Angebot haben, aber die Herstellungskosten wegen der übergroßen Chips wird sie endlich mal in den allerwertesten beißen.
Das wird wohl auch der Grund sein wieso sie nun einen GA103 als Ersatz für die 3080 (bzw. GA102 von 82 auf 68SM beschnitten) auflegen werden.

Ich mein 627mm2 (wohl relativ billger 8nm samsung Prozess hin oder her) teurer Kühler, teures Board Design, teurer GDDR6X Speicher.
Ich will gar nicht wissen wie teuer die 20GB Varianten der 3080 werden in Anbetracht der 1500 -2000€ für die 3090.

Falls dieses Gerücht von Moore's law is dead zutrifft: 549 -700$ hard launch by Thanksgiving, RTX stärker als bei Turing und 16GB wäre das mal eine Ansage, aber wir werden sehen geht ja nicht mehr allzu lange, bis wir endlich handfeste Informationen erhalten werden.
 
Witcher Remake? Das höre ich hier zum ersten mal, wobei ich ja eigentlich der Meinung bin das The Witcher 1 noch ziemlich gut gealtert ist, allerdings kann mich meine Erinnerung auch etwas trügen, ist mittlerweile sicher auch schon wieder 3 Jahre her als ich es zum letzten mal gespielt habe.
Es wird ein Remaster mit besseren Texturen und Raytracing. Also im Prinzip das, was man derzeit schon mit Mods haben kann - vielleicht sogar ein bisschen hübscher.

BTP: Ich kannte Coreteks bis vor kurzem nicht, weil ich diese wannabe ASMR-Techtuber nicht für 5 Sekunden ertragen kann. Neulich schaute ich dann doch mal eines seiner Videos bzgl. AMD an und er erklärte sich zu DEM Techtuber mit Kontakten ganz, gaaaaaaaanz weit oben bei AMD und Nvidia und halte den richtig heißen Shit nur zurück, weil das der Anstand erfordere. Er könne aber sagen, all die anderen Techtuber (Igor, Redgaming, Moreslaw uvm.) hätten hier und da nette Takes, wenn sie mal richtig lägen hätte er das schon vor Wochen gewusst, konnte es aber nicht sagen, weil er ja so ein Gentleman ist. Im selben Video prophezeite er dann noch, dass Big Navi eine gewaltige Gurke sei, man aber nicht mad sein soll.

Und nun lese ich bei PCGH News die auf seinen Leaks beruhen :what:
 
Zuletzt bearbeitet:
Ich verstehe diesen hin und her mit HBM2 und GDDR6 irgendwie so gar nicht... gibt es überhaupt was Handfestes außer den nackten Zahlen zum vergleichen oder warum Preist nun jeder HBM2 an ?
 
@gerX7a
Auf den ersten Blick mag das so scheinen allerdings muss man aufpassen wenn man die Chip Density [...]

Da die Unfallgefahr verschwindend gering bei einem Vergleichsversuch ist, ist es erst mal grundlegend nicht "gefährlich". ;-) Darüber hinaus muss man wissen was man vergleicht. Wenn man sich zwei Zen2-Kerne zzgl. L2 ansieht stellt man fest:
Renoir (N7): gemittelt 62,8 MTr/mm2 über den gesamten Chip, ~ 7,65 mm2 für zwei Kerne
Xbox Series X (?): gemittelt 42,5 MTr/mm2 über den geamten Chip, ~ 7,69 mm2 für zwei Kerne
Offensichtlich scheint AMD hier die Designs mit der gleichen Logikdichte zu implementieren. Die geringfügigen (aus Die Shots errechneten) Flächenabweichungen dürften weitestgehend auf die unterschiedliche Güte der Die Shots zurückzuführen sein. Die beträchtlich höhere Logikdichte bei Renoir im N7 kommt also durch die anderen Chipbestandteile des Designs zustande.
Etwas ähnliches beobachtet man auch zwischen der Xbox und Navi 10, wenn man sich eine WPG (zwei CUs) ansieht:
Navi 10 (N7P): 3,99 mm2
Xbox Series X (?): 3,91 mm2
Die sehr geringen Abweichungen darf man wohl auch hier größtenteils auf die Güte der Die Shots zurückführen. Microsoft hat ja bereits bestätigt, dass die Raytracing-Intersection-Engines nur vergliechsweise wenig Chipfläche in Anspruch nehmen (analog zu Turing) und etwas wie Tensor Cores gibt es hier nicht, d. h. die CUs werden nicht übermäßig größer ausfallen als bei RDNA und werden anscheinend auch mit einer sehr ähnlichen Logikdichte implementiert.

Entsprechend ist es auch naheliegend, dass AMD hier nennenswerte IP-Blöcke übernimmt und daher auch RDNA2 im N7(P) fertigt und nicht etwa im N7+, was umfangreiche Überarbeitungen erforderlich machen würde, noch dazu für AMDs deutlich kleineren GPU-Marktanteil. Bei den Konsolen-SoC hätte sich das wohl noch aufgrund des (über die Jahre) hohen Volumens gelohnt, anscheind wollte jedoch keiner den Aufwand bezahlen, sodass es auch hier bei DUV blieb.

Und die 15,3 Mio. Transistoren der XBox Series X sind zweifelsfrei keine "Finte". Auf so einen Blödsinn hätte sich Microsoft zweifelsfrei nicht eingelassen. Im Zweifelsfall hätten die schlicht keine Angaben zur Transistorzahl oder Die-Größe gemacht, aber sicher nicht explizit falsche Zahlen in offiziellen Dokumenten und Präsentationen veröffenlticht; das ist reichlich absurd!

Das wird wohl auch der Grund sein wieso sie nun einen GA103 als Ersatz für die 3080 (bzw. GA102 von 82 auf 68SM beschnitten) auflegen werden. [...]

Der GA103 ist zweifelsfrei kein Ersatz, wenn es den gibt, sondern dann der reguläre Hauptlieferant für bspw. die 3080er -Bestückung sowie die 3070 Ti/Super. Die 3080er auf Basis des GA102 werden voraussichtlich nur der Fertigungskostenoptimierung des GA102 dienen, denn dessen Hauptprodukte bewegen sich alle nahe des / oder sind der Vollausbau(s), d. h. man muss irgendwie auch noch teildefekte Chips sinnvoll verwerten, weil es sonst zu teuer wird.
Das würde auch erklären, warum die Verfügbarkeit so mau ist, denn man startete voraussichtlich primär mit der GA102-Produktion, nur hat man hier natürlich nicht auf Teufel-komm-raus produziert, insbesondere in einer so frühen Prozessphase, da man sonst viel Ausschuss fertigt, der dennoch übermäßig teuer ist aufgrund des großen Chips. Hier ging es voraussichtlich nur darum früh zu launchen und den Markt auf Ampere "einzustimmen" und für den Rest kann man sich noch etwas Zeit lassen, da man sich (im Rahmen des Möglichen) wohl an AMD orientieren will.
Entsprechend darf man auch annehmen, dass die 20 GiB-3080 unter 1000 € bleiben wird. Wie schon mehrfach erklärt kann nVidia hier nur bei deutlich mehr Leistung (entweder auf ihrer Seite oder durch ein Totalversagen vom AMD) oder wenn AMD generell bzgl. seines Topmodells preislich deutlich zulangen wird, den Preis signifikant erhöhen.
Dass die 3080 Ti/Super überigens nennenswert schneller wird kann man ausschließen, da ein nennenswerter Teil des PowerBudgests für den üppigen Speicherausbau draufgehen wird. Entweder wird es auch hier Samsungs 8N für den GA103 werden (wenn er denn kommt) und die TBP wird gar noch etwas erhöht werden müssen oder es wird TSMCs N7 werden und man nutzt die Power Savings zur Realisierung des größeren Speichers, ohne dass die GPU darunter leidet, bzw. vielleicht bleiben ja auch noch minimale Reserven für ein paar MHz oder zwei CUs mehr? Ich würde zu TSMC tendieren, denn J.Huang sagte explizit dass der Großteil der GPUs bei TSMC gefertigt werden wird. (Aktuell wurde gerade mal ein einziger Ampere-Chip gelauncht.)

Und darüber hinaus werden die Herstellungskosten für nVidia mit dem bereits hier skizzierten Szenario weitaus tragbarer sein, als zuvor suggeriert. Mit obigem Szenario hält nVidia die Kosten gering und man hat einen recht großen Markt für den GA102. Etwas vergleichbares fehlt AMD beispielsweise. nVidia kann den GA102 an Prosumer und Enthusiasten verkaufen, wird eine neue Titan an semiprofessionelle Nutzer und kleinere Rechnecenter verkaufen und die Quadro(s) an professionelle Anwender. AMDs AIB-Marktanteil ist deutlich geringer, im Consumer-Geschäft und voraussichtlich im professionellen Segment mit ihren Radeon Pro's gar noch mehr und entsprechend teuerer wird für sie eine vergleichbare Fertigung. Und darüber hinaus kann nVidia teildefekte Chips immer noch weiter für eine 3080 verwerten, was sicherlich mit der Zeit abnehemn wird, wenn sich beide Prozesse, sowohl für den GA102 als auch den GA103 weiter einfahren.
In diesem Jahr geht man bei nVidia von einem Umsatzplus von über +35 % (!) aus, womit sie AMD weit abgeschlagen hinter sich lassen werden. So etwas erreicht man nicht, wenn man zu "blöd" für ein sinnvolles und kosteneffizientes Produktdevelopment ist und da wird sich bei denen auch gesichert keiner "in den A. beißen".

Ich verstehe diesen hin und her mit HBM2 und GDDR6 irgendwie so gar nicht... gibt es überhaupt was Handfestes außer den nackten Zahlen zum vergleichen oder warum Preist nun jeder HBM2 an ?

Es preist doch keiner HBM an?!? HBM war für RDNA2 schon immer das weitaus unwahrscheinlichere Szenario. Wie Tech_Blogger schrieb, hat es technisch durchaus einige Vorteile, ist jedoch teuer, was es primär für hochpreisige, professionelle Produkte attraktiv macht oder bspw. wenn einige technische Eckpunkte das Produktdesign dominieren, so wie bspw. die Zurverfügungstellung von extrem viel Speicherkapazität (was sowohl Chipanzahl, PCB-Layout als auch Stromkosten beeinflusst) oder bspw. der Bedarf nach einer extrem hohen Speicherbandbreite.
Gaming-GPUs liegen bzgl. der Kapazität eher im unteren Segment und bzgl. der Bandbreite bestenfalls im Mittelfeld, d. h. hier dominieren in diesem Fall die Implementationskosten, die bisher übrlicherweise das KO-Kriterium für Consumer-Karten darstellten.
Der Bedarf an noch mehr VRAM wird in den nächsten 12 - 24 Monaten sicherlich nicht nennenswert ansteigen *), jedoch könnten durchaus die Bandbreitenanforderungen für noch "schönere" Grafik weiterhin steigen, sodass möglicherweise zumindest die in 2022 kommenden HighEnd-Chipdesigns zumindest auf HBM2 setzten werden. Man wird sehen. Ab einen gewissen Grad kippt die Kosten-Nutzen-Rechnung und dann wird man auch HBM2 regulär im Consumer-HighEnd einführen. Dieses Jahr jedoch ist das nicht bei nVidia und aller voraussicht nach auch noch nicht bei AMD der Fall.

Gesichert ist eine HBM2-Einführung mit der 2022er-Generation jedoch damit noch nicht. Beispielsweise wenn die HBM2-Kosten stabil hoch bleiben, könnte nVidia sein aktuelles Design (max. 384 Bit GDDR6) mit einem größeren L2-Cache aufwerten. Gleichzeitig könnte man ggf. gar die Speicherbandbreite möglicherweise leicht reduzieren und vielleicht eine etwas konstengünstigere Implementation via 16/18 Gbps-GDDR6 vornehmen. In 2022 wird man 5 nm nutzen, d. h. die benötigte Wafer-Fläche für einen großen L2-Cache wird geringer ausfallen, jedoch werden auch die Kosten pro Wafer deutlich steigen ... hier gibt es viel abzuwägen und gegeneinander aufzurechnen. ;-)
Analog die gleiche Möglichkeit für AMD mit RDNA3. Man behält den Cache bei und vergrößert einfach nur das SI auf bspw. 320 oder 384 Bit und verzichtet möglicherweise noch ein weiteres Mal auf eine HBM-Implementaiton.

*) Aktuell "sind" wir schon bei 16 bzw. 20 GiB im HighEnd.
 
Zuletzt bearbeitet:
Naja... wenn man schreibt das es leider kein HBM ist würde ich es schon als angepriesen betrachtet. Und so wie ich das gelesen habe zieht mit der richtigen Anbindung GDDR6 immer noch gleich mit HBM.
 
Schau ma mal was bei rüberkommt. Der "einfache" Speicher wird ja auch bei der 3070 noch verbaut.

Lieber mehr Speicher als teuren, die Leistungssteigerung ist da wohl auch eher fraglich, dient aber auf das Herrlichste um die Kosten zu erhöhen und so den Käufer zu melken.
 
Der GA103 ist zweifelsfrei kein Ersatz, wenn es den gibt, sondern dann der reguläre Hauptlieferant für bspw. die 3080er -Bestückung sowie die 3070 Ti/Super. Die 3080er auf Basis des GA102 werden voraussichtlich nur der Fertigungskostenoptimierung des GA102 dienen, denn dessen Hauptprodukte bewegen sich alle nahe des / oder sind der Vollausbau(s), d. h. man muss irgendwie auch noch teildefekte Chips sinnvoll verwerten, weil es sonst zu teuer wird.
Das würde auch erklären, warum die Verfügbarkeit so mau ist, denn man startete voraussichtlich primär mit der GA102-Produktion, nur hat man hier natürlich nicht auf Teufel-komm-raus produziert, insbesondere in einer so frühen Prozessphase, da man sonst viel Ausschuss fertigt, der dennoch übermäßig teuer ist aufgrund des großen Chips. Hier ging es voraussichtlich nur darum früh zu launchen und den Markt auf Ampere "einzustimmen" und für den Rest kann man sich noch etwas Zeit lassen, da man sich (im Rahmen des Möglichen) wohl an AMD orientieren will.
Entsprechend darf man auch annehmen, dass die 20 GiB-3080 unter 1000 € bleiben wird. Wie schon mehrfach erklärt kann nVidia hier nur bei deutlich mehr Leistung (entweder auf ihrer Seite oder durch ein Totalversagen vom AMD) oder wenn AMD generell bzgl. seines Topmodells preislich deutlich zulangen wird, den Preis signifikant erhöhen.
Dass die 3080 Ti/Super überigens nennenswert schneller wird kann man ausschließen, da ein nennenswerter Teil des PowerBudgests für den üppigen Speicherausbau draufgehen wird. Entweder wird es auch hier Samsungs 8N für den GA103 werden (wenn er denn kommt) und die TBP wird gar noch etwas erhöht werden müssen oder es wird TSMCs N7 werden und man nutzt die Power Savings zur Realisierung des größeren Speichers, ohne dass die GPU darunter leidet, bzw. vielleicht bleiben ja auch noch minimale Reserven für ein paar MHz oder zwei CUs mehr? Ich würde zu TSMC tendieren, denn J.Huang sagte explizit dass der Großteil der GPUs bei TSMC gefertigt werden wird. (Aktuell wurde gerade mal ein einziger Ampere-Chip gelauncht.)
GA103 wird etwas billiger für Nvidia als GA102 (bei TSMC wäre die Karte sogar teurer), aber GDDR6X, das Speicherinterface und die Bauteile machen die Karte teuer, weil sie so viel verbraucht. Eine 20GB-Karte würde noch mehr verbrauchen, da muss Nvidia das Powerbudget auf 350W erhöhen, sonst wäre die Karte langsamer als ihr 10GB-Pendant. Ja, man rundert bei der Leistung nicht zurück, kommt bei den Kunden gar nicht gut an. Sie wird teuer, die Karte. Wenn Nvidia sie unter 1000€-Markte anbietet, dann auf Kosten ihrer Marge. Das Angebot hängt aber stark von AMD ab. Mal schauen, wie schnell die Big Navis werden und was sie kosten.
Ich sage mal, die Wahrscheinlichkeit, dass GA103 bei TSMC hergestellt wird, ist verschwinded gering zum jetztigen Zeitpunkt. Der Chip wäre duetlich teurer bei weniger Fläche und die 7nm Kapazitäten bei TSMC sind total ausgebucht. Vielleicht in einem Jahr..
 
Zurück