• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Radeon RX 6900 XT: Angebliches Bild des Navi 21-Chips aufgetaucht

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu Radeon RX 6900 XT: Angebliches Bild des Navi 21-Chips aufgetaucht

Kurz vor der offiziellen Enthüllung köchelt die Leak- und Gerüchteküche rund um Big Navi hoch: Im Internet verbreitet sich ein Bild, dass angeblich den Chip der Navi 21-GPU in voller Pracht zeigt. Danach zu urteilen wird Big Navi für AMD-Verhältnisse wirklich groß, wie ein Vergleich mit der Vorgängergeneration eindrucksvoll belegt. Auch der GDDR6-Speicher würde bestätigt werden, sollte das Bild echt sein.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Radeon RX 6900 XT: Angebliches Bild des Navi 21-Chips aufgetaucht
 

Infernalracing

Freizeitschrauber(in)
Ich Schiele ja auf eine gut Nvidia Alternative, leider zeigte mir ein Kumpel vor kurzem was mit mit einer 2070 (ohne Super) mit DLSS in 4K bei Death Stranding möglich ist. Ich warte DANK schlechter Verfügbarkeit der 3080 erst mal den 28. Oktober ab und entscheide dann was für ein Überteuerter Ziegelstein in mein Gehäuse zieht. MfG
 

ASD_588

Lötkolbengott/-göttin
Hier ist das passende Video dazu.
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Ich bin überrascht das der Chip doch so klein ist da hat der verbesserte 7nm Prozess gute Arbeit geleistet.
 

deady1000

BIOS-Overclocker(in)
Sieht aber eher nach Fake aus.

Die Abstände des Dies passen auf allen Seiten überhaupt nicht zusammen.
Auch wenn man sich die Kondensatoren(?) an den Seiten ansieht:
Das ist copy/paste mit Navi10, nur dass die nach oben hin verbreitert wurden, damit das Bild passt.

Denke da wollte einer mit Photoshop ein bisschen Aufmerksamkeit erhaschen.
Das Bild ist wahrscheinlich ne Bearbeitung von Navi10.


nav.PNG
 

hanfi104

Volt-Modder(in)
@deady1000

dazu passend
Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
long long looooong navi :D
 

Horrocko

Komplett-PC-Aufrüster(in)
Sieht aber eher nach Fake aus.

Die Abstände des Dies passen auf allen Seiten überhaupt nicht zusammen.
Auch wenn man sich die Kondensatoren(?) an den Seiten ansieht:
Das ist copy/paste mit Navi10, nur dass die nach oben hin verbreitert wurden, damit das Bild passt.

Denke da wollte einer mit Photoshop ein bisschen Aufmerksamkeit erhaschen.
Das Bild ist wahrscheinlich ne Bearbeitung von Navi10.

Im Video wird explizit (und auch ziemlich am Anfang) darauf hingewiesen, dass genau das der Fall ist; alles um den eigentlichen Chip herum ist von Navi10 kopiert, um den vermeintlichen Leaker nicht durch spezielle Engineering-Sample-Konfigurationen der Kondensatoren zu verraten, die sich zurückverfolgen lassen könnten. Hätte hier im Artikel ruhig erwähnt werden dürfen!

Davon abgesehen hat sich die Quelle dieser Infos (Coreteks) auch in der Vergangenheit schon gehörig in die Nesseln gesetzt, was Leaks angeht, von daher würde ich das mit einer Schubkarre Salz bewerten.
 

deady1000

BIOS-Overclocker(in)
Im Video wird explizit (und auch ziemlich am Anfang) darauf hingewiesen, dass genau das der Fall ist; alles um den eigentlichen Chip herum ist von Navi10 kopiert, um den vermeintlichen Leaker nicht durch spezielle Engineering-Sample-Konfigurationen der Kondensatoren zu verraten, die sich zurückverfolgen lassen könnten.
Oh :ugly:
 

gerX7a

Software-Overclocker(in)
Jepp, wurde im Video so explizit erklärt. Er hat das Die-Shot verändert/maskiert (Chip-Markings entfernt und Kondensatoren von Navi 10 reinkopiert), damit man nicht direkt auf die Original-Quelle des Leaks zurückschließen kann. Somit bleibt also nur ihm zu glauben, dass er ein echtes Foto vorliegen hat oder auch nicht.
Glaubt man ihm, dann ist damit wohl auch HBM entgültig vom Tisch, denn es wird zweifelsfrei kein zweites, gleichtartiges Chipdesign mit einem HBM-Interface geben. Weiterhin ist darüber hinaus dann ebenso absehbar, dass die größeren Radeon Pro's damit auf maximal 32 GiB VRAM beschränkt sein werden.
Ebenso, wenn die Die-Size in etwa zutrifft, würde das bedeuten, dass AMD die Logikdichte kaum erhöht hat ggü. Navi 10 (das Xbox-SoC liegt nur minmal darüber), d. h. man fertigt mit einer deutlich kleineren Dichte als nVidia beim GA100 und u. U. gar noch mit einer geringfügig kleineren Dichte als nVidia mit Samsungs 8N (custom 8LPP) beim GA102 und das würde zudem ebenso wie Verwendung des N7+ mit EUV ausschließen.
 
Zuletzt bearbeitet:

cPT_cAPSLOCK

BIOS-Overclocker(in)
Coreteks ist eine Labertasche, die man spätestens nach seinem Co-Prozessor-Geschwafel nicht mehr ernst nehmen und Aufmerksamkeit schenken sollte.

Fairerweise sollte man da erwähnen, dass das seine Interpretation der Kühllösung von Nvidia war („da ist möglicherweise etwas auf der Rückseite, was auch gekühlt werden muss, darum ist das PCB auch so klein“ etc.) und er sehr deutlich gesagt hat, dass das nur eine Interpretation ist und er damit komplett falsch liegen könnte. Zweifelslos lag er in der Vergangenheit schon falsch und zweifelslos bläht er seine Themen immer ein wenig auf, aber fair sollte man am Ende dann dennoch sein.
gRU?; cAPS
 
Zuletzt bearbeitet:

sandworm

Freizeitschrauber(in)
Ebenso, wenn die Die-Size in etwa zutrifft, würde das bedeuten, dass AMD die Logikdichte kaum erhöht hat ggü. Navi 10 (das Xbox-SoC liegt nur minmal darüber), d. h. man fertigt mit einer deutlich kleineren Dichte als nVidia beim GA100 und u. U. gar noch mit einer geringfügig kleineren Dichte als nVidia mit Samsungs 8N (custom 8LPP) beim GA102 und das würde zudem ebenso wie Verwendung des N7+ mit EUV ausschließen.
Ich kann dir auch die Begründung liefern, wieso Coreteks für NAVI 21 bzw. alle RDNA2 Abkömmlinge inkl. XBOX SoC von N7+ (EUV) ausgeht.
Quelle
Begründung 7nm+.png
 

mhmilo24

Komplett-PC-Aufrüster(in)
Vielleicht wurde ihm genau aus diesem Grund die Information zum Coprozessor zugespielt.
Wie auch von anderen berichtet, hat Nvidia diesmal viel mit Falschinformationen gearbeitet.

Entweder das, oder es gibt tatsächlich schon erste Testversuche mit Co-Prozessor Karten, die aber noch in weiter Ferne liegen. Kein Chip-Hersteller arbeitet ja nur an einer Chip-Generation, sondern haben wohl eher 3 zukünftige Designs in der Pipeline in unterschiedlichem Entwicklungsstadium.
 

sandworm

Freizeitschrauber(in)
Vielleicht wurde ihm genau aus diesem Grund die Information zum Coprozessor zugespielt.
Wie auch von anderen berichtet, hat Nvidia diesmal viel mit Falschinformationen gearbeitet.
AMD hat anscheinend auch jede Menge Falschinformationen gestreut um die Leute auf eine falsche Fährte zu locken bzw. allfällige Leaker zu enttarnen.
Daher kann man einem nicht gerade einen Strick binden wenn er einmal daneben gelegen hat aber im
im allgemeinen valide Informationen abliefert.
 

gerX7a

Software-Overclocker(in)
Ich kann dir auch die Begründung liefern, wieso Coreteks für NAVI 21 bzw. alle RDNA2 Abkömmlinge inkl. XBOX SoC von N7+ (EUV) ausgeht.

Wusste gar nicht, dass coreteks davon ausgeht. Ich bezog mich eher auf die ewig anhaltenden Gerüchte hier im Forum (und der damit verbundenen Ignorierung der technischen und wirtschaftlichen Wahrscheinlichkeiten ;-)).
Darüber hinaus ist das, was er in deinem Auszug schreibt auch weiterhin unwahrscheinlich. Das Konsolen-SoC-Design (sowie erstes Silizium) ist aus 2018 und einige Publikationen, wie bspw. M.Sauter von Golem sprechen explizit (mehrfach) von DUV und auch nur mit DUV sind die namenstechnischen "Verrenkungen" seitens Microsoft erklärtbar, denn in der naiv-informierten Öffentlichkeit wird der N7+/EUV als der derzeit modernste 7nm-Prozess verstanden und in diesem Fall hätte Microsoft diesen auch schlicht ohne Umschweife benennen können. Hier jedoch haben sie einen "umschreibenden" Prozessnamen erdacht um den tatsächlich verwendeten Prozess zu verschleiern, voraussichtlich weil sie befürchten, dass ein "N7" in den Specs nicht so gut aussehen würde, weil die Öffentlichkeit zurzeit schon übermäßig (und unnötigerweise) "angefixt" bzgl. den Fertigungsprozessen ist.
Unterm Strich muss man aber festhalten, dass auch diese vermeintliche Die-Size keine Gewissheit bringt, denn vorläufig ist es nur ein weiterer Leak, auch wenn die Größe sich im durchaus erwartbaren Bereich bewegt, denn bspw. ein mögicherweise bis zu 128 MiB großer L2 würde eine beträchtliche Chipfläche belegen. Man wird sich noch ein wenig gedulden müssen.



Meine Anmerkung zu den hier schon mehrfach zitierten "Falschinformationen": Ich finde es interessant, wie man darauf kommt zu behaupten, dass Hersteller X gezielt Falschinformationen verbreitet hat und diese stellenweise gar noch mit etwas wie einem "viele" zu bestimmen versucht.
Derartige "Infos" sind quasi Gerüchte zu Gerüchten, also noch weitaus weniger zu bestätigen oder hat sich in der letzten Zeit AMD oder nVidia explizit geoutet und gesagt "Ja, Info A kam von uns und wurde explizit als Desinformation in Umlauf gebracht"?
Kurzum: Hier dürfte wohl eher vielfach der eigene Bias bestimmen, wer im konkreten Fall der Verbreitung von gezielten Falschinformationen bezichtigt wird. Da diesbezüglich rein gar nichts zu validieren ist (im Gegensatz zu "einfachen" Leaks, bei denen man am Ende zumindest mit dem fertigen Produkt vergleichen kann), erscheint es mir reichlich sinnbefreit über so etwas zu sinnieren oder das gar als Feststellung zu formulieren oder gar zu quantifizieren. Umso mehr, als das so einiges, was man gerne als solche titulierte, einen Chipdesigner nicht hinters Licht führen würde.

Beispielsweise dieser hier rezitierte Leak (die angebliche BigNavi-Abbildung) hat keinerlei Potential von einem der beiden Hersteller gesteuert zu sein, da keiner was davon hat. Das weitaus wahrscheinlichere Szenario ist hier, dass:
a) der Leak echt ist und ihm tatsächlich jemand ein Foto zugespielt (oder verkauft) hat
b) er veräppelt wurde und ihm wurde ein gefaktes Foto untergeschoben (bspw. wer weiß, ob er für solche Leaks nicht in barer Münze bezahlt; das wäre durchaus ein Anreiz für so manchen etwas zu faken)
c) er selbst sich was zusammengebaut hat um ein paar zusätzliche Werbeeinnahmen zu generieren (in ein paar Wochen kräht da eh kein Hahn mehr nach; es sei denn BigNavi wird ein quadratischer Chip und in dem Falle würden wohl schon noch einige nachträglich auf ihn zurückkommen ;-))
Mit viel Fantasie könnte ich mit bestenfalls nur einen Grund für eine Verbreitung durch nVidia zurechtstricken:
d) BigNavi wird gesichert HBM nutzen (bzw. nVidia geht zumindest davon aus) und man will nun das Gerücht streuen, dass dem nicht so ist, damit sich nicht zu viele Interessenten auf BigNavi versteifen.
Insgesamt aber nicht wirklich plausibel angesichts der derzeit mauen Verfügbarkeit an Ampere-Karten, denn das Gerücht wäre nur dann effektiv (und auch das Risiko eines In-Umlauf-bringes wert), wenn man einen nenennswerten Marktanteil parallel mit den eigenen Produkten sättigen könnte was man aktuell offensichtlich nicht kann, und das auch abseits der schlechten Verfügbarkeit, denn die 16 und 20 GiB-Kartenmodelle von nVidia, sind noch gar nicht mal vorgestellt.
(Wie gesagt, der Grund/die Motivation ist sehr konstruiert und lediglich der Vollständigkeit halber vorgebracht.)
 
Zuletzt bearbeitet:

sandworm

Freizeitschrauber(in)
gerX7a
So weit mir bekannt ist hatten die ersten Designs die mit N7+ (EUV) gefertigt wurden ihr Tape-out bereits Anfang Okt. 2018
Tape-out 7nm+
Ich wüsste auch nicht was aus technischer, oder wirtschaftlicher Sicht zum gegenwärtigen Zeitpunkt dagegen sprechen würde. Denn soweit mir bekannt ist, erreicht N7+ mittlerweile eine vergleichbare Yield-Rate im Vergleich zum etablierten N7 Prozess.
Des Weiteren werden durch EUV weniger Belichtungsmasken bzw. weniger Belichtungsschritte benötigt, was die Herstellungskosten wiederum signifikant verringern sollte.
 

gerX7a

Software-Overclocker(in)
gerX7a
So weit mir bekannt ist hatten [...]

Richtig. Dennoch fertig kaum einer in dem Prozess und das Xbox-SoC verwendet offensichtlich DUV (entsprechend voraussichtlich ebenso die PS5). AMD hat alles auf den kompatiblen N7 und N7P-Prozessen. Sofern ihnen den zusätzliche Aufwand keiner bezahlen wird, werden die davon nicht weggehen. Der nächste, sinnvolle Upgrade-Pfad für sie ist der N6 in 2021.
Darüber hinaus wird EUV teuerer sein. Die paar Masken weniger machen da den Kohl nicht fett, zumal diese Rechnung erst beim N5 greift, der umfangreich EUV nutzt, nicht jedoch beim N7+ mit seinen nur 4 EUV-Lagen. Ebenso sind die EUV-Scanner weitaus teuerer, sowohl in der Anschaffung als auch im Betrieb. Beispielsweise die 11 im 1HJ19 verkauften EUV-Scanner kosteten im Mittel 103 Mio. Euro/Stück, die 30 ArFi-Scanner dagegen nur 59 Mio. Euro/Stück. Diese Kosten legt TSMC natürlich um, ebenso wie die zusätzlichen Entwicklungskosten für diese erste Integration von teilweisem EUV.
 
Zuletzt bearbeitet:

simosh

PC-Selbstbauer(in)
Das komische Foto lockt hier aber Mal wieder richtig viel Input hinterm Ofen hervor :)

Und ich denke nur: ui, großer Chip = teuer, teuer, teuer
 

r3dshiftx2

PC-Selbstbauer(in)
das bild ist doch einfach nur ein per photoshop hochskalierter n10... manche sollten die videos vllt besser schauen und zuhören anstatt nur die bilder an zu gucken.....
 

Algo

Freizeitschrauber(in)
Das komische Foto lockt hier aber Mal wieder richtig viel Input hinterm Ofen hervor :)

Und ich denke nur: ui, großer Chip = teuer, teuer, teuer
Hmm GA102 auf der 3080 ist fast 100mm² größer.
das bild ist doch einfach nur ein per photoshop hochskalierter n10... manche sollten die videos vllt besser schauen und zuhören anstatt nur die bilder an zu gucken.....
Jein ...da solltest du dich an die eigene Nase fassen und genau zu hören ;) .... die Kondensatoren drum rum sind von Navi10 und die Chipmarkierungen die auf dem Heatspreader waren hat er wegretuschiert (um seine Quelle zu schützen weil die Anordnung von Kondensatoren von Engineeringsamples und natürlich auch die Beschriftungen Rückschlüsse auf die Quelle geben könnten). Aber der Rest ist mit nichten ein skalierter Navi10.
 

gecan

Software-Overclocker(in)
ganz schön lustig mit all die themen über big navi, das ständig über si bandbreite diskutiert wird und darüber sich sorgen macht !

lustiger geht es wohl nicht mehr !

aber egal, den big navi verratet schon allein sein namen und jetzt auch das aktuelle bild des gpu chip, worum es hier eigentlich geht !!!

ansonsten, den echten big navi stelle ich mir mit 128 rops+hbm2e+über 80 cu und bis zu 6000 shader vor !!!

nur so wird der big navi sein namen in aller ehre verdienen :D

also da wird was ganz grosses bald auf uns zu kommen, versprochen !
 

sandworm

Freizeitschrauber(in)
@gerX7a

Auf den ersten Blick mag das so scheinen allerdings muss man aufpassen wenn man die Chip Density
von verschiedenen sehr unterschiedlichen Designs miteinander vergleicht.
Eine GPU mit einem SoC zu vergleichen der (GPU, CPU + I/O) enthält ist gefährlich man denke nur an Renoir der ja anscheinend auch im gleichen Prozess gefertigt wird:
Renoir: 7nm, 9.9bn transistors / 156mm² / Density 63.3M/mm²
NAVI14: 7nm, 6.4bn transistors / 157mm² / Density 40.7M/mm²

Klar scheint es auf den ersten Blick verdächtig danach auszusehen das die beiden Designs den selben Prozess verwenden
aber wie gesagt der Schein kann manchmal auch trügen.
XBOX SoC: 7nm, 15.3bn transistors / 360mm² / Density 42.5M/mm²
NAVI10: 7nm, 10.3bn transistors / 251mm² / Density 41M/mm²

Bezüglich der 15.3bn könnte ich mir auch gut vorstellen, das es sich dabei lediglich um eine Finte seitens AMD handelt
um die Konkurrenz auf einen falschen Pfad zu locken.
Den das erste was mir durch den Kopf ging als ich das zum ersten Mal gelesen hatte, war das dies eigentlich schon fast zu viel internes Betriebsgeheimnis bzw. Details wiedergibt und falls das wirklich stimmen sollte wohl eher unbeabsichtigt weiter gegeben wurde.
Ich mein die bei NVIDIA sind ja auch nicht blöd und werden diesen Wert mit großer Aufmerksamkeit zur Kenntnis genommen haben.

Der genaue Transistor Count wie auch der genaue Fertigungsprozess gehören meiner Meinung nach nicht zu den Angaben, die man der Öffentlichkeit weit vor dem Veröffentlichung mitteilen sollte (Stichwort Betriebsgeheimnis) mal davon abgesehen das diese mit so detaillierten Angaben eh nichts anzufangen weiß.
 

ChrisMK72

PCGH-Community-Veteran(in)
Hm ... ziemlich viel Spekulation in dem Video. Irgendwie is falsch, was er früher sagte und es könnte auch falsch sein, was er jetzt sagt, aber wenn alles mögliche so wäre, wie es kommen könnte, könnte dies und das der Fall sein.

Oder auch nicht.

Aha. :crazy:

Mir egal.

Hauptsache das Ding wird gut und säuft vielleicht noch n Tick weniger, als Ampere am Limit(350W+ muss ja nich unbedingt sein ;) ).
Wünsche den AMD Käufern auch richtig Highend. :daumen:

Vor allem vor dem Hintergrund der ganzen RT Titel(wie ein baldiges CP77), die zukünftig kommen.
Und Witcher Remake, was ja dann auch alles auf Next Gen Konsolen kommt und somit für AMD Hardware optimiert ist.

Dahingehend bin ich mal gespannt, ob sich die Konsolennähe für AMD auszahlt und features wie DLSS/RTX eher links liegen gelassen werden, außer in einzelnen Nvidia gesponserten Titeln, oder alles am Ende ganz anders kommt.

Vielleicht sollte man auch nicht zu viel hypen und die Erwartungen lieber etwas niedriger halten. Sonst is man hinterher nur enttäuscht.
Lieber weniger erwarten und positiv überrascht sein. :D

Aus dem Video hier bin ich ehrlich gesagt nicht viel schlauer geworden, außer was eh schon durch die Spekulatiussuppe gezogen wird. Alles sehr vage.

Er will schnellere GPUs zu günstigen Preisen. Ok. Ich auch. :)

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.


Und in ein paar Wochen wissen wir mehr ...
Jo, das wussten wir vorher auch schon. Thx!
 

BxBender

BIOS-Overclocker(in)
Also die Fläche könnte wirklich passen, wenn man eine teilweise Verdopplung des Chips nimmt+ Raytracingeinheiten, die da auch noch wo rein müssen.
Denn genau hingesehen ist der Chip ja etwas mehr als doppelt so gro´, oder halt nur nicht 1:1 im Verhältnis als Bild abgelichtet worden.
Jedenfalls wäre ich mit einer 3080 Leistung mit 16GB, aber mindestens 50W weniger Verbrauch auf jeden Fall bestens zufrieden.
Es wäre ja so oder so schon erst einmal überhaupt ein Wunder, könnte AMD den zwischenzeitlich großen Rückstand wettgemacht haben.
Man hätte ja eigentlich meinen müssen, Intel und Nvidia bekommen AMD auf Dauer kaputt, weil ein Zweifrontenkrieg bei gleichzeitig viel zu wenig Feuerkraft in einem teufelskreislauf endet. Zu wenig Leistung = zu wenig Umsatz = zu wenig Gewinn = zu wenig Entwciklungsgelder = zu wenig Leistung.
Aber dann schaut man sich einen Film mit Bud Spencer beim Armdrücken an udn alles ist wieder auf Null resettet. ^^
 
Zuletzt bearbeitet:

sandworm

Freizeitschrauber(in)
Vor allem vor dem Hintergrund der ganzen RT Titel(wie ein baldiges CP77), die zukünftig kommen.
Und Witcher Remake, was ja dann auch alles auf Next Gen Konsolen kommt und somit für AMD Hardware optimiert ist.
Witcher Remake? Das höre ich hier zum ersten mal, wobei ich ja eigentlich der Meinung bin das The Witcher 1 noch ziemlich gut gealtert ist, allerdings kann mich meine Erinnerung auch etwas trügen, ist mittlerweile sicher auch schon wieder 3 Jahre her als ich es zum letzten mal gespielt habe.
 

-ElCritico-

Freizeitschrauber(in)
Nvidia kann sich auf die Pyrrhischen Kriege einstellen. Mit der RTX 3090 mögen sie die schnellste Karte im Angebot haben, aber die Herstellungskosten wegen der übergroßen Chips wird sie endlich mal in den allerwertesten beißen.
 

sandworm

Freizeitschrauber(in)
Nvidia kann sich auf die Pyrrhischen Kriege einstellen. Mit der RTX 3090 mögen sie die schnellste Karte im Angebot haben, aber die Herstellungskosten wegen der übergroßen Chips wird sie endlich mal in den allerwertesten beißen.
Das wird wohl auch der Grund sein wieso sie nun einen GA103 als Ersatz für die 3080 (bzw. GA102 von 82 auf 68SM beschnitten) auflegen werden.

Ich mein 627mm2 (wohl relativ billger 8nm samsung Prozess hin oder her) teurer Kühler, teures Board Design, teurer GDDR6X Speicher.
Ich will gar nicht wissen wie teuer die 20GB Varianten der 3080 werden in Anbetracht der 1500 -2000€ für die 3090.

Falls dieses Gerücht von Moore's law is dead zutrifft: 549 -700$ hard launch by Thanksgiving, RTX stärker als bei Turing und 16GB wäre das mal eine Ansage, aber wir werden sehen geht ja nicht mehr allzu lange, bis wir endlich handfeste Informationen erhalten werden.
 

Citizenpete

Komplett-PC-Aufrüster(in)
Witcher Remake? Das höre ich hier zum ersten mal, wobei ich ja eigentlich der Meinung bin das The Witcher 1 noch ziemlich gut gealtert ist, allerdings kann mich meine Erinnerung auch etwas trügen, ist mittlerweile sicher auch schon wieder 3 Jahre her als ich es zum letzten mal gespielt habe.
Es wird ein Remaster mit besseren Texturen und Raytracing. Also im Prinzip das, was man derzeit schon mit Mods haben kann - vielleicht sogar ein bisschen hübscher.

BTP: Ich kannte Coreteks bis vor kurzem nicht, weil ich diese wannabe ASMR-Techtuber nicht für 5 Sekunden ertragen kann. Neulich schaute ich dann doch mal eines seiner Videos bzgl. AMD an und er erklärte sich zu DEM Techtuber mit Kontakten ganz, gaaaaaaaanz weit oben bei AMD und Nvidia und halte den richtig heißen Shit nur zurück, weil das der Anstand erfordere. Er könne aber sagen, all die anderen Techtuber (Igor, Redgaming, Moreslaw uvm.) hätten hier und da nette Takes, wenn sie mal richtig lägen hätte er das schon vor Wochen gewusst, konnte es aber nicht sagen, weil er ja so ein Gentleman ist. Im selben Video prophezeite er dann noch, dass Big Navi eine gewaltige Gurke sei, man aber nicht mad sein soll.

Und nun lese ich bei PCGH News die auf seinen Leaks beruhen :what:
 
Zuletzt bearbeitet:

GrillendeZirpe

Schraubenverwechsler(in)
Ich verstehe diesen hin und her mit HBM2 und GDDR6 irgendwie so gar nicht... gibt es überhaupt was Handfestes außer den nackten Zahlen zum vergleichen oder warum Preist nun jeder HBM2 an ?
 

gerX7a

Software-Overclocker(in)
@gerX7a
Auf den ersten Blick mag das so scheinen allerdings muss man aufpassen wenn man die Chip Density [...]

Da die Unfallgefahr verschwindend gering bei einem Vergleichsversuch ist, ist es erst mal grundlegend nicht "gefährlich". ;-) Darüber hinaus muss man wissen was man vergleicht. Wenn man sich zwei Zen2-Kerne zzgl. L2 ansieht stellt man fest:
Renoir (N7): gemittelt 62,8 MTr/mm2 über den gesamten Chip, ~ 7,65 mm2 für zwei Kerne
Xbox Series X (?): gemittelt 42,5 MTr/mm2 über den geamten Chip, ~ 7,69 mm2 für zwei Kerne
Offensichtlich scheint AMD hier die Designs mit der gleichen Logikdichte zu implementieren. Die geringfügigen (aus Die Shots errechneten) Flächenabweichungen dürften weitestgehend auf die unterschiedliche Güte der Die Shots zurückzuführen sein. Die beträchtlich höhere Logikdichte bei Renoir im N7 kommt also durch die anderen Chipbestandteile des Designs zustande.
Etwas ähnliches beobachtet man auch zwischen der Xbox und Navi 10, wenn man sich eine WPG (zwei CUs) ansieht:
Navi 10 (N7P): 3,99 mm2
Xbox Series X (?): 3,91 mm2
Die sehr geringen Abweichungen darf man wohl auch hier größtenteils auf die Güte der Die Shots zurückführen. Microsoft hat ja bereits bestätigt, dass die Raytracing-Intersection-Engines nur vergliechsweise wenig Chipfläche in Anspruch nehmen (analog zu Turing) und etwas wie Tensor Cores gibt es hier nicht, d. h. die CUs werden nicht übermäßig größer ausfallen als bei RDNA und werden anscheinend auch mit einer sehr ähnlichen Logikdichte implementiert.

Entsprechend ist es auch naheliegend, dass AMD hier nennenswerte IP-Blöcke übernimmt und daher auch RDNA2 im N7(P) fertigt und nicht etwa im N7+, was umfangreiche Überarbeitungen erforderlich machen würde, noch dazu für AMDs deutlich kleineren GPU-Marktanteil. Bei den Konsolen-SoC hätte sich das wohl noch aufgrund des (über die Jahre) hohen Volumens gelohnt, anscheind wollte jedoch keiner den Aufwand bezahlen, sodass es auch hier bei DUV blieb.

Und die 15,3 Mio. Transistoren der XBox Series X sind zweifelsfrei keine "Finte". Auf so einen Blödsinn hätte sich Microsoft zweifelsfrei nicht eingelassen. Im Zweifelsfall hätten die schlicht keine Angaben zur Transistorzahl oder Die-Größe gemacht, aber sicher nicht explizit falsche Zahlen in offiziellen Dokumenten und Präsentationen veröffenlticht; das ist reichlich absurd!

Das wird wohl auch der Grund sein wieso sie nun einen GA103 als Ersatz für die 3080 (bzw. GA102 von 82 auf 68SM beschnitten) auflegen werden. [...]

Der GA103 ist zweifelsfrei kein Ersatz, wenn es den gibt, sondern dann der reguläre Hauptlieferant für bspw. die 3080er -Bestückung sowie die 3070 Ti/Super. Die 3080er auf Basis des GA102 werden voraussichtlich nur der Fertigungskostenoptimierung des GA102 dienen, denn dessen Hauptprodukte bewegen sich alle nahe des / oder sind der Vollausbau(s), d. h. man muss irgendwie auch noch teildefekte Chips sinnvoll verwerten, weil es sonst zu teuer wird.
Das würde auch erklären, warum die Verfügbarkeit so mau ist, denn man startete voraussichtlich primär mit der GA102-Produktion, nur hat man hier natürlich nicht auf Teufel-komm-raus produziert, insbesondere in einer so frühen Prozessphase, da man sonst viel Ausschuss fertigt, der dennoch übermäßig teuer ist aufgrund des großen Chips. Hier ging es voraussichtlich nur darum früh zu launchen und den Markt auf Ampere "einzustimmen" und für den Rest kann man sich noch etwas Zeit lassen, da man sich (im Rahmen des Möglichen) wohl an AMD orientieren will.
Entsprechend darf man auch annehmen, dass die 20 GiB-3080 unter 1000 € bleiben wird. Wie schon mehrfach erklärt kann nVidia hier nur bei deutlich mehr Leistung (entweder auf ihrer Seite oder durch ein Totalversagen vom AMD) oder wenn AMD generell bzgl. seines Topmodells preislich deutlich zulangen wird, den Preis signifikant erhöhen.
Dass die 3080 Ti/Super überigens nennenswert schneller wird kann man ausschließen, da ein nennenswerter Teil des PowerBudgests für den üppigen Speicherausbau draufgehen wird. Entweder wird es auch hier Samsungs 8N für den GA103 werden (wenn er denn kommt) und die TBP wird gar noch etwas erhöht werden müssen oder es wird TSMCs N7 werden und man nutzt die Power Savings zur Realisierung des größeren Speichers, ohne dass die GPU darunter leidet, bzw. vielleicht bleiben ja auch noch minimale Reserven für ein paar MHz oder zwei CUs mehr? Ich würde zu TSMC tendieren, denn J.Huang sagte explizit dass der Großteil der GPUs bei TSMC gefertigt werden wird. (Aktuell wurde gerade mal ein einziger Ampere-Chip gelauncht.)

Und darüber hinaus werden die Herstellungskosten für nVidia mit dem bereits hier skizzierten Szenario weitaus tragbarer sein, als zuvor suggeriert. Mit obigem Szenario hält nVidia die Kosten gering und man hat einen recht großen Markt für den GA102. Etwas vergleichbares fehlt AMD beispielsweise. nVidia kann den GA102 an Prosumer und Enthusiasten verkaufen, wird eine neue Titan an semiprofessionelle Nutzer und kleinere Rechnecenter verkaufen und die Quadro(s) an professionelle Anwender. AMDs AIB-Marktanteil ist deutlich geringer, im Consumer-Geschäft und voraussichtlich im professionellen Segment mit ihren Radeon Pro's gar noch mehr und entsprechend teuerer wird für sie eine vergleichbare Fertigung. Und darüber hinaus kann nVidia teildefekte Chips immer noch weiter für eine 3080 verwerten, was sicherlich mit der Zeit abnehemn wird, wenn sich beide Prozesse, sowohl für den GA102 als auch den GA103 weiter einfahren.
In diesem Jahr geht man bei nVidia von einem Umsatzplus von über +35 % (!) aus, womit sie AMD weit abgeschlagen hinter sich lassen werden. So etwas erreicht man nicht, wenn man zu "blöd" für ein sinnvolles und kosteneffizientes Produktdevelopment ist und da wird sich bei denen auch gesichert keiner "in den A. beißen".

Ich verstehe diesen hin und her mit HBM2 und GDDR6 irgendwie so gar nicht... gibt es überhaupt was Handfestes außer den nackten Zahlen zum vergleichen oder warum Preist nun jeder HBM2 an ?

Es preist doch keiner HBM an?!? HBM war für RDNA2 schon immer das weitaus unwahrscheinlichere Szenario. Wie Tech_Blogger schrieb, hat es technisch durchaus einige Vorteile, ist jedoch teuer, was es primär für hochpreisige, professionelle Produkte attraktiv macht oder bspw. wenn einige technische Eckpunkte das Produktdesign dominieren, so wie bspw. die Zurverfügungstellung von extrem viel Speicherkapazität (was sowohl Chipanzahl, PCB-Layout als auch Stromkosten beeinflusst) oder bspw. der Bedarf nach einer extrem hohen Speicherbandbreite.
Gaming-GPUs liegen bzgl. der Kapazität eher im unteren Segment und bzgl. der Bandbreite bestenfalls im Mittelfeld, d. h. hier dominieren in diesem Fall die Implementationskosten, die bisher übrlicherweise das KO-Kriterium für Consumer-Karten darstellten.
Der Bedarf an noch mehr VRAM wird in den nächsten 12 - 24 Monaten sicherlich nicht nennenswert ansteigen *), jedoch könnten durchaus die Bandbreitenanforderungen für noch "schönere" Grafik weiterhin steigen, sodass möglicherweise zumindest die in 2022 kommenden HighEnd-Chipdesigns zumindest auf HBM2 setzten werden. Man wird sehen. Ab einen gewissen Grad kippt die Kosten-Nutzen-Rechnung und dann wird man auch HBM2 regulär im Consumer-HighEnd einführen. Dieses Jahr jedoch ist das nicht bei nVidia und aller voraussicht nach auch noch nicht bei AMD der Fall.

Gesichert ist eine HBM2-Einführung mit der 2022er-Generation jedoch damit noch nicht. Beispielsweise wenn die HBM2-Kosten stabil hoch bleiben, könnte nVidia sein aktuelles Design (max. 384 Bit GDDR6) mit einem größeren L2-Cache aufwerten. Gleichzeitig könnte man ggf. gar die Speicherbandbreite möglicherweise leicht reduzieren und vielleicht eine etwas konstengünstigere Implementation via 16/18 Gbps-GDDR6 vornehmen. In 2022 wird man 5 nm nutzen, d. h. die benötigte Wafer-Fläche für einen großen L2-Cache wird geringer ausfallen, jedoch werden auch die Kosten pro Wafer deutlich steigen ... hier gibt es viel abzuwägen und gegeneinander aufzurechnen. ;-)
Analog die gleiche Möglichkeit für AMD mit RDNA3. Man behält den Cache bei und vergrößert einfach nur das SI auf bspw. 320 oder 384 Bit und verzichtet möglicherweise noch ein weiteres Mal auf eine HBM-Implementaiton.

*) Aktuell "sind" wir schon bei 16 bzw. 20 GiB im HighEnd.
 
Zuletzt bearbeitet:

GrillendeZirpe

Schraubenverwechsler(in)
Naja... wenn man schreibt das es leider kein HBM ist würde ich es schon als angepriesen betrachtet. Und so wie ich das gelesen habe zieht mit der richtigen Anbindung GDDR6 immer noch gleich mit HBM.
 

Basileukum

Software-Overclocker(in)
Schau ma mal was bei rüberkommt. Der "einfache" Speicher wird ja auch bei der 3070 noch verbaut.

Lieber mehr Speicher als teuren, die Leistungssteigerung ist da wohl auch eher fraglich, dient aber auf das Herrlichste um die Kosten zu erhöhen und so den Käufer zu melken.
 

-ElCritico-

Freizeitschrauber(in)
Der GA103 ist zweifelsfrei kein Ersatz, wenn es den gibt, sondern dann der reguläre Hauptlieferant für bspw. die 3080er -Bestückung sowie die 3070 Ti/Super. Die 3080er auf Basis des GA102 werden voraussichtlich nur der Fertigungskostenoptimierung des GA102 dienen, denn dessen Hauptprodukte bewegen sich alle nahe des / oder sind der Vollausbau(s), d. h. man muss irgendwie auch noch teildefekte Chips sinnvoll verwerten, weil es sonst zu teuer wird.
Das würde auch erklären, warum die Verfügbarkeit so mau ist, denn man startete voraussichtlich primär mit der GA102-Produktion, nur hat man hier natürlich nicht auf Teufel-komm-raus produziert, insbesondere in einer so frühen Prozessphase, da man sonst viel Ausschuss fertigt, der dennoch übermäßig teuer ist aufgrund des großen Chips. Hier ging es voraussichtlich nur darum früh zu launchen und den Markt auf Ampere "einzustimmen" und für den Rest kann man sich noch etwas Zeit lassen, da man sich (im Rahmen des Möglichen) wohl an AMD orientieren will.
Entsprechend darf man auch annehmen, dass die 20 GiB-3080 unter 1000 € bleiben wird. Wie schon mehrfach erklärt kann nVidia hier nur bei deutlich mehr Leistung (entweder auf ihrer Seite oder durch ein Totalversagen vom AMD) oder wenn AMD generell bzgl. seines Topmodells preislich deutlich zulangen wird, den Preis signifikant erhöhen.
Dass die 3080 Ti/Super überigens nennenswert schneller wird kann man ausschließen, da ein nennenswerter Teil des PowerBudgests für den üppigen Speicherausbau draufgehen wird. Entweder wird es auch hier Samsungs 8N für den GA103 werden (wenn er denn kommt) und die TBP wird gar noch etwas erhöht werden müssen oder es wird TSMCs N7 werden und man nutzt die Power Savings zur Realisierung des größeren Speichers, ohne dass die GPU darunter leidet, bzw. vielleicht bleiben ja auch noch minimale Reserven für ein paar MHz oder zwei CUs mehr? Ich würde zu TSMC tendieren, denn J.Huang sagte explizit dass der Großteil der GPUs bei TSMC gefertigt werden wird. (Aktuell wurde gerade mal ein einziger Ampere-Chip gelauncht.)
GA103 wird etwas billiger für Nvidia als GA102 (bei TSMC wäre die Karte sogar teurer), aber GDDR6X, das Speicherinterface und die Bauteile machen die Karte teuer, weil sie so viel verbraucht. Eine 20GB-Karte würde noch mehr verbrauchen, da muss Nvidia das Powerbudget auf 350W erhöhen, sonst wäre die Karte langsamer als ihr 10GB-Pendant. Ja, man rundert bei der Leistung nicht zurück, kommt bei den Kunden gar nicht gut an. Sie wird teuer, die Karte. Wenn Nvidia sie unter 1000€-Markte anbietet, dann auf Kosten ihrer Marge. Das Angebot hängt aber stark von AMD ab. Mal schauen, wie schnell die Big Navis werden und was sie kosten.
Ich sage mal, die Wahrscheinlichkeit, dass GA103 bei TSMC hergestellt wird, ist verschwinded gering zum jetztigen Zeitpunkt. Der Chip wäre duetlich teurer bei weniger Fläche und die 7nm Kapazitäten bei TSMC sind total ausgebucht. Vielleicht in einem Jahr..
 
Oben Unten