"Big Navi" mehr als doppelt so schnell wie Radeon RX 5700XT? Gerüchte um Chipfläche

Ja und RDNA2 erreicht das durch eine Fixed-Function-Erweiterung in den TMUs, die selbst Fixed-Function-Hardware darstellen.

Nur wenn man den state, den man erhalten tut wenn man alles was nicht für die aktuelle "FunctionGroup" benötigte wird temporär deaktiviert, als "Fixed" betrachtet.
 
Zuletzt bearbeitet:
Was ist denn hier schiefgelaufen?

Hätte Big Navi nicht schon vor einem halben Jahr kommen sollen, damit etwas Bewegung auf dem Markt herrscht, wie hier die Redakteure in dem Heft schrieben, in dem die 5700 und die 5700XT vorgestellt (getestet) wurden?

Ich höre nun seit 5 Monaten "Gerüchte" zu "Big Navi".

Wißt ihr was AMD!!??? Gerüchte kann ich selber machen, kurz vor einer guten Sitzung meist am besten. Und genau das Subjekt desselben werdet ihr mit euren Kartellbrüdern von Nvidia, wenn es da nicht bald schnell besser wird. Am GPU Markt.
 
Aber ohne Gerüchte hättest du ja noch weniger Informationen. Darfst du überhaupt schon wissen, dass es in Zukunft Consumer Plattformen mit DDR5 geben wird? :D ;) (Bitte nicht so ernst nehmen)

Es gibt zwar logischerweise starke Schwankungen in Qualität (und somit Wahrheitsgehalt), aber generell alles als Unfug abstempeln, halte ich für unnötig. Da habe ich in den letzten Jahren ganz andere Erfahrungen gemacht. Viele Leaks haben sich als wahr entpuppt. Wie gesagt, die Kunst liegt in der Bewertung.

Ich bin ja grundsätzlich bei dir, allerdings ist AMD mMn durchaus unter Zugzwang als quasi kleiner Underdog, der im wahrsten Sinne des Wortes in diesem Markt hinterher dackelt. Wenn ich also nicht möchte, dass die interessierte Käuferschaft zur Konkurrenz wandert wo bereits Leistung satt inkl. RT verkauft wird, sollte ich mir vielleicht überlegen, meine Karten zumindest ein bisschen auf den Tisch zu legen.

Abseits von uns Nerd-Foristen interessieren sich die wenigsten Käufer um AMD vs. Nvidia, entsprechend wenns das Budget hergibt dann auf zur 2080(Ti) zum neuen 4k Monitor. Gäbe man etwas Butter aufs Brot, könnte man zumindest die MundzuMund Propaganda dahingehend steuern, die Leute zum Warten zu bringen. Aber nix, nada, durch Corona ggf. in ganz 2020 noch nix zu kaufen...
 
Oben im Text steht es richtig " Theoretisch wäre die doppelte Leistung von ner RX 5700 XT drin "

Theoretisch war auch zb. die Titanic Unsinkbar , und der Flughafen Berlin Brandenburg 2012 fertig :devil:
 
Moin Leute,

ich habe hier irgendwo sowas gelesen wie "Autsch finde den Fehler, AMD plus 100% NVIDIA plus 40%".

Dazu möchte ich kurz was schreiben.
Erst mal sind mir solche Kommentare, die eher zum Fühlen als zum Denken anregen sollen eher unangenehm und 2., um das Ganze mal mit etwas Substanz zu versehen,

Nvidia hat einen riesigen Chip im Umlauf, der ist so groß, das soetwas in 7nm wohl eher nicht zu erreichen ist.

und eine 100% höhere Transistordichte ist von 12 auf 7 nm, so weit ich weiß, auch nicht gegeben.

Nvidia wird also einen kleineren Chip bauen LASSEN der auch noch weniger als + 100% in der Dichte skaliert. Von daher kann man bei denen die 100% Mehrleistung fast sicher ausschließen es sei denn sie finden endlich mal wieder IPC.

AMD ist zwar schon auf 7nm, sie haben aber einen vergleichweise winzigen Chip und können ohne weiteres verdoppeln, dazu gibt es angekündigte IPC-Verbesserungen und Einheiten die bei einer Verdopplung in der selben Größe erhalten bleiben, also Platz lassen für mehr Recheneinheiten.

Grüße
 
Zuletzt bearbeitet:
Ja und RDNA2 erreicht das durch eine Fixed-Function-Erweiterung in den TMUs, die selbst Fixed-Function-Hardware darstellen.
Bitte noch mehr logische Argumente, wieso RDNA2 Turing nass machen wird.

bin aber schon gespannt ob Turing in Zukunft mit Inline raytracing auch gut klar kommt

oder ob die Arch eher schlecht als recht altert (zumindest was RT angeht)


Moin Leute,

ich habe hier irgendwo sowas gelesen wie "Autsch finde den Fehler, AMD plus 100% NVIDIA plus 40%".

Dazu möchte ich kurz was schreiben.
Erst mal sind mir solche Kommentare, die eher zum Fühlen als zum Denken anregen sollen eher unangenehm und 2., um das Ganze mal mit etwas Substanz zu versehen,

Nvidia hat einen riesigen Chip im Umlauf, der ist so groß, das soetwas in 7nm wohl eher nicht zu erreichen ist.

mit der selben Transostordichte wie Navi10 wäre ein TU102 ca. 450mm² groß

also problemlos in 7nm machbar
 
ach stimmt, das geht

Aber eine Verdopplung, von der ich ja sprach, ist wohl eher nicht drin, also 900mm^2.

Das wäre den meisten wohl zu teuer, aber vlt bringt NVIDA die nächste XX80ti ja zum Preis der Titan von 3000 Euro, dann geht sowas wieder.

Grüße
 
Zuletzt bearbeitet von einem Moderator:
nvidia Gerüchte sagen 4 gpu sku
ga100 only tesla 128sm 8192 shader
ga101 only tesla 100sm 6400 shader
ga102 quaddro only 96sm 6144
ga103 gforce quaddro 84sm 5376 titan a oder H

vermutet ga104 60sm 3840 shader könnte die rtx3080 sein
ga106 48sm 3072shader rtx3070
ga107 40sm 2560shader rtx 3060

Die speicherausbau wird entscheidend sein
man munkelt über nur 12gb vram zu 6gb vram könnte aber auch das doppelte sein
bsp
titan 24gb wie bisher
rtx3080 20gb
rtx3070 16gb
rtx3060 12gb
Es soll auch 18gbs ram verbaut werden

Mehr erfahren wir vermutlich erst im herbst am 14.5 gibs info zu den tesla gpu
Eventuell infos zur Architektur ist ja eine gtc keine gdc
 
Also sind die 505mm2 mehr oder weniger bestätigt wie es aussieht.

Daraus kann man schon ziemlich gut gewisse Rückschlüsse bezüglich der zu erwartenden Leistung anstellen.
Ausgehend von der next gen. XBox wo 56CU's inkl. RT auf ca. 300mm2 verbaut wurden
(der Rest der 360mm2 ist CPU etc.) würde eine 80CU GPU unter der Annahme das sonst nichts verbessert wurde, lediglich einer Fläche von 429mm2 (384bit GDDR6) benötigen, bzw. mit HBM2 sogar nur ca. 400mm2.
Wenn man sich die Taktrate der PS5 und Xbox genauer ansieht sollten dabei ca. 2GHz realistisch sein.

Wie man sieht, könnten auf einer Fläche von 500mm2 auch locker 96 (GDDR6) oder gar 112 CU's (HBM2) platz finden, allerdings ist es wohl doch am wahrscheinlichsten, das es bei 80 relativ hochgetakteten (vorausgesetzt HBM2 da sonst nicht nötig) bleiben wird.
Bei 384 Bit GDDR6 können sie auch gleich wieder auf 1.6GHz runter takten, da eh das Si limitiert.

Die große Frage wird sein, falls nicht einfach eine 1:1 Kopie der XBox GPU kommt die einfach mehr CU's hat, was mit den restlichen ca. 75 - 105mm2 Die Fläche angestellt wird.
Nvidia benötigt z.B. eine Fläche von ca. 1.95mm2 pro TPC (tensor 1.25 / RT 0.7) ---> 10.89mm2 TU106 - 1.95mm2 = 8.94mm2 ---> +21.8% ----> x1.5 (Ampere???) ----> 32.7%
AMD (NAVI 10) Shader Engine WGP (20) 4.53mm2 (ohne RT / tensor cores für deep learning) ----> +32.5% (6.0mm2 inkl. tensor / RT) bzw. 240mm2 bei 40WGP (80CUs)

+ gleichzeitig einer signifikanten Vergrößerung des Frontends: L1 /L2 Chache ROPS .... um ca. 30% (GDDR6) bzw. 70% (HBM2) (L1/L2 x2???) ----> 93.2 auf 120mm2 bzw. 160mm2

Je nachdem wo die Prioritäten gesetzt werden, kann die vorhandene Fläche den Tensor / RT oder dem Frontend zugeschlagen werden, das oben ist nur ein Beispiel wie es in etwa aussehen könnte.

Das hätte massive Verbesserungen zum bereits sehr performanten RDNA2 Derivat in der XBox / PS5 zur Folge. (240 + 120 bzw. (160) + CPU command core 10mm2 + I/O 40mm2 = 450mm2 + SI (HBM2 ca. 50-60 / 384Bit ca. 100mm2) =ca. 510mm2 (GDDR6) / ca. 510mm2 (HBM2)

Das alles mit einem 384Bit Si wo 18Gbps Speicher noch in der Schwebe stehen zu befeuern, wäre als würde man Perlen vor die Säue werfen.
 
Zuletzt bearbeitet:
Naja 2 Jahre später als 2080ti. Wenn es 20% schneller sein soll, kann High End Navi wohl auch nicht mehr als 700-800 Euro kosten. 800 wäre sogar gute Custom. Ich meine gute 5700XT, bekommt man schon für ca. 400.
 
Welche Wahl denn bitte? Zwischen RT-Nvidias und Non-RT-AMDs? Oder zwischen RT-AMDs und Non-RT-AMDs (mit weniger RT- und dafür mehr sonstiger Leistung)?
Letzteres wird noch viel weniger passieren ...

Bitte, ließ nochmal meinen Ursprung.

Wenn AMD es schafft, normale Shader die Raytracingaufgaben abarbeiten zu lassen, dann hat man als User durchaus die Wahl es zu aktivieren oder es zu deaktivieren. In diesem Fall würde AMD die Deaktivierung mit einem Leistungsplus quittieren, während bei Nvidia nicht profitieren würde (außer man war in einem RT Limit). AMD würde dann zusätzlich Shader die vorher für RT reserviert waren in die normale Berechnung werfen können.
 
Wenn AMD es schafft, normale Shader die Raytracingaufgaben abarbeiten zu lassen, dann hat man als User durchaus die Wahl es zu aktivieren oder es zu deaktivieren. In diesem Fall würde AMD die Deaktivierung mit einem Leistungsplus quittieren, während bei Nvidia nicht profitieren würde (außer man war in einem RT Limit). AMD würde dann zusätzlich Shader die vorher für RT reserviert waren in die normale Berechnung werfen können.

Daran gibt es nichts zu "schaffen", das geht ja auch heute schon problemlos. Wie man an den Pascal Karten sieht.

Aber wie immer werden AMD alle möglichen Wunderdinge zugetraut, die noch nie ein anderer zuvor geschafft hat!
 
Hyper-Train

Wieder viel heiße Luft um nichts.

Hätte, könnte, sollte usw.

Ich höre jetzt schon bzw. kann die Enttäuschung lesen von den ganzen zu hoch gesteckten Erwartungen der durch so eine Berichterstattung entstehen wird ��

Jepp, abwarten und - wenn's da ist - gucken, was da wirklich bei rausgekommen ist. Aktuell kriege ich weder bei 3080er- noch BigNavi-'News' ein Jucken in der Hose...
 
Aber eine Verdopplung, von der ich ja sprach, ist wohl eher nicht drin, also 900mm^2.

Das wäre den meisten wohl zu teuer, aber vlt bringt NVIDA die nächste XX80ti ja zum Preis der Titan von 3000 Euro, dann geht sowas wieder.

Grüße

bis jetzt wisseen wir leider nicht welche Transistordichte Nvidia in dem von Ihnen verwendeten Prozess hinbekommen

von daher können wir nur abwartet ^^
 
Man weiß also nichts neues, spekulatiert aber wild drauf los?

Nicht mein Ding, Leute! All die Gerüchte sind langsam langweilig. Ich warte lieber bis die fertigen Tests da sind. Vorher ist das einfach zu uninteressant.
 
Zurück