Radeon RX 6000: Zweitschnellste GPU mit 2.400 MHz Game Clock und 255 Watt?

@gerX7a,​


ach ja ?

lerne es mal zu verstehen, das wir hier nicht mehr mit gcn zu tun haben und auch nicht mit rdna1, das du hier die hoche takt von rdna2 zweifelst.
 
TGP_vs_TBP.jpg

Jau :rollen:
 
Dann wären wir ja pari @gerX7a :daumen:
238W TDP, 255W TGP, 290W TBP
Ganz unrealistisch ist das nicht, oder was meinst du?
Die Frage ist halt immer noch ob das ein HBM- oder GDDR6-Design werden wird. Dass AMD hier Chipfläche opfert um sich ihre kompetetive Flexibilität zu erhalten, wäre nicht auszuschließen. Vielleicht hat der größte Chip tatsächlich ein duales Speichersubsystem (bspw. 8xGDDR6 und 2xHBM2, komplett mit separatem PHY und Speichercontrollern?). Mit um die 550 mm2 wäre das nicht auszuschließen, wenn ich das Szenario jedoch auch immer noch für das unwahrscheinlichere (aber nicht gänzlich ausschließbare) halte. *)

Einfach mal abwarten, was Igor morgen zum Verbrauch bei AMD schreibt. Er hat da ja schon was zu angekündigt bzw. "angedroht" ;-)

*) Denn in Kombination mit HBM würde sich der Speicher vermutlich mit dem großen Cache beißen. Hätte der HBM nur eine vergleichsweise geringe Bandbreite, also reguläres HBM2, wie es nVidia gerade auch auf Ampere nutzt (hier allerdings mit 5 Stacks), dann wäre der Zugewinn i. V. z. GDDR6 nur relativ gering, würde das Design aber deutlich verteuern. Als einziger, wesentlicher Vorteil bliebe die Möglichkeit zu einem deutlich größeren Speicherausbau mit HBM2 (so bspw. für Radeon Pro's; ginge aber auch mit GDDR6 und Clamshell zumindest bis zu 32 GiB, aber an die 48 GiB von nVidia käme man gesichert nicht heran mit nur 8 GDDR6-Controllern).
Würde AMD dagegen schnellen HBM2E verwenden, also irgendwas mit 3,2+ Gbps dürften die Zugewinne des Cache mit steigender Speicherbandbreite dahinschwinden, d. h. dessen Kosten/Nutzen-Vorteil sinkt mit Blick auf die für diesen aufgewendete Wafer-Fläche. Ohne weitere, echte Details jedoch in Summe alles schwer abzuschätzen und zu bewerten ...

Ergänzung:
Zu dem letzten Post: Das war doch abzusehen; übers Wasser wandeln kann auch AMD nicht. Architektonisch müssen sie erst mal zeigen, dass sie den Rückstand zu nVidia tatsächlich aufgeholt oder gar möglicherweise nVidia nun überboten haben. Einzig beim Prozess weiß man aktuell sicher, dass sie einen kleineren Vorteil mit dem N7(P) haben. Zumindest im Vergleich zu Samsung's 8N (custom 8LPP), denn man weiß ja noch nicht, was sonst noch von nVidia kommt.
 
Und weil RDNA so ganz und gar nicht relevant ist und RDNA2 ja so unendlich gut nach oben skaliert und überirdisch effizienzt ist, taktet Microsoft die Xbox mit nur 1,8 GHz? AMD hatte mal einen "+50 % Perf/Watt"-Teaser für die dGPUs rausgegeben, das könnte auch tief gestapelt sein und es könnten gar bis zu 60 % werden

Du scheinst nicht wirklich die kausalen Zusammenhänge zu verstehen. Eine Konsole wie die neue Xbox ist natürlich deutlich mehr TDP limitiert als PC Hardware. Deshalb sind die Taktraten der Xbox niedriger. Zumal dort auch vergleichsweise viele Shader implementiert wurden. Die PS5 geht da einen anderen Weg. Weniger Shader als die Xbox, dafür aber Taktraten von >2,2 GHz. Was zeigt, dass diese Taktraten sehr wohl möglich sind mit RDNA 2 und deine Behauptung ziemlich daneben war. Und ja, gibt durchaus Gerüchte über 60% mehr Perf/W. AMD hat aber nur von 50% gesprochen. Daher sehe ich keinen Grund, mit anderen Zahlen ins Lächerliche abzudriften.
 
Würde ausgehend von den gemunkelten 238W für den Chip bedeuten der GDDR6 zieht ~17W.
Leider kann mir Google nicht wirklich helfen, was die 2gb Module von Samsung mit 14 bzw. 16 Gbps so an Power benötigen, von daher kann ich nicht abschätzen wie realistisch das ist. Falls da wer mehr Glück hat oder es auch so einfach weiß immer her damit.
Ich persönlich finde die Zahlen mit denen eine GPU zum Release kommt auch gar nicht mehr so wichtig, viel Interessanter finde ich da die Skalierbarkeit, sowohl nach unten als auch nach oben.
Eine 3080 würde bei mir niemals mit ~320W im normalen Betrieb außerhalb von Benchmarks laufen, sondern deutlich nach unten angepasst werden. Nach oben geht ja sowieso kaum was, aber den Performanceverlust den ich durch UV und eine Limitierung auf 250-270W erhalten würde, wäre mir den deutlich ruhigeren Betrieb und die geringere Abwärme allemal wert.
Ich stelle mir einfach alles so ein wie ich es brauche, das ist ja das Tolle an der Hardware auf dem PC :D
 
_Rogame hat ja auch schon was zum Thema Takt gesagt.
Natürlich sind 2,4 GHz der Boosttakt. Die Frage ist ja, wie oft und wie lange der anliegt:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
@gerX7a
Ja, stimm ich dir zu - die Frage hinsichtlich GDDR6 oder HBM2, zumindest im Hinblick auf die XTX, ist noch nicht final beantwortet.
~530mm² an Die-Fläche bieten in Ableitung von der Series X eigentlich mehr Platz als nur für 80 CU´s +256bit Speicherinterface - eine absolute Unbekannte ist aber leider noch immer der Platzbedarf des gemunkelten vorhandenen InfintyCache!?
Würde daher heute eher tiefer stapeln und darauf spekulieren, dass man tatsächlich versucht durch shared L1 und bisher ungesehen großen L2 Cache die entsprechenden Nachteile von einfachem GDDR6, gegenüber GDDR6X, zu kompensieren.
Hab mich da heute durch ein paar Patente von AMD aus den letzten 2-3 Jahre gewälzt, viele interessante davon wurden erst diesen Sommer eingereicht und bestätigt, die haben sich da einiges schützen lassen was Cache-Nutzung, Cache-Hierarchien, Kompression und sonstiges anbelangt.
Hintergedanke könnte die gewünschte Kosteneinsprung durch die Anforderungen der Konsolen gewesen sein.
Krieg hier jetzt gerade nicht mehr die Links zusammengesammelt, muss mal ins Bett, aber da ist interessanter Stuff dabei, dessen Tragweite ich heute noch nicht zu überblicken vermag.
Dass 30-50mm² Die-Size am Ende aber günstiger sein könnten als die doppelte Anzahl an schwer erhältlichen 6X oder HBM2(e) Modulen ist für mich nicht ausgeschlossen. Energieeinsparung on Top.
Will letztlich sagen, der Nutzen von HBM2(e) könnte sich auf Grund der weiterentwickelten Technologie, besonders im Bereich des Speichersubsystems, sehr in Grenzen halten.
BigNavi ordnet sich am Ende mit ~530mm² tatsächlich auch nur zwischen Vega64 und Fiji XT ein - so "big" ist das für mich gar nicht :ugly:

edit: https://patents.justia.com/assignee/advanced-micro-devices
von Seite 1 :crazy: ->
1) GRAPHICS LIBRARY EXTENSIONS
2) Memory page access counts based on page refresh
3) Distributed gather/scatter operations across a network of memory nodes
4) Forward rendering pipeline with light culling
5) SPECULATIVE INSTRUCTION WAKEUP TO TOLERATE DRAINING DELAY OF MEMORY ORDERING VIOLATION CHECK BUFFERS
6) Pixel wait synchronization
7) Compressing data for storage in cache memories in a hierarchy of cache memories
8) Allocation of memory buffers in computing system with multiple memory channels
9)ROBUST RAY-TRIANGLE INTERSECTION
10) Memory with expandable row width
11) Texture residency checks using compression metadata
 
Zuletzt bearbeitet:
_Rogame hat ja auch schon was zum Thema Takt gesagt.
Natürlich sind 2,4 GHz der Boosttakt. Die Frage ist ja, wie oft und wie lange der anliegt:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Twitter. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Er hat lediglich den Boosttakt mit dem Gametakt verwechselt -> RDNA2 verhält sich wie Nvidias Karten bei den Taktraten. Nvidia gibt den Boost auch geringer an als der dann in in realen Szenarios ist - ist bei AMD dieses Mal genauso.
 
Und was soll das jetzt damit zu tun haben, dass der Bulldozer damals ein Fail war?
Erstens war ein ;-) am Ende. Soll/muss ich Dir dessen Bedeutung näher erläutern ?!?
Und somit ein "kleiner" Seitenhieb auf die INTELianer, bei denen MHz ALLES zählt ...
Und ja, Bulldozer war ein "Fail". Zufrieden ? :-D

MfG Föhn.
 
Würde ausgehend von den gemunkelten 238W für den Chip bedeuten der GDDR6 zieht ~17W.
Leider kann mir Google nicht wirklich helfen, was die 2gb Module von Samsung mit 14 bzw. 16 Gbps so an Power benötigen, von daher kann ich nicht abschätzen wie realistisch das ist. Falls da wer mehr Glück hat oder es auch so einfach weiß immer her damit.
Ich persönlich finde die Zahlen mit denen eine GPU zum Release kommt auch gar nicht mehr so wichtig, viel Interessanter finde ich da die Skalierbarkeit, sowohl nach unten als auch nach oben.
Eine 3080 würde bei mir niemals mit ~320W im normalen Betrieb außerhalb von Benchmarks laufen, sondern deutlich nach unten angepasst werden. Nach oben geht ja sowieso kaum was, aber den Performanceverlust den ich durch UV und eine Limitierung auf 250-270W erhalten würde, wäre mir den deutlich ruhigeren Betrieb und die geringere Abwärme allemal wert.
Ich stelle mir einfach alles so ein wie ich es brauche, das ist ja das Tolle an der Hardware auf dem PC :D

Man redet hier doch von dem zweitgrößten Modell, also nichts mit 238W. Hier werden wohl Takt und Spannung reduziert sein, um zusammen mit weniger Einheiten, dann einen Abstand zur schnellsten Big Navi zu generieren.

Biggest Navi wird wenn 238W auf den Chip entfallen auch bei 300W liegen. Meine R9 290X lag auch bei 208W nur der Chip und brauchte, als ganze Karte 300W. Nur so als Beispiel.


Dennoch bin ich sehr gespannt, wie die Navi so performen werden. Weil das ist der entscheidene Faktor!

Wenn little Big Navi ;) bei 255W zwischen 3080 und 3070 liegen würde, dann wäre das schon eine tolle Sache.

Man sollte jedenfalls mit 255W oberhalb der 3070 landen, die ja 225W nehmen soll.
 
Ich kann mir irren, aber eigentlich war die TGP = Total Grafic Power nur die Aufnahme der GPU ohne irgendetwas, dieses mal hat nvidia das aber anders benannt.
Bei AMD war eigentlich immer die TBP = Total Board Power ausschlaggebend, hier kommen halt noch einmal ein paar Watt dazu, vom Speicher und den Wandlerverlusten, ect.

Im Endeffekt könnte man auch hier, wenn die GPU bis zu 255 Watt zieht, schnell bei 300 Watt insgesamt landen.

Aber im Endeffekt ist es ja nicht mehr lange hin, bis uns AMD endlich mit den offiziellen Daten versorgt.
Spannend wird es auf jedenfall und es könnte zur 3080 / 3090 sehr knapp werden.
 
Der Igor wollte glaube ich heute ein Video zu der Thematik machen.
Mal sehen was er dazu zu sagen hat :D
Wenn die Daten auch nur annähernd stimmen, und der Preis ebenfalls passt, hast du sie frühestens zu Ostern in deinen Händen... vielleicht :-D

Gruß
Zur Überbrückung bis dort hin drucke ich mir dann halt eine aus dem 3D Drucker ;)
 
Zuletzt bearbeitet:
Um das mal mit ein paar Fakten vom PCGH-Test zu unterfüttern:
4K, maxed out: 3080 FE @ Stock im Mittel +91 % mehr Fps i. V. z. RTX 2070 Super und +105 % mehr Fps i. V. z. RX 5700 XT (über die 19 vermessenen Titel).


Darüber hinaus: Die 2,4 GHz sind als Game-Takt recht unwahrscheinlich bzw. gar unrealistisch.
Mit Navi 10 schafften sie gerade mal 1,755 GHz und das auch noch mit nur 40 CUs (und auch bereits im N7P).
Wenn sich der Takt in diesen Regionen bewegen wird, wird das der maximale Peak-Takt sein, d. h. der Game-Takt wird ein gutes Stück darunter liegen.
Für einen derartigen Sprung bräuchte AMD auch einen neuen Fertigungsprozess und etwas wie ein N7+ würde da zweifelsfrei nicht ausreichen. ;-)
Es wurde geschrieben, dass sie 100% schneller als eine 2070 Super mit 240W Undervolting ist, sie ist es aber nichtmal Stock, ergo Falschaussage die ich korrigieren wollte. Wenn ich mal den Gamestartest heranziehe, der sieht die 3080 @Stock sogar nur 98% vor der 5700XT und vor allem nur 80% vor der 3080 in 4K (hier nur über 6 Titel)

Ob 2,4Ghz Gametakt unrealistisch sind?

Da bin ich mir gar nicht so sicher, die PS5 taktet wohl schon mit 2,23Ghz und wird wohl nur auf den Grafikchip ein wesentlich engeres TDP Limit sowie auch Thermal Limit haben. Ob AMD das allerdings so verkauft, sei mal dahingestellt. Ich bin mal wirklich gespannt, wir haben bei der PS5 Vorstellung ja schon das Sterbelied zur Sonykonsole angestimmt und es kamen ja immer wieder Gerüchte bzgl. der Kühlungsproblematik auf, da man sich angeblich erst spät (als Reaktion auf die XBOX) für einen höheren Takt entschieden hat. Ansonsten sind die Gerüchte, bzgl. der Hardware bisher immer recht eindeutig pro AMD gelaufen, auch wenn dies viele leider nicht wahrhaben wollen. 80CUs mit hohem Takt (selbst wenn es nur 2,2 Ghz werden) werden den NV Pendants in jedem Fall ordentlich einheizen. Mehr würde ich nicht erwarten wollen. Alles andere ist dann eine Zugabe, wenn man mit der 3080 kämpfen kann, dann ist gut
 
der fight ist eigentlich non-sense, denn der eigentliche skandal ist das METRO @Ultra mit RT ULTRA es knapp auf 50FPS bringt @1600p bei 367W leistungsaufnahme.
kann Big Navi 75FPS? nein
3090? nein

für lächerliche 75FPS sind die alle zu schlecht... egal wie die heißen
Hier sinds 80-100 FPS in 4K:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Ka wo du die 50 FPS @1600p her hast, denn das hat Turing schon geschafft.

NVidia soll erst Mal liefern. Die haben einen 1A-Paperlaunch hingelegt, Hauptsache vor AMD am Markt. Bringt nur leider nix, wenn kaum jemand eine der Karten bekommt. Würde mich nicht wundern, wenn AMD direkt zum Release liefern kann und zwar in ordentlichen Quantitäten.
Und wenn nicht? Auch AMD kann nicht zaubern.
 
Ich habe heute mal ein paar Beispielrechnungen veröffentlicht, weil Patrick durchaus Recht hat und mir einige der unreflektierten News nach solchen Twittereien echt auf den Zeiger gehen. Vor allem auch, da sie die "Leaker" durch eine Fehlinterpretation mangels des nötigen Verständnisses der Materie schnell mal ins falsche Licht rücken.

Und wen es interessiert, ich verklinke mich ja nie in Fremdforen, das MorePowerTool hat auch noch was dazu zu vermelden ;)
 
Zurück