AMD Radeon RX 6000: Erstes Bild einer "Big Navi"-Karte

Das PCB dEr Ampere war sicher kein Schnäppchen, die Spannungsversorgung dieser Karte hier wird aber auch kein Schnapper. Die wird nämlich dann nur via Baseplate gekühlt, da muss man schon das beste aus dem Regal nehmen wie bei der VII.
Oder man packt noch Wärmeleitpaste zwischen Baseplate und Kühler
 
Sieht echt gut aus das Referenzdesign. Je nachdem was bei den Tests rauskommt, könnte es bei mir zum aller ersten Mal tatsächlich ein Referenzdesign werden. Bin gespannt was das wird.
 
Ich habe als Gamer immer maximal die 70er Serie gekauft (670, 1070) und fand 300-500 € für eine Grafikkarte schon immer viel. Auch im Vergleich zu einer Konsole und meinen Mitmenschen. Die 3090 (Profi-Grafikkarte mit Spiele-Aufdruck) ist eine Nische wie ein Ferrari. Eine 3080 kaufen auch viele Gamer nicht. Darunter wird es im Massenmarkt deutlich interessanter und mal ehrlich, wer braucht bei einem Standard Full-HD Monitor auch mehr als eine 3060? Da reicht sogar noch weniger. Dazu ist der Vorteil von Ultra Details für viele auch nicht sehbar.

Man bekommt schnell einen falschen Eindruck in einem Gamer/Hardware-Forum.
Im Prinzip bin ich voll bei dir. Aber du bist hier ja auch bei PCGHX. Und wofür steht wohl das X, hmmm... :D

Gruß
 
256 Bit für das Topmodell? :what:

Selbst mit Cache - der seine eigenen Probleme mit sich bringt, siehe Intel Iris oder Xbox One - wäre das noch extrem wenig. Für einen 3070er Konkurrenten könnte das reichen, aber ob man den GP102 damit angreifen kann bezweifle ich doch sehr.

Naja, wir werde es sehen.
Das PCB dEr Ampere war sicher kein Schnäppchen, die Spannungsversorgung dieser Karte hier wird aber auch kein Schnapper. Die wird nämlich dann nur via Baseplate gekühlt, da muss man schon das beste aus dem Regal nehmen wie bei der VII.
Beziehst du dich auf das nicht rechteckige Platinendesign? Weil Fräsen kostet heutzutage quasi nichts mehr, bei den meisten Herstellern wird das zumindest bei Kleinserien nichtmal mehr mit Aufpreis berechnet. Schon gar nicht, wenn man eh ne Platine mit 4+ Lagen bestellt.
 
Nein ich kenne das Design von der VII da war das exakt genau so gelöst. Wenn die Baseplate ausgefräst wäre, Würde man das an den finnen sehen. Mann muss auch bedenken das die Lüfter noch im Kühler eingelassen sind, Zudem werden Direct touch ähnliche Hetapipes drunter verlaufen, aber lediglich zur wärmeübergabe an den Kühler, nicht um die Baseplate zu kühlen. Das Design ist fast 1:1 das selbe, der Steg an den 2x8 Pin, die Länge, Slotbreite und Höhe, der flache Kühlkörper, die eingelassenen Lüfter etc.

@Raptor glaub ich nicht, der VII hat die Baseplate auch gereicht, von Platine zur Base mit WLPads und dann nochmal von der Base zum Kühler macht keinen Sinn. Außerdem sind die Caps einer normalen Lösung schon zu hoch.
 
Sieh genau hin Gurdi, wie verplanzt man GDDR auf Löchern (Bohrungen) durchs PCB? Gar nicht?

AMD hat kein Problem mit der Platine oder Kühlung der VRM, siehe Vega20. Die hat eins der besten PCBs am Markt, weil aus dem Pro Regal.
 

Anhänge

  • 123456.jpg
    123456.jpg
    15,2 KB · Aufrufe: 49
Naja den beiden Schrauben da trau ich noch nicht ganz, die gibt es sonst nämlich auch nicht! und zwar bei keiner Amd Karte. Ja die HBM Karten haben wegen dem Interposer noch 4 zusätzliche Schrauben ums Package, aber ganz sicher nicht durch die Backplate verschraubt sondern von PCB in die Baseplate.
 
Natürlich kann man auch ohne KI auskommen.

Aber würdest du eher eine 500€ GPU kaufen die 40 fps in 4K schafft, oder eine die dank KI 70 fps schafft?

Also ich persönlich werde nie mehr eine Karte ohne DLSS und CUDA kaufen. Diese Features sind mir einfach viel zu wichtig, da kann die Karte auch gern bisschen mehr kosten (siehe 2070S vs 5700XT)
Sobald die Technik lam über den DLSS 2.0 Stand hinaus kommt, der noch immer von den Spieleentwicklern implementiert werden muss, kann man drüber reden.
Ansonsten hat man einfach in viel zu wenig Spielen effektiv auch nur irgendwas davon, als dass man deswegen eine bestimmt Karte kaufen sollte.
Aktuell sind es keine 10 DLSS Spiele
 
Ki ist dann interessant wenn Sie das bestehende verbessert. Solange dabei immer die Auflösung reduziert wird taugt das nichts für mich., Zumindest am Main. Am Lappi würde ich sowas dankend annehmen.

@Eclipse: Ja kann sein, ziehen würd die Nummer(oder tut)
 
16Gb HBM oder 512Bit schnellster GDDR6, dürfte wohl nicht viel um sein im Preis, wobei HBM aus Power sicht bestimmt attraktiver ist.

Ich finde den GDDR6X RAM echt beschissen. 2.5W pro Chip ist extrem viel, oder fast 30W bei 10Gig Speicher :/
Mal von der Herausforderung der Signalqualität angesehen.
 
Interessanter Weise hätte hier sogar HBM sehr viele Vorteile, beginnend damit, das er weniger Strom und Platz benötigen würde, zusätzlich eine extrem hohe Übertragungsrate bietet und man kein GDDR6X benötigt.
Nachteil sind halt weiterhin die Kosten für HBM, aber GDDR6X soll ja auch nicht so günstig sein...?

Bald wissen wir ja mehr, die Leaks werden auch mehr werden, auch wenn AMD sehr bemüht scheint, dies zu unterbinden.

Bin mega gespannt, was dort wirklich kommt - möglich ist alles von Uiiii bis pfui... xD
 
Um Gut zu sein muss AMD auch nicht die "Beste" Karte haben.

Die breit gestreuten Vermutungen um das doch noch ne Titan kommt, endgegen der Ausage das die 3090 der Titan Nachfolger ist, würde für Nvidia nur Sinn machen wenn Sie die Befürchtung hätten das AMD die 3080/Ti überholt um immernoch der Anbieter der Stärksten Gaming-GPU zu sein. Das sollten sie auch, wenigstens in die nähe kommen weil Nvidia die XX80Ti zum Enthusiastenstandard etabliert hat. Aber, daran glaube ich allerdings nicht.
Wenn doch wirds wohl endlich ne AMD Karte bei mir.

AMD/ATI ist zwar nie besonders "Billig" gewesen bei GPU´s und das werden sie auch jetzt nicht. Aber ungefähre 3080 Leistung zum Moderaten Preis müssen sie liefern, den sie Sprachen selbst vom High End Segment.

Der Kühler sieht schon mal nach etwas durchdachtem aus.
Die Radialkühler hatten den Custom Karten Herstellern ja bisher in die Karten gespielt. Also hat auch gewiss jetzt AMD ein besseres Design. Ich find das schon mal hervorragend (von Beiden Chip Produzenten)
 
Zuletzt bearbeitet:
Naja "moderater" Preis ist die 3080 ja auch schon. AMD wird wohl kaum die "ungefähr" 3080 zum Preis von 3070 verkaufen. Da kämpfen sie wie immer um einpaar %. 3-5% weniger Leistung aber kostet 10% weniger oder so ähnlich.
 
Hm, ja sieht sehr nach dem Prototyp, aus denn wie da letztens gesehen haben. Bin mal gespannt wie sich die Karte gegen die RTX 3070 behaupten kann. Vor Allem mit dem 128 MB L3 Cache und den 192 Bit? Speicher Interface (6x2x16Bit)... Nvidia scheint sich wohl nicht zu fürchten. Oder ob die wieder Tage vorher ne 3070 Super launchen nur 1-2 Wochen nach der RTX 3070? Scheint mir momentan nicht so wahrscheinlich... Zumal man ja noch ne 3080 am Start hat. Mag sein, dass die RX 6700XT schneller als die RTX 3070 und damit auch als die 2080 Ti ist, vom vielbeschworenen Nvidia Killer seh ich da aber nichts. Dazu hat die Radeon Technologies Group den Launch mal wieder zu sehr rausgezogen und kommt mir nicht mit der Corona Keule!
Es kommt mir manchmal echt so vor, als wären die selber von ihrem eigenem Lauch bzw. dass sie ne GPU rausbringen müssen überrascht sind... So als würde die Lisa dem David sagen: Jetzt klopp mal hier die neue GPU endlich zusammen! Du hast noch 14 Tage. Und der David dann so: Null Problemo, Ich schaffs in 24 Stunden... Und RTG so: What??? Wo kommt die neu GPU jetzt her? Müssen wir die jetzt releasen???? Und die Lisa so: Hau wech! Marketing so: Wow erst mal nen Fortnite Stunt... Sry, I digress...
Naja vlt. bekomme ich dann doch noch ne günstige 2080 Ti...
 
Ok, eigentlich dachte ich dass die Lüfter deutlich größer sind als bei der Radeon 7.

Ich habe jetzt aber eben bei dem Bild die 8 Pin PCIe Strombuchsen als Referenzmaß genommen.
Danach müssten die Lüfter einen Durchmesser von 80 mm haben, also nicht viel mehr als die 75 der Radeon 7 :/
Die Karte müsste demnach auch insgesamt 28 cm lang sein. Allerdings ohne Perspektivische Korrekturen.

Übrigens, Jay hat anonym noch andere Bilder erhalten.
Minute 12:15 und 15:41
Dazu Jays übliches mimimimi
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Zuletzt bearbeitet:
@ Gurdi du meintest ja die Lüfter der BN wären in den Kühler eingelassen wenn ich mir Jay's video ansehe sieht es nicht so aus oder man hat es einfach nicht gerändert und es als eine Fläche aussehen lassen
 
Naja den beiden Schrauben da trau ich noch nicht ganz, die gibt es sonst nämlich auch nicht! und zwar bei keiner Amd Karte. Ja die HBM Karten haben wegen dem Interposer noch 4 zusätzliche Schrauben ums Package, aber ganz sicher nicht durch die Backplate verschraubt sondern von PCB in die Baseplate.

Zum einen ist das nur eine künstlerische Darstellung, sodass man da eh nichts wirklich von ableiten kann, denn warum sollte die Backplate so kompliziert aufgebaut sein, dass genau das "Haltekreuz" da durchscheint? (Es wäre technisch aufwendig das so präzise auszuschneiden und damit zugleich unnötig teuer.)
Und zum anderen haben die beiden dargestellten, virtullen Schauben nichts mit der Frage bzgl. HBM oder GDDR zu tun. Diese Schrauben gibt es auch bei der RX 5700 (XT), nur dass sie hier vertikal verlaufen und auf dem kürzlich gesichteten Prototypboard gibt es diese Schrauben ebenfalls und da verlaufen sie sogar horizontal wie auch in dem Video dargestellt und das Prototypboard ist definitiv auf GDDR ausgelegt gewesen. Schlussendlich gibt es nach wie vor keine neue Indikation für HBM bei AMDs kommenden Consumer-Karten. Hier wird man einfach weiter abwarten müssen ...
 
Zuletzt bearbeitet:
Zurück