• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Radeon RX 7000: Leaker widersprechen sich bezüglich Navi-31-Tape-Out

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Radeon RX 7000: Leaker widersprechen sich bezüglich Navi-31-Tape-Out

Ein recht bekannter Leaker behauptet, dass der Tape-Out von Navi 31 stattgefunden hat und mit einem Release im dritten Quartal 2022 zu rechnen sei. Dem widerspricht nun eine andere, ebenfalls oft gehörte Quelle. Wann kommt die Radeon-RX-7000-Serie denn nun?

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Radeon RX 7000: Leaker widersprechen sich bezüglich Navi-31-Tape-Out
 

Acgira

Software-Overclocker(in)
Wenn es bis zum Launch länger dauert, dann vielleicht weil sie beim Testen der erste Prototypen erkennen, dass sie mehr doch Temperaturprobleme haben als für den Konsumenten zumutbar wären. Weil man bislang noch keine Ahnung hat wie aus einem PC mit einer (fast) 500 Watt-Grafikkarte am Ende nicht immer einfach nur Backofen wird.
 

Incredible Alk

Moderator
Teammitglied
Keine Chance.
Die Chips sind so groß dass auch 1000W nicht zu einer zu hohen Chiptemperatur führen würden (die Leistungsdichte einea 11900K oder 5800X ist höher...) und ob der Nutzer die Wärme aus dem Gehäuse bekommt ist nicht das Problem des GPU Herstellers - der muss lediglich dafür sorgen dass falls es zu heiß wird die Karte nicht kaputt geht - was seit Ewigkeiten über thermal throttling umgesetzt ist.

Es wird im Ernstfall nichts mehr zu heiß heutzutage, es wird nur langsamer.
 

Khabarak

BIOS-Overclocker(in)
Puh... da vergisst wer die kommenden CDNA Karten, die auch mit Chiplets erscheinen und das schon Ende 2021.
Daraus hat AMD sicher einiges an Erfahrung in der Validierung von Chiplet GPUs.
 

Nebulus07

Software-Overclocker(in)
1627907684145.png


Die neuen AMD GPUs werden Chiplets verbaut haben... Navi31 kommt mit zwei Chiplets in der GPU und kann deshalb soviele Shader bieten. 15360 Shader sind absolut realistisch. Denn man möchte auch mal mit NV gleichziehen.
 

raPid-81

Software-Overclocker(in)
Die neuen AMD GPUs werden Chiplets verbaut haben... Navi31 kommt mit zwei Chiplets in der GPU und kann deshalb soviele Shader bieten. 15360 Shader sind absolut realistisch. Denn man möchte auch mal mit NV gleichziehen.

Stimmen die Gerüchte dann kommt Nvidia beim AD102 auf 18.432 Shader. Ich bin gespannt wie es am Ende aussieht, vielleicht gibt es einen Monolithic vs Chiplet Showdown. Interessant wird auch wie gut das Chiplet Design bei GPU's mittlerweile bezüglich Latenzen performed. Das wird noch spannender als RDNA2 vs Ampere!
 

Darkhunter098

Komplett-PC-Aufrüster(in)
Stimmen die Gerüchte dann kommt Nvidia beim AD102 auf 18.432 Shader. Ich bin gespannt wie es am Ende aussieht, vielleicht gibt es einen Monolithic vs Chiplet Showdown. Interessant wird auch wie gut das Chiplet Design bei GPU's mittlerweile bezüglich Latenzen performed. Das wird noch spannender als RDNA2 vs Ampere!
Was auch interessant wird, wie Nvidia die Shader auf die Straße bekommt, da die 3090 ja nur bei 4k die 10k Shader richtig auszulastem schafft und wie das dann bei AMD aussieht.. 15000 vs 18000 Shader.

Auch wenn so welche Chip's nicht wirklich für Full HD/WQHD sind, aber wäre ja lustig wenn se bei 4k nun auch Auslastungsprobleme bekommen bei sovielen Shadern (beide Seiten) :D
 

raPid-81

Software-Overclocker(in)
Auch wenn so welche Chip's nicht wirklich für Full HD/WQHD sind, aber wäre ja lustig wenn se bei 4k nun auch Auslastungsprobleme bekommen bei sovielen Shadern (beide Seiten) :D
Warum nicht? Ich könnte schon ein paar mehr FPS in WQHD mit allen Reglern nach rechts (das inkludiert den RT Regler) gebrauchen. Mein 144hz Monitor will befeuert werden. :D
 

gerX7a

BIOS-Overclocker(in)
Die neuen AMD GPUs werden Chiplets verbaut haben... Navi31 kommt mit zwei Chiplets in der GPU und kann deshalb soviele Shader bieten. 15360 Shader sind absolut realistisch. Denn man möchte auch mal mit NV gleichziehen.
Absehbar wird AMD einen ähnlichen Weg wie nVidia gehen, der zu einer "Verdopppelung" der Shader führt (wenn man mehr zählen will) oder schlicht einer "Verbreiterung" der Ausführungseinheiten.
Ich würde hier vermuten, dass es sich um zwei Chips (drei, wenn man den I/O-Die mitzählt, den es angeblich geben soll) mit einem Äquivalent verdoppelter/verbreiteter 60 CUs handeln wird, d. h. man darf annehmen, dass sich das schlussendliche Design tatsächlich in der Größenordnung von etwa der doppelten Performance einer RX 6900 XT bewegen könnte (selbsredend natürlich auch bei entsprechendem Verbrauch, denn mit nur 100 W pro einzelnem Chip wird man absehbar nicht hinkommen).

Wenn die von @raPid-81 zum Besten gegeben Zahl von 18432 "Shadern" bein nVidia hinkommen sollte, wird es interessant sein, wie sie das umsetzen werden, da man ja stellenweise immer noch etwas von einem monolithischen Design hört. Mit dem N5(P) oder gar N4 wäre das wohl machbar, ob das aber tatsächlich so kommen wird, ist noch ungewiss. Dagegen nicht machbar als monolithischer Chip wäre so etwas voraussichtlich mit dem 5LPE von Samsung, der nicht ganz so dicht packen kann. Man darf gespannt sein über die Fertigungsstrategie und ob nVidia (zumindest mit den Topchips) wieder zu TSMC wechselt. Die kleineren und Mittelklassemodelle könnte nVidia ja weiterhin kostengünstiger bei Samsung im 5LPE fertigen lassen.

Zuerst aber tritt erst mal in einigen Monaten Intel in dem Markt ein und man wird sehen, ob die P/L-technisch den Markt hier ein wenig durcheinanderwirbeln werden.
 

rouki999

Freizeitschrauber(in)
Ich bin gespannt wie es dann mit der Verfügbarkeit bei AMD und Nvidia aussieht.

Ich denke wenn Nvidia einen so großen Chip baut, dass warscheinlich im Customer Markt es wohl keine vollkommen aktivierte Karte geben wird, sondern nur Karten wo Teildefekte Bereiche deaktiviert sind und je nachdem wie viele eine 4090, 4080 Ti und 4080 wird.

Ich denke das es AMD mit dem Chiplet Design da eine bessere Ausbeute hat, weil die Einzelchips nicht so groß sind und man da wahrscheinlich leichter die Chips für eine 7900XT, 7800XT und 7800 zusammenbringt. Allerdings ist da dann halt das Problem, dass für jede Karte dann zwei Chips benötigt werden und noch ein dritter Chip für die Verbindung beider. Vielleicht werden aber auch Karten mit nur einen Chip kommen, um damit die kleinen Karten abzubilden oder die sehr defekten zu verwerten.

Wird auf jeden Fall interessant, auch aus preislicher Sicht, ob ein riesiger Singlechip oder kleine Chips günstiger herzustellen sind. Viel mehr bin ich gespannt auf die Preise, wo die diesmal landen oder sie sich bis dahin wieder langsam normalisieren.
 

Medcha

Software-Overclocker(in)
9. Klasse Berufswunsch: LEAKER

Daddeln als Profi ist doch zu anstrengend, lieber LEAKER werden:D

(Ich muss immer grinsen, wenn ich den Begriff lese...)
 

sandworm

Freizeitschrauber(in)
Stimmen die Gerüchte dann kommt Nvidia beim AD102 auf 18.432 Shader. Ich bin gespannt wie es am Ende aussieht, vielleicht gibt es einen Monolithic vs Chiplet Showdown. Interessant wird auch wie gut das Chiplet Design bei GPU's mittlerweile bezüglich Latenzen performed. Das wird noch spannender als RDNA2 vs Ampere!
Es tut mir ja wirklich leid, ich will dich ja deiner Hoffnungen und Träume nicht berauben, aber falls diese Angaben wirklich stimmen sollten, sieht es zappenduster für dieses monolithische Ungetüm aus.

Ich probier das mal anhand des folgenden Beispiels etwas näher zu erläutern:

Der Vollausbau des GA102 wie er bei der RTX3090 zu Einsatz kommt, hat brachiale 10752 Shader
und was bringt ihm dieser Umstand im Vergleich mit Navi 21 am Ende.
Vielleicht 2%. (normiert 5376x2 (10752) vs. 5120) bzw. 7% (normiert 2%) siehe 4K Leistungsindex Computerbase.

in Vergleich mit dem Vollausbau von NAVI 21 mit seinen mickrigen 5120 Shader, wie er bei der RX6900 XT zu Einsatz kommt sind diese 2% fast schon zu vernachlässigen.

(15360 / 18432 x 1.02) x2 = Factor 1.63

Und wieso NVIDIA trotz neuem TSMC 5nm Prozess nicht mit der Taktkeule kommen kann, habe ich bereits zuvor mal probiert auszuführen.
Ohne HBM oder einem riesigen L3 Cache wie er bei AMD bereits im Einsatz ist, bleibt NVIDIA am Ende nur die Wahl zwischen einem energiehungrigen, komplexen GDDR6X, 512Bit SI oder einem 384Bit Speicherbandbreitenkrüppel Interface.
 
Zuletzt bearbeitet:

raPid-81

Software-Overclocker(in)
Es tut mir ja wirklich leid, ich will dich ja deiner Hoffnungen und Träume nicht berauben, aber falls diese Angaben wirklich stimmen sollten, sieht es zappenduster für dieses monolithische Ungetüm aus.

Ich probier das mal anhand des folgenden Beispiels etwas näher zu erläutern:

Der Vollausbau des GA102 wie er bei der RTX3090 zu Einsatz kommt, hat brachiale 10752 Shader
und was bringt ihm dieser Umstand im Vergleich mit Navi 21 am Ende.
Vielleicht 2%. (normiert 5376x2 (10752) vs. 5120) bzw. 7% (normiert 2%) siehe 4K Leistungsindex Computerbase.

in Vergleich mit dem Vollausbau von NAVI 21 mit seinen mickrigen 5120 Shader, wie er bei der RX6900 XT zu Einsatz kommt sind diese 2% fast schon zu vernachlässigen.

(15360 / 18432 x 1.02) x2 = Factor 1.63

Und wieso NVIDIA trotz neuem TSMC 5nm Prozess nicht mit der Taktkeule kommen kann, habe ich bereits zuvor mal probiert auszuführen.
Ohne HBM oder einem riesigen L3 Cache wie er bei AMD bereits im Einsatz ist, bleibt NVIDIA am Ende nur die Wahl zwischen einem energiehungrigen, komplexen GDDR6X, 512Bit SI oder einem 384Bit Speicherbandbreitenkrüppel Interface.

Klar, es tut Dir als designiertem Team-Red Anhänger toootal leid dass Du hier, anhand von Gerüchten, meine "Träume" rauben musst. :lol:

Ich höre seit Jahren 2 Dinge immer und immer wieder:
1. Die neue Konsolen Generation wird den PC obsolet machen.
2. AMD's neue Gen wird Nvidia vom Thron stoßen.

Das ist wie mit den Weltuntergangs-Prophezeiungen, gibt immer wieder ein neues Datum, nur passieren tut da nichts...

Ich würde mich freuen wenn meine nächste Grafikkarte mal von AMD kommt, einfach um meine Geldausgaben auf mehrere Firmen zu verteilen. Dazu muss AMD allerdings im RT Bereich stark aufholen und bei FSR nachbessern mit einem ML-Ansatz.
 

seahawk

Volt-Modder(in)
NV hat sich in eine Sackgasse manövriert. Lovelace wird nur ein Lückenfüller bis sie den Multi-Die-Ansatz von Amd versuchen zu kopieren. Man muss sich nur die brachiale Power von der dreifachen Menge an Shadern bei AMD vorstellen.
 

raPid-81

Software-Overclocker(in)
NV hat sich in eine Sackgasse manövriert. Lovelace wird nur ein Lückenfüller bis sie den Multi-Die-Ansatz von Amd versuchen zu kopieren. Man muss sich nur die brachiale Power von der dreifachen Menge an Shadern bei AMD vorstellen.
Auch das höre ich nicht zum ersten Mal. Der MCM Ansatz muss erst mal zeigen wie gut er funktioniert, bis dahin ist das alles reine Spekulation. Was reine Shader-Zahl angeht wäre NV weiterhin vor AMD, trotz MCM, wenn die Leaks denn so stimmen.
 

seahawk

Volt-Modder(in)
Man sieht ja wie viel effizienter AMD Shader sind. 50% reichen um NV zu schlagen und jetzt stelle man sich das mal 3 vor.
 

raffnix84

Komplett-PC-Käufer(in)
Also AMD gewinnt Immer bei der Sympahtie!

Die karten von AMD sind durchaus konkurrenzfähig ist wen man sich nicht durch unbrauchbare "Sonderausstattungen" wie RayTracing oder DLSS blenden lässt. Ich habe mich aufgrund der Preislage und der Fragwürdigen Entscheidungen durch Nvidia dann doch für AMD entscheiden. Ich fand es auch durchaus Amüsant wie Nvidia seiner Treusten Kundschaft - Gamer die sich die 3090 gekauft haben - erneut in die Kronjuwelen getreten hat und die 3080 Ti raus gebracht hat... Das war wie damals mit der Titan und dann der 2080Ti ... Erst schöne die ungeduldigen Melken und direkt danach die zweite Reihe.

An dieser Stelle Herzlichen Dank an AMD für VRR das du uns Branchen-weit ohne Zusatzmodule und Mehrkosten gebracht hast. Vielen Dank für einen offenen RayTracing Standard und auch vielen Dank für das offene "AMD FidelityFX". Vielen Dank das du unsere Karten nicht künstlich in der Rechenleistung Kastrierst und so tust als ob es gegen Miner helfen würde.

Möge deinen Konkurrenten Ihre Gier und "Exclusivität" im Halse stecken bleiben!
 
Zuletzt bearbeitet:

DaHell63

Volt-Modder(in)
Früher hätte ich mich vielleicht noch über solche Texte aufgeregt...heute amüsiert es mich eher, daß gerade die Leute deren Hardware mal überhaupt nichts mit den neuen Features anfangen können am lautesten krähen was RT/DLSS doch für ein Blendwerk ist.
Bei manchen sitzt der Frust wohl sehr tief.
 

raffnix84

Komplett-PC-Käufer(in)
Also ich finde mit der 3090 TUF GAMING OC und mit der 6900XT Nitro+ habe ich durchaus Hardware bei denen Ich das gut vergleichen kann. Meinem Empfinden nach kann ich den Hype um "RT/DLSS" überhaupt nicht verstehen, es geht einfach so viel Detail verloren da kann man auch direkt in der niedrigeren Auflösung spielen und das sieht meist für mich sogar besser aus. Bei RayTracing wird IMMER außer acht gelassen das die Leveldesigner Lichtquellen Platzieren um eine Grundstimmung zu erreichen. Die Belichtung ist physikalisch vielleicht nicht ganz korrekt aber sie erfüllt Ihren Zweck. Bei RayTracing ist die Belichtung vielleicht Physikalisch korrekt aber der ganze Flair geht verloren und die Räume wirken nicht mehr so wie sie ursprünglich sollten. Es reicht nicht einfach RTX ON... hier muss der Level Designer extrem an den Lichquellen schrauben und ganz genau überlegen welche Gegenstände wo plaziert werden sollten um mit den Reflexionen die ursprüngliche Atmosphäre nach zu bilden.

Beispiel: Dunkle Ecken bei RTX OFF wo furchtsame Kreaturen lauern könnten werden bei RTX ON öfters mal schwach ausgeleuchtet weil die Reflexionen nicht haarklein berücksichtigt wurden. Dadurch das die Ecken jetzt einsehbar sind und man sieht das dort nichts lauert, wird auch keine "Furcht" oder düstere Atmosphäre mehr aufgebaut.

Klar sehen Lens-Flairs und God-Rays schön aus aber die gab es auch schon früher und auch ohne deises "Fancy Dancy" RTX.
 
Oben Unten