Radeon RX 7000: Flaggschiff mit 2,5-facher Leistung, 160 CUs und Chiplet-Design?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Radeon RX 7000: Flaggschiff mit 2,5-facher Leistung, 160 CUs und Chiplet-Design?

Leaker sind der Meinung, dass AMD bei RDNA 3 (mutmaßlich als Radeon-RX-7000-Serie) einen riesigen Sprung nach vorn macht. Während Navi 33 wie schon Navi 21 auf 80 Compute Units setzen soll, erhöht AMD bei Navi 31 mittels Chiplet-Aufbau angeblich auf 160 CUs. Die Performance steige um den Faktor 2,5.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Radeon RX 7000: Flaggschiff mit 2,5-facher Leistung, 160 CUs und Chiplet-Design?
 
AMD zielt auf 160 CUs in 2 Chiplets +RDNA3, NVidia auf monolithische 144 CUs + "AmpereNext". Beide wohl irgendwo in 5-6nm Fertigungen.

Die x2,5 an Performance dürften zwar ziemlich sicher nur theoretischer Natur sein aber in dieser Generation bestünde durchaus die Chance mal wieder einen echten Sprung hinzulegen weil neue Architekturen gleichzeitig mit neuer Fertigung und großem Konkurrenzdruck anstehen. Wenns gut läuft könnten da am Ende +80% reale Mehrleistung bei ähnlichen Randbedingungen anliegen was wir so schon viele Jahre nicht mehr gesehen haben.
 
Sind 2 Chiplets eigentlich gleichzusetzen mit SLI/CF?
Hat man also die selben Probleme bezüglich Microruckler zu befürchten?
Und zu guter letzt: 2 Chiplets bedeutet dann vermutlich auch noch höherer Stromverbrauch?
 
Sind 2 Chiplets eigentlich gleichzusetzen mit SLI/CF? Hat man also die selben Probleme bezüglich Microruckler zu befürchten?
Theoretisch ja. Aber da die Verbindungswege sehr viel kleiner sind als bei SLI können die Chiplets mit viel höherer Bandbreite und viel kleineren Latenzen kommunizieren. Theroetisch sollten sich SLI typische Probleme damit minimieren lassen bis zu einem Punkt wos nicht mehr auffällt dass es eigentlich zwei GPUs sind. Wie gut das am Ende umgesetzt ist muss AMD aber erst zeigen.
 
"Faktor 2,5. In puncto Raytracing soll auf die Konkurrenz nahezu aufgeschlossen werden."
hm.....
Was auch immer dieses aufschließen heist?
Zur 3080? 3090?
Zu next Ampere wahrscheinlich eher nicht.
Ratracing wird wohl nicht weniger werden in 1 bis 2 Jahren. Eher immer wichtiger und mir reichte schon die Raytracing Leistung der 3080 bei weitem nicht aus.
Eine 2,5 fache Steigerung der Raytracing Leistung wäre wirklich krass. Da kann die Rohleistung auch niederiger ausfallen.
 
Wer es glaubt wird selig! Was soll die Karte alleine ziehen? 600W---700W?
Da kann man auch 2x3090 zusammenschalten und dann die doppelte Leistung mit 1KW genießen. AMD hat ja das Rad auch nicht erfunden, würde mich schwer beeindrucken wenn sie diese Leistung im 300-350W hin bekämen!
Außerdem wenn der ganze Spass dann 2000-3000 kostet ist es total uninteressant für die breite Masse, da würden selbst Enthusiasten schlucken!
 
Theoretisch ja. Aber da die Verbindungswege sehr viel kleiner sind als bei SLI können die Chiplets mit viel höherer Bandbreite und viel kleineren Latenzen kommunizieren. Theroetisch sollten sich SLI typische Probleme damit minimieren lassen bis zu einem Punkt wos nicht mehr auffällt dass es eigentlich zwei GPUs sind. Wie gut das am Ende umgesetzt ist muss AMD aber erst zeigen.

Jein. SLI/CF fungieren als sep. GPUs, werden so auch erkannt und müssen über das OS gemanaged werden.

Mit Chiplet Design wird der Interconnect zwischen den 2 Dies über das PCB direkt über eine Schaltungslogik hergestellt und erscheint als 1ne GPU. Wenn die Latenzen zwischen den einzelnen Chiplets so niedrig sind und der Datenaustausch so gut und mit gleicher Geschw. wie nur auf einem einzigen Die funktioniert, dann hast du am Ende nur die Anzahl der CUs erhöht, erhöhst die Ausbeute (wie jetzt schon bei AMD CPUs) und deine Leistung geht einmal direkt durch die Decke.
Microruckler oder ähnliches sollte es dann bestenfalls gar nicht mehr geben, für dich als Nutzer ist das eine GPU, fertig.

Wenn AMD das echt schafft, respekt, wenn man die Effizienz um 40% erhöhte könnte man mit 500W in nächster Gen wirklich so ein Monster herstellen.
Bin gespannt was NVs Antwort darauf ist, wenn NV nicht ähnliche Power auf die Straße bringt dann werden sie - sollte es von AMD so kommen - einfach überrollt, eine RTX4000 ohne Chiplet oder riesigen Die hätte keine - absolut keine - Chance dagegen.

Aber wer weiß, zur Zeit der 8800GTX hatte in dem Jahr auch niemand gedacht, dass NV direkt auf Unified Shader umschwenkt und wir wissen alle noch was das für ein Moment war als der Chip präsentiert wurde :ugly: (mir stellen sich immer noch die Nackenhaare, wenn ich an den Benchmarkbalken denke :hail:)
 
Eine 2,5 fache Steigerung der Raytracing Leistung wäre wirklich krass. Da kann die Rohleistung auch niederiger ausfallen.
Tatsächlich wäre das eigentlich sogar am leichtesten zu erreichen. Dafür müssten sie einfach nur ein oder mehrere Raytracing-Chiplets neben ein normales GPU-Chiplet packen.
Zwei identische GPU-Chiplets sinnvoll kooperieren zu lassen ist viel anspruchsvoller.
Wer es glaubt wird selig! Was soll die Karte alleine ziehen? 600W---700W?
Da kann man auch 2x3090 zusammenschalten und dann die doppelte Leistung mit 1KW genießen. AMD hat ja das Rad auch nicht erfunden, würde mich schwer beeindrucken wenn sie diese Leistung im 300-350W hin bekämen!
Außerdem wenn der ganze Spass dann 2000-3000 kostet ist es total uninteressant für die breite Masse, da würden selbst Enthusiasten schlucken!
Wenn die Chiplets in 5nm EUV gefertigt würden (prinzipiell teuer, dafür hätten die einzelnen Chiplets dann halt eine geringe Fläche) und HBM 2E (prinzipiell teuer, dafür gäbe es dann halt kurze PCBs) zum Einsatz käme, könnte das normale 250W-Gefilde sogar wieder erreicht werden . Ich bezweifele allerdings, dass eine Rückkehr dorthin von AMD oder Nvidia gewünscht ist...
 
Zuletzt bearbeitet:
Naja, bei AMD fehlt es am "Gesamtpaket", weshalb ich da Nvidia deutlich vorne sehe und entsprechend hole.
Software sells Hardware :ugly:

Naja, G-Sync = VRR
Ansonsten, bitte nenne die Software, welche du bei AMD im Gesamtpaket vermisst?!

Das ABSOLUT EINZIGE was ich hier gleich mal aufführe wäre DLSS. AMDs Pendant gibt es da noch nicht.
Ansonsten gibts keinen Grund NICHT auf AMD zu setzen.
 
Wenn AMD das echt schafft, respekt, wenn man die Effizienz um 40% erhöhte könnte man mit 500W in nächster Gen wirklich so ein Monster herstellen.
Bin gespannt was NVs Antwort darauf ist, wenn NV nicht ähnliche Power auf die Straße bringt dann werden sie - sollte es von AMD so kommen - einfach überrollt, eine RTX4000 ohne Chiplet oder riesigen Die hätte keine - absolut keine - Chance dagegen.
Ist es nicht sogar schon bekannt, dass die RTX4000 auch auf ein Chiplet-Design setzt? Offiziell wurde das zwar nie bestätigt, aber meine, dass das wohl ein offenes Geheimnis wäre.
 
Naja, G-Sync = VRR
Ansonsten, bitte nenne die Software, welche du bei AMD im Gesamtpaket vermisst?!

Das ABSOLUT EINZIGE was ich hier gleich mal aufführe wäre DLSS. AMDs Pendant gibt es da noch nicht.
Ansonsten gibts keinen Grund NICHT auf AMD zu setzen.
DLSS ist per se schon ein sehr gewichtiger Grund für Pancake Gaming.

Für VR muss man sagen dass AMD die Performance weit schlechter auf die Straße bekommt als nVidia und das schon seit Jahren.

Sind für mich zusammen die beiden Punkte warum es diesmal eine 3090 und keine 6900XT wurde, selbst wenn die Rohleistung der 6900XT der 3090 entsprochen hätte.
 
Ist es nicht sogar schon bekannt, dass die RTX4000 auch auf ein Chiplet-Design setzt? Offiziell wurde das zwar nie bestätigt, aber meine, dass das wohl ein offenes Geheimnis wäre.

Wird aktuell meines Wissens noch weniger darüber spekuliert wie bei AMD.
Nach den schlechten Yields bei Samsung für Ampere kann ich mir aber schon vorstellen, dass NV schnellstmöglich auf MCM möchte, MCM ist ja nicht nur oft für die Leistung besser, wenn es denn gut mit der Verbindung intern klappt, sondern auch für die Chipausbeute generell viel besser.
Aber ja - könnte gut sein, NV hat immerhin viel zugekauftes Wissen Inhouse mit Mellanox.
 
Technisch seitens AMD der logische Schritt in diese Richtung zu forschen/entwickeln, Ich bin nur gespannt was am Ende für Werte bei der Leistungsaufnahme und der entsprechenden Leistungsabgabe (FPS) unterm Strich stehen. Alles bis 400 bsi 450 W wäre nach heutigen Masstäben der Knaller.
Software Features wie DLSS und RT sind die zweite große Unbekannte da noch nichts von AMD verfügbar ist.

Ich freu mich drauf. So spannend war es seit Jahren nicht mehr Dank Nvidia mit ihrem RT/DLSS Vorstoss und Dank AMD da diese Leistungstechnisch bei der Rasterisierungsleistung ebenbürtig sind. Weiter so!
 
Für VR muss man sagen dass AMD die Performance weit schlechter auf die Straße bekommt als nVidia und das schon seit Jahren.

Sind für mich zusammen die beiden Punkte warum es diesmal eine 3090 und keine 6900XT wurde, selbst wenn die Rohleistung der 6900XT der 3090 entsprochen hätte.

Ja stimmt, war bei mir auch der Grund - DLSS war einfach "Kriegsentscheidend"^^.

VR hatte ich mal die Valve Index, kann damit nichts anfangen, die Auflösung ist miserabel und die Kabel stören mich, bis auf HL Alyx gibts auch keine Blockbuster die mich reizen würden, aber ok, da bin ich nicht drin wie sich AMD Karten verhalten.

Ja gut, Semiprofessional Märkte mal außen vor, es gibt auch Leute, welche die Karte nicht für prof. Anwendungen verwenden, sondern NUR fürs Gaming.

NV pumpt aber in den prof. Markt wesentlich mehr Geld rein was Softwareentwicklung anbetrifft als AMD, ist also was den "Erfolg" anbetrifft auch nicht verwunderlich.
 
Zurück