Als Radeon RX 7000? 17 neue PCI-IDs von RDNA-2-GPUs gesichtet

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Als Radeon RX 7000? 17 neue PCI-IDs von RDNA-2-GPUs gesichtet

Gleich 17 neue PCI-IDs im Zusammenhang mit RDNA-2-GPUs wurden gesichtet. Handelt es sich hierbei etwa um den vermuteten 6-nm-Refresh für die kommende Radeon-RX-7000-Mittelklasse?

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Als Radeon RX 7000? 17 neue PCI-IDs von RDNA-2-GPUs gesichtet
 
"Eventuell wird AMD, bevor RDNA-3-Grafikkarten auf den Markt kommen, auch das bestehende Portfolio in Gänze noch einmal als verbesserte Version auflegen - ähnlich der im Raum stehenden RTX-30-Super-Generation."

Würde ich genau in der Form herzlich begrüßen :daumen:

MfG Föhn.
 
IdR wird der durch die kleineren Strukturen gewonnene Platz ja für mehr Recheneinheiten genutzt. Wenn sie kleine würden, hieße das ja wahrscheinlich Stillstand bei der Leistung. Das wäre alles andere als wünschenswert. Jedenfalls wenn du dich auf die 7000er beziehst.
 
Ich beziehe mich auf die 7nm RDNA2-GPUs, die auf 6nm portiert werden sollen.

Von Raven Ridge auf Picasso hat AMD ja aus Kostengründen auf eine Flächenreduktion verzichtet.
Jetzt bei der Waferknappheit, könnte sich eine Verkleinerung aber rechnen, weil man mehr GPUs pro Wafer erhält.
 
Wenn es denn so kommt. Noch ist das ja nicht sicher. Ich stimme dir zu, dass es für AMD sinnvoll sein könnte, nur fehlt dazu ja noch offizielles.
 
Ein frühzeitiger Port von RDNA2 auf den N6 wäre nur unter einer Bedigungen wirtschaftlich sinnvoll: In dem Fall, in dem RDNA3 ausschließlich die Top-GPUs abdeckt und man plant Low/Midrange auch das ganze nächste Jahr hindurch mit RNDA2 abzudecken.
Andernfalls würde der Wechsel auf den N6 zu viele zusätzliche Kosten verursachen, denn aktuell hat man schon ausreichend Probleme RDNA2 überhaupt in den Markt zu bekommen und da verschlechtern zusätzliche Kosten die Wirtschaftlichkeit des Projekts nur.
Man darf durchaus gespannt sein. Im einfachsten Fall würde ich hier erwarten, dass man nur ein wenig die Specs der einzelnen Modelle auf den Bestandsdesigns umherschiebt um was vermeintlich "Neues" bewerben zu können. Käme tatsächlich der N6, würde ich eher erstgenanntes Szenario erwarten.

*) Ergänzend: Altuell weiß man noch nicht einmal, mit was RDNA3 gefertigt wird. Übereifrige Fans gehen zwar wie selbstverständlich von 5nm aus, gesichert ist das jedoch noch keinesfalls. Es könnte auch hier durchaus sein, dass AMD aus Kosten- (und/oder Kapazitäts-) Gründen auf 6nm fertigen wird.

**) Der N6 kann nicht übermäßig viel dichter als der N7 packen. Zudem, wird der natürlich teuerer als der N7 sein. Es ist also durchaus möglich, dass sich das rein unter diesem Gesichtpunkt überhaupt nicht lohnt hier (frühzeitig) zu portieren.
 
Altuell weiß man noch nicht einmal, mit was RDNA3 gefertigt wird. Übereifrige Fans gehen zwar wie selbstverständlich von 5nm aus, gesichert ist das jedoch noch keinesfalls. Es könnte auch hier durchaus sein, dass AMD aus Kosten- (und/oder Kapazitäts-) Gründen auf 6nm fertigen wird.
Nach aktuellem Gerüchtestand:
N31+N32: GCDs in 5nm + MCDs in 6nm
N33 monolithisch 6nm
darunter RDNA2 Refresh 6nm ?
 
Wie du schon schriebst: "Gerüchtestand". ;-) Und nicht etwa der Stand, der schon seit vielen Monaten immer und immer wieder (re)zitiert wird, sondern das waren die ersten Gerüchte überhaupt hierzu, entsprechend sollte man das erst mal mit einer gewissen Vorsicht aufnehmen. Irgendwas im Bereich N6/N5 gesichert. ;-)
Gilt für nVidia gleichermaßen ... ob hier für Lovelace der N5(P) tatsächlich gesichert ist, bleibt abzuwarten. Da es sich hier angeblich um ein monolithisches Design handeln soll, dürfte hier jedoch tatsächlich mehr für einen 5nm-Prozess als für den N6 sprechen, denn das würde ansonsten schon alleine größtentechnisch (und damit auch Yield-technisch) ein Problem werden.
Einzig bei Intel weiß man gesichert, dass die im N6 fertigen, da die das schon offiziell bestätigt haben.
 
Ein frühzeitiger Port von RDNA2 auf den N6 wäre nur unter einer Bedigungen wirtschaftlich sinnvoll: In dem Fall, in dem RDNA3 ausschließlich die Top-GPUs abdeckt und man plant Low/Midrange auch das ganze nächste Jahr hindurch mit RNDA2 abzudecken.
Andernfalls würde der Wechsel auf den N6 zu viele zusätzliche Kosten verursachen, denn aktuell hat man schon ausreichend Probleme RDNA2 überhaupt in den Markt zu bekommen und da verschlechtern zusätzliche Kosten die Wirtschaftlichkeit des Projekts nur.
Man darf durchaus gespannt sein. Im einfachsten Fall würde ich hier erwarten, dass man nur ein wenig die Specs der einzelnen Modelle auf den Bestandsdesigns umherschiebt um was vermeintlich "Neues" bewerben zu können. Käme tatsächlich der N6, würde ich eher erstgenanntes Szenario erwarten.
Eigentlich reicht es schon wenn man AMD mit dem N6 mehr Kapazität für die GPUs erhält. Man schafft es bis heute nicht Ansatzweise den Markt ausreichend zu bedienen was zu hohen Preisen führt. An denen Verdient man aber nur indirekt durch die Nachfrage mit. Man lässt also ne Menge Umsatz liegen.
 
Ich fände es durchaus interessant. Eventuell ja die gleiche Grafikkarte (Leistung) mit dann z.B. 10-20% weniger Stromverbrauch. Dann hätte man Einstiegskarten/Mittelklasse und würde oberhalb etwas Neues bringen mit mehr Leistung.
 
@Bl4ckR4v3n: Der N6 und N7 werden weitestgehend die gleichen Ressourcen bei TSMC nutzen. Der N6 verwendet nur 5 EUV-Lagen, der Rest wird weiterhin mittels DUV belichtet. Entsprechend differenzieren hier TSMC und auch Analysten nicht, wenn sie bei TSMC von 7 nm-Kapazitäten bzgl. wafer per months sprechen.
Wie viel im nächsten Jahr auf den 7nm freiwerden wird, kann man schwer abschätzen. Einerseits werden bekannte Größen mit Topprodukten zu 5 nm wechseln, andererseits werden ihre Midrange-Produkte ggf. auf die 7 nm-Prozesse wechseln, sowie nun vielleicht auch etliche andere kleinere Kunden nun erstmals kleinere Kapazitäten in 7 nm buchen werden. Hier wird man einfach abwarten müssen wie sich das entwickelt.
Das einzige, was man hier aktuell gesichert weiß, ist, dass es bei TSMC <= 7nm ab dem nächsten Jahr grundsätzlich +10 % teuerer werden soll für deren Kunden.
 
Das kann ähnlich wie bei RX580-->RX590 "ohne" extra Aufwand erfolgen = sinnvoll.
...wird halt nur effizienter und höher taktbar

zzgl. schnellerem Vram 18Gbps ?
 
Spricht ja nichts dagegegen, die aktuellen 6800er demnächst als Fertigungsshrink mit weniger Leistungsaufnahme und einfacherer Kühlung günstiger zu verkaufen.
Ist halt einfach eine Preissache.
Wenn die Chipletfertigung zu stromhungrig und zu teuer ausfällt, kann man ggf. damit ja leben.
Aber solange die Preise dermaßen hoch sind, kaufe ich mir eh nichts mehr.
Spiele ich halt nur noch Indie Titel und dann später mal einige Triple-A Spiele vom Grabbeltisch.
Da ich mit Online-Multiplayer-Titel aufgehört habe, ist der Zeitversatz absolut egal.
 
Ich bin inzwischen froh darüber, standhaft geblieben zu sein, und keine neue Grafikkarte angeschafft zu haben. Das Geld für einen neuen Gaming PC hatte ich längst zusammengespart, und inzwischen gibt es ja sogar Komplett PCs mit RTX3080 und i10700K CPU wie den HP Omen GT13 für deutlich unter 2000 €.

Aber so richtig rund ist keine GPU der aktuellen Generation. Das altbekannte Problem des Speichermangels bei NVIDIA bleibt ebenso bestehen, wie das Fehlen einer ernsthaften DLSS Konkurrenz bei AMD, zumindest solange GTA und RDR2 FidelityFX Super Resolution nicht unterstützen.

Nun warte ich lieber bis zur nächsten Gen, zumal gerade Lovelace ja einen deutlichen Leistungszuwachs gegenüber Ampere bringen soll. In Anbetracht der NextGen Konsolen und dem Leistungshunger der kommenden Spiele würde ich mich mit einer 3080 in Sachen Zukunftssicherheit unwohl fühlen, wenn die Karte wieder 5 Jahre im Einsatz bleiben soll.

Bis dahin reicht die gute, alte 980 Ti. Sie wandelt auf den Spuren des VW Käfers, und läuft, und läuft, und läuft....
 
Ein Wechsel auf N6 hätte theoretisch (nur) 2 Vorteile: vorraussichtlich höhere Taktbarkeit und etwas geringerer Verbrauch. Gegen eine RTX 30 Super könnte das sogar ausreichen, wenn man die geringere RT-Leistung aussen vor lässt, dort ist vor allem Verbrauch ein zu großes Thema und eine mögliche 10% Reduktion würde einen enormen Vorteil bedeuten und diese GPUs auch für den Mobile-Bereich interessanter machen, als bisher, da bisher der Verbrauchsvorteil zwar vorhanden aber auch zu gering war...
Aber noch halte ich einen Refresh der Navi21 für eher unwahrscheinlich, Navi22 und 23 wird es wohl sicher geben, mit etwas höherem Takt und geringerem Verbrauch würde ein RX6800M-Nachfolger, wie immer der dann auch heißen möge, bei vielleicht 150 Watt auf 2.500 MHz kommen können und somit für den Mobile-Markt interessanter sein, als jedes Konkurrenzprodukt (ausser Highend-Gaming)...
 
Ja, die Karte ist iwie ein dauerbrenner. Wahnsinn in wie vielen Systemen die noch im Einsatz ist und spielbare FPS raushaut, in FHD...
Absolut. Immerhin hatte sie auch schon 6 GB RAM. RDR2 ist mein leistungshungrigstes Game, und da schafft sie bei 2560x1440 und einem User Preset mit teils mittleren und teils hohen Einstellungen immer noch im Benchmark durchschnittlich um die 50 FPS. Und Energie spart sie nebenbei auch noch.
Wichtig ist doch nur: Die Grafik sieht gut aus, und das Game ist halbwegs flüssig spielbar.

Ich gebe gerne Geld für HW aus, sofern sie mir einen echten nachhaltigen Mehrwert bietet.
Aber das Geld ist zu schwer verdient, um jetzt beispielsweise nur aus Prestigegründen ein Galaxy Z Fold 3 Smartphone zu kaufen, um dann doch nur wieder WhatsApp, YT und Netflix über WLan zu nutzen, weil beispielsweise ein mobiler unlimited Datentarif der Telekom mit fast 100 €/Monat zu Buche schlägt.

Und ähnlich skeptisch sehe ich die 10 GB der 3080. In zwei bis drei Jahren ärgert man sich schwarz, weil die Karte nicht mehr wirklich konkurrenzfähig ist. Bei normalen UVPs wäre das in Ordnung gewesen, aber nicht bei erhöhten HW Preisen.

Ich verurteile aber keine Enthusiasten, denen immer das Maximum des Machbaren wichtig ist, und die gerne ihr Geld dafür ausgeben. Jeder nach seiner Fasson. :)
 
Zurück