RDNA 2 und Zen 3: AMD bestätigt Fahrplan für Vorstellung

Nvidia kann jetzt in aller Ruhe 3060-6GB, 3070-8GB und 3080-10GB durchverkaufen und dann ab April den Refresh mit 12, 16 und 20 GB angehen.

Das denke ich auch, Nvidia wird definitiv noch Versionen mit mehr RAM bringen, und der Zeitpunkt nach BigNavi ist doch perfekt. Dann kann man den ganzen Nvidia Frühkäufern in 2 Monaten noch einmal Geld aus der Tasche ziehen. Marketing at it's best :ugly:

Nach der News werde ich nun auf jeden Fall warten was BN bringt und was Nvidia dann mit den Ti Versionen als Konter platziert. Bis dahin werde ich mich dann mit der Plattform beschäftigen und das System auf 2020 bringen.
 
Effizienz ist keine IPC.

Danke, dass du genau meine Vermutung bestätigst :haha:

In dem Zusammenhang gibt es da schon eine direkte Verbindung, da der Fertigungsprozess nahezu unverändert bleibt, kann eine Effizienzsteigerung ja nur über eine entsprechende IPC Steigerung erfolgen, da in einem unveränderten Fertigungsprozess es doch sehr verwunderlich wäre, wenn höherer Takt zu einer besseren Effizienz führen würde.

(IPC bezogen auf den Chip nicht auf die einzelne SM -> also einfach eine Verbreiterung der Architektur)
 
Zuletzt bearbeitet:
Ist doch exakt, dass was man aus diesem "Gerücht" (Fake) ableiten kann.

50% mehr Effizienz und ein verbesserter und verdoppleter 5700XT -> Das wäre exakt dieses 80CU Ding mit ~2+ facher 5700 Leistung mit 16GB bei 275W.

50% mehr Effizienz unterstellt und das mal 2 mit 16GB sollten aber auch schon 310-320W sein ;).
Doppelte 5700XT Leistung wäre ja noch gut 15-20% hinter dem, was man aktuell von einer 3080 erwarten kann. Da muss AMD mit RDNA 2 schon noch mächtig Steigerung bringen. Aber theoretisch natürlich möglich. Man hat sich ja lange genug ausgeruht und sich in der letzten Runde, das Geld für dicke Chips gespart...
 
Na endlich kommt mal was:)
Mein neuer UWQHD bekommt endlich ne neue Grakka:)

na ich hoffe auf 3080~ mit 16 gb... und ehrlich gesagt unter 300Watt... das Zimmerchen wird irgendwann einfach zu Warm=)
 
Sehe ich da richtig, dass beim n21 HBM zum Einsatz kommt?
Ansonsten, MCM sollte gerade bei AMD bestens funktionieren, da sie dieses Design by Ryzen durchziehen und reichlich Erfahrung damit haben. Der Fertigungsvorteil gegenüber Nvidia wäre beachtlich.
 
In dem Zusammenhang gibt es da schon eine direkte Verbindung
Nein, gibt es nicht.

da in einem unveränderten Fertigungsprozess es doch sehr verwunderlich wäre, wenn höherer Takt zu einer besseren Effizienz führen würde.
Falsch. Höheres P/W kann bei einer identischen IPC einfach nur bedeuten, dass diese Berechnungen effizienter durchgeführt werden. Dabei bleiben Takt und IPC identisch, nur die Leistungsaufnahme sinkt -> Höhere Effizienz.

Daher zeugt deine ganze Aussage von null Verständnis.

Ausgehend von Navi10 bei 1,9 GHz kämen deine Werte (2*Chip + 50% IPC + 2GHz) auf den Faktor 3,15x für BigNavi (2 * 1,5 * (1,9/2,0) = 3,15). Das ist natürlich komplett unrealistisch und Bullshit.

Der Chip würde auch über 450W aufnehmen, da er ja keinen P/W Vorteil hat :ugly:

Ansonsten, MCM sollte gerade bei AMD bestens funktionieren, da sie dieses Design by Ryzen durchziehen und reichlich Erfahrung damit haben.
Nur ist MCM bei CPUs viel viel viel viel viel viel viel einfacher als bei GPUs.
 
So die effizienz beweis kommt von der xbox sx
diese hat 180w gpu mit vram
52cu aktiv
navi10 40cu 225w
180/52*40=138
225/138=1,63

Also etwa 63% effizienz vorteil
Die 50% sind noch konservativ
180/52*80=276w bei 1,825ghz
276/1,825*2,1=318w
Und das ist mit 16gb mit nur 12gb vram sidn das minus 15w
also hat die rx6900 etwa 303w tbp und läuft um die 0,9v
 
Falsch. Höheres P/W kann bei einer identischen IPC einfach nur bedeuten, dass diese Berechnungen effizienter durchgeführt werden. Dabei bleiben Takt und IPC identisch, nur die Leistungsaufnahme sinkt -> Höhere Effizienz.
Wenn man es auf den gesammtne Chip bezieht und nicht auf die einzelne Recheneinheit, kann ich dann aber auch entscheiden die Leistungsaufnahme konstant zu halten und dafür mehr Recheneinheiten einzubauen -> höhere IPC.
 
Kein HBM. Der Vorteil brachte ihnen nicht viel gegen Nvidia siehe 7nm vs 16nm auch sind die NM werte nur Marketing.
Was ist dein Problem? Warum so getriggert? Chill doch mal:bier:
Jetzt nüchtern:
1. MCM haben ein Problem mit den Latenzen, Ryzen bekommt es aber vorbildlich hin mit ihrem L3 Cache System. Dasselbe gilt für n21 auf der Folie, mehr Cache.
2. Nicht HBM war in der Vergangenheit das Problem, sondern zu schwache Chips. Nicht umsonst verbaut Nvidia bei ihren HPC VGAs nutzlosen HBM-Speicher. Weißt du was nutzlos ist? Einen geilen Chip wie RTX 3070 mit lahmen GDDR6 Chips zu versorgen, damit er künstlich an der Bandbreite erstickt.
 
Zuletzt bearbeitet von einem Moderator:
"Sie sollen das Beste für Radeon-Spieler auf der ganzen Welt hervorbringen." Impliziert dies, dass man bereits andeutet, nicht voll gegen die Leistung der Ampere-Karten anzukommen?
Ich find's manchmal nur zum Kopfschütteln, was in solche banalen Aussagen unbedingt hineininterpretiert werden muss. Was soll AMD denn schreiben? Das beste für Geforce Spieler? Wäre ja ziemlich unsinnig, wenn man eben Radeons verkauft. Oder nur das beste für Spieler? Da kämen doch sofort wieder die notorischen Kritiker aus ihren Löchern gekrochen und würden AMD am Ende Überheblichkeit und Falschaussagen unterstellen, wenn die Top Big Navi Karte eben nicht die schnellste Karte ist. Egal was AMD macht, für einige ist es halt immer irgendwie falsch. Wie bescheuert solche Unterstellungen auch sein mögen. Ich finde an der Aussage von AMD nichts verkehrt. Man gibt sich optimistisch und unterstreicht die eigene Marke. Mehr würde ich nicht erwarten und auch nicht hineininterpretieren.


@topic

Schon lustig was hier von einigen Nvidia Anhängern zum besten gegeben wird. Wegen einem Launch 1-2 Monate später als die Konkurrenz erfolgt sofort der Abgesang von AMD. Der Drops ist gelutscht, schon klar. :schief: Als ob die Early Adopters des eh relativ begrenzten Marktes irgendeine grosse Bedeutung hätten. Nur mal zur Erinnerung, Fermi erschien seinerzeit erst ein halbes Jahr später. Der nicht mehr ganz so verkackte Refresh sogar über ein Jahr. Ist Nvidia daran zugrunde gegangen? Nicht wirklich. Für die meisten Aufrüster dürfte eh erstmal die 3070 die interessanteste Karte sein. Quasi 2080 Ti Performance für diejenigen, die sich bisher keine leisten konnten oder wollten. Und die 3070 ist erst für Oktober angekündigt. In den kommenden 1-2 Wochen wird die also vermutlich auch nicht nicht erhältlich sein.

Oder dann die üblichen Unterstellungen, Paperlaunch bla bla. Haben sich diese Leute denn überhaupt mal die letzten Launches von AMD angeschaut? Von Paperlaunch war da nicht viel zu sehen. Das einzige, was AMD im Nachhinein eingeräumt hat, dass man die Nachfrage teilweise unterschätzt und nicht mit ausreichend Kapazitäten vorgesorgt hat. Da hat man aber schon vor einem Jahr entsprechend reagiert, so dass bei zukünftigen 7nm Produkten mit weniger Engpässen zu rechnen ist. Die potenziellen Nvidia Käufer sollten lieber mal aufpassen, dass Ampere am Ende kein Papiertiger wird. 8nm von Samsung (aka 10nm+) ist für die neu. Ob das alles so reibungslos läuft, ist auch noch lange nicht gesichert. Gibt ja durchaus Gerüchte, die von tatsächlicher Ampere Verfügbarkeit erst im kommenden Jahr sprechen. Und dann noch die Spekulationen um einen neuen Mining Boom. Wobei man darauf genauso wenig geben muss.

Oder Aussagen wie "Fiji 2.0 Debakel". Da merkt man förmlich wie unwissend einige sind. Oder sich vielleicht einfach nur einreden wollen, dass RDNA 2 schlecht wird. Weil Ampere doch mehr und mehr überhyped ausschaut und den grossspurigen Ankündigungen (3080 = 2x 2080) nicht gerecht zu werden scheint? Den bisherigen Leaks zufolge werden es wohl eher +70% statt +100% gegenüber einer 2080 (Non-Super). Und das obwohl Nvidia die TDP schon um fast 50% angehoben hat (320W statt 215W). Ganz ehrlich, im Moment schaut Ampere für mich mehr nach Fermi 2.0 aus als RDNA 2 nach Fiji 2.0.

Und dann noch die ach so vielen und tollen Features, die Nvidia angeblich mehr haben soll, in der Realität aber nicht existieren und pure Augenwischerei ist. Nvidia soll erstmal zusehen, dass sie ihre Treiber unter Linux in den Griff bekommen. Damit hab ich mich schon genug rumärgern müssen. Und nein, DLSS als potenzieller Bildqualitätverschlechterer ist für mich kein Kaufgrund. Die Karte muss erstmal gut sein auch ohne DLSS. Speziell da DLSS vom Spiel explizit unterstützt werden muss. Wobei AMD ja was ähnliches in der Schublade haben soll. Das wird also früher oder später eh als Argument wegfallen.

Ich sehe RDNA 2 so positiv wie schon lange keine Grafikkartengeneration mehr. Also generell und nicht nur was AMD betrifft. Mit älteren GCN Generationen ist das auch nicht wirklich vergleichbar. GCN war immer eine Hybridarchitektur, die nicht nur für Spiele konzipiert wurde, sondern eben auch für professionelle Zwecke. Da musste man zwangsläufig Kompromisse eingehen. Lustigerweise geht Ampere genau in diese Richtung. Also mehr Shader, aber weniger Effizienz pro Shader in Spielen. Wurde ja schon im Vorfeld gemunkelt, dass Ampere eher für Datencenter entwickelt wurde als für Spieler. Scheint sich mehr und mehr zu bestätigen. Mit der Aufteilung in RDNA für Gaming und CDNA für Datencenter ist AMD jedenfalls jetzt in einer anderen Position als mit GCN. Zumal auch die Entwicklungsabteilungen anders koordiniert werden. Z.B wurden Zen Entwickler auch für die Grafikabteilung eingesetzt, um z.B. die Effizienz zu verbessern. Die erste RDNA Generation war noch sowas wie ein Testlauf, mit lediglich Mainstream Designs und ohne unnötige Risiken wie RT. Es war klar, dass RDNA 2 demgegenüber wesentlich mehr bieten wird. Und was man auf den Next Gen Konsolen bisher sehen konnte, war schon recht beeindruckend. Ist allerdings nicht hundertprozentig vergleichbar mit den kommenden Grafikkarten, da die Konsolen-SoCs Custom-Designs sind. Zumal hier immer auf die vorhandene Hardware, also RDNA 2, optimiert wird. Bei Desktops wird Nvidia sicherlich auch weiterhin hier und da Vorteile aufgrund der Geforce spezifischen Anpassungen haben, egal wie gut RDNA 2 wird. Und ob man 1-2 Monate später launcht als die Konkurrenz, wen interessiert's? Eine Generation ist nicht nur 1-2 Monate aktuell. Early Adopters sind eh die, die sich am Ende über Fehlkäufe am meisten ärgern. Man stelle sich eine 3080 mit 16 GB VRAM 1-2 Monate später vor, die dann für $749 angeboten wird, während die 10 GB 3080 auf $649 gesenkt wird. Will nicht wissen wie viele 3080 Erstkäufer dann angepisst sind. Mich persönlich interessieren aber eh nur kleinere Designs und nicht die Topkarten. Am besten eine Karte mit maximal 75W TDP. Werde ich aber vermutlich leider wieder nicht bekommen. Und dass man mit einer 3090 bezüglich Performance konkurrieren kann, davon gehe ich nicht aus. Das muss AMD aber auch gar nicht. 3090 ist einfach nur Brechstange zu Mondpreisen. Für den Markt ziemlich irrelevant. Für alles darunter sehe ich keinen Grund, warum RDNA 2 nicht konkurrenzfähig sein sollte, bezüglich Performance, Effizienz und Preis. Am Ende können das nur ausführliche Tests zeigen. Ich bin mir aber zumindest sicher, dass RDNA 2 ein wichtiger Schritt für AMD in die richtige Richtung wird. Und halt nicht der letzte. RDNA steht praktisch immer noch ziemlich am Anfang der Entwicklung. Also einfach mal positiv denken und nicht schon im Vorfeld immer alles niedermachen. Mehr Konkurrenz ist für uns Endkunden immer besser.
 
Toll, bitte mal ein Bild von deiner 3070, die du offensichtlich schon getestet haben musst für diese Aussage :daumen:
Du bist doch unser selbsternannter Chipexperte. Rechne doch bitte vor, was 256bit und GDDR6 mit 14GBs als Bandbreite hergeben. Das soll dann schneller als eine 2080 Ti sein, von der Leistung her. Nur Schafe mit seinen unzähligen Multiaccounts glaubte ans endlose Komprimieren seitens Nvidia. Ab der Turing-Reihe hat auch Komprimierung seine Grenzen.
 
Ich bräuchte meinerseits garkeine High End Karte.
Für meine Spiele reicht meine GTX 1080 auch noch locker aus.
Mich würde eine RDNA2 Karte mit RTX 2080ti Leistung für 400€ viel mehr reizen.
Kaufen werd ich mir auf jedenfall eine und für mich steht auch schon fest das mein PC komplett auf AMD setzt, muss den Underdog doch unterstützen. ?
 
Das denke ich auch, Nvidia wird definitiv noch Versionen mit mehr RAM bringen, und der Zeitpunkt nach BigNavi ist doch perfekt. Dann kann man den ganzen Nvidia Frühkäufern in 2 Monaten noch einmal Geld aus der Tasche ziehen. Marketing at it's best :ugly:

Nach der News werde ich nun auf jeden Fall warten was BN bringt und was Nvidia dann mit den Ti Versionen als Konter platziert. Bis dahin werde ich mich dann mit der Plattform beschäftigen und das System auf 2020 bringen.

Als ob das jemals in der Technik Welt anders war. Das hat mit Marketing gar nichts zu tun. Und solche Käufe macht auch keiner. Dann kann man gleich die 3090 holen statt 2 mal 3080.
 
Die xsx ist mehr ein 2 chip design als eine apu
da diese mit den desktop apu nix zu tun haben und ein gddr6 SI verbunden sind und der Logik anteil der CPu klar getrennt vom gpu teil ist.
Die meisten Bilder im Netz sind von der xbox one x wo es eine apu ist
das hat aber nix mehr mit der xsx chip zutun.
Das sind logisch getrennte chips die über den SI kommunizieren und nicht im Cache
Das hmm ist komplett gescheitert und wurde bei den Konsolen nie angewendet.
HMM
heterogene memory managment
cpu and gpu address same ram space
 
Schade, hast ja doch keine 3070. Wer hätte das gedacht? :P

Oder dann die üblichen Unterstellungen, Paperlaunch bla bla. Haben sich diese Leute denn überhaupt mal die letzten Launches von AMD angeschaut? Von Paperlaunch war da nicht viel zu sehen.
War doch jeder einzelne ein Paperlaunch, selbst die Meh-Vegakarten waren für die handvoll interessierten fast nicht verfügbar beim Launch. Custommodelle gab es erst Monate später, teilweise (Vega) sogar gar nicht.

Da sahen die Turing/Pascal-Launches komplett anders aus.
 
Zurück