AMD Sienna Cichlid: "Big Navi" mit 80 CUs und 5.120 Shadern?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD Sienna Cichlid: "Big Navi" mit 80 CUs und 5.120 Shadern?

Zwei bekannte Leaker sprechen von 80 Compute Units für Navi 21 bzw. die Sienna-Cichlid-GPU. Damit würde der Neuzugang glatt doppelt so viele Compute Units bieten wie das aktuelle Topmodell. Sofern AMD die Aufteilung mit 64 Shadern pro Compute Unit beibehält, käme das kommende Flaggschiff also auf bis zu 5.120 Shader.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: AMD Sienna Cichlid: "Big Navi" mit 80 CUs und 5.120 Shadern?
 
Die Gamestar hat gestern noch die "besten" Gerüchte gegenübergestellt, wonach die 3090/3080 Ti 50% schnelelr sei als die 2080 Ti, die Big Navi Karte jedoch gerade einmal so schnell wie die 2080 Ti werden soll.
Ich halte das auch für Blödsinn, weil es schon Meldungen wie diese gab, wonach man mit einer Verdoppelung der Recheneinheiten von "Klein" Navi rechnet.
Und es gab ja schon erste durchgesickerte neue Werte, wonach eine unbestimmte AMD Karte ca. 20% schneller war, und das ist lange her und sicherlich mit niedrigen Taktraten und schlechtem Treibermodell, vermutlich einfach dem der normalen Navi ohne angepasste RDNA2 Optimierungen.
Bei AMD weiß man doch selber ganz genau, dass bei NVidia mindestens 30-35% draufgekloppt werden (müssen, um Käufer zu bekommen), sollte man sich im Wesentlichen auf Raytracing stürzen, wo sicherlich mindestens die mal im Gerücht angesprochenen 70% Mehrleistung kommen werden.
Also warum sollte AMD eine große Ankündigung machen, dass man wieder vorne mitmischen will, wenn man nicht zumindest ein gutes Stück an der 2-3 Jahre alten Konkurrenzgeneration vorbei kommen kann?
Man sollte also schon Herr der Lage sein, zumindest die Standard 3080 auf Distanz zu halten.
Wenn dann 10-15% auf die Krone fehlen, die Preise dazu aber wesentlich humaner sind, wird man sicherlich zumindest die Käuferschaft überzeugen können, die nich tmehr wirklich gewillt sind, das Preisroulette mit willkürlichen Preisanhebungen von NVidia noch weitere Jahre zähneknirschend mit dem hart erarbeiteten Geld zu unterstützen.
Vor allem jetzt, wo viele Menschen weltweit ohne Selbstverschulden ihren Job verloren haben, oder ihre Lebensgefährten, oder in Kurzarbeit zu Hause rumsitzen, und wo einige sich fragen müssen, mit welchem nicht mehr vorhandenen Geld man denn bitte schön auf große Shoppingtour gehen soll, um 3% einzusparen?
Na ja, NVidia würde sagen, bei der 3080 für 999 Euro spart man doch so imemrhin 30 Euro.
Dafür nimtm man doch gerne einen Kredit auf?
Ehhhhhhm, nein!
 
Und dazu dann diese News.

Nur auf 2080 Ti-Niveau: AMD Big Navi wohl schwächer als gedacht - WinFuture.de

Also alles ist möglich. Keiner weiß genaues und man wird abwarten müssen.

AMD hat oft gesagt das sie ein Halo Produkt anbieten, mit 5120 Shadern und von den Konsolen wissen wir die Taktraten kommt man auf 145% Leistung im Vergleich zu 2080ti.
Ich gehe davon aus das die 3080ti nochmal 5% schneller ist.

Jeder der Dreisatz kann sollte sich das ausrechnen können.
 
Winfuture? Coretex? Aha. Na mal schauen.
Volle 2080Ti-Leistung für nur 75% des Preises (persönliche Spinnerei) nimmt man sicher auch gern ;-)
 
mich interessiert, wenn AMD auch eine art RT-core bmit einauen wird, ob die da dann ordentlich zuschlagen werden oder ob es nur so ein paar 'alibi-kerne' werden.
letzteres wäre schade und unklug.
bei der konkurrenz konnte man ja schon sehen das doppelt soviele RT-cores besser gewesen wären, mindestens ab mittelklasse und abwärts, weil so wemige dieser kerne nicht viel bringen.

und für nvidia hoffe ich, das die nächste gen eben genau diese kerne ca verdoppeln wird, damit da mehr leistung in dme bereich zur verfügung steht.

grundsätzlich aber hoffe ich das man sich ehr auf raytracing-fähigkeiten fokussiert, statt auf dieses DLSS-geschummel weil ich zb ehr raytracing als nützlich empfinde und nicht DLSS wo ich davon abhängig bin ob der hersteller auch anständige vorberechnungen in rechenzentren macht, damit DLSS auf gut funktioniert, was man ja bei den bisherigen karten mit DLSS auch gut sehen konnte.
 
Hat ja wohl auch niemand ernsthaft mehr erwartet.
Das war bereits seit Ende letzten Jahres klar, als die Eckdaten (80 CUs, 5120 Shader) bekannt wurden. Doppelte Größe, durch den Verbrauch aber wiederum auf ca. 75 % Takt beschränkt ergibt eine Leistungssteigerung von ca. 50 % zur 5700XT und damit ziemlich genau auf Höhe der 2080 ti.
 
Bei AMD weiß man doch selber ganz genau, dass bei NVidia mindestens 30-35% draufgekloppt werden (müssen, um Käufer zu bekommen), sollte man sich im Wesentlichen auf Raytracing stürzen, wo sicherlich mindestens die mal im Gerücht angesprochenen 70% Mehrleistung kommen werden.

Wenn die Realität nicht mehr hergibt, dann hat man eben ein Problem. Wäre schön, wenn AMD nach knapp 9 Jahren Nvidia wieder schlagen könnte und wenn es nur ein paar Monate sind.

Also warum sollte AMD eine große Ankündigung machen, dass man wieder vorne mitmischen will, wenn man nicht zumindest ein gutes Stück an der 2-3 Jahre alten Konkurrenzgeneration vorbei kommen kann?

Warum sollte AMD groß das Maul aufmachen und behaupten, dass Vega Nvidia plattmachen wird (poor Volta) wird, obwohl der ganzen Entwicklerabteilung und allen die mit ihnen arbeiten, klar gewesen sein muß, dass das nie klappen wird? Warum hat AMD einen Wundertreiber angekündigt, der 20-30% Leisstunssteigerung bieten sollte, mit Funktionen, die die Karte so garnicht kann?

Ganz einfach: um einen davon abzuhalten eine Nvidiakarte zu kaufen und auf Big Navi zu warten. Wenn man dann lange gewartet hat und die Karte ein Flop wird, dann hat AMD einen psychologischen Vorteil. Die logische Konsequenz wäre eine bessere Nvidiakarte zu kaufen und AMD links liegen zu lassen. Dazu müßte man sich aber eingestehen, dass man einen Fehler begangen hat und auf AMD reingefallen ist, Oder man kauft sich die Karte trotzdem um lügt sich selbst die Sache schön, so haben es schon viele bei den Vegakarten gehandhabt.

Ich würde es toll finden, wenn AMD wieder Erfolg hätte, nur glaube ich ihnen nach dem Phenom I, FX und Vega nicht mehr und lasse mich von de Realität überraschen.
 
Ne ich glaube an mind.90% takt von der 5700xt und bestimmt eine chipverbesserung um 10% somit denke ich kommt man auf ziemlich genau die doppelte 5700xt performance.
 
Ne ich glaube an mind.90% takt von der 5700xt und bestimmt eine chipverbesserung um 10% somit denke ich kommt man auf ziemlich genau die doppelte 5700xt performance.

Nö kann ich nicht zustimmen, denn es ist ja von der PS 5 GPU auf RDNA 2 Basis bekannt, dass das eher 110 % vom Takt von der RX 5700 XT werden und > 10 % IPC Gewinn. Das Schlagwort lautet reduzierte Komplexität! Ergo taktet Big Navi höher da die Transistoren das können. Kann natürlich auch sein, dass es <=25 % IPC werden, wenn der Sprung von GCN auf RDNA 1 wiederholt werden kann
 
Ich würde es toll finden, wenn AMD wieder Erfolg hätte, nur glaube ich ihnen nach dem Phenom I, FX und Vega nicht mehr und lasse mich von de Realität überraschen.

Hey meine Vega 56 war zum Kaufzeitpunkt ~220€ teu...günstig inc. 3 (guten) Spiele.
GTX 1070 bzw. 1080 waren da deutlich teurer; fals es schon RTX gab brauchen wir über die Preise erst gar nicht anfangen.
 
80 CU´s bei ~2Ghz klingen auf dem Papier sehr überzeugend. Ich bin gespannt was der wohl rund 430mm² kleine/große Chip leisten wird :daumen:
 
Ja natürlich kann rdna2 einen höheren takt, aber durch denn größeren chip müssen sie die taktgeschwindigkeit ein bisschen runterdrehen ich rechne mit max 1.9ghz was eh schon wahnsinn wäre mit bisschen ipc verbesserung wird die karte spitze.
 
80 CU´s bei ~2Ghz klingen auf dem Papier sehr überzeugend. Ich bin gespannt was der wohl rund 430mm² kleine/große Chip leisten wird :daumen:

Und wie dann die Performance mit RT sein wird. Wie ich gelesen habe sollen das bei AMD die Shader übernehmen. Damit ist man dann auch mit den Konsolen kompatibel. Wenn bei eingeschalteten RT von den 80 CU´s, 20 Cu´s für RT abgestellt werden würden bleibt natürlich auch gut Leistung auf der Strecke.
Wird alles sehr spannend.
 
Zurück