Doppelte Radeon RX 5700 XT: Navi 21 angeblich mit 80 Compute Units

Das Hauptproblem ist doch bei allen bisherigen Leaks, dass Shader nicht nur nicht linear skallieren, sondern irgendwann ein Cap erreicht ist, über dem weitere Shader keine merkliche Mehrleistung mehr bieten. Diese Caps hatten wir bei GCN bei 4096 erreicht und bei Turing lag es bei ungefähr 5000. Da war die V100 schon drüber und die letzten 300 Shader hätten sie sich auch sparen können. Jetzt stellt sich nur die Frage, ob sie es geschafft haben, dieses Cap zu überwinden. Am Ende läufts doch nur auf weitere IPC-Steigerungen hinaus, dann sind aber nVs propagierte 50% auch nur ein schlechter Witz.

Bevor also die Karten nicht auf dem Markt sind, ist alles nur Kaffesatz lesen.

Du darfst ja nicht vergessen, dass das keine Karte für 1080p Gaming wird. Mit mehr Shadern kann man größere parellele Workloads wegschaufeln. Das Frontend und der Speicher müssen die Shader nur hinreichend füttern können. Das war doch ein Problem bei GCN oder? Das Frontend konnte die Shader schlecht auslasten hieß es doch immer. Das Problem scheint RDNA ja nicht zu haben.

Wenn es ein Tetris mit RT gibt schon.

Die Frage ist eher, was überhaupt noch an RT-Spielen kommt. 2019 waren es nur zwei.

Was?:what: Wenn Schaffe das hört... Laut ihm kommen zwölfdreißig zillionen Spiele mit RaytracingsGedönsens raus...... Jede Woche!
 
Zuletzt bearbeitet von einem Moderator:
Warum sollte es so unwahrscheinlich sein, die GPU zu verdoppeln? Crossfire wäre nur sinnvoll, wenn die Mikroruckelei nicht ins Auge fällt.
Was wäre denn, wenn AMD das erst voriges Jahr patentierte Kühlverfahren innerhalb von Chips, gar auch so anwendet.
Intel will das in deren CPU ja zukünftig mittels Graphen verwirklichen.
80 CU's was heißt das in diesem Zusammenhang?
Da bei GPU's die einzelnen Bestandteile eh in gleicher wiederholender Anzahl zum Einsatz kommen, kann man auch diese entsprechend Stapeln, so wie man es beim Flashspeicher schon erpobt und funktionierend einsetzt.
Das allein würde den Chip nicht in seiner Fläche verdoppeln, dafür in seiner Aufbauhöhe.
Um ungünstige Hotspots zu umgehen, sollte wohl eine gewisse Flächenerweiterung gleichzeitig einhergehen, damit nicht wie bei der 5700XT sich Temperaturen jenseits von 90°C ergeben, oder sogar noch 10 -15°C mehr, je nach grundsätzlichen, bzw. auch speziellen Einsatzparametern.
Das zur Verdoppelung der CU's der Stromverbrauch auch noch höher wird, das sollte man wohl nicht ausblenden.
Wieviel VRAM und welcher, noch dazu kommt, bringt sicherlich nicht unerhebliche Vorteile, speziell für Auflösungen ab 4K.
Also, so wie AMD gerade ordentlich klotzt, kann man einen Vorwärtssprung zu Nvidias Topprodukten erwarten, was auch endlich wünschenswert ist.
Sollte AMD in diesem Bereich sich auch so prächig entwickeln, dann schießt die Aktie ja förmlich an der 40$ Marke vorbei.
 
Zuletzt bearbeitet:
Du darfst ja nicht vergessen, dass das keine Karte für 1080p Gaming wird. Mit mehr Shadern kann man größere parellele Workloads wegschaufeln. Das Frontend und der Speicher müssen die Shader nur hinreichend füttern können. Das war doch ein Problem bei GCN oder? Das Frontend konnte die Shader schlecht auslasten hieß es doch immer. Das Problem scheint RDNA ja nicht zu haben.

Ziemlich genau das, weshalb du eine Vega 56 auch entspannt auf 64er Niveau bekommen hast.
Die 8 CUs haben und GCN quasi nichts gemacht. :D
 
Gleichzeitig doppelter Preis? 799 Wäre super startpunkt pun intended

Ziemlich genau das, weshalb du eine Vega 56 auch entspannt auf 64er Niveau bekommen hast.
Die 8 CUs haben und GCN quasi nichts gemacht. :D

In Shaderlastigen sachen war die 64 schon fixer. Im prinzip das was ne 2080 schneller als ne 2070s ist.
 
Zuletzt bearbeitet von einem Moderator:
"Damit wäre der Chip doppelt so groß wie jener der Radeon RX 5700 XT."

Was durchaus schlüssig ist. Wie soll Navi 21 sonst NVIDIAs High-End Portfolio kontern und auch noch mit den kommenden RTX 3000ern mithalten?

5120 Shader das ordentliche und auch nötig um eine RTX 2080Ti zu schlagen sollte also gut hinkommen mit den 17% mehr Power.
Schätze 330 Watt für die Karte.

Ich nicht. Navi skaliert offenbar gut und braucht viel weniger Energie bei gleicher Leistung als die alten GCN Karten.
Es gibt also keinen Grund die Dinger von Haus aus auf die Kotzgrenze zu treiben.

Die großen Chips werden in punkto TDP und Takt eher auf dem Niveau der oberen RTX 2000 Konkurrenz liegen (225 Watt für die non-XT & 250 Watt für die XT),
bei dementsprechend hoher Grafikleistung. Alles andere wäre ein Problem bzw. Rückschritt für AMD.

Wäre fein, wenn hier AMD eine Preiskorrektur ähnlich dem CPU-Lager vs. Intel anstreben würde...aber ja, das war zuletzt bei RDNA 1 eher enttäuschend.
Finde ich nicht. Natürlich wäre - so wie früher - eine 300€ Mittelklasse mit derartiger Leistung schön, aber der Zug ist leider schon vor Jahren abgefahren.
Außerdem braucht gerade die AMD Grafiksparte ohnehin mehr Geld :-)

Ich habe die 370€ für die 5700 (Release) und die 30€ für den Arctic-Kühler bisher nicht bereut:
Vega 64 Leistung bei 120 Watt TDP weniger, auf einer fast lautlosen Karte, die bereits @Stock im 180Watt TDP Sweetspot läuft. Was will man mehr?
(Als Alternativen standen noch die 5700 XT und die 2060 Super zur Verfügung - beide etwas schneller, aber auch teurer)

Mit 3x 8 Pol Anschlüssen :D
Aber nur auf den Custom Karten. Die Referenz - sofern es eine gibt - wird sich wohl mit max. 2x8 begnügen müssen.
Sollte aber ohnehin völlig ausreichen. Die Karte ist ja keine Vega mehr.
 
Zuletzt bearbeitet von einem Moderator:
Wenn es ein Tetris mit RT gibt schon.

Die Frage ist eher, was überhaupt noch an RT-Spielen kommt. 2019 waren es nur zwei.

Das liegt hauptsaechlich daran das die Konsolen kein Raytracing koennen. Alle AAA Titel werden nunmal fuer die Konsolen optimiert, ich denke sobald PS5 und Xbox Series X am Markt etabliert sind, wird sich das aendern.

Ich hoffe wirklich das AMD uns was schoenes liefern kann dieses Jahr, sollte aber nicht teurer als $699 werden. Wenn die Karte fuer diesen Preis kommt und schneller als die 2080ti ist, kaufe ich sie vielleicht. Nvidia wird zwar wahrscheinlich mit einer 3080ti kommen, aber die wird doch bestimmt $1499 kosten dieses mal. Um ehrlich zu sein, hat die 2080ti schon mehr als genug Leistung fuer die meisten Games, nur leider ist sie ueberteuert. Wenn AMD die 2080ti mit einer 6800 bzw. 6800XT uebertrumpfen kann, bei gleichzeitig bedeutent niedrigeren Preis, sollte das ausreichen um den GPU Markt etwas aufzulockern.
 
Ich hoffe das sich noch einiges tut und die Ergebnisse vom VR Benchmark von 17% oder 30% sich nur auf ein engineering sample beziehen und die leistung noch nicht final ist.
 
Wenn AMD die 2080ti mit einer 6800 bzw. 6800XT uebertrumpfen kann, bei gleichzeitig bedeutent niedrigeren Preis, sollte das ausreichen um den GPU Markt etwas aufzulockern.
Ich glaube nicht, dass AMD die Preise deutlich niedriger ansetzt als nvidia. Das hat man in der Vergangenheit oft getan und ist damit nie gut gefahren. Daher am bestimmt auch das Image als 'billig'-Marke
 
Bloß sind die Preise von Nvidia überteuert. Mit normalen Preisen würde sich AMD einen großen Gefallen tun.
 
Ich glaube nicht, dass AMD die Preise deutlich niedriger ansetzt als nvidia. Das hat man in der Vergangenheit oft getan und ist damit nie gut gefahren. Daher am bestimmt auch das Image als 'billig'-Marke
Ja, wann denn? Zumindest hier in D war das schon länger nicht mehr zutreffend. Die HD5870 hatte AMD 2009 zu günstig abgesetzt, sie war auch nicht die schnellste Karte. Die 7970 war selbst zum Release der GTX 680 teurer als diese, etwas langsamer und hat mehr Strom verbraucht. Die R9 290X war etwas günstiger als die nVidia Konkurrenz, aber auch etwas langsamer. Die Fury X kam nicht nur später als die 980Ti, sie war genauso teuer, verbrauchte mehr Strom und hatte 33% weniger Speicher. Ab Vega 64 war dann der Rückstand gar nicht mehr wegzudiskutieren und AMD konnte die Preise nicht mehr mitgehen, aber wirklich günstig war Vega auch zu Release kaum. Aus dem Aspekt kann ich nicht nachvollziehen, warum AMD als billig Marke empfunden werden kann. Man darf einfach nicht den Fehler machen und den Wert oder die Wertigkeit eines Produkts an dessen Preis festzumachen.
 
Das Hauptproblem ist doch bei allen bisherigen Leaks, dass Shader nicht nur nicht linear skallieren, sondern irgendwann ein Cap erreicht ist, über dem weitere Shader keine merkliche Mehrleistung mehr bieten. Diese Caps hatten wir bei GCN bei 4096 erreicht und bei Turing lag es bei ungefähr 5000. Da war die V100 schon drüber und die letzten 300 Shader hätten sie sich auch sparen können. Jetzt stellt sich nur die Frage, ob sie es geschafft haben, dieses Cap zu überwinden. Am Ende läufts doch nur auf weitere IPC-Steigerungen hinaus, dann sind aber nVs propagierte 50% auch nur ein schlechter Witz.

Öhm nein, das ist natürlich Nonsense.
Da hibts keine Grenze, höchstens einen Architekturabhängigen Sweet Spot und der hört auch nicht plötzlich auf sondern verläuft linear solange kein Flaschenhals vorhanden ist.
 
Zuletzt bearbeitet:
Grundsätzlich denke ich auch das AMD nich wesentlich günstiger bei gleicher Leistung wäre. AMD GPUs waren auch nie unbedingt "Billig" im Vergleich zur Konkurenz. Aber dadurch das Nvidia nunmal bekannterweiße einen "Wird sind geil Bonus" mit drauf packen (sogar können) Schätze ich das AMD einen Müh darunter liegen wird.

Bei dem Aufmacher habe ich zuerst an eine 2-Chip Platine gedacht.... Aber was solls ich habe 4 Rails, 4x 8 Polig ist also kein Thema... Ich bin dafür! 675 Watt und ne 420 Mora WaKü mit dazu für 1129€:ugly: Das wäre vermutlich AMDs Untergang in der GPU Branche^^! "Ey wisst ihr was!? Hab meine AMD GPU undervoltet, bin jetzt auf 530W runter bei volllast!"-- Wer doch Nice!:D
 
Warten wir mal ab was kommt. Ich schätze mal ein Preis von 750€ wird es dann schon sein. Ich hoffe nur, dass AMD dann auch endlich mal wieder im High-End segment mithalten kann.

Ja, wann denn? Zumindest hier in D war das schon länger nicht mehr zutreffend. Die HD5870 hatte AMD 2009 zu günstig abgesetzt, sie war auch nicht die schnellste Karte. Die 7970 war selbst zum Release der GTX 680 teurer als diese, etwas langsamer und hat mehr Strom verbraucht. Die R9 290X war etwas günstiger als die nVidia Konkurrenz, aber auch etwas langsamer. Die Fury X kam nicht nur später als die 980Ti, sie war genauso teuer, verbrauchte mehr Strom und hatte 33% weniger Speicher. Ab Vega 64 war dann der Rückstand gar nicht mehr wegzudiskutieren und AMD konnte die Preise nicht mehr mitgehen, aber wirklich günstig war Vega auch zu Release kaum. Aus dem Aspekt kann ich nicht nachvollziehen, warum AMD als billig Marke empfunden werden kann. Man darf einfach nicht den Fehler machen und den Wert oder die Wertigkeit eines Produkts an dessen Preis festzumachen.

Die 5870 kam 09 2009 für 300€ auf den Markt und war für 9 Monate die schnellste Single GPU Karte der Welt! Erst die GTX480 mit 120W mehr Verbrauch für 20% hat die Karte übertroffen.

ATi Radeon HD 5870 im Test: Die erste Grafikkarte mit DirectX 11 (Seite 23) - ComputerBase

Die 7970 war schneller als die GTX580 und die 7970GHz minimal schneller als die GTX680. Bei der 780Ti war die 290X der Gegenspieler und die taten sich nichts. Verbrauch der AMD war in dem Fall höher als der von der NV.

Beim Rest stimme ich dir zu.
 
Wenn es ein Tetris mit RT gibt schon.

Die Frage ist eher, was überhaupt noch an RT-Spielen kommt. 2019 waren es nur zwei.

Ich mein -wenn du schon lügen musst dann bitte etwas glaubwürdiger.
Oder willst du uns weis machen das es BF-5, Metro, Control, SotTR, COD-MW - alle spurlos an dir vorbei gegangen sind? Obwohl auch hier über diese Spiele berichtet wurde?
Las dir doch bitte etwas besseres einfallen.
 
Die Spiele stammen aus 2018.

BF5 wurde am 9. November 2018 veröffentlicht. SotTR am 14. September 2018.

und wann erhielten sie Ratracing? Abgesehen davon das es dann noch immer 3 Spiele sind dir mir gleich mal so einfallen - aber hey - lass dich nicht durch die Realität von deinen Märchen ablenken.
 
Zurück