AMD RDNA: Navi 10, 12, 14, 21 in Linux-Treibern aufgetaucht

RT Cores sind mir Latte die sollen, ordentlich Shader druffkloppen. Damit man diesmal mehr als 30% zur 2080Ti herausholt.

Das wäre wohl mit einer NAVI 10 GPU mit 5000 Shader und hohem Takt möglich sofern die Werte von AMD stimmen. Dann muss ich aber Raven ganz klar zustimmen da so eine Karte sicher 350Watt+ verbrauchen würde.
Zudem muss die Skalierung mit steigender Shaderzahl natürlich ebenfalls stimmen ansonsten verpufft die Rohleistung wie so oft bei Vega.
 
Man darf auch nicht vegessen dass Hardware RT für einen größeren Chip und mehr Stromverbrauch sorgt.

Die RTX Chips sind ziemlich groß, der RTX 2070 fast doppelt so groß wie der 5700 XT.
 
Ist aber aus wirtschaftlicher Sicht das übliche Vorgehen erst die Chips zu bringen, die voll funktionsfähig sind, damit die Leute, die auf die neuen Karten warten keine günstigeren Optionen haben. Hat Nvidia ja auch immer so gemacht.
Aber ich gebe dir recht. Bei der aktuellen Lage wäre es vielleicht stratetisch sogar besser das komplette Lineup gleich zu bringen. Defekte Chips fallen schließlich von Anfang an an.
Navi12 und Navi14 würden sicherlich keine Teil-deaktivierten Navi10 sein, welcher in den 5700er zum Einsatz kommen. Sondern eigene Chips die erst gar nicht so viele CUs haben.
Die 5700 non-XT ist ein Teil-Deaktivierter Navi10, welcher Zeitgleich mit der 5700 XT, also dem Voll-aktivierten Chip veröffentlicht wird.

Bevor 5600er und 5500er auf den Markt kommen, will man wahrscheinlich erst Polaris abverkaufen.
 
Man darf auch nicht vegessen dass Hardware RT für einen größeren Chip und mehr Stromverbrauch sorgt.

Die RTX Chips sind ziemlich groß, der RTX 2070 fast doppelt so groß wie der 5700 XT.

Das liegt aber so wie es scheint nicht an den RT Cores sondern an der Turing Architektur. Die GTX Turings sind ebenfalls sehr groß geraten für ihre Shader Anzahl und besitzen keine RT Cores.

Ich hatte mal einen Artikel gelesen wo man die RT Cores ausgemessen bzw. gut geschätzt hat. Die waren wirklich relativ klein. Sieht man ja auch am Die Shot.
 
So viele unterschiedliche Navi Chips sprechen dafür,
dass man auch im High-End Segment angreifen will ...
rollen.gif


Wenn das so weiter geht kann Nvidia auch bald abstinken.
Lassen ja gerade ihr Super Rettungsboot zu Wasser,...
Ich wette die Lederjacke springt als erster rein ...:lol:
 
Zuletzt bearbeitet:
So viele unterschiedliche Navi Chips sprechen dafür,
dass man auch im High-End Segment angreifen will ...
rollen.gif


Wenn das so weiter geht kann Nvidia auch bald abstinken.
Lassen ja gerade ihr Super Rettungsboot zu Wasser,...
Ich wette die Lederjacke springt als erster rein ...:lol:

"die Lederjacke" xDDD
 
Das wäre wohl mit einer NAVI 10 GPU mit 5000 Shader und hohem Takt möglich sofern die Werte von AMD stimmen. Dann muss ich aber Raven ganz klar zustimmen da so eine Karte sicher 350Watt+ verbrauchen würde.
Zudem muss die Skalierung mit steigender Shaderzahl natürlich ebenfalls stimmen ansonsten verpufft die Rohleistung wie so oft bei Vega.

wenn die 350W Karte dann bei 3 UHD Monitoren nicht so rumzickt wie meine 1080Ti (auch auf dem Desktop im 3D-Modus, Bildflackern & Aussetzer, etc.), beim Daddeln (mit nur 1x UHD) mal überall 60 fps schafft ohne zu verglühen ordentlich Speicher inkl. eines anständigen Interfaces hat, und das geile Radeon-Softwarepaket mitbringt, dann kaufe ich sie gerne.

hoffe ja immernoch dass sie mit ihrem Infinity Fabric was zaubern können was denen ermöglicht quasi beliebig viele GPUs als eine große zusammenzuschalten, Stichwort Skalierbarkeit...
 
hoffe ja immernoch dass sie mit ihrem Infinity Fabric was zaubern können was denen ermöglicht quasi beliebig viele GPUs als eine große zusammenzuschalten, Stichwort Skalierbarkeit...
Das funktioniert technisch nicht, und wurde von AMD und Nvidia verneint für die nächsten Jahre.
Wenn überhaupt wird es das im professionellen Bereich geben, mit GPUs ohne Ausgang für einen Monitor. ^^
 
wenn die 350W Karte dann bei 3 UHD Monitoren nicht so rumzickt wie meine 1080Ti (auch auf dem Desktop im 3D-Modus, Bildflackern & Aussetzer, etc.), beim Daddeln (mit nur 1x UHD) mal überall 60 fps schafft ohne zu verglühen ordentlich Speicher inkl. eines anständigen Interfaces hat, und das geile Radeon-Softwarepaket mitbringt, dann kaufe ich sie gerne.

hoffe ja immernoch dass sie mit ihrem Infinity Fabric was zaubern können was denen ermöglicht quasi beliebig viele GPUs als eine große zusammenzuschalten, Stichwort Skalierbarkeit...

die treiber sind gaaar nicht mal so schlecht wenn man nichts exotisches möchte. leistung hängt wie man bei world war z sieht vom entwickler ab, was er zaubern kann.
 
Schon mal gut, das Die nicht super toll oder phenomenal heißen.
Mir wäre es peinlich, beim Graka-kauf Produktnamen mit süßen Adjektiven rauszubrüllen.
ZB. beim Bäcker: Ich hätte gern dieses super Brötchen und dazu eins von den Gigagigantischen Erdbeerstückchen, oder wie die heißen!
Gruß der Supergeilomatische Yojinbo
 
Also die Leaks zu Navi 12 und 14 finde ich plausible - aber Navi 21 mit RT und 16GB HBM2? Never ever.
NVidia hat AMD letzten Spätsommer mit RT überrumpelt.
Die Entwicklung von RT-Cores für CGN, RDNA oder wie auch immer das dann heißen wird, wird entsprechend erst dann gestartet worden sein. Ich gehe bei der aktuellen Entwicklungsgeschwindigkeit von mindestens 2 Jahren aus, bis AMD RT-Cores anbieten wird.
Bis dahin nur RT als Softwarelösung. Ähnlich dem, was Crytek für die Vega56 gezeigt hat.
Alles deutet darauf hin, dass Navi für AMD günstig zu produzieren und gut zu verkaufen sein soll - also das genaue Gegenteil zur R VII. Dementsprechend erhält Navi kein HBM2. Weder mit 8 noch mit 16 GB.
Wenn ich mir die Gerüchte zu Navi 21 so durchlese, dann klingt das für mich eher so wie ein "Hach, wäre das nicht schön, wenn NAvi das alles bieten würde?" Spätpubertäre Träume. Wunschdenken. Wenig realistisch. Just my 2 cents.
 
NVidia hat AMD letzten Spätsommer mit RT überrumpelt.

Woher weißt Du denn, dass AMD nicht schon seit ein paar Jahren an einer anderen RT-Implementierung arbeitet? Also rein hypothetisch.
Meiner Meinung nach hat NV sich durch den sehr halbgaren RTX-Launch selbst überrumpelt, um sich schnell noch als Erfinder darzustellen. (Edit: Und natürlich evtl. auch, um den DX- und Vulkan-Standard frühzeitig zu beeinflussen)
Wirklich sinnvoll sieht es jedenfalls nicht aus, zwei verschiedene Prozessormodelle in einen Chip zu packen. Eher mit heißer Nadel zusammengestrickt. Da stelle ich mir ein Aufbohren der Unified Shader für RT-Berechnungen deutlich sinnvoller vor.
Zudem habe ich schonmal geschrieben: Wenn ich das umsetzen sollte, würde ich evtl. schauen, dass auf lange Sicht die CPU das Denoising macht. Dann würde evtl. auch der neue PCIe 6.0-Standard mehr Sinn ergeben.
 
Woher weißt Du denn, dass AMD nicht schon seit ein paar Jahren an einer anderen RT-Implementierung arbeitet? Also rein hypothetisch.
Wahrscheinlich, weil AMD immer noch keinerlei DXR Support anbieten kann und auch noch nicht angekündigt hat. Ganz einfach.

Da stelle ich mir ein Aufbohren der Unified Shader für RT-Berechnungen deutlich sinnvoller vor.
AMD nicht, die haben schon gesagt, dass es spezielle HW im Chip für RT/DXR geben wird.
 
Kleinere Versionen von Navi wären wünschenswert, vor allem im Mobilbereich. Dort ist bisher ja eine RX 560 so ziemlich das höchste der Gefühle. Wenn bei ähnlichem Stromverbrauch (60-80W je nach Version) nun etwa 24-28 CU und 20-30% mehr Takt drin wären, hätte AMD einen möglichen Gegner zur 1660 (normal wie Max-Q) im Mobilprogramm. Dann noch einen kleineren mit 16-20 CU und wiederum etwa 20-30% mehr Takt und der perfekte Gegner zur 1650 wäre geschaffen.
 
Zurück