Doppelte Radeon RX 5700 XT: Navi 21 angeblich mit 80 Compute Units

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Doppelte Radeon RX 5700 XT: Navi 21 angeblich mit 80 Compute Units

Die Gerüchte um "Big Navi" nehmen kein Ende. Der Buschfunk hat sich in dem Kontext wieder einmal mit Navi 21 befasst und erneut 80 Compute Units mit RDNA2-Architektur in den Raum geworfen. Damit wäre der Chip doppelt so groß wie jener der Radeon RX 5700 XT.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Doppelte Radeon RX 5700 XT: Navi 21 angeblich mit 80 Compute Units
 
Vielleicht gibts auch einfach 2 Chips die ohne crossfireprobleme laufen ;). Wäre der gleiche Ansatz um NV in Straucheln zu bekommen wie Intel mit dem "Kleber"
 
Hieß es nicht vor ein paar Tagen Ampere soll 50% schneller werden als Turing? Dann passt doch wieder alles. Rechne mit vierstelligen Preisen in beiden Lagern für die großen Modelle.
...ich leg schonmal nen Sparplan an. :ugly:

Ist ja noch genug Zeit bis beide großen Modelle raus sind, es gute Customs gibt und die erste Early-Adopter-Nachfrage zu Mondpreisen durch ist. Bis dahin kann ich ja noch jeden Sonntag nen Zwanziger in die Ecke legen - bis dahin reichts dann (zzgl. 2080-Verkaufseinnahmen).
 
Und mal wieder, Shader skalieren nicht linear, auch wenn es in hohen Auflösungen besser als in niedrigen ist. Viel mehr als eine 2080ti erwarte ich im normalen Tagesbetrieb nicht, wenn man die Leistungsaufnahme ignoriert und die Karte 500W ziehen lässt (und das wird die ziehen können), sollte sie sich doch ganz gut absetzen können.
 
Ich glaub net an die ganzen Spekus - es heißt ja allgemein, viel hilft viel, aber ob das im Falle einer Grafikkarte, die ja bestimmt net entwickelt wird, nur um eine betagte 2080Ti zu schlagen, sondern sich mit deren Nachfolger zu messen hat, nur mit einer Verdoppelung eines Navi10 zu bewerkstelligen ist?

Ich glaub ich ruf mal bei Raja.png an :D
 
Hieß es nicht vor ein paar Tagen Ampere soll 50% schneller werden als Turing? Dann passt doch wieder alles. Rechne mit vierstelligen Preisen in beiden Lagern für die großen Modelle.
Hat doch für Consumer Varianten nie gegolten oder wird es nicht. Nvidia bringt zuerst mal HPC und die VA100 kann gerne 50% schneller und 50% effizienter als V100 sein. Das Ding saugt in bestimmten Varianten auch 450w aus der Dose! Nvidia bohrte die Rechenleistung und damit auch Leistungsaufnahme der HPC deutlich auf, weil es den Abnehmern zu wenig war.

Genau da liegt ein Teil der Wahrheit, wie schnell und sparsam spätere Comsumervarianten werden ist davon absolut unabhängig. V100 braucht das Update, wo braucht es denn Turing bisher zwingend? Nirgendwo solange AMD nichts gleichwertiges bringt, wird Nvidia nichts machen.
 
...., nur um eine betagte 2080Ti zu schlagen,...
Betagt? Lol :D. Sagen wir eher...etabliert an der Spitze. Aber verstehe natürlich was du meinst. ^^

Auf der anderen Seite habe ich klammheimlich (vermutlich vergebens) die Hoffnung, dass sie zumindest preislich die unübertroffene Spitze für längere Zeit darstellen wird (es sei denn Nvidia reagiert mit Price-Cut). Wäre fein, wenn hier AMD eine Preiskorrektur ähnlich dem CPU-Lager vs. Intel anstreben würde...aber ja, das war zuletzt bei RDNA 1 eher enttäuschend. Wenn die Leistungs-Speerspitze statt ~1.150€ (für halbwegs brauchbare Custom Designs) zumindest schon auf ca. 800€ fallen würde (bei moderatem Stromverbrauch, Hitzeentwicklung im Vgl.), wäre das bereits mehr als brauchbar. Dann könnte AMD später immer noch nachlegen mit Big Navi 2 und den Preis hoffentlich weiterhin knapp dreistellig halten.

Ja, ich weiß...träume ein wenig. Aber darf man hoffentlich noch :ugly:. Kann es mir einfach nicht vorstellen, dass AMD dieselben vierstelligen Mondpreise in der High-End-Sparte aufruft. Ich sage einfach mal max. 999€ - auch für Customs. Das muss drin sein, egal was die Karte leisten wird.
 
5120 Shader das ordentliche und auch nötig um eine RTX 2080Ti zu schlagen sollte also gut hinkommen mit den 17% mehr Power.

Schätze 330 Watt für die Karte.
 
Das Hauptproblem ist doch bei allen bisherigen Leaks, dass Shader nicht nur nicht linear skallieren, sondern irgendwann ein Cap erreicht ist, über dem weitere Shader keine merkliche Mehrleistung mehr bieten. Diese Caps hatten wir bei GCN bei 4096 erreicht und bei Turing lag es bei ungefähr 5000. Da war die V100 schon drüber und die letzten 300 Shader hätten sie sich auch sparen können. Jetzt stellt sich nur die Frage, ob sie es geschafft haben, dieses Cap zu überwinden. Am Ende läufts doch nur auf weitere IPC-Steigerungen hinaus, dann sind aber nVs propagierte 50% auch nur ein schlechter Witz.

Bevor also die Karten nicht auf dem Markt sind, ist alles nur Kaffesatz lesen.
 
5120 Shader das ordentliche und auch nötig um eine RTX 2080Ti zu schlagen sollte also gut hinkommen mit den 17% mehr Power.

Schätze 330 Watt für die Karte.

Ja so würd ich die Karte auch grob einordnen, die wird auf jedenfall mit reduziertem Takt kommen gegenüber den aktuellen Karten um näher am Sweetspot zu agieren. Wenn es denn so kommt.
 
Was ist denn das schon wieder für eine "News"? "Doppelte Radeon RX 5700XT" wäre zwei technisch machbar, ist aber völliger Blödsinn und stimmt bestimmt nicht mal mit der Quelle überein. Und das ganze dann noch garniert mit eigenen Vermutungen.:rollen:
 
Klingt gut, zu gut wie immer ;). Grosse Chips hatte AMD ja schon sehr oft nur waren die eher wie ein heisser, durstiger Ferrari bei dem man keine Räder montiert hatte. So hies es immer, die Karten hätten können wenn man gewusst wie (Reifen montiert hätte).
Spaß beiseite :). Wenn AMD jetzt einen Gamerchip entwickelt und nicht nur einen Prosumer umläbelt, der beim zocken nicht ganz so gut ausschaut, dann wird das schon was.
 
Hängt von der API ab.
Mit DX12/Vulkan geht das deutlich besser, als mit DX11.

Ganz linear nie, aber ich weiß, was du meinst.


Und in FHD ist der prozenuale Unterschied sogar noch höher, am Ende skalieren Shader doch besser mit höherer Auflösung, da holt die 1080ti doch etwas auf.
 
Zurück