AMD Navi 31: Nächstes Flaggschiff angeblich mit 160 CUs und zwei Chiplets

Hört sich interessant an, mit Glück entwertet das die aktuellen GPUs schön, dann kann man ja mal ne 6800 XT zu vernünftigen Oreisen abgreifen :).
 
Hi, ich denke mal, das Apple nicht im Ansatz so viel gekauft wird, wie Nvidia und AMD.
Von daher, wäre ich mal an Vergleichszahlen interessiert, die das was du sagst, belegen.

Grüsse.
 
So lange sollte die 5700XT noch durchhalten. Und dann ist auch der Sprung zu RDNA3 noch größer.

Ach ich habe keine Angst wegem Durchalten. Die würde auch mit guten Chancen 10 Jahre funktionieren.
Wenn die aktuelle Gen aber zu lange nur mit Wucherpreisen gut erhältlich ist, wird halt einfach das Warten auf RDNA3 attraktiver. Und ja ein Sprung +150 bis +200% ist witziger als ein Sprung von +80 bis + 100% :D
Wer Grafikregler bedienen kann und wem 60Hz reichen, der wird zudem auch mit einer 5700XT selbst in 4K noch eine ganze Weile zufrieden sein.
 
Das hängt halt stark von der Konfiguration ab.
2 Highend-GPUs rande des Limits getaktet - klar.
Aber es gibt auch positiv-Beispiele mit 2 Mitteklasse-Chips. Es muss nicht zwangsweise ein Stromfresser draus werden - das hat ja Alki schon ausgeführt.

Bei 250mm² kann man den selben Chip ab einer Grafikkarte von 200€ einsetzen bis rauf zu 1000+ wenn mans per MCM zusammenschnallt.
Gab ja auch mal die 4850, 4870, 4890 (aber die Preise waren damals noch normal)
Die 4850X2 (selber Chip wie die oben genannten, nur 2x) war mit ca 240W TDP nicht so weit über den 190W der 4890. Ein (zu) hoch getakteter einzelner Chip kann also durchaus in der Nähe einer etwas niedriger getakteten 2-Chip Variante rauskommen - und das schon im gleichen Prozess.
Hier sprechen wir aber von einem 5nm Produkt und vergleichen es mit Navi2 - in 7nm.
Dual Karten mit Chiplets zu vergleichen finde ich eher schwierig, beim Chiplet werden sich die GPU`s mit sicherheit einige Ressourcen wie Cache o.ä. teilen. Das ist eher zu sehen wie bei multicore CPU`s und nicht die bei den alten DUAL GPU`s. Der Stromverbauch wird sich bei Chiplets meiner Meinung nach ganz anders verhalten als einfach nur GPU+GPU. Ansprechverhalten wird ja auch wie bei einer GPU sein und nicht wie bei den Dual Grafikkarten.
 

Nvidia und AMD sollen ihre GPU-Sparte für Gamer aufgeben, die können nichtmal genug Karten liefern. Ihre lächerlichen 100.000 Karten pro Monat für die ganze Welt ist nichts, früher haben beide Hersteller das gebacken bekommen dass ausreichend Karten verfügbar sind.
Da haben ihre Marketingfutzis kläglich versagt. Apple bekommt es doch auch auf die Reihe genug zu liefern...
ist es Sarkasmus?
Klar kriegt Apple mit ihren 10% Marktanteil das eher hin, als 2 Hersteller die sich den GESAMTEN Markt teilen. TSMC hat grad aus verschiedenen Gründen dank Pandemie mit der Produktion nicht nach. Was bitte hat das mit dem Marketing zu tun?
 
Hi, ich denke mal, das Apple nicht im Ansatz so viel gekauft wird, wie Nvidia und AMD.
Von daher, wäre ich mal an Vergleichszahlen interessiert, die das was du sagst, belegen.

Grüsse.
Und ich denke mal da liegst du massiv falsch. Ist (war) nicht Apple der größte Kunde von TSMC?

Wie viele Leute kaufen einen Computer bzw eine Grafikkarte? Privat haben sehr viele Leute gar keinen PC (mehr), davon viele eine Kiste mit iGPU gerne auch mal steinalt, weil es eben reicht und beileibe nicht jeder zockt, schon gar nicht mit einem modernen Gaming PC. Im Büro sind die meisten Rechner ebenfalls ohne dezidierte Grafikkarte unterwegs. Für die allermeisten Bürojobs ist das ja auch ausreichend (für Word, Excel, SAP usw brauchst das nicht). Dazu werden sowohl beruflich, als auch privat Rechner eher lang genutzt. Klar unterm Strich kommen da schon ordentlich Stückzahlen raus, aber jetzt zu Apple...

Apple hat abgesehen von dem Nischendasein im PC Markt, ja auch noch seine Mobilgeräte. Diese werden auch dank des signifikanten Marktanteils erheblich mehr verkauft als normale PCs. Handys, Tablets usw hat im Prinzip jeder Haushalt, dazu wird Apple auch beruflich stark genutzt (früher war alles Blackberry heute fast alles Apple, Android geht bei uns z.B. gar nicht), dazu kommt noch, dass diese Geräte einen relativ häufigen Wechselintervall unterliegen. Sprich bei vielen kommt nach 1-2 Jahren ein neues Gerät ins Haus...

Unterm Strich dürfte Apple erheblich mehr Chips benötigen als AMD und Nvidia (ggf sogar mehr als beide zusammen).
 
Dürfte locker die LEistungskrone der Generation einfahren und ich denke 3000-3500 Euro wären auch ein angemessner Preis für so ein Monster, das wirklich nur für echte Master-Gamer wäre. 64GB VRAM dazu und fertig,
 
Ein hoch interessanter Ansatz ist es aufjedenfall mit den Chiplets auch im GPU Bereich, jedoch sehe ich das bei RDNA 3 noch nicht wirklich.
Ich denke das macht eher bei den Datacenter GPUs Sinn, da man dadurch die Marge stärken und besser skalierbare Karten anbieten kann. Weil im Desktopbereich, würde dies ja nur bei dem Highend-Modell Sinn machen. Bis zur oberen Mittelklasse sehe ich da jetzt nicht zwingend den Sinn, mehrere kleine Chiplet zusammen zu schalten, man darf mich natürlich gerne mit einem guten Beispiel überzeugen, aber den wirklichen Kostenvorteil sehe ich da im GPU-Bereich nicht.
Wird aufjedenfall ein spannendes Jahr 2022 werden, da wir wieder ein Feuerwerk seitens CPU und GPU Releases erleben werden. Ich hoffe nur TSMC kann dafür auch genügend Wafer bereit stellen, wollte eigentlich diesen Sommer auf eine RX 6700 umsteigen und damit meinen WQHD Monitor befeuern. Die 6800 wäre zwar auch interessant, jedoch schreckt mich das Spulenrasseln doch etwas ab bzw. bis das mal zu vernünftigen Preisen verfügbar wird alles...
 
Zurück