News AMD Navi 48: RDNA-4-Grafikprozessor ist jetzt offiziell bestätigt

Wer sind denn die potentiellen Käufer für N48 ?
(nach m.E. lohnt sich der Wechsel von ner 6700xt)
Du denkst noch wie in den 00er Jahren.
Nachhaltigkeit ist viel wichtiger geworden.
Eine Graka sollte mindestens 7 Jahre in Betrieb sein wenn man ein Umweltbewusster Mensch ist.
Daher wenn du mich fragst lohnt sich der N48 eher für Menschen die 2016 eine Polaris gekauft haben, oder höchstens noch für sowas wie Navi 1 aka 5700XT oder Navi 2 schwächstes Modell aka RX6500XT.

Selbst von einer RX6600 auf N48 zu wechseln halte ich für verschwenderisch.
 
Nachhaltigkeit = die alte Graka nicht wegschmeissen, sondern zur Nachnutzung weiter geben.
Ein Anderer kann mit der 6700xt in FHD dann noch ein paar Jährchen aushalten.
 
Dagegen sag ich nichts. Aber ich vermute nichtmal 50% der Graka Nutzer machen dies so.
Meine Karten wandern entweder durch die Familie, oder bleiben als Ersatz in der Schublade liegen (oder an der Wand hängen, oder aufgereiht auf dem Sideboard als Dekoration usw). Deshalb bin ich so einer, der eine iGPU in jeder CPU als Verschwendung und nutzlos empfindet. Wofür hab ich denn so viele Karten hier liegen? :ugly:

Wegschmeißen tun die Teile wohl die wenigsten.
 
Meine Karten wandern entweder durch die Familie, oder bleiben als Ersatz in der Schublade liegen (oder an der Wand hängen, oder aufgereiht auf dem Sideboard als Dekoration usw).
Erstmal toller Avatar :) Und ich verstehe dich gut. Mir gehts ähnlich.
Hab 2011 mal eine HD6870 gekauft, und bekam 2 Jahre Später im jahr 2013 eine GTX570 geschenkt die schneller war.
Dann lag die HD6870 als ersatz Graka rum, obwohl ich noch eine HD4770 als ersatzgraka rumliegen hatte.
Dann bekam ich 2014 eine GTX 770 geschenkt, und hatte die GTX570 weiter verschenkt und die HD6870 als ersatz Graka weiterhin gehabt.
Doch im Endeffekt lief die HD6870 nur 2 Jahre.
Es ist Schade um die Technik dass sie effektiv nur 2 Jahre benutzt wurde und dann so lange rum lag bis sie total Unbrauchbar wurde. Hab dann wieder ein paar Jahre Später eine GTX970 geschenkt bekommen, und die HD6870 war dann endgültig unnütz, selbst als Ersatz Graka.
Und das ist nur ein Beispiel von vielen Beispielen die ich machen könnte.
Ich versuche daher seit dem immer eine Graka mindestens 5 Jahre zu nutzen bevor sie als ersatz Graka irgendwo rumliegen darf bis sie aufgrund ihres Alters eh nicht mehr genutzt wird.
Das ist zb meine Aktuelle RX470 (Polaris) welche ich Sommer 2016 für 199€ gekauft habe.
Die lief bei mir über 6 Jahre und dann kam eine RDNA 2.
Damit hab ich mich wohler gefühlt.
Die einzige Sinnvolle Alternative ist, seine alte Graka immer zu verkaufen.
Aber das tun wie gesagt bestimmt nichtmal 50% der benutzer.
Ich habe in meinem Freundeskreis von 10 leuten welche am PC Zocken nur einen der mal seine alte Graka verkauft wenn er eine neue bekommt.
 
Die Raster Leistung soll zwischen einer 7900XT und XTX liegen, was der 4080 entspricht und was wir wissen, dass AMD auf dem Kasten hat.. Die Raytracing Leistung müsste hingegen um satte 40% zulegen, damit die 4080 eingeholt wird. Die Gerüchteküche wollte aber auch wissen, dass RDNA4 nur um 25% zulegt.

Dann wären wir in der Situation Navi48 vs. 4070TiS. AMD 10% schneller im Rastern, Nvidia 10% bei RT. Dann lautet die Frage wie immer nach dem Preis.
4080 Leistung zum Preis der 4060 - das Ding wird so ein Gewinner.
 
Ich habe in den letzten 2 Jahren ausschließlich Radeons verbaut (auf Kundenwunsch da deutlich besseres P/L und RT juckt [noch] nicht) und was soll ich sagen, 0(!) Probleme oder Treiberabstürze. Darunter sogar 2 Multimonitorsetups. Ich vermute, das das Problem leider zu oft vor der Mattscheibe sitzt.
Außerdem hat sich NV bei Treiberschwierigkeiten in letzter Zeit auch nicht gerade zurückhaltend gezeigt.
Also wen juckts? Der User muß mit seiner HW zufrieden sein, nicht wir.
Gruß T.

Und ich bin seit der Radeon 9800 Pro durchgehend bei ATi/AMD, nachdem ich von NVidia her gewechselt bin.
Es ist normal, dass nicht alles ständig zu 100% perfekt läuft, aber wenn ich Probleme hatte, dann meistens, weil das dicke Ding vor dem Bildschirm ständig an seiner Hardware herumpfuscht oder das Netzteil nicht passend war. Für die Geforce DDR bsw. musste ich damals sogar auf dem Mainboard eine extra Stromleitung an den Mainboard-AGP löten, damit die Karte auch nur ansatzweise nutzbar wurde (Das Problem war augenscheinlich die Stromversorgung des Mainboards selbst).
Aktuelleres Beispiel: Eine Weile hatte ich dieses Jahr merkwürdige Phänomene bei der Videowiedergabe, aber da bin ich sehr wahrscheinlich ebenfalls selber schuld, da ich u.a. Software Video-FG laufen lasse, das vermutlich mit dem neuen Hardware Video-FG von AMD ins Gehege kam.
Ansonsten wenn ein Treiber mal nicht so gut war, bleibt man halt beim alten bis zum nächsten Release. Aber das passierte mir extrem selten. Selbst die unfertigen Preview-Treiber vom letzten Herbst liefen durchgängig problemlos, und das ist ja mal wirklich unsicheres Terrain.

Grundsätzlich aber gilt, dass wer möglichst wenig Probleme haben will, der wartet bei jedem Hardware-Release mindestens ein halbes Jahr zusätzlich mit dem Kauf, unabhängig ob grün, blau oder rot, Monitore, Soundkarten oder sonst was, das extra Software zum Betrieb benötigt.
 
Die Raster Leistung soll zwischen einer 7900XT und XTX liegen, was der 4080 entspricht und was wir wissen, dass AMD auf dem Kasten hat..
Das ist aber schon optimistisch wenn man in die Benchmarks schaut, ist die XTX auf 4080 super Niveau.

Bei nur 40% mehr RT Leistung wären man immer noch weit abgeschlagen, bei RT.

Beim beurteilen der RT Leistung muss man sich die RT intensiven Spielen raus picken und nicht den gemittelten Parcours.

Ich meine siehe AW2, CP77 und noch ein paar andere Beispiele die mir immer entfallen.

AW2, dort ist eine 4080 schon fast 2,5x so schnell wie die XTX, bei CP77 sind es dann schon 2,75x so schnell.

Dann wäre man mit plus 40% RT Leistung, im heutigen SOFT RT Parcours (Soft, weil RT in zwei, drei Spielen nur abgespeckt eingestellt wird) zwar relativ gut, aber wenn es drauf an kommt, liegt man wieder nur bei der halben Leistung von Nvidias Konkurrenzmodellen
Die Raytracing Leistung müsste hingegen um satte 40% zulegen, damit die 4080 eingeholt wird.
Wie zuvor erwähnt sehe ich bei der RT Leistung (nicht PCGH RT Parcours im Mittel) deutlich größere Abstände.
Die Gerüchteküche wollte aber auch wissen, dass RDNA4 nur um 25% zulegt.

Dann wären wir in der Situation Navi48 vs. 4070TiS. AMD 10% schneller im Rastern, Nvidia 10% bei RT. Dann lautet die Frage wie immer nach dem Preis.
Und nach der Konkurrenz... Die wird dann ja nicht mehr die 4070ti s sein, sondern eher eine 5060ti, bis 5070.

Für mich bleiben zwei Fragen.
Wie viel RT findet die nächsten Jahre den Weg in die Spiele, eher wie AW2, oder CP oder eher weniger, weil die Konsolen als begrenzender Faktor helfen bei vielen Spielen.

Ab wann ist die RT Leistung für heutige Spiele im großen und ganzen ausreichend.
RDNA 2 und 3 haben separate fürs Raytraycing zuständig Ray Accelerators. Das was Rdna4 noch zusätzlich bekommt neben Gen 3 RT Cores bei AMD wird eine BVH Traversal Unit sein.

BVH Traversal Unit und verbesserte + mehr RT Cores

RTX5090 und/oder 5080 Ende 2024 lt der bisherigen Gerüchteküche und die kleineren Modelle dann erst im Laufe 2025. Hier kommt es dann darauf an wie stark diese sich zu ihren Vorgängern dann absetzen. Und laut den selben Gerüchten erscheint RDNA5 ja bereits weniger als ein Jahr nach RDNA4. Zudem ist immer öfter von einem Desktop RDNA3/4 Hybrid im Highend die Rede wie er in der PS5 Pro kommen soll. Deshalb offiziell ist hier noch garnichts.
Wann soll denn Navi 48 kommen, kommt auch erst nach dem Sommer. Dann wäre eine 5070 zu Januar, Februar nicht weit entfernt zeitlich.

RDNA5 kommt dann nicht vor Herbst 2025. Damit sehe ich jetzt nichtm warum sich ein Navi 48 eher mit einer RTX4000 messen lassen sollte und nicht erst dann richtig, wenn ein halbes Jahr später die eigentliche Konkurrenz da ist.

Letztendlich gab es früher auch immer zeitliche Abstände zwischen den Generationen von AMD und Nvidia, konnte man immer schön von Pferd zu Pferd springen ;)
 
Zuletzt bearbeitet:
Schließlich läßt sich der von AMD bevorzugte GDDR6-Speicher bereits mit 22 Gbps bei SK Hynix bestellen und selbst 24 Gbps stand mal auf einer Samsung-Roadmap.

Gibts dafür ne Quelle oder hamm die sich das aus den Fingern gesogen?

Hab zumindest bis jetzt noch nirgends was zu 22Gbps Modulen von Hynix gesehen.


Wäre natürlich nicht schlecht wenns den gäbe.

Edit: oh hey, ich wurde ja sogar erwähnt :-P

Wenn die Chips wirklich so winzig sind (was durchaus plausibel ist, wenn man paar Faktoren bedenkt), kannst du das wegen der Wärmedichte knicken.

MfG
Raff
Das wird sicherlich ein Problem. Aber wenn mit 215W schon über 3GHz drin sind bleib ich erstmal guter Dinge ^^
 
Zuletzt bearbeitet:
Ich dachte ja zum Ende des Jahres würde ich wieder kaufen wollen weil ich "nur" die offizielle "noch-Mittelklasse GPU 7900XTX statt der 4090 genommen habe. 1000€/100% mehr für 0-25% mehr Leistung hielt ich für Dumm. Und ich hatte Recht...
Ich habe momentan keine Ahnung was ich mit der 7900XTX anstellen sollte um sie auszulasten (in Spielen). Worstcase wäre CP2077 mit 80-90% Auslastung bei 60fps und 90%PT in WQHD. Raytracing Nutze ich nicht. Und wenn dann irgendwann mal doch Leistung knapp werden sollte, bei meinen Spielen die immer so gut 2 Jahre und Älter sind überwinde ich mich dann doch vielleicht mal FSR zu nutzen

Bis auf die 260GTX und die 980Ti hab ich noch keine Karte weggetan/verkauft...
Auch nicht meine 1080Ti die Tadellos läuft liegt seit Oktober 23" im Keller^^

Ich denke die kommende und die darauffolgende Generation wird mir so am Hintern vorbei gehen.
Vielleicht interesstiert mich die Generation danach also so in 5 Jahren etwa.
Ray Tracing wird vielleicht Richtung 2030 Interessant für mich wenn die dazu nötige extra Leistung nicht mehr der rede wert ist.

Ich habe dieses Jahr etwa 38 Stunden gespielt, laut AMD Treiber. Als die Spiele Branche noch interessant war habe ich gut und gerne jeden Tag 2 Stunden und mehr gespielt, über Jahre. Jetzt ist vieles nur noch unliebsam rausgeleierter Content am Fließband. Wer kauft den 20 Stunden Spielzeit für 50€...um durch Bagdad zu springen!

Für Final Fantasy 10 hab ich 25€ bezahlt und habe auf meinem 2. Speicherstand nach über 600 Stunden noch immer nicht die letzen beiden Schwarzen Schleifen gefarmt. Auf Spielstand 1 habe ich über 1000 Stunden.. Alter die Omega Grotte kann ich nachmalen...

Der Inhalt der Spiele scheint eh nur noch wenigen Studios was zu bedeuten. Wichtiger sind große Aufmacher, tolle Ankündigungen, pompöse Optik und maximierung der verkauften Einheiten. Dazu zahlende beta Tester, genannt Spieler

AMD macht es mit dem Non-High End- Step glaube ich inzwischen, genau richtig.. Mit großer Stückzahl in die Butter und Brot klasse. Die gut geeignet ist für KI-Software Leistung, statt Technischer Leistung. Da man mit weniger Material aufwand ein ähnliches Ergebnis bekommt, genau da wo man Stückzaheln absetzt.
 
Zuletzt bearbeitet:
Die 4090 erschien Oktober 2022, die 4070 April 23.
Und jetzt, oder hast du detailliertere Informationen? ;)
Noch ist wirklich bekannt wann die Navi 48 auf den Markt kommt.

Die RT Leistung in RT Worst Case Szenarien dürfte sogar schon nur deutlich untewr RTX4000 Niveau liegen.

Siehe Path Tracing Benchs zu AW2, oder CP77, oder ein paar andere RT intensive Benchs.

Da liegt das grüne Konkurrenzmodell mal bei 2,5 fachen Performance des jeweiligen AMD Modells.

Aber der eigentliche Konkurrent von Navi 48 wird eine 5070 sein.
 
Wenn die Chips wirklich so winzig sind (was durchaus plausibel ist, wenn man paar Faktoren bedenkt), kannst du das wegen der Wärmedichte knicken.
OCen@Air auf 4GHz wird vermutlich nicht einfach. (ohne h2o<50°C steigt der Verbrauch zu sehr)
vllt. gehts ja in nem ultralight Game/Benchmark wie Gravitymark
und wenns nur der Frontendtakt ist

Was W/mm² angeht, mal abwarten obs 215W TBP und 240mm² oder 275W TBP und 270mm²
werden.
Davon ist ja auch nicht die volle TBP auf dem Chip selbst abzuführen, ...siehe GRE:

GRE-Watts.png

beim SOC wäre es wünschenswert, etwas runter zu kommen, may be als Monolith einfacher
als die MCD´s (kürzere Wege brauchen weniger Volt)

z.Vgl.
Die kleine 7600xt hat bei 204mm² schon 190W und kann mit PL+20% betrieben werden.(228W)
 
Zuletzt bearbeitet:
Jo, hat alles Vor- und Nachteile. Chiplets verteilen die Hotspots besser, erfordern aber mehr Aufwand bei der Verdrahtung und Wartung. Ich bin enorm gespannt auf die ersten Dual-GCD-Grafikkarten, gerade in Sachen Kühlung.

MfG
Raff
 
Zurück