News AMD Navi 48: RDNA-4-Grafikprozessor ist jetzt offiziell bestätigt

BVH Traversal Unit und verbesserte + mehr RT Cores
Von der Unit habe ich ja noch nie gehört.

Hatte gerade noch einen PCGH Artikel dazu gefunden:


  • Level 1: Software on Traditional GPUs (alte Grafikchips ohne Hardware-Raytracing)
  • Level 2: Ray/Box and Ray/Tri Testers in Hardware (RDNA 2, RDNA 3)
  • Level 3: Bounding Volume Hierarchy (BVH) Processing in Hardware (Turing, Ampere, RDNA 4)
  • "Level 3.5": BVH Processing with Coherency Sorting in Hardware via Shader (Ada Lovelace, Alchemist)
  • Level 4: BVH Processing with Coherency Sorting in Hardware via Geometry & Shader (ImgTec Photon)
  • Level 5: Coherent BVH Processing with Scene Hierarchy Generator in Hardware
 
2. Wer sind denn die potentiellen Käufer für N48 ?
(nach m.E. lohnt sich der Wechsel von ner 6700xt)

Steam Charts werden dominiert von 1080p und 1440p Monitoren, der N48 wird jedes Spiel in diesen Auflösungen zuverlässig mit 60-120fps auf den Schirm werfen und RT sind dann vielleicht 40-80, mit FSR oben drauf 60. Man muss sich nur die 7900XT ansehen, die liefert das auch, allerdings zu einem Preis der nicht gerade danach schreit, dass der Käufer einen 1080p oder 1440p Monitor hat. Indem jedoch diese Leistungsklasse preislich günstiger wird, kommen die Käufer in Reichweite die in den Steam Charts die Masse ausmachen. Das sind ja auch Kunden die nicht nörgeln weil sie "nur" 60fps haben, wie das Käufer von 1000€ GPUs in der Regel tun.


AMD hat schon gewonnen, wenn man bis 600€ wieder sagen kann, dass es egal ist, ob man eine RX oder NV kauft. Vega56 vs 1070 war schon einmal so eine Situation, nur ist damals halt die Vega56 überwiegend im Cryptobereich verschwunden. Mit der GRE vs Super sehen wir jetzt schon, dass AMD genau diesen Zustand haben will. Was darüber passiert scheint vorerst egal.
 
Die Raytracing Leistung müsste hingegen um satte 40% zulegen, damit die 4080 eingeholt wird.
Mit 40% hätte man die 4080 auch nur bei hybriden Titeln. Bei heavy RT oder sogar PT müsste man die Leistung fast verdoppeln.

Wer glaubt, dass die Karte günstig wird, ist naiv. Die jetzigen Karten sind es nicht und die neuen werden es auch nicht.
AMD kämpft mit der nächsten Generation gegen die alte Generation von Nvidia und kann selbst dort nicht das Topmodell schlagen. Das ist ziemlich ernüchternd.
 
Die ständigen Treiber und Spielabstürze.. ich kenne mittlerweile kaum noch jemand der nicht von AMD auf Nvidia frustriert gewechselt ist deswegen.

Und da waren einige neue Karten der 6000er und 7000er Generation dabei
Ich habe in den letzten 2 Jahren ausschließlich Radeons verbaut (auf Kundenwunsch da deutlich besseres P/L und RT juckt [noch] nicht) und was soll ich sagen, 0(!) Probleme oder Treiberabstürze. Darunter sogar 2 Multimonitorsetups. Ich vermute, das das Problem leider zu oft vor der Mattscheibe sitzt.
Außerdem hat sich NV bei Treiberschwierigkeiten in letzter Zeit auch nicht gerade zurückhaltend gezeigt.
Also wen juckts? Der User muß mit seiner HW zufrieden sein, nicht wir.
Gruß T.
 
AMD kämpft mit der nächsten Generation gegen die alte Generation von Nvidia und kann selbst dort nicht das Topmodell schlagen. Das ist ziemlich ernüchternd.

Deswegen sage ich, mit 240mm² Chips kämpft man nicht gegen 400mm² Chips aus der gleichen Fabrik an. Das beste worauf AMD hoffen kann ist, dass der AMD Chip mit 240mm² ein Unentschieden gegen den Nvidia Blackwell Chip mit 240mm² schafft. Dann ist es "nur" Preiskampf.

Vielleicht will AMD auch im geheimen zwei von den Chips zusammenkleben wie Apple das mit seinen M2 Ultra Chips macht und das ist die Überraschung die noch geheim ist. Das ist der einzige Grund warum AMD sich selbst auf einen ca. 180W Chip limitiert, wenn man locker das doppelte kühlen kann.
 
N48 soll doch schon ein doppelter N44 sein, allerdings nicht geklebt.

btw.
Steam WQHD;
Dann sinds vllt. mehrheitlich sogar noch alte 60...75Hz-Monis!
(da wird man auch seltener aufrüsten)
 
Zuletzt bearbeitet:
Ich habe in den letzten 2 Jahren ausschließlich Radeons verbaut (auf Kundenwunsch da deutlich besseres P/L und RT juckt [noch] nicht) und was soll ich sagen, 0(!) Probleme oder Treiberabstürze. Darunter sogar 2 Multimonitorsetups. Ich vermute, das das Problem leider zu oft vor der Mattscheibe sitzt.
Außerdem hat sich NV bei Treiberschwierigkeiten in letzter Zeit auch nicht gerade zurückhaltend gezeigt.
Also wen juckts? Der User muß mit seiner HW zufrieden sein, nicht wir.
Gruß T.
Ich auch 0 Probleme in den letzten Jahren mit AMD. Würde auch nicht zu Nvidia aufgrund des P/L-Verhältnisses wechseln, nicht weil ich Nvidia schlecht finden oder so. Will einfach nicht zu einem potentiellen Monopol beitragen... Das schadet nämlich letztlich allen Usern
 
240mm² und 256bit gehen schlicht nicht
Da sf4x (4lpp) genutzt wird sind Maxed von samsung 14nm aus (glofo hat das lizensiert) gibt es eine Flächenreduktion von -10% + -10% + --20% +-10%+ -21% =-71% vs 14nm in logic area in Si hat sich seit n16 nix getan was samsung 14nm identisch ist
Das liegt primär an den analogen Verbindung bei den ballgrid verfahren kleinere kugeln gibt es nicht
darum ist das Si frühestens mit gaa möglich.
Folglich 209mm² für das Si dazu 119mm² logic=328mm² min Größe um die 240mm² zu erreichen braucht es zwingend 128bit =224mm²
 
Ray-Tracing Leistung ist mir halt sowas von egal. Für mich zählt nur die reine Rasterleistung. Gibt kaum ein Spiel wo es sich für mich lohnt das auf Kosten der Performance/Stromverbrauch/Lüfterlautstärke einzuschalten.

Wenn ich die Wahl habe zwischen physikalisch korrekter Beleuchtung, die aber mehr Strom verbraucht, wobei die Lüfter entsprechend aufdrehen und laut werden, und vorkalkulierter Beleuchtung, die nur einen Bruchteil der Performance kostet und in der Regel akzeptabel aussieht, erübrigt sich die Entscheidung.

Fakt ist nunmal, dass man das meiste was Ray-Tracing macht auch vorberechnen kann und Spiele in der Regel nicht auf physikalisch korrekte Echtzeitbeleuchtung angewiesen sind. In einer Welt, in der Ray-Tracing "umsonst" ist, hätte das natürlich jedes Spiel, nur sieht die Realität eben anders aus.
 
Ray-Tracing Leistung ist mir halt sowas von egal. Für mich zählt nur die reine Rasterleistung. Gibt kaum ein Spiel wo es sich für mich lohnt das auf Kosten der Performance/Stromverbrauch/Lüfterlautstärke einzuschalten.

Wenn ich die Wahl habe zwischen physikalisch korrekter Beleuchtung, die aber mehr Strom verbraucht, wobei die Lüfter entsprechend aufdrehen und laut werden, und vorkalkulierter Beleuchtung, die nur einen Bruchteil der Performance kostet und in der Regel akzeptabel aussieht, erübrigt sich die Entscheidung.

Fakt ist nunmal, dass man das meiste was Ray-Tracing macht auch vorberechnen kann und Spiele in der Regel nicht auf physikalisch korrekte Echtzeitbeleuchtung angewiesen sind. In einer Welt, in der Ray-Tracing "umsonst" ist, hätte das natürlich jedes Spiel, nur sieht die Realität eben anders aus.
Da weiß man ja gar nicht, wo man anfangen soll. Die Energieeffizienz auf die Stärke oder Schwäche in RT zu münzen, ist schon mal Quatsch. Wieso zieht eine RTX 4080 Super weniger Saft als eine 7900XTX, bleibt damit kälter und potentiell ruhiger, bietet dennoch eine deutlich bessere Performance in RT-Games?
Und diese ganze Vorberechnung ist auch Quatsch. Das geht bei statischen Szenen evtl. Sobald aber Dynamik reinkommt, ist eine Echtzeitberechnung nötig.
Aber wieso schreibe ich dies eigentlich? Du bist ohnehin festgelegt :D.
 
Da weiß man ja gar nicht, wo man anfangen soll. Die Energieeffizienz auf die Stärke oder Schwäche in RT zu münzen, ist schon mal Quatsch. Wieso zieht eine RTX 4080 Super weniger Saft als eine 7900XTX, bleibt damit kälter und potentiell ruhiger, bietet dennoch eine deutlich bessere Performance in RT-Games?
Und diese ganze Vorberechnung ist auch Quatsch. Das geht bei statischen Szenen evtl. Sobald aber Dynamik reinkommt, ist eine Echtzeitberechnung nötig.
Aber wieso schreibe ich dies eigentlich? Du bist ohnehin festgelegt :D.
Ray-Tracing Leistung ist mir halt sowas von egal. Für mich zählt nur die reine Rasterleistung. Gibt kaum ein Spiel wo es sich für mich lohnt das auf Kosten der Performance/Stromverbrauch/Lüfterlautstärke einzuschalten.

Wenn ich die Wahl habe zwischen physikalisch korrekter Beleuchtung, die aber mehr Strom verbraucht, wobei die Lüfter entsprechend aufdrehen und laut werden, und vorkalkulierter Beleuchtung, die nur einen Bruchteil der Performance kostet und in der Regel akzeptabel aussieht, erübrigt sich die Entscheidung.

Fakt ist nunmal, dass man das meiste was Ray-Tracing macht auch vorberechnen kann und Spiele in der Regel nicht auf physikalisch korrekte Echtzeitbeleuchtung angewiesen sind. In einer Welt, in der Ray-Tracing "umsonst" ist, hätte das natürlich jedes Spiel, nur sieht die Realität eben anders aus.

Ich finde diese Diskussionen sobald was von AMD oder Nvidia (Intel lass ich hier mal bewusst weg) immer wieder amüsant.
Mir ist es im Endeffekt egal von welchem Hersteller meine Karte kommt, solange diese meine P/L Vorgaben bedient.
Ich habe Summer X zur Verfügung und bei dieser Summe ist das Produkt von Y am besten.
Jetzt kommt eventuell noch die Frage auf ob ich zu diesem oder jenem Wechsel obwohl dieser leicht schlechter in einem Bereich ist oder gar in alle Bereichen gleich ist,ich aber vorher schon ein Produkt von dem anderen hatte und aufgrund der Gewöhnung (Treiber Umgebung) ich lieber dabei bleiben möchte.

Ich könnte jetzt sagen nein allein wegen RT musst du Nvidia nehmen die sind da viel besser(stimmt das hm…) aber nein wenn ich darauf keinen Wert lege, ist eventuell die Konkurrenz die bei RT besser ist aber bei den anderen Sachen schlechter ist, raus aus meinem PL.

Oft lese ich auch RT ist Sau geil ein muss für mich deswegen habe ich diese und jene Karte, da erfährt man das derjenige am meisten z.b BF2042 spielt, dort aber Grafik so eingestellt hat das nichts stört (meistens wird fast alles runter/aus gestellt) und somit auch, wegen FPS usw, RT.
 
Die Speku´s, das N48 z.T. schneller als die 7900xt sein könnte, wird wohl stark von den Games abhängen, je nachdem ob die Auslastung/Dual-Issue der FP32 besser gelöst ist (…)
Dual-issue wird nur bei Wave32 benötigt. Wenn kein Mangel an Registern und LDS besteht, wird der Treiber immer versuchen, Wave64 auszugeben, wodurch die zusätzlichen ALUs so gut wie immer genutzt werden.
 
Freu mich schon drauf das Ding auf 4GHz zu jagen.
Dann rechne mal die TFlops aus, krass, ... mit 3GHz sinds wohl schon 50TFlops, ... mit 4GHz dann 66!
50 ist schon ganz nahe an der 7900xt.
(die 3GHz waren ein ES@215W für Chip oder Platine?)

Dann muss natürlich auch der gute Hynix@22Gbps noch etwas mehr OCen hergeben, damits sich rentiert.

Viel Erfolg!
(und Spass dabei)
 
Zuletzt bearbeitet:
Zurück