AMD Radeon RDNA3 & MCM Laberthread

Die Pulse über der Hellhound und XFX? Hm der Kühler ist halt schon ein gutes Stück kleiner andererseits ist die Verarbeitung bei Sapphire eigentlich immer top, noch nie was negatives gehört.
 
Die Pulse über der Hellhound und XFX? Hm der Kühler ist halt schon ein gutes Stück kleiner andererseits ist die Verarbeitung bei Sapphire eigentlich immer top, noch nie was negatives gehört.

Gäbe noch die Sapphire 7900 GRE Nitro+, deren Kühllösung hörbar leiser arbeiten müsste, wenn die Karte luftgekühlt bleiben soll. Der Kühler sollte fetter sein und bietet auch noch RGB-Bling-Bling. Das PCB darunter ist im Kern gleich aufgebaut wie bei der Pulse und müsste nur kleine Abweichungen bei der Bestückung aufweisen. Zumindest ist der hochwertige Wakü-Kühler von Alphacool für die XTX Nitro+ kompatibel zur XTX Pulse.

Wenn man die Karte auf Wakü umbauen will, reicht m.M. die Pulse aus als Basis, da mit noch extremerem OC i.d.R. verhältnismässig wenig zusätzliche Performance rausspringt für den zusätzlichen Strom.
Sie hat jedoch kein Dual-BIOS. Das Dual-BIOS auf der GRE Nitro+ stellt die TBP wahlweise auf 295W oder auf einen niedrigeren Wert. Ich schätze der könnte grob bei 250W liegen. Damit sind über den Wattman maximal 339W oder vermutlich minimal 225W einstellbar. Bei der GRE Pulse liegt die TBP bei 268W, ergo bietet diese eine Powertarged-Range von max. 308W oder min. 241W.

Die XTX sind in jedem Fall zu stark für Dein Netzteil, für die GREs sollte es aber ausreichen im normalen Betriebsmodus. Resp. evtl. könnte es nötig sein die GRE Nitro+ ein klein wenig einzubremsen, da Seasonic nach meiner Erfahrung gegenüber Verbrauchspeaks etwas nervöse Netzteile baut.
 
Zuletzt bearbeitet:
Die GRE-Nitro statt ner 7900xt@719€, ... lohnt sich das überhaupt ?
(die TUF gäbs mit Cashback wohl sogar für 699€)
 

Anhänge

  • 7900xt@719€.JPG
    7900xt@719€.JPG
    12,8 KB · Aufrufe: 53
Ist das jetzt auch schon der Patch mit den GTX 1000er Optimierungen bei Dir?

btw.
7900xtx@889€ im MS und die GRE@549€
 

Anhänge

  • 7900xtx@889€.JPG
    7900xtx@889€.JPG
    31,1 KB · Aufrufe: 27
  • GRE@549€ im MS.JPG
    GRE@549€ im MS.JPG
    28,6 KB · Aufrufe: 12
Zuletzt bearbeitet:
Gäbe noch die Sapphire 7900 GRE Nitro+, deren Kühllösung hörbar leiser arbeiten müsste, wenn die Karte luftgekühlt bleiben soll. Der Kühler sollte fetter sein und bietet auch noch RGB-Bling-Bling. Das PCB darunter ist im Kern gleich aufgebaut wie bei der Pulse und müsste nur kleine Abweichungen bei der Bestückung aufweisen. Zumindest ist der hochwertige Wakü-Kühler von Alphacool für die XTX Nitro+ kompatibel zur XTX Pulse.

Wenn man die Karte auf Wakü umbauen will, reicht m.M. die Pulse aus als Basis, da mit noch extremerem OC i.d.R. verhältnismässig wenig zusätzliche Performance rausspringt für den zusätzlichen Strom.
Sie hat jedoch kein Dual-BIOS. Das Dual-BIOS auf der GRE Nitro+ stellt die TBP wahlweise auf 295W oder auf einen niedrigeren Wert. Ich schätze der könnte grob bei 250W liegen. Damit sind über den Wattman maximal 339W oder vermutlich minimal 225W einstellbar. Bei der GRE Pulse liegt die TBP bei 268W, ergo bietet diese eine Powertarged-Range von max. 308W oder min. 241W.

Die XTX sind in jedem Fall zu stark für Dein Netzteil, für die GREs sollte es aber ausreichen im normalen Betriebsmodus. Resp. evtl. könnte es nötig sein die GRE Nitro+ ein klein wenig einzubremsen, da Seasonic nach meiner Erfahrung gegenüber Verbrauchspeaks etwas nervöse Netzteile baut.
Die Nitro wäre natürlich optimal aber wie schon geschrieben kommt man da preislich langsam an ne 7900xt ran, lohnt also nicht.

Ist das jetzt auch schon der Patch mit den GTX 1000er Optimierungen bei Dir?

btw.
7900xtx@889€ im MS und die GRE@549€
Die waren aber schnell weg, grad mal reingeschaut schon wieder oben der Preis. Wie ist die Fighter einzuordnen, ähnlich einer Pulse?
 
Fighter ist um den Chip herum mit billigsten Materialien gearbeitet, die Budget Version. Ich hatte mal eine 6800 Fighter. Ich konnte da aber nicht klagen - nur dass ein Kartoffelchip drauf war, aber dafür konnte die Fighter eher nichts, ich glaub nicht, dass die negativ gebinnt werden.
Teilweise hatten die Fighter sogar Dual-Bios.
 
Nun ist das Sonderangebot eeh vorbei.

Die Fighter mit kleineren Lü. ist eher Was für UVer.
 

Anhänge

  • Hellhound vs Fighter.JPG
    Hellhound vs Fighter.JPG
    124 KB · Aufrufe: 19
Wir übrigens auch: https://www.pcgameshardware.de/Gefo...90-vs-7900-XTX-Benchmark-Test-2024-1442362/2/

Ohne RT/PT fluppt das ziemlich dufte auf RDNA 3. :-)

MfG
Raff
4090 ist über 40% schneller in UHD und mit RT +106%. Der Abstand ist in der Regel doch nicht über 40% beim Raster oder nicht? Von dem her fluppt es vllt doch nicht so gut wie in manch anderen Games oder? Oder war der Abstand vorher noch deutlich größer in dem Game mit älteren Treibern?
 
Nehm halt die "gewollten" Ausreisser raus und schon hat man reale Verhältnisse.(ala CB)
Das ist zwar ne nette Geste, das die Reviewer den Intelknicks in JA machen, aber nicht zielführend.
Ich lass mich mal überraschen, ob Intel in Zukunft noch mehr Games soo stark "optimieren" kann.
 

Anhänge

  • Index ohne Ausreisser.JPG
    Index ohne Ausreisser.JPG
    108,5 KB · Aufrufe: 15
Zuletzt bearbeitet:
Für das, dass die 4090 33% fetter ist und eine stärker ausgebaute Dual-Issue-Funktionalität hat als die 7900XTX, fluppt es im Raster angemessen gut, wenn man sieht, dass die 4090 im Raster im Overall-Schnitt nur 25%, bestenfalls im UHD-Schnitt 33% schneller ist. Besonders fluppt es sich mittlerweile deutlich günstiger mit RDNA3.
Effizienzmässig ist AMD dabei im Raster weiterhin ganz gut dabei, trotz Chiplet-Design. Jedenfalls viel näher als bei den CPUs das Intel gegenüber AMD ist.

Das ist für jene paar Leute die hauptsächlich Spiele mit Pathtracing max. spielen natürlich unwichtig, aber das muss dann jeder für sich selber abwägen, welche Karte besser zu seinem Usecase passt.
 
Für das, dass die 4090 33% fetter ist ...
eigentlich kann der 4090-Chip auf 90% mehr Shaderfläche zurückgreifen
(so gesehen nutzt AMD das Silizium net schlecht)

ne 4080S nutzt das Silizium schon ganz gut, ... da liegt der "Vorteil" ggü. der XTX bei sparsamen 256bit
und das man nochmal ggü. der 4080-Salvage soviel Effizienz 7%+ rausholen konnte ist beachtlich,
aber das ne 4070TiS bei P/L und Effizienz so schlecht da steht ist dann schon wieder Murks
 

Anhänge

  • N31 vs AD102.jpg
    N31 vs AD102.jpg
    99,4 KB · Aufrufe: 12
  • 4080s@144fps.jpg
    4080s@144fps.jpg
    43,9 KB · Aufrufe: 7
Zuletzt bearbeitet:
eigentlich kann der 4090-Chip auf 90% mehr Shaderfläche zurückgreifen
(so gesehen nutzt AMD das Silizium net schlecht)

ne 4080S nutzt das Silizium schon ganz gut, ... da liegt der "Vorteil" ggü. der XTX bei sparsamen 256bit
und das man nochmal ggü. der 4080-Salvage soviel Effizienz 7%+ rausholen konnte ist beachtlich,
aber das ne 4070TiS bei P/L und Effizienz so schlecht da steht ist dann schon wieder Murks

Ich schaue lieber auf die Anzahl SM/CUs, da auch bei der 4090 die verdoppelte Anzahl Shader nicht einer vollständigen Verdoppelung der SM/CU-Fähigkeiten entspricht, sondern auch dort bestimmte Bedingungen eingehalten werden müssen, damit das zusätzliche Potenzial abgerufen werden kann.

Ich finde daher auch, dass eine 4080 vergleichsweise zu einer 4090 viel besser läuft, da die ihre deutlich unterlegene Menge an SM augenscheinlich deutlich besser auszulasten schafft. Würde ich aber ernsthaft eine NVidia bei der GPU-Wahl mitberücksichtigen fällt die 4080(S) bei mir aber wieder raus, weil sie weniger Speicher zu einem deutlich höheren Preis als die 7900XTX bietet. Die etwas bessere Effizienz und der grob +30% Vorteil in RT ist mir da dann herzlich egal, wenn ich auf die hauptsächlich von mir gespielten Spiele gucke. Und bei Radeon habe ich dann noch Radeon Chill, um in Spielen wie Anno deutlich Strom zu sparen.
 
Unterschätz mal den Einfluss der verfügbaren Fläche nicht!
Dort kann man mit mehr Transistoren gut nen höheren Takt und /oder Sparsamkeit ermöglichen.
Oder mit etwas weniger Packdichte dann weniger Leckströme, = es ist ein weites Feld.
(leider gibts kaum Infos, was genau 4N bei NV bedeutet)

AMD dagegen hat bei RDNA3 wohl nur auf Packdichte gesetzt.
(may be mit nem Standard-TSMC 5nm Process)
 
Zuletzt bearbeitet:
Nehm halt die "gewollten" Ausreisser raus und schon hat man reale Verhältnisse.(ala CB)
Das ist zwar ne nette Geste, das die Reviewer den Intelknicks in JA machen, aber nicht zielführend.
Ich lass mich mal überraschen, ob Intel in Zukunft noch mehr Games soo stark "optimieren" kann.
Dann müsste man auch Dlss im Performance Mode vs Fsr quality testen da ja Dlss deutlich besser aussieht. Von der Bildqualität her sind Dlss Performance und Fsr Quality auf ähnlichem Niveau. Ist also auch nicht fair Settings zu vergleichen die sich voneinander abheben, oder wie seht ihr das?
 
Wie soll man auf ner AMD-Graka DLSS testen?

Also = Alles nur graue Theorie.
Jeder nimmt seins und fertig.

Ob FSR auf ner fremden Marke gleichgut ausschaut wie bei AMD selbst, da habe ich keine Ahnung.
(und obs dann eher schlechter oder besser performt)
 
Zurück