News AMD Ryzen 9 9950X: Effizienzmeister aller Leistungsklassen

Muss mich zusammenreißen keinen zu kaufen 😅 will eigentlich auf den 9800X3D warten 🤣 aber so ein paar punkte extra im Benchmarking sind verlockend 🧐

Erst 9950X dann Wechsel auf 9800X3D 😅
 
Wenn es jemanden um Energie, Stromverbrauch, Effizienz geht, darf die 4080(S) nicht ignoriert werden!
Mein Kollege Raff hat sie ja nicht vergessen.
Ist der eigentliche Sieger, wenn es darum geht!
Nein, die RTX 4090 steht überall auf Platz 1. Beim Rasterizing kommt die 4080S an zweiter Stelle, bei Raytracing sogar erst an dritter.
Die 4080(S) hat geringere Leistungsaufnahme als die 4090 - was man unter keinen Umständen ignorieren darf - und steht von der Effizienz her kaum nach.
Was hat die Leistungsaufnahme mit der Effizienz zu tun? Die 4090 könnte auch eine Leistungsaufnahme von 2.000 Watt oder höher haben, und trotzdem effizienter als eine Karte sein, die nur 100 Watt benötigt.
Sie liefert saubere Leistung bei toller Effizienz bei akzeptabler Leistungsaufnahme!!
Das hat niemand angezweifelt, doch darum geht es ja hier nicht.
Die RTX 4070 Super ist effizienztechnisch auch noch gut dabei und benötigt noch einmal weniger Strom. Allerdings eher nicht mehr für 4K.
Die 4070S kommt mit einer geringeren Leistungsaufnahme, aber auch geringerer Effizienz.
Sorry, aber wenn eine RTX 4090 gekauft ist, stand ja trotzdem die maximale Leistung im Vordergrund und die Leistungsaufhnahme war 2.rangig.
Das eine schließt das andere nicht aus. Eine 4090 ist auch bei maximalem Undervolting noch schneller als jede andere Desktop-Grafikkarte. Das zeigt dieser Artikel hier vom Kollegen Raff recht gut auf:
Auch hier haben wir einen Desktop-PC designt, der mit High-End-Hardware unter 350 Watt benötigt, und dabei auf die derzeit effizientesten Komponenten setzt:
Die Effizienz ist angesichts der maximalen Leistungsaufnahme bei der RTX 4090 fast schon Augenauswischerei!
Noch mal: Was hat die Leistungsaufnahme mit der Effizienz zu tun?
Der Ram teiler (Gear2) war auf Ramtakt in Richtung >7200MT/s bezogen. AM5 Boards können das ja inzwischen auch teilweise . Diese Takatraten (für Enthusiasten meist wichtig) können bei AMD aufgrund dre FCLK beschränkung nicht voll ausgefahren werden. Heißt Leistungsverlust durch weniger Durchsatz wenn man hohen Ramtakt fahren möchte.
Das ist für ein entsprechendes Klientel sehr wichtig.
Die Gear-Modi gibt es bei nur bei Intel. Bei Ryzen 7000 macht der IMC einfach dicht, und beim IF macht Ryzen 9000 ja Fortschritte. 8.000 MT/s sind bei halbem Teiler jedenfalls langsamer als 6.400 MT/s mit synchroner Anbindung. Das wird bei Zen 5 ohnehin nur spannender, wenn die AGESA-Sperre ab 8.000 MT/s verschwindet.
dennoch wird der I5 als stomvernichter angeschwärzt weil er in Anwendungen 181W verbrauchen kann
Wo? Von uns jedenfalls nicht.
Der I5 ist nahezu genauso sparsam (69W @ WQHD) .
Bei welchem Testszenario? Wenn man das vergleichen möchte, dann geht das nur unter gleichen Bedingungen.
Verglichen wird bei Intel immer nur als Referenz im Gaming mit dem 13-/14900K (f/S), egal welche AMD CPU gerade getestet wird.
Wo? Von uns jedenfalls nicht.
Das habe ich nie behauptet. Dennoch wird das ding auch in den meisten Fällen übertaktet und dann bringt auch der sparsame Ryzen nichts mehr. Nur das war der Hintergrund meiner Aussage.
Siehe der Artikel oben, mit dem Effizienz-PC. Gerade dann bringt das eine Menge. Eine Überaktung und ein Undervolten schließen sich gegenseitig nicht aus.
Ein Ryzen 5 7xxx oder 9xxx mit 5,85GHz Standardtakt (wie der Ryzen 9) 3DCache und einem Ramtakt von 8400MT/s im Gear 2 das war mit dem angesprochenen 7600XT3D gemeint. Das ganze gepaart mit 65W verbrauch, ja so eine CPU würde mich bei AMD begeistern.
Mich auch. Das kommt aber wohl erst mit Zen 6, das dauert dann noch mal gut zwei Jahre. Wobei mir dann sechs Kerne wahrscheinlich zu wenig wären.
 
Mein Kollege Raff hat sie ja nicht vergessen.

Nein, die RTX 4090 steht überall auf Platz 1. Beim Rasterizing kommt die 4080S an zweiter Stelle, bei Raytracing sogar erst an dritter.
Ups das habe ich übersehen, dass ich hier mit PCGH-Team interagiere!

Mir ging es nur darum, dass die RTX 4090 zwar performance-technisch Nr. 1 ist.
Nur wenn es jemanden um Stromverbrauch geht, dann eben nicht. Effizienz hin oder her.
Diese RTX 4090 ist nämlich nicht überall auf Platz 1 und zwar bei tatsächlicher Leistungsaufnahme (höher schlechter) und das ist ein sehr wichtiger Faktor, wenn es jemanden um - naja: Stromverbrauch geht.

Undervolting ist natürlich noch ein Thema, habe aber übrigens meine 4080S nach Raffs Angaben undervoltet und ich bezweifle, dass die 4090 hier gleichzieht....
...und wer das dann tatsächlich tut, frage ich mich auch, immerhin scheinen Preise dann weniger eine Rolle zu spielen und somit wird wohl meistens doch die maximale Leistung im Vordergrund gewesen sein bei der Kaufentscheidung.

Wenn es jemanden um Energie, Stromverbrauch geht (Prio 1) - 2 wichtigsten Werte:
-> tatsächliche Leistungsaufnahme
-> Effizienz
-> Nachhaltigkeit wäre auch noch Thema, bzw. so war es dann bei meiner Kaufentscheidung ;-)
 
Zuletzt bearbeitet:
Mir ging es nur darum, dass die RTX 4090 zwar performance-technisch Nr. 1 ist.
Nur wenn es jemanden um Stromverbrauch geht, dann eben nicht. Effizienz hin oder her.
Diese RTX 4090 ist nämlich nicht überall auf Platz 1 und zwar bei tatsächlicher Leistungsaufnahme (höher schlechter) und das ist ein sehr wichtiger Faktor, wenn es jemanden um - naja: Stromverbrauch geht.
Wenn es jemanden um Stromverbrauch geht, muss dieser sich einen ULP Laptop kaufen. Alles andere wäre zuviel Stromverbrauch.

Da ist eine 4080(S)/4070ti(S) nämlich noch ungeeigneter als eine 4090, da diese zwar weniger verbrauchen als die 4090, aber massiv weniger Leistung haben, was eben zu einer schlechteren Effizienz (Leistung durch Stromverbrauch) führt.

Übrigens, die 4090 hat zwar ein Serienpowerlimit von 450W, dieses wird aber kaum ausgereizt, der durchschnittliche Verbrauch ist 355W laut PCGH Tests.

Und wie dir schon gesagt wurde, betreiben die meisten Leute ihre 4090 mit UV, denn selbst (mein aktuelles Setup) mit 870mV bei 2565MHz ist diese massiv(!) schneller als eine 4080(S), braucht aber sogar weniger Strom.

Klar kann man eine 4080(S) auch undervolten, aber das bringt prozentual gesehen nicht soviel wie bei einer 4090, was diese nochmals Effizienter macht als eine 4080(S)/4070ti(S)


Undervolting ist natürlich noch ein Thema, habe aber übrigens meine 4080S nach Raffs Angaben undervoltet und ich bezweifle, dass die 4090 hier gleichzieht....
Wieso gleichziehen?
Die 4090 ist das Produkt mit der besseren Effizienz. Eine 4080(S) mit UV muss erstmal mit einer stock 4090 gleichziehen können.

Nochmal, der absolute Stromverbrauch ist komplett sinnfrei.
Wenn eine Grafikkarte 100W verbraucht und eine andere 1000W, dafür aber 38247x schneller ist... Würdest du dann immernoch die 100W Karte kaufen?
Nein, weil die einfach weniger leistet.

Und genau hier geht es um Effizienz: Aus gegebener Strommenge möglichst viel Leistung herausholen. Und das macht die 4090 am besten.

...und wer das dann tatsächlich tut, frage ich mich auch, immerhin scheinen Preise dann weniger eine Rolle zu spielen und somit wird wohl meistens doch die maximale Leistung im Vordergrund gewesen sein bei der Kaufentscheidung.
Bei mir: Ja, die Leistung stand im Vordergrund, natürlich. Wieso sollte man sonst das doppelte zahlen für 30% mehr Leistung?

Trotzdem betreibe ich die Karte zu 99% mit UV, entweder 870mV oder 970mV. Denn so wird die Effizienteste Karte noch effizienter und im Sommer wirds nicht so warm in der Wohnung.

Wenn es jemanden um Energie, Stromverbrauch geht (Prio 1) - 2 wichtigsten Werte:
-> tatsächliche Leistungsaufnahme
-> Effizienz
-> Nachhaltigkeit wäre auch noch Thema, bzw. so war es dann bei meiner Kaufentscheidung ;-)
Dann hättest du die 4090 kaufen müssen, da sie 2 der 3 Punkte gewinnt. Sie ist effizienter und nachhaltiger. Letzeres, weil durch die größere Leistung, kannst du 1 Gen mehr skippen. Was auch gerne vergessen wird: der AD102 ist ein Abfallprodukt mit nur 128/144 aktiven Shadern. Die Ausbeute ist also sehr gut und damit nachhaltig. Eine 4080S mit dem AD103 läuft mit der maximalen Shaderzahl, muss also ein perfekter Chip sein. Wenn auch nur ein Shader defekt ist, kann es keine 4080S mehr werden, der chip muss also weggeschmissen werden. (Wird er natürlich nicht, da noch andere GPUs mit dem AD103 gebaut werden)

Wenn du also eine 4080S kaufst, zwingst du NV (bzw TSMC) dazu perfekte Chips zu bauen. Falls es dann nicht genug abnehmer für die teildefekten AD103 gibt, bist du dafür verantwortlich dass etliche AD103 produziert wurden, die weggeworfen wurden, nur weil du eine 4080S wolltest.

Übrigens, um mit der 4080S auf die Leistung einer 4090 zu kommen, bräuchte die 4080S ca 3,9 GHz und VRAM OC. Selbst wenn das mittels EVC und Flüssigstickstoff irgendwie möglich sein sollte, bewegen wir uns hier dann wohl im Bereich von 700W (vermutlich sogar mehr).
Dann sind beide Karten gleichschnell, somit vergleichbar. Nur braucht die 4090 dafür halt nur 355W statt 700W+
 
Zuletzt bearbeitet:
Und wie dir schon gesagt wurde, betreiben die meisten Leute ihre 4090 mit UV, denn selbst (mein aktuelles Setup) mit 870mV bei 2565MHz ist diese massiv(!) schneller als eine 4080(S), braucht aber sogar weniger Strom.
Apropos ... Ausnahmefall incoming! :devil:

Vor ein paar Tagen ist ein simpel aussehendes, aber phasenweise brutales Spiel erschienen: Kaku Ancient Seal. Das Ding heizt im Grunde, wie man das von der UE4 kennt, die vereinzelten Power-Worst-Cases sind aber überdurchschnittlich. Ich stand in einer Partikelwolke (Wasserfall - man kennt’s), die meine RTX 4090 konstant zu 320+ Watt nötigte, mit einem Peak auf 338 Watt. Ja, das ist außerordentlich viel; in den meisten anderen Spielen liege ich irgendwo zwischen 200 und 250 Watt mit dem ULV-Modus (2.385 MHz bei 855 mV nach dem Durchwärmen). Gut, da war DLDSR aktiv, aber brutal ist brutal. Ich weiß nicht, wohin man in der Demo kann, aber es gibt sie. Wer also in diese niedliche Grillparty mal reinschauen mag, es geht. :-)

MfG
Raff
 
Unreal Engine 4 – Raffs Hass-Liebe :-D
Das ist wirklich die wildeste Beziehung, die ich je hatte. Eigentlich mag ich vieles an der Engine nicht, aber zig Spiele, die mich in den letzten Jahren länger beschäftigt haben, basieren darauf ... :ugly:

Da hast Du aber einen ziemlich guten Bin erwischt. Bei der Spannung hatte ich bei meiner Karte gerade einmal 2520 MHz stabil halten können. Für 2565 MHz musste ich bereits 885 mV anlegen.
So tief unten wird die Luft dünn. Temperatur hilft. Wenn du die GPU auf 30 °C hältst, kriegst du mindestens zwei Boost Steps (30 MHz) mehr als bei 50 °C.

MfG
Raff
 
Nee, denn bei Mexodus EE ist das ganze Spiel ein Watt-Worstcase, während sich bei der UE4 die GPU-limitierten mit CPU-lastigen Szenen abwechseln. ;)

MfG
Raff
 
Da hast Du aber einen ziemlich guten Bin erwischt. Bei der Spannung hatte ich bei meiner Karte gerade einmal 2520 MHz stabil halten können. Für 2565 MHz musste ich bereits 885 mV anlegen.
Es geht auch mehr Takt, glaube sogar 2605Mhz.
Aber dann ist der Sprung zu 970mV nichtmehr so hoch, da dort nur 2865 MHz gehen. Fühlt sich dann ungeil an, wenn man 100W mehr reinballert, aber nur 5% mehr Leistung hat ^^

Der bin ist im low bereich gut. Obenrum leider super mies, ab 1,07v skaliert die effektive Taktrate negativ, sodass man mit 1,08v - 1,10v weniger Leistung hat als mit 1,07v. Das ist im 3D Mark irgendwie suboptimal ^^
 
Ist das Hi-Res-stable? Ich musste bei mir zweimal nachjustieren, damit auch 5K und 6K via DLDSR stundenlang (mittlerweile tagelang) felsenfest sind.

MfG
Raff
 
Da es hier eh nur noch um Grafikkarten geht:
Meine 4080S läuft undervolted auch recht gut, aber unter 0,9 Volt "darf" ich sie nicht bringen. So viel zum Thema Effizienz ^^
Also allein schon deswegen wäre ein 4090 effizienter unterwegs: weil man sie weiter undervolten darf. Hat die Lederjacke fein eingefädelt ...
 
So tief unten wird die Luft dünn. Temperatur hilft. Wenn du die GPU auf 30 °C hältst, kriegst du mindestens zwei Boost Steps (30 MHz) mehr als bei 50 °C.

MfG
Raff
Das stimmt.

Ich hatte das Tuning allerdings bei meiner favorisierten Soundkulisse (Lüftergeschwindingkeit bei 40% ~ 1500 rpm) und 3x20 Loops Port Royal (3D Mark) sowie einem kompletten Playthrough von Quake 2 RTX in UHD vorgenommen. In den meisten Spielen ging auch etwas mehr. Ich habe es dennoch beim Worst Case belassen.

Es geht auch mehr Takt, glaube sogar 2605Mhz.
Das ist verdammt stark. Krass. Für 2610 MHz musste ich 900 mV anlegen.
 
Q2 RTX ist auch super heavy, insofern würde ich sagen, dass mit deiner GPU alles dufte ist. =)

MfG
Raff
 
Übrigens, die 4090 hat zwar ein Serienpowerlimit von 450W, dieses wird aber kaum ausgereizt, der durchschnittliche Verbrauch ist 355W laut PCGH Tests.
*Klugscheißermodus an*
Die Angabe ist an der Stelle etwas irreführend. In niedrigen Auflösungen wie FHD, WQHD und UWQHD stimmt das tatsächlich, bzw. liegt der Verbrauch häufig sogar darunter, aber in UHD sieht die Welt anders aus. Da sind es in vielen Fällen deutlich über 400W.
*Klugscheißermodus aus*
 
Er schrieb ja "durchschnittlich" und somit passt das. :-) Auf einer langsamen CPU liegt sie wohl bei eher 300 ... doch das führt zu weit.

MfG
Raff
 
So tief unten wird die Luft dünn. Temperatur hilft. Wenn du die GPU auf 30 °C hältst, kriegst du mindestens zwei Boost Steps (30 MHz) mehr als bei 50 °C.
Exakt das ist der Punkt. Eine Custom Wakü hilft da echt gut. Zumal sich ein Synergie effekt einstellt:
Weniger verbrauch (870mV) = kühleres wasser = kühlere temps = besserer boost

EIn Bild sagt mehr als 1000 Worte:
600W 4090.png

594W in Furmark sind 52°C Chip und 66°C Hotspot.

Ist das Hi-Res-stable? Ich musste bei mir zweimal nachjustieren, damit auch 5K und 6K via DLDSR stundenlang (mittlerweile tagelang) felsenfest sind.
Ja, nutze das Profil durchgehend (mehrere Monate eben mit 2605 MHz), anspruchslosere Games auch mit DLDSR, so wie aktuell Divinity OS2 (inkl Reshade RTGI).

*Klugscheißermodus an*
Die Angabe ist an der Stelle etwas irreführend. In niedrigen Auflösungen wie FHD, WQHD und UWQHD stimmt das tatsächlich, bzw. liegt der Verbrauch häufig sogar darunter, aber in UHD sieht die Welt anders aus. Da sind es in vielen Fällen deutlich über 400W.
*Klugscheißermodus aus*
*Klugscheißermodus an*
Ich habe extra vom Durchschnittlichen Verbrauch geredet
*Klugscheißermodus aus*

Er schrieb ja "durchschnittlich" und somit passt das. :-)
Mist, da warst du schneller :D
 
Ich bin übrigens sehr gespannt, ob die neuen, noch etwas härteren Benchmarks 2024/2025 auf dem 14900WTF mit DDR5-8000 noch etwas mehr Verbrauch herauskitzeln. Das wäre zumindest das Ziel. Sehen wir in einigen Wochen.

MfG
Raff
 
Ich bin übrigens sehr gespannt, ob die neuen, noch etwas härteren Benchmarks 2024/2025 auf dem 14900MI(*) mit DDR5-8000 noch etwas mehr Verbrauch herauskitzeln.
Habe das mal angepasst

(*)MI = Mieser IMC :devil:

Das wäre zumindest das Ziel. Sehen wir in einigen Wochen.
Bin tatsächlich sehr gespannt ob das zutrifft. Speziell in FHD, wo die 4090 hin und wieder limitiert wird durch die CPU, könnte es den Verbrauch erhöhen. Dazu neue, anspruchsvollere Spiele...
 
Zurück