Mein Kollege Raff hat sie ja nicht vergessen.Wenn es jemanden um Energie, Stromverbrauch, Effizienz geht, darf die 4080(S) nicht ignoriert werden!
Nein, die RTX 4090 steht überall auf Platz 1. Beim Rasterizing kommt die 4080S an zweiter Stelle, bei Raytracing sogar erst an dritter.Ist der eigentliche Sieger, wenn es darum geht!
Was hat die Leistungsaufnahme mit der Effizienz zu tun? Die 4090 könnte auch eine Leistungsaufnahme von 2.000 Watt oder höher haben, und trotzdem effizienter als eine Karte sein, die nur 100 Watt benötigt.Die 4080(S) hat geringere Leistungsaufnahme als die 4090 - was man unter keinen Umständen ignorieren darf - und steht von der Effizienz her kaum nach.
Das hat niemand angezweifelt, doch darum geht es ja hier nicht.Sie liefert saubere Leistung bei toller Effizienz bei akzeptabler Leistungsaufnahme!!
Die 4070S kommt mit einer geringeren Leistungsaufnahme, aber auch geringerer Effizienz.Die RTX 4070 Super ist effizienztechnisch auch noch gut dabei und benötigt noch einmal weniger Strom. Allerdings eher nicht mehr für 4K.
Das eine schließt das andere nicht aus. Eine 4090 ist auch bei maximalem Undervolting noch schneller als jede andere Desktop-Grafikkarte. Das zeigt dieser Artikel hier vom Kollegen Raff recht gut auf:Sorry, aber wenn eine RTX 4090 gekauft ist, stand ja trotzdem die maximale Leistung im Vordergrund und die Leistungsaufhnahme war 2.rangig.
Noch mal: Was hat die Leistungsaufnahme mit der Effizienz zu tun?Die Effizienz ist angesichts der maximalen Leistungsaufnahme bei der RTX 4090 fast schon Augenauswischerei!
Die Gear-Modi gibt es bei nur bei Intel. Bei Ryzen 7000 macht der IMC einfach dicht, und beim IF macht Ryzen 9000 ja Fortschritte. 8.000 MT/s sind bei halbem Teiler jedenfalls langsamer als 6.400 MT/s mit synchroner Anbindung. Das wird bei Zen 5 ohnehin nur spannender, wenn die AGESA-Sperre ab 8.000 MT/s verschwindet.Der Ram teiler (Gear2) war auf Ramtakt in Richtung >7200MT/s bezogen. AM5 Boards können das ja inzwischen auch teilweise . Diese Takatraten (für Enthusiasten meist wichtig) können bei AMD aufgrund dre FCLK beschränkung nicht voll ausgefahren werden. Heißt Leistungsverlust durch weniger Durchsatz wenn man hohen Ramtakt fahren möchte.
Das ist für ein entsprechendes Klientel sehr wichtig.
Wo? Von uns jedenfalls nicht.dennoch wird der I5 als stomvernichter angeschwärzt weil er in Anwendungen 181W verbrauchen kann
Bei welchem Testszenario? Wenn man das vergleichen möchte, dann geht das nur unter gleichen Bedingungen.Der I5 ist nahezu genauso sparsam (69W @ WQHD) .
Wo? Von uns jedenfalls nicht.Verglichen wird bei Intel immer nur als Referenz im Gaming mit dem 13-/14900K (f/S), egal welche AMD CPU gerade getestet wird.
Siehe der Artikel oben, mit dem Effizienz-PC. Gerade dann bringt das eine Menge. Eine Überaktung und ein Undervolten schließen sich gegenseitig nicht aus.Das habe ich nie behauptet. Dennoch wird das ding auch in den meisten Fällen übertaktet und dann bringt auch der sparsame Ryzen nichts mehr. Nur das war der Hintergrund meiner Aussage.
Mich auch. Das kommt aber wohl erst mit Zen 6, das dauert dann noch mal gut zwei Jahre. Wobei mir dann sechs Kerne wahrscheinlich zu wenig wären.Ein Ryzen 5 7xxx oder 9xxx mit 5,85GHz Standardtakt (wie der Ryzen 9) 3DCache und einem Ramtakt von 8400MT/s im Gear 2 das war mit dem angesprochenen 7600XT3D gemeint. Das ganze gepaart mit 65W verbrauch, ja so eine CPU würde mich bei AMD begeistern.
Ups das habe ich übersehen, dass ich hier mit PCGH-Team interagiere!Mein Kollege Raff hat sie ja nicht vergessen.
Nein, die RTX 4090 steht überall auf Platz 1. Beim Rasterizing kommt die 4080S an zweiter Stelle, bei Raytracing sogar erst an dritter.
Wenn es jemanden um Stromverbrauch geht, muss dieser sich einen ULP Laptop kaufen. Alles andere wäre zuviel Stromverbrauch.Mir ging es nur darum, dass die RTX 4090 zwar performance-technisch Nr. 1 ist.
Nur wenn es jemanden um Stromverbrauch geht, dann eben nicht. Effizienz hin oder her.
Diese RTX 4090 ist nämlich nicht überall auf Platz 1 und zwar bei tatsächlicher Leistungsaufnahme (höher schlechter) und das ist ein sehr wichtiger Faktor, wenn es jemanden um - naja: Stromverbrauch geht.
Wieso gleichziehen?Undervolting ist natürlich noch ein Thema, habe aber übrigens meine 4080S nach Raffs Angaben undervoltet und ich bezweifle, dass die 4090 hier gleichzieht....
Bei mir: Ja, die Leistung stand im Vordergrund, natürlich. Wieso sollte man sonst das doppelte zahlen für 30% mehr Leistung?...und wer das dann tatsächlich tut, frage ich mich auch, immerhin scheinen Preise dann weniger eine Rolle zu spielen und somit wird wohl meistens doch die maximale Leistung im Vordergrund gewesen sein bei der Kaufentscheidung.
Dann hättest du die 4090 kaufen müssen, da sie 2 der 3 Punkte gewinnt. Sie ist effizienter und nachhaltiger. Letzeres, weil durch die größere Leistung, kannst du 1 Gen mehr skippen. Was auch gerne vergessen wird: der AD102 ist ein Abfallprodukt mit nur 128/144 aktiven Shadern. Die Ausbeute ist also sehr gut und damit nachhaltig. Eine 4080S mit dem AD103 läuft mit der maximalen Shaderzahl, muss also ein perfekter Chip sein. Wenn auch nur ein Shader defekt ist, kann es keine 4080S mehr werden, der chip muss also weggeschmissen werden. (Wird er natürlich nicht, da noch andere GPUs mit dem AD103 gebaut werden)Wenn es jemanden um Energie, Stromverbrauch geht (Prio 1) - 2 wichtigsten Werte:
-> tatsächliche Leistungsaufnahme
-> Effizienz
-> Nachhaltigkeit wäre auch noch Thema, bzw. so war es dann bei meiner Kaufentscheidung
Apropos ... Ausnahmefall incoming!Und wie dir schon gesagt wurde, betreiben die meisten Leute ihre 4090 mit UV, denn selbst (mein aktuelles Setup) mit 870mV bei 2565MHz ist diese massiv(!) schneller als eine 4080(S), braucht aber sogar weniger Strom.
Da hast Du aber einen ziemlich guten Bin erwischt. Bei der Spannung hatte ich bei meiner Karte gerade einmal 2520 MHz stabil halten können. Für 2565 MHz musste ich bereits 885 mV anlegen.870mV bei 2565MHz
Das ist wirklich die wildeste Beziehung, die ich je hatte. Eigentlich mag ich vieles an der Engine nicht, aber zig Spiele, die mich in den letzten Jahren länger beschäftigt haben, basieren darauf ...Unreal Engine 4 – Raffs Hass-Liebe
So tief unten wird die Luft dünn. Temperatur hilft. Wenn du die GPU auf 30 °C hältst, kriegst du mindestens zwei Boost Steps (30 MHz) mehr als bei 50 °C.Da hast Du aber einen ziemlich guten Bin erwischt. Bei der Spannung hatte ich bei meiner Karte gerade einmal 2520 MHz stabil halten können. Für 2565 MHz musste ich bereits 885 mV anlegen.
Also wird der olle Schinken Metro Exodus EE endlich mal als worst case ersetzt?Apropos ... Ausnahmefall incoming!
Es geht auch mehr Takt, glaube sogar 2605Mhz.Da hast Du aber einen ziemlich guten Bin erwischt. Bei der Spannung hatte ich bei meiner Karte gerade einmal 2520 MHz stabil halten können. Für 2565 MHz musste ich bereits 885 mV anlegen.
Das stimmt.So tief unten wird die Luft dünn. Temperatur hilft. Wenn du die GPU auf 30 °C hältst, kriegst du mindestens zwei Boost Steps (30 MHz) mehr als bei 50 °C.
MfG
Raff
Das ist verdammt stark. Krass. Für 2610 MHz musste ich 900 mV anlegen.Es geht auch mehr Takt, glaube sogar 2605Mhz.
*Klugscheißermodus an*Übrigens, die 4090 hat zwar ein Serienpowerlimit von 450W, dieses wird aber kaum ausgereizt, der durchschnittliche Verbrauch ist 355W laut PCGH Tests.
Exakt das ist der Punkt. Eine Custom Wakü hilft da echt gut. Zumal sich ein Synergie effekt einstellt:So tief unten wird die Luft dünn. Temperatur hilft. Wenn du die GPU auf 30 °C hältst, kriegst du mindestens zwei Boost Steps (30 MHz) mehr als bei 50 °C.
Ja, nutze das Profil durchgehend (mehrere Monate eben mit 2605 MHz), anspruchslosere Games auch mit DLDSR, so wie aktuell Divinity OS2 (inkl Reshade RTGI).Ist das Hi-Res-stable? Ich musste bei mir zweimal nachjustieren, damit auch 5K und 6K via DLDSR stundenlang (mittlerweile tagelang) felsenfest sind.
*Klugscheißermodus an**Klugscheißermodus an*
Die Angabe ist an der Stelle etwas irreführend. In niedrigen Auflösungen wie FHD, WQHD und UWQHD stimmt das tatsächlich, bzw. liegt der Verbrauch häufig sogar darunter, aber in UHD sieht die Welt anders aus. Da sind es in vielen Fällen deutlich über 400W.
*Klugscheißermodus aus*
Mist, da warst du schnellerEr schrieb ja "durchschnittlich" und somit passt das.
Habe das mal angepasstIch bin übrigens sehr gespannt, ob die neuen, noch etwas härteren Benchmarks 2024/2025 auf dem 14900MI(*) mit DDR5-8000 noch etwas mehr Verbrauch herauskitzeln.
Bin tatsächlich sehr gespannt ob das zutrifft. Speziell in FHD, wo die 4090 hin und wieder limitiert wird durch die CPU, könnte es den Verbrauch erhöhen. Dazu neue, anspruchsvollere Spiele...Das wäre zumindest das Ziel. Sehen wir in einigen Wochen.