Special Der große PCGH-Effizienz-Vergleich mit 30 Prozessoren: Welche CPU liefert die meisten Fps pro Watt?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Der große PCGH-Effizienz-Vergleich mit 30 Prozessoren: Welche CPU liefert die meisten Fps pro Watt?

Welcher Prozessor liefert die höchste Effizienz und hat AMD oder Intel die Nase vorn? Wir haben insgesamt elf Spiele mit 30 verschiedenen CPUs getestet und liefern Ihnen jetzt den größten Effizienz-Vergleich, den es jemals bei PC Games Hardware gab.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Der große PCGH-Effizienz-Vergleich mit 30 Prozessoren: Welche CPU liefert die meisten Fps pro Watt?
 
Wenigstens geht es bei den CPUs in die richtige Richtung.
max. 100 Watt finde ich jetzt gerade noch so in Ordnung.
Bei GPU´s liegt der max. Verbrauch bei mir bei 200 Watt.
Manuelles Zügeln hilft bei Grafikkarten enorm. Eine maximal unterspannte RTX 4090 braucht in Worstcase-Tests (Mexodus EE, Quake 2 RTX) zwar immer noch gut 300 Watt, aber das Fps/Watt-Verhältnis ist hervorragend. 200 Watt kriegst du nur mit einer moderat betriebenen Mittelklasse-GPU, etwa AD104.

MfG
Raff
 
AMD's weg ist klar der bessere, lieber etwas was weniger Leistung. Dafür aber den weitaus gerringeren Verbrauch. Macht sich halt auch in der Dauernutzung auf der Stromrechnung bemerkbar. Und wenn so eine CPU bei einem zu Hause 3-10 Jahre läuft, merkt man das auch an der Stromrechnung.

Der Idle Verbaucht könnte aber in den nächsten Generationen mal wieder sinken der ist die letzten Jahre ganz schön gestiegen.
 
Zuletzt bearbeitet:
Nicht unerwartet. Intel kann aktuell nicht mehr und nimmt die Brechstange um mit der höchsten Leistung die Leute abzugreifen. Wer auf die Leistungsaufnahme nicht achtet, wird dort wohl zuschlagen, wenn er den Superrechner bauen will. Schade.

Was sich der eine oder andere mal Gewissen rufen sollte, sind die Betriebsstunden und auch Idle Leistungsaufnahmen des gesamten Rechners inkl. Monitor.
100 W, weil der Rechner einfach läuft um im Discord online zu sein? Effektiv schon 1 kWh. Ist natürlich schon eine hohe Zeit, aber so ein mittelgroßer Kühlschrank läuft mit hoher Leistung (ca 300W an) und läuft dann auf ca 80W für ein paar Minuten.
Ich hab das aus Interesse mal etwas genauer ausgewertet um den konstanten Energieverbrauch pro Tag meines Haushalts besser zu verstehen. Viel Kleinkram, ein Server mit 100W (2,4 kWh!), 30-60 Minuten Kochen usw. Computer hatten schon einen gewissen Anteil den man bei langer Nutzung wirklich nicht verachten sollte.
 
Schöner Test. Jetzt wäre noch schön zu sehen, wie sich die Effizienz im GPU Limit verhält. Das die Ryzen im CPU Limit in einer anderen Liga spielen ist klar, nur denke ich, tun das die wenigsten. Daher wäre so ein Test, für die meisten sehr informativ.
 
200 Watt kriegst du nur mit einer moderat betriebenen Mittelklasse-GPU, etwa AD104.

MfG
Raff
Letzte Woche gab es eine RX 6800 (mit 16 GB) für 499 € und jene wird mit 250 Watt angegeben.
Bringt man diese mit mit manuellem UV auf ca. 200 Watt ?
 

Anhänge

  • 6800 für 499.jpg
    6800 für 499.jpg
    403,6 KB · Aufrufe: 33
1683539372967.png


Das Sommerloch naht, da habe ich vor, CPUs im GPU-Limit zu testen, auch im Fps-Limit. Ich bin selbst gespannt, wie sich die Effizienz dann verhält. Das könnte alles durcheinander bringen ^^ So ein Artikel ist sehr viel Arbeit und kostet daher auch viel Zeit.
 
Besonders bei den Grafikkarten kann man noch viel sparen.
Dieses ganze Overclocking und die OC Modelle verpuffen so viel Energie für so wenig Mehrwert.
Da lohnt es sich mehr zu undervolten, ohne groß FPS zu verlieren, wenn überhaupt.
 
Zum Beispiel bei the Division 2 bin ich mit meinem 5800x3d bei 70W/h und die 4000er nimmt sich bei limitierten 120fps dann auch nur ~120W/h, die Grafik ist nur auf Hoch in Wqhd weil das Spiel sonst ständig abschmiert!

In the Last of us sieht es denn wieder ganz anders aus. Da ist aufgrund der schlechten Programmierung der CPU permanent über 100W und je nach Grafikeinstellung nimmt die GPU zwischen 150 und 220 Watt, auch bei limitierten 120fps.
 
Wie kommt ihr denn bei einem 13700K auf einen durchschnittlichen Verbrauch von >140W wenn der ab Werk mit 125W (PL1) begrenzt ist? Ich versuche das grad mal bei einigen Spielen nachzuvollziehen komme aber nicht mal annähernd auf so hohe Werte (alles Stock wohlgemerkt).
 
Wie kommt ihr denn bei einem 13700K auf einen durchschnittlichen Verbrauch von >140W wenn der ab Werk mit 125W (PL1) begrenzt ist? Ich versuche das grad mal bei einigen Spielen nachzuvollziehen komme aber nicht mal annähernd auf so hohe Werte (alles Stock wohlgemerkt).
Seit Alder Lake gilt bei den K CPUs PL1=PL2. In Fall also 253W ;)
 
haha, Dave, das Bild war super ^^

Also ich finde es absolut erniedrigend, wenn Intel als "Marktführer" von AMD mal eben so über Jahre hinweg mit dem Faktor 3 in Sachen Effizienz zerstört wird, obwohl die es selber auf ihren Marketingfolien Groß schreiben und damit übers Land ziehen.

Was machen Intels Effizienzkerne eigentlich so den ganzen Tag?
Man tritt einfach nur auf der Stelle und ist so gut wie nichts weiter als vorher, wenn man das mal in Relation zu den älteren Gens sieht.
Aber nun gut, sicherlich denkt Pat auch in Sachen Effizienz, man sei im Fahrplan, so wie mit der Fertigungstechnik und der Produktveröffentlichungen?

Meiner Meinung nach schürt das bei Intels Kunden eine falsche Erwartungshaltung gegenüber dem Produkt.
Man meint, man kauft da ein stromsparendes Stück Hardware, dabei ist es ein extrem überzüchtetes Exemplar veralteter Technik.

Wir kennen solche Effizienzprobleme natürlich auch von AMD.
Was haben die Leute damals geschimpft, als deren überzüchteten Prozis dann bis über 200 Watt gefressen haben.
Bei Intel geht das als "Stromspar"prozessor aber völlig in Ordnung?
Vega war auch so eine Sache.
Dabei war Vega 56 @Stock in Wolfenstein und 60fps sogar effizienter als die ganze grüne Flotte.
Und mit Undervolting auch im Schnitt sehr konkurrenzfähig.
Da konnte man schon sehen, was Ergeiz falsch machen kann, wenn man auf Biegen und Brechen unbedingt oben mitmischen will, oder die letzten 5% Leistung für den Sieg in einem besonderen Benchmark benötigt, und dafür über Leichen geht.
 
Zuletzt bearbeitet:
Schön wenn es mit dem Verbrauch endlich mal wieder deutlich nach unten geht.
Für den Sommer ist ein Spar- Mini HTPC aus RTX 4050 mit hoffentlich 12GB und Ryzen 7800X3D in Planung. Ich hoffe auf regelmäßig unterhalb von 100 Watt im Spielbetrieb, mehr verträgt auch die Schrankwand nicht.
Also ich finde es absolut erniedrigend, wenn Intel als "Marktführer" von AMD mal eben so über Jahre hinweg mit dem Faktor 3 in Sachen Effizienz zerstört wird, obwohl die es selber auf ihren Marketingfolien Groß schreiben und damit übers Land ziehen.
Das muss man auch ein wenig aufdröseln.
Schau wo die Modelle ohne 3D Cache liegen, die benötigen genauso viel Strom, aufgrund der Tatsache einer Maximalkonfiguration.

Die 3D Cache Modelle haben weniger Takt eine schmalere TDP, verzichten auf 5 bis 10% Anwendungsleistung (Cinebench R23) und so sind sie vergleichsweise viel effizienter.

Dort kommt ein auf 88 Watt limitierter 13900K auch hin, büßt nur 6% der AVG FPS ein.
Man tritt einfach nur auf der Stelle und ist so gut wie nichts weiter als vorher, wenn man das mal in Relation zu den älteren Gens sieht.
Abhängig davon wie man die CPU einstellt, auch am Ryzen 5 5600 zu sehen.
Der ist immer noch vorne dabei, weil er auf Effizienz und nicht auf Leistung getrimmt ist.
Der 13900K auf 88 Watt limitiert wäre auch relativ weit vorne dabei, somit ist der reale Effizienz Abstand zwischen AMD und Intel eher vernachlässigbar.

Und mit Undervolting auch im Schnitt sehr konkurrenzfähig.
Es bringt eben nie viel die maximale Leistung aus den Produkten zu pressen.
Genau das haben AMD und Intel in dieser Generation aber getan.
7950X und 13900K sind genau solche Produkte und brauchen eben ein anderes Powerlimit.
Dann laufen auch diese extrem effizient.
 
Zuletzt bearbeitet:
Ich bin erstaund das der 11900k in der Maximalen Leistungsaufnahme endlich überholt werden konnte. Wurde auch mal Zeit das Intel sich hier selbst überholt.
Was mich erstaunt hat das selbst der relativ effizient 13600k so weit unten ist in der Tabelle.
 
Grundsätzlich albern auf mich wirkt es ein Produkt mit seine konkurrenzfähigen Effizienz zu bewerben, dann aber anders zu bringen. Jupp. Das ist aber nur ein Thema. Persönlich bin ich nämlich ein ganz großer Fan davon, wenn ich als Käufer die Wahl habe zu erwerben was ich gerade mag und möchte. Ich komm ja quasi gar nicht zum spielen (oder nach Hause) und deshalb sind meine Komponenten nach einem Jahr quasi komplett neu. Das bedeutet aber auch, dass die kaum was verballern konnten in der Zeit. Komme ich als nur zweimal im Jahr ans Daddeln und will dann einfach das Maximum, ist es doch super wenn es genau dafür auch das passende Produkt gibt.
Warum sollten alle das gleiche Produkt mit anderem Namen anbieten? Ist doch Mist. Ein 13900k kann effizient sein, muss es aber nicht. Das finde ich für mich persönlich gut. Trotzdem mag ich aber auch den WEG den AMD geht. Das eine schließt das andere nicht aus. Gleiches würde ich mir bei den Grafikkarten wünschen.
AMD meint sie hätten leistungsmäßig auch einen 4090 Konkurrenten bringen können... ja dann her damit! Lasst doch den Käufer entscheiden was er mag. Als AMD effizienter war hat Nvidia dennoch das Maximum an Leistung aus jeder Arch geholt und angeboten. Warum auch nicht? Ja, das ist teuer, aber auch das sind Verkäufe und vor allem zeigt es was man im Stande ist zu leisten. Egal wie das jeder einzelne wertet der da drauf schaut., ob Hummerfahrer oder Klimakleber.
 
Zum Beispiel bei the Division 2 bin ich mit meinem 5800x3d bei 70W/h und die 4000er nimmt sich bei limitierten 120fps dann auch nur ~120W/h, die Grafik ist nur auf Hoch in Wqhd weil das Spiel sonst ständig abschmiert!

In the Last of us sieht es denn wieder ganz anders aus. Da ist aufgrund der schlechten Programmierung der CPU permanent über 100W und je nach Grafikeinstellung nimmt die GPU zwischen 150 und 220 Watt, auch bei limitierten 120fps.
Mein 5800X3D schläft in Division 2 mit 35 Watt vor sich hin. Die 6700XT UV limitiert natürlich in WQHD bei 100-160 Bilder auf hohen, benutzerdefinierten Einstellungen.
Im Endeffekt läuft mein gesamter PC mit der Leistungsaufnahme eines Intel 13900K, wenn der durch einen Benchmark gescheucht wird. ;-P
Wie kommt ihr denn bei einem 13700K auf einen durchschnittlichen Verbrauch von >140W wenn der ab Werk mit 125W (PL1) begrenzt ist? Ich versuche das grad mal bei einigen Spielen nachzuvollziehen komme aber nicht mal annähernd auf so hohe Werte (alles Stock wohlgemerkt).
Auf den Verbrauch kommst du, wenn du die gleichen Einstellungen und Spiele wählst wie PCGH.
Das wird sogar bei der Einführung im Heft für jede Szene breitgetreten, die im Parcour antritt.
 
Zurück