News Wer verbraucht am meisten Strom? 480 Grafikkarten im Vergleich (Video)

PCGH-Redaktion

Kommentar-System
Teammitglied
@Raff Na ja, anstatt nur auf den Verbrauch rumzureiten, hättest Du auch mal ruhig eine Tabelle mit Performance/Watt einstreuen können, um das alles vernünftig in Relationen zu setzen. So bleibt ein übler Geschmack von Äpfel mit Birnen oder Kartoffeln zu vergleichen.
 
Performance/Watt macht ja gar kein Sinn, da sieht ja alle ältere Technik extrem schlecht aus, gemessen an heutigen Anforderungen. Man muss eher schauen was ein damaliger High End Rechner oder Komponente verbraucht hat und wie sich das heute darstellt.
 
Ich hoffe, dass AMD auch künftig bei ihren Referenzkarten unter der 400W-Marke bleiben wird, egal wie die Konkurrenz durch alle Decken und Ziegelsteingrössen hindurch schiessen will... Die 350W der 7900XTX finde ich schon sehr grenzwertig hoch... Ich wünsche mir eine vermehrte Entwicklung, wie sie es bsw. bei ihren X3D-CPUs auch hinbekommen haben.
 
Ich glaube meine erste große Gaming-Karte war ne nV 6800GT. Erinnere mich noch, als ich damals mit nem Kumpel drüber gequatscht hatte:
"Die hat nen extra Stromanschluss, oder?"
"Ja hat sie, krass oder?!"
"Yo heftig!"

...as time flies by...
 
Ich hoffe, dass AMD auch künftig bei ihren Referenzkarten unter der 400W-Marke bleiben wird, egal wie die Konkurrenz durch alle Decken und Ziegelsteingrössen hindurch schiessen will...

Das wäre sehr schade, da AMD dann wohl dauerhaft gegen Nvidia verlieren würde.

Die 350W der 7900XTX finde ich schon sehr grenzwertig hoch...

Du kannst den Verbrauch auch einfach deckeln und eine RTX 4090 dann mit 300W statt 450W betreiben.

Ich wünsche mir eine vermehrte Entwicklung, wie sie es bsw. bei ihren X3D-CPUs auch hinbekommen haben.
Wobei sie das vermutlich nicht freiwillig getan haben. Die hätten wohl garantiert noch 1ß-20% mitgenommen,wenn ihnen die CPUs nicht sterben würden.
 
Zuletzt bearbeitet:
Hi, also ich habe eine RTX 3060 (12G-P5-3657-KR) und 4 Afterburner UV + OC Profile erstellt.
Von 1890 MHz (GPU & VRAM) at 843 mV bis 1980 MHz (GPU & VRAM) at 912 mV. (Default = 1080 mV)
Dadurch liegt mein max. Verbrauch zwischen 135 und 150 Watt anstatt 170.
Mit 60 FPS Limit / V-Sync entsprechend noch weniger.
 
Hi, also ich habe eine RTX 3060 (12G-P5-3657-KR) und 4 Afterburner UV + OC Profile erstellt.
Von 1890 MHz (GPU & VRAM) at 843 mV bis 1980 MHz (GPU & VRAM) at 912 mV. (Default = 1080 mV)
Dadurch liegt mein max. Verbrauch zwischen 135 und 150 Watt anstatt 170.
Mit 60 FPS Limit / V-Sync entsprechend noch weniger.
Nice mit ca dem Verbrauch läuft auch meine 4090 und liefert dabei 7900Xtx Performance XD
 
Das wäre sehr schade, da AMD dann wohl dauerhaft gegen Nvidia verlieren würde.



Du kannst den Verbrauch auch einfach deckeln und eine RTX 4090 dann mit 300W statt 450W betreiben.


Wobei sie das vermutlich nicht freiwillig getan haben. Die hätten wohl garantiert noch 1ß-20% mitgenommen,wenn ihnen die CPUs nicht sterben würden.

Nicht, wenn sie etwas Ähnliches schaffen wie mit den X3D, wo es momentan bei den neueren Modellen mehr Leistung bei gleichzeitig geringerem Verbrauch gibt. Die CPUs müssen dabei nicht durchgehend überall den längsten avg-Balken liefern, um trotzdem ein extrem gutes Produkt zu sein. Dasselbe gilt im Prinzip auch für GPUs.

Bei RDNA2 schafften das AMD ja schon teilweise mit dem Infinity-Cache verglichen zu den verhältnismässig stromfressenden RTX3000. Sie wurden dann durch NVidia in diesem Bereich wieder überholt, als sie quasi eine Kopie des Infinity-Caches mit Ada brachten. Zusammen mit der wieder eingesetzten, stärksten, aber ökonomisch noch sinnvoll nutzbaren Fertigung, und mit ihrer grundsätzlich seit paar Jahren überlegeneren Hardware, entstand dann wieder ein ordentlicher Abstand. Nvidia scheint halt ein weitaus agileres Unternehmen zu sein als der quasi jahrelang schlafende und vollgefressene Riese Intel. Entsprechend schätze ich es hier natürlich deutlich schwerer ein, ein ähnliches Kunststück zu liefern.

Grundsätzlich sollte es aber nicht sein, dass die Hardwareentwicklung in ein einseitiges Wettrüsten ausufert, wer denn die stärkste, übergrosse Heizung baut... Egal wie viele Bildchen sie dann zu schubsen schafft. Sonst hätten wir bei den CPUs auch nur noch die Wahl zwischen 250W+ und 300W+-CPUs im High-End-Gamingbereich... Stattdessen gibt es da mehr oder weniger ebenbürtige Varianten mit <100W und mit >200W mit Stärken entweder bei der Effizienz oder Stärken bei einer tendenziell stabileren maximalen Performance.

Ein weiterer Punkt ist, wenn PC-Gaming noch eine lange Zukunft haben soll, dann muss die Hardware für die Masse erschwinglich sein. Und da gehört neben Fortschritten in der Performance auch ein gemässigter(er) Stromverbrauch dazu, der nicht nachträglich händisch erzwungen werden muss. Kauft man sich ein System mit einer 600W-Karte, dann treibt das auch die Kosten des restlichen Systems in die Höhe, sei es durch ein stärkeres Netzteil, sei es durch eine massivere Gehäusekühlung.
 
@PCGH_Raff

Überhaupt NICHT riecht es gut!!! :D

Hab da nach Deinen Andeutungen viel mehr erwartet ;)
Habe jetzt mehrfach die Nase ins Heft gesteckt.
Da hätte ruhig mehr Druckerschwärze oder Lösemiittel rüber kommen können. Früher (für die Alten) war das viel betäubender.

Vielleciht könntet ihr ja auch so ein bisschen Eau-de-Maschinenöl dazu ...
Oder halt doch mit Wasserlilie / Rosenwasser parfümieren. :ugly:

Ich schmeiss mich weg Raff :lol:
 
Der Unterschied im Verbrauch ist preislich wirklich marginal in der typischen Nutzungszeit über 3-4 Jahre, wenn die Karte nicht gerade 24/7 am minen ist, oder der Rechner bei Nichtbenutzung im Spielmenü seine 2000 FPS durchballert, damit man sofort wieder weitermachen kann am nächsten Tag. Bei den Preisdifferenzen, die die Karten heute haben kommt man da niemals auf den Preis der nächstteureren "effizienteren" Karte.
Man kann problemlos weiter die heiße durstige Radeon kaufen für 100 Euro weniger, da hat man Spaß und es ist enn das Teil wegkommt noch weniger, als bei der teureren gleichschnellen NVidia(es sei denn man verbindet mit dem Grafikkartenwechsel auch absolute PC-Abstinenz).
Wobei die 4090 schießt ja wirklich den Vogel ab in der Liste, da wird ja jede Radeon grün vor Neid(und Umweltfreundlichkeit) :D.
Ich sehe sie schon vor mir die nächste Generation(unbestätigter Leak aus unseriöser Quelle):
5090.jpg
 
Zuletzt bearbeitet:
Keine Ahnung was ihr habt, mit der 4090 kann man auch mit teilweise UNTER 45W noch aktuelle Games zocken XD

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Wenn man mit der 4090 minimalst Abstriche macht bei der Performance, kann man unglaublich viel einsparen beim Verbrauch:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

oder hier auch mal LoF mit aktiviertem RT unter 50W mit einer 4090

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.


Dead Space ~55W:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Natürlich sind das nur "Machbarkeitsstudien" mit der 4090 und ~50W Gaming, hier mal ein realistischeres Afterburner Setting.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Denke nicht das soooo viele ihre 4090 Karten mit max Power bzw max OC laufen lassen, weil die Teile einfach nach Tuning bzw Optimierung schreien, denn man verliert kaum Performance aber droppt den Verbrauch drastisch.
Wie das demnächst mit einem 4k Oled Monitor aussehen wird ist klar, da wird man schon eher an den 300W kratzen optimiert oder ggf sogar mehr wenn man wirklich alles an Performance braucht die man kriegen kann. Nichtsdestotrotz würde ich nie die max OC Settings auf Dauer nutzen, denn wegen ~7-8% mehr Performance den Verbrauch auf teilweise 550W zu pushen ist für mich persönlich too much.
Sehr schöner und umfangreicher Test Raff, danke dafür.
 
Zuletzt bearbeitet:
Nicht, wenn sie etwas Ähnliches schaffen wie mit den X3D, wo es momentan bei den neueren Modellen mehr Leistung bei gleichzeitig geringerem Verbrauch gibt.

Wie gesagt: das haben sie wohl nicht freiwillig getan, dazu wurden sie gezwungen. Es müßte also eine Maßnahme sein, die einerseits für deutlich mehr Leistung sorgt und andererseits den maximalen Takt begrenzt.

Die CPUs müssen dabei nicht durchgehend überall den längsten avg-Balken liefern, um trotzdem ein extrem gutes Produkt zu sein. Dasselbe gilt im Prinzip auch für GPUs.

Wenn sich das Zeug gut verkaufen soll (und darauf kommt es AMD an), dann sollte das aber so sein. Die meisten kaufen nach der Größe des Balken.

Nicht, wenn sie etwas Ähnliches schaffen wie mit den X3D, wo es momentan bei den neueren Modellen mehr Leistung bei gleichzeitig geringerem Verbrauch gibt. Die CPUs müssen dabei nicht durchgehend überall den längsten avg-Balken liefern, um trotzdem ein extrem gutes Produkt zu sein. Dasselbe gilt im Prinzip auch für GPUs.

Bei RDNA2 schafften das AMD ja schon teilweise mit dem Infinity-Cache verglichen zu den verhältnismässig stromfressenden RTX3000.

Die RTX 3000 ist insgesamt die effizientere Serie.

Sie wurden dann durch NVidia in diesem Bereich wieder überholt, als sie quasi eine Kopie des Infinity-Caches mit Ada brachten.

Die CPUs von Nvidia hatten auch schon vorher Cache. Den Aufzustocken war vorhersehbar. Den Infinity Cache zu kopieren ist in einer so kurzen Zeit nicht möglich. Das werden wir wohl frühestens mit den RTX 6000ern sehen, wenn Nvidia das übernehmen will.

Nvidia scheint halt ein weitaus agileres Unternehmen zu sein als der quasi jahrelang schlafende und vollgefressene Riese Intel. Entsprechend schätze ich es hier natürlich deutlich schwerer ein, ein ähnliches Kunststück zu liefern.

Bei solchen Aussagen sollte man sich vor Augen führen, dass der i9 13900K novh vor einem Jahr der Gamingking gewesen ist. Intel ist durchaus innovativ. Vieles nimmt mal aber als Normalo nicht wahr (z.B. Glassubstrat oder konfliktfreie Rohstoffe) oder es flopt, wie Optane.

Grundsätzlich sollte es aber nicht sein, dass die Hardwareentwicklung in ein einseitiges Wettrüsten ausufert, wer denn die stärkste, übergrosse Heizung baut... Egal wie viele Bildchen sie dann zu schubsen schafft.

Es gibt eine absolut ultimative BWL Weisheit: "liefere nur das, was dein Kunde will und wofür er dich auch bezahlt" (der letzte Teil ist wichtig.

ES ist nunmal eine Tatsache, dass die meisten nach dem größten Balken kaufen. Die FX 5800 Ultra wurde unter anderem verrissen, weil sie perverse 50W verbraten hat. Die 6800Ultra hat sich 110W genehmigt, wurde die verrissen? Nein, weil der Balken lang genug war. Wenn die Kundschaft konsequent anders eingekauft hätte, dann würden Grakas immer noch maximal 30W benötigen, das haben sie aber nicht getan.

Sonst hätten wir bei den CPUs auch nur noch die Wahl zwischen 250W+ und 300W+-CPUs im High-End-Gamingbereich... Stattdessen gibt es da mehr oder weniger ebenbürtige Varianten mit <100W und mit >200W mit Stärken entweder bei der Effizienz oder Stärken bei einer tendenziell stabileren maximalen Performance.

Hatten wir doch eine Zeit lang: der i9 13900K hat 125/253W verbrauen, der R9 7950X hingegen 170/230W. Also ich finde da ist kein großer Unterschied.

Und da gehört neben Fortschritten in der Performance auch ein gemässigter(er) Stromverbrauch dazu, der nicht nachträglich händisch erzwungen werden muss.

Auch da ist der Stromverbrauch relativ egal. Sonst hätte sich die RX 480 (180W) nicht soviel verkauft und die Leute zur GTX 1060 (120W) gegriffen.

Kauft man sich ein System mit einer 600W-Karte, dann treibt das auch die Kosten des restlichen Systems in die Höhe, sei es durch ein stärkeres Netzteil, sei es durch eine massivere Gehäusekühlung.

Alles kann man nicht haben. Wobei es in der Preiskladde dann eher um Unterschiede von etwa 50W dreht.
 
Wie gesagt: das haben sie wohl nicht freiwillig getan, dazu wurden sie gezwungen. Es müßte also eine Maßnahme sein, die einerseits für deutlich mehr Leistung sorgt und andererseits den maximalen Takt begrenzt.



Wenn sich das Zeug gut verkaufen soll (und darauf kommt es AMD an), dann sollte das aber so sein. Die meisten kaufen nach der Größe des Balken.



Die RTX 3000 ist insgesamt die effizientere Serie.



Die CPUs von Nvidia hatten auch schon vorher Cache. Den Aufzustocken war vorhersehbar. Den Infinity Cache zu kopieren ist in einer so kurzen Zeit nicht möglich. Das werden wir wohl frühestens mit den RTX 6000ern sehen, wenn Nvidia das übernehmen will.



Bei solchen Aussagen sollte man sich vor Augen führen, dass der i9 13900K novh vor einem Jahr der Gamingking gewesen ist. Intel ist durchaus innovativ. Vieles nimmt mal aber als Normalo nicht wahr (z.B. Glassubstrat oder konfliktfreie Rohstoffe) oder es flopt, wie Optane.



Es gibt eine absolut ultimative BWL Weisheit: "liefere nur das, was dein Kunde will und wofür er dich auch bezahlt" (der letzte Teil ist wichtig.

ES ist nunmal eine Tatsache, dass die meisten nach dem größten Balken kaufen. Die FX 5800 Ultra wurde unter anderem verrissen, weil sie perverse 50W verbraten hat. Die 6800Ultra hat sich 110W genehmigt, wurde die verrissen? Nein, weil der Balken lang genug war. Wenn die Kundschaft konsequent anders eingekauft hätte, dann würden Grakas immer noch maximal 30W benötigen, das haben sie aber nicht getan.



Hatten wir doch eine Zeit lang: der i9 13900K hat 125/253W verbrauen, der R9 7950X hingegen 170/230W. Also ich finde da ist kein großer Unterschied.



Auch da ist der Stromverbrauch relativ egal. Sonst hätte sich die RX 480 (180W) nicht soviel verkauft und die Leute zur GTX 1060 (120W) gegriffen.



Alles kann man nicht haben. Wobei es in der Preiskladde dann eher um Unterschiede von etwa 50W dreht.

Wer konkurrenzfähig bleiben will, muss kreativ sein. Technik ist immer ein Kompromiss. Zwang... naja wenn man physikalische Grenzen und technische Limitierungen von Komponenten als Zwänge ansehen will...

Im DIY sieht man eigentlich , dass die Ryzen Intel mittlerweile beim Absatz komplett überfräsen, besonders die X3Ds. Im OEM ist das augenscheinlich nicht so, aber da ist oft auch eine "markengefestigte" Klientel unterwegs.

RTX3000 sind im RT effizienter, im Raster schlucken sie jedoch tendenziell mehr. Der Peak-König bleibt aber generell die 3090Ti.

Ja, ich gehe davon aus, dass die recht schwachbrüstigen ARM-CPUs von Nvidia auch Caches haben ;)
Letztendlich hat NVidia bei Ada den Cache ähnlich wie AMD vorher bei RDNA2 massiv aufgebläht und damit einen ähnlichen Effekt erreicht. Im Detail mag der Infinity-Cache anders funktionieren, besonders bei RDNA3 als extra Chiplets, aber beide Caches stellen letztlich deutlich mehr extrem schnellen Speicherpuffer bereit.

Was nützt es einem als Anwender:in, wenn der sog. "Gaming-King" bis zu einem Vielfachen des X3D-Konkurrenten an Strom verbraucht und letztlich im Schnitt vielleicht in niedrigen Auflösungen ~5% vorne liegt?

Wenn alle das Gleiche liefern, wie soll man neue Zielgruppen finden? Die meisten Kunden bezahlen bei GPUs zudem <400€ pro Stück

Die FX5800 Ultra war hauptsächlich eine Lachnummer wegen dem Fön, verlor aber auch das Performance- und Effizienzduell gegen die Konkurrenz von ATi in Form der 9800 xyz mehr oder weniger deutlich, das sich mit DX9 für NV augenscheinlich noch zusätzlich verschlimmerte...
Seltsamerweise ist der systemweite Stromverbrauch unter Volllast bei der 6800 Ultra (223W) bei CB niedriger als bei der 5800 Ultra (225.1W). Die Radeon 9800 XT (217.2W) zog weniger Strom als diese beide Karten und war öfters deutlich leistungsfähiger als die 5800 Ultra und gar die 5950 Ultra.

Warum den 7950X3D ignorieren? Der erschien mit dem 28.02.23 ziemlich kurz nach den andern beiden, der dürfte theoretisch maximal 162W ziehen, die er in der Praxis jedoch laut PCGH nicht ansatzweise ausreizt.

Die GTX1060 war mit riesigem Abstand die erfolgreichere GPU als die RX480. AMD bot zwar mehr VRAM, aber weniger Performance und gleichzeitig schlechtere Effizienz. Und das schlug bei den Verkaufszahlen auf der Seite von NV voll durch, denen bei Pascal generell ein grosser Effizienz-Coup gelang. In einem normal funktionierenden Markt findet jedoch auch ein unter dem Strich technisch unterlegenes Produkt trotzdem eine annehmbare Anzahl Abnehmer:innen.
 
Performance/Watt macht ja gar kein Sinn, da sieht ja alle ältere Technik extrem schlecht aus, gemessen an heutigen Anforderungen. Man muss eher schauen was ein damaliger High End Rechner oder Komponente verbraucht hat und wie sich das heute darstellt.
Und was bringt das, wenn man dazu die relative Leistung pro Watt nicht mit berücksichtigt? Na toll, alte System hat viel Strom verbraucht, neue genauso viel? Und was bringt das jetzt, so zu wissen, wenn man nicht den Zusammenhang ersieht, wie sich die Leistung verbessert hat?
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
4070 Super ist doppelt so schnell wie die 3060 bei gleichem Verbrauch.

Und das sind sehr wohl Relationen, die mit den alten Karten gesehen werden sollten. Daher, bei so viel "Erklärungen" hätte Raff ruhig ein Diagramm reinmachen können, daß hätte dem Vortrag doch nicht weh getan.
 
Zuletzt bearbeitet:
Zurück