RTX 4000: RTX 4090 maximal mit über 610 Watt Leistungsaufnahme, RTX 4080 mit 29K im Time Spy

Blowfeld

Freizeitschrauber(in)
Naja, hier kann jeder individuell vergleichen, womit man günstiger durch den Winter kommt.

Heizkosten und sparsame GPU oder hochgezüchtete GPU als Heizkörper und damit Anstieg der Stromkosten bei Minderung der Heizkosten. Einfach mal durchrechnen, bei Ölheizungen könnte sich die 4090 durchaus als Zukunftsinvest herausstellen :lol:
 
S

StorageHunter-81

Guest
Das dürfte die 4090 Strix OC gewesen sein, denn die taktet mit 2640 MHz.
Gute Aussichten in puncto Leistung also, weniger aber beim Stromverbrauch im All-in-Modus.
Aber das hatten wir ja nun schon oft genug, das Thema.
 

ΔΣΛ

PCGH-Community-Veteran(in)
Einfach nur Geisteskrank, darum ziehe ich einen kauf einer starken RTX4000 Karte nicht mal in Betracht, meine auf 300Watt untervoltete 3090 ist schon meine Schmerzgrenze.
Mit der Meinung stehe ich zum Glück nicht alleine da, Computerbase hat die Tage eine Umfrage gestartet wo dies herauskam:
Screenshot 2022-10-07 at 19-34-04 Nachhaltigkeit Ist der Stromverbrauch neuer Hardware noch ze...png

Gamestar hat das kürzlich als Thema gehabt, wo sie auch ein Bild mit den anderen Top-Karten eingeblendet haben, wo mein Fazit lautet "Nvidia erhöht den Verbrauch weil sie es wollen, nicht weil sie es müssen"...
Screenshot 2022-10-07 at 19-37-37 nvidia-stromverbrauch-2006-bis-2022_6198493.jpg (JPEG-Grafik...png
 

ΔΣΛ

PCGH-Community-Veteran(in)
Und? Jede neue Generation ist effizienter/schneller, aber darum gehts einfach nicht, es geht um den "Verbrauch"(!!!).
 
S

StorageHunter-81

Guest
Meine Gartenpumpe verbraucht ähm 0,35KW und eine Graka ist bei 0,65KW da weis man was die Graka für eine Stromschleuder ist ohhh man...

@Lighting-Designer
Ja sie wandelt Geld in Hitze um das bedeutet verbrennt Geld :devil:
Ich seh's positiv. Spielspaß und warmer Sack ohne den Heizkörper bemühen zu müssen.
Und hält im Winter warm.
Und im Sommer noch wärmer! 🥵 😉
Energieerhaltungssatz! Die Karte verbraucht nicht, sie wandelt nur um!

Bin mal gespannt was die RX7000 so umwandeln. 😁
Immerhin würden manche Modelle, mit Hilfe ihrer RGB-Beleuchtung, bunte Wärme abgeben!
Ein toller Spaß, auch für die Kinder! 😃
 
Zuletzt bearbeitet von einem Moderator:

sandworm

Software-Overclocker(in)
Bei der 2070super vs RX5700XT hat man sich noch seitenlang gestritten, welche der beiden 10W
in der Spitze mehr verbraucht und nun sind 600W und ein Kühler so groß das man damit den Merkur in einen erdähnlichen Planeten verwandeln könnte, dass neue normalo.
 

Crypty

Komplett-PC-Käufer(in)
Mal ganz abgesehen von Stromverbrauch aus monetärer Sicht, die Wärme(!). Das ist doch komplett irre. Wenn ich mir überlege was 2 Vegas 64 liquid editions an Wärme produzieren, dann will ich keine 4090 im Rechner haben, außer der ist für Outdoor gaming.
 

ΔΣΛ

PCGH-Community-Veteran(in)
Den kann man ja selbst steuern. Mit einer 4090 kriegt man auch bei 350W mehr als eine 3090 liefert. Liegt alles beim User.
Mit dem kauf einer 4090 sagst du Nvidia aber was anderes, außerdem wie viele untervolten schon. Die Karte war übrigens anfangs für 600watt Standard konzepiert worden, nur durch zufall bekamen sie noch Kontingente bei TSMC für ne bessere Fertigung. Hersteller lernen nur durch reduzierten Gewinn.
 

Pu244

Kokü-Junkie (m/w)
Mit der Meinung stehe ich zum Glück nicht alleine da, Computerbase hat die Tage eine Umfrage gestartet wo dies herauskam:

Die Frage ist so gestellt, dass sie so beantwortet wird. Wenn man gefragt hätte, ob man bereit wäre, einen recht großen Teil der Leistung aufzugeben, dann wäre es anders ausgegangen.

Die Verkaufszahlen spiegeln dann auch die wirkliche Einstellung wieder: Stromverbrauch ist zweitrangig, die Leistung zählt.

Gamestar hat das kürzlich als Thema gehabt, wo sie auch ein Bild mit den anderen Top-Karten eingeblendet haben, wo mein Fazit lautet "Nvidia erhöht den Verbrauch weil sie es wollen, nicht weil sie es müssen"...

Dein Fazit ist falsch. Nvidia hat die Leistungsaufnahme erhöht, weil ihnen AMD auf den Fersen ist. Mit den RX 6000ern sind sie so dicht dran, wie zuletzt vor 10 bis 20 Jahren

Die Karte war übrigens anfangs für 600watt Standard konzepiert worden, nur durch zufall bekamen sie noch Kontingente bei TSMC für ne bessere Fertigung.

Das halte ich für unwahrscheinlich und zwar aus zwei Gründen:
1: wenn sie wirklich für 600W konzipiert worden wäre, dann hätte man das einfach so lassen können und die 10-20% Mehrleistung mitnehmen.
2: Ob es diesen Zufall gegeben hat ist fraglich. Die Chips produziert man nicht einfach so in ein paar Monaten, das braucht einen langen Vorlauf. Die Kapazitäten hat Nvidia wohl schon lange vorher gebucht.

Ich persönlich halte das für eine Ausrede von Leuten, die sich mit den 600W geirrt haben.

Hersteller lernen nur durch reduzierten Gewinn.

Richtig, deswegen wird die nächste Generation auch wieder mehr verbrauchen. Kunden lieben Leistung.
 

Gurdi

Kokü-Junkie (m/w)
Naja 29k im TS sind jetzt doch eher enttäuschend für ne 1500€ GPU.
Ich hab bei selben Verbrauch schon 23500im TS und 15k im FS Ultramit der Radeon.
Knappe 20% Mehrleistung für das doppelte an Kohle ohne bessere Effizienz.

Screenshot (864).png
Screenshot (862).png
 
Oben Unten