Nvidia Geforce RTX 4080: Schnellerer Speicher mit 23 Gbps und 340 Watt TBP (Gerücht)

Von 180W rauf auf 340W?
Sind die bei NVidia wahnsinnig geworden?
Ich werde meine 1080 nicht durch einen Stromfresser ersetzen!
Vor allem jetzt erst recht nicht!
Hoffentlich bringt AMD wieder so etwas wie eine Radeon 6700 mit gutem Preis-Leitungs-Mix und wenig Stromverbrauch auf den MArkt, diesmal aber viel früher und vor allem auch mit angehobener RT Leistung.
Du vergleichst die TDP einer 6 Jahre alten Gen mit der kommenden? Wird ja immer bunter was Du so ausgräbst... Dass eine 4060 bei ähnlicher TDP mehr Leistung bieten wird als Deine 1080 ist natürlich völlig egal. :schief:
 
Kurzer Einwurf, wer extrem sparen möchte, kauft keine der extrem Leistungsfähigen Karten sofern diese von dir gemeint waren. Aus reinem Interesse habe ich auch undervoltet, allerdings mit mehr Takt auf GPU und Speicher um die Auswirkungen zu sehen. Eigentlich stimmt daher meine Sig auch nicht mehr aber gelohnt hat es sich. Dennoch frisst die Karte einiges, mir ging es nur um Laustärke und Temp und einfach das Wissen darüber wie sich die Karte verhällt...sparen werde ich damit nicht merklich etwas außer Temp und Laustärke.
Der Raff hat seine Karte auch gut undervoltet und im Takt gesenkt. Mir persönlich wäre das zu viel. Hab meine Karte auch undervoltet aber nur so daß sie den Takt hält aber leider und kühler wird. Also sag niemals nie. Es gibt diese Zielgruppe.
 
Von mir aus kann die kommende 4080 auch 500W bei Volllast schlucken. Manche tun grad so, als ob die Karten bei ihnen 24/7 am Limit laufen würden! :ugly:
 
Du vergleichst die TDP einer 6 Jahre alten Gen mit der kommenden? Wird ja immer bunter was Du so ausgräbst... Dass eine 4060 bei ähnlicher TDP mehr Leistung bieten wird als Deine 1080 ist natürlich völlig egal. :schief:
Wir haben zwei PCs verglichen.

1. RTX3070 Stock
2. RTX3060TI mit Undervolting und Vram OC

Dem ganzen gegenüber steht meine ausgeschiedene GTX1070

Zuerst war es möglich die Fps, der 3060TI bei maximalen Powertarget (220W) auf 96-97% der RTX3070 zu bringen. Was schon nah an der Stock 3070 ist, mit 220-230W.

Als nächstes habe ich die 3060TI auf 150W beschränkt und auch dann lieferte die noch Stock 3060TI Leistung (Je nach Spiel mal +, mal -, mal genau). Was etwa 90% der 3070 waren.

Die so laufende 3060TI ist schon doppelt so schnell, wie die 1070 OC (@168W).

Bei der RTX4000 Serie wird sich die Performance pro Watt noch mal deutlich steigern. Von daher gibt es kein Problem. Darüber hinaus gibt es auch keinen wirklichen Unterschied, bei der Perf./Watt von AMD zu Nvidia. Also würe ich den Post in eine gewisse Kategorie stecken. ;) Also den, auf den du reagiert hast.
 
Ich hab ein 8 Jahre altes 750 Watt Netzteil und selbst mit OC

420 Watt GPU und 200 Watt CPU ist meine Kiste noch nie ausgegangen selbst unter volllast

3DMark und Prime95 gleichzeitig.
Was ja schon vollkommen fern ab der Realität ist.
Solche Szenarien sind u.U. nicht die Ursache fürs Abschalten des Netzteils. Manche überstehen Dauervollast, wie von dir beschrieben, schalten jedoch bei stark schwankender Last ab. Wie man aber an der 3090Ti und auch Navi 2 sieht, kann wirksam verhindert werden, dass die Spannungsversorgung und allzu hohen Spitzen leiden muss. Von daher kann man davon ausgehen, dass zu kommenden Grakas so ein Design nutzen (müssen).
 
Von mir aus kann die kommende 4080 auch 500W bei Volllast schlucken. Manche tun grad so, als ob die Karten bei ihnen 24/7 am Limit laufen würden! :ugly:
Ein bisschen von beidem.

Das Problem ist, das es total individuell ist. Bei dem einen reden wir über 5-10 Std im Monat, beim nächsten laufen 3 Gaming PC im Haus (Kinder mittlerweile alt genug).

Ein Kollege dem ich vor vielen Jahren mal meinen alten Rechner verkauft habe (ist natürlich eigentlich noch top zufrieden) konnte berichten. Sein Sohn spielt auch schon mal 3-5Std am Abend damit. Das an 3-5 Tagen.

Es war ein I7 3820@4,625GHz und eine R9 390X MSI, wir reden von rund 625W unter Spielelast aus der Steckdose ohne Monitor.


Das alleine sind schon 43kwh / Monat nur für einen, der drei Rechner. Dazu kommt sein Rechner mit 350W unter Spielelast aus der Dose, aber nur 3-5Std die Woche. Das sind 7 - 8 kwh / Monat.

Zuletzt noch der Rechenknecht der Tochter mit 250W aber wieder eher 10 Std die Woche und damit 11kwh im Monat.

Bunt gemischt macht das 62kwh nur für Spiele am PC. Macht bei aktuellen Stromtarifen immerhin schon mal über 30€ / Monat und fast 400€ / Jahr.

Bei drei Höllenmaschinen wären das ( Beispiel RTX3090TI, aber unterschiedlicher Auslastung der Spiele, plus Intel 12900KS[wenn schon denn schon, kann ja nicht bei der GPU keine Rolle spielen und bei der CPU plötzlich schon] Also rund 600W aus der Dose ohne Monitore)

Summe im Monat 80,5kwh. Damit dann rund42€/Monat und 500/Jahr.

Gegenüber dreimal einem R5 5600 plus RTX3060TI+ Undervolting (150W Beispiel) kommt man auf 225W aus der Dose.

Resultiert in 30kwh im Monat und 16€/ Monat und 190€/Jahr.


2. Beispiel:

Eine Kollegin und ihr Freund sind um 25 und haben beide eine Schwäche für PC Gaming.
So kommen die beiden auf 21-28 STd die Woche, mit zwei Rechnern. Also 56h gesamt / Woche.

Da liegt man mit einem 600W System mal eben bei 34kwh die Woche und 145 kwh / Monat.

Das macht Strom für 75€ im Monat (aktuelle Tarife) ohne Monitore. Beim 225W System sind das 28€. Ein Unterschied von 47€ für Strom im Monat. Sind 560€ Unterschied im Jahr.


Jeder der meint sich potente Hardware zu kaufen, sollte davor zwar nicht zurück schrecken dürfen. Ob jetzt 20,50, oder 100€ im Monat extra für ein Hobby bringt die meisten nicht um. Aber da mal bewusst drüber nachzudenken ist absolut gerechtfertigt.

Ich persönlich sehe das so, Hobbys kosten Geld. Da gehört PC Gaming noch zu den günstigeren. Auch bei den neuen Strompreisen, dennoch kann man optimieren wo es geht.
Solche Szenarien sind u.U. nicht die Ursache fürs Abschalten des Netzteils. Manche überstehen Dauervollast, wie von dir beschrieben, schalten jedoch bei stark schwankender Last ab. Wie man aber an der 3090Ti und auch Navi 2 sieht, kann wirksam verhindert werden, dass die Spannungsversorgung und allzu hohen Spitzen leiden muss. Von daher kann man davon ausgehen, dass zu kommenden Grakas so ein Design nutzen (müssen).

Glaube nach wie vor das hier dramatisiert wurde. Klar manche NT waren überfordert. Aber alleine schon Single Rail und MultiRail machte einen großen Unterschied.

Frage:
Navi2, welche Karten gehören da denn nochmal alle zu?
Bei Igor habe ich mal gesehen, das die 6900XT, oder 6950XT prozentual nicht besser abgeschnitten hat, als eine 3090.

Wirklich positiv hervorheben würde ich an dieser Stelle tatsächlich die 3090TI, die zwar absurd viel säuft aber die Peaks um Welten besser im Griff hatte.
 
@derneuemann Klar, dass läppert sich schon zusammen. Aber selbst wenn man Heavy-User ist, kommt man damit nicht ins Armenhaus (ich geh da jetzt nicht vom Hartz4 Empfänger aus :)). Bei mir sinds so ca. 10h Gaming die Woche, da spielt der Verbrauch für mich überhaupt keine Rolle. Und ich bin da komplett bei dir, PC-Gaming ist eines der günstigeren Hobbies. Ich bin früher viel große RC-Helis geflogen (bzw. abgestürzt :ugly: ), dass ist wirklich ein teures Hobby! :D
 
Von mir aus kann die kommende 4080 auch 500W bei Volllast schlucken. Manche tun grad so, als ob die Karten bei ihnen 24/7 am Limit laufen würden! :ugly:
Naja, man muss immer abwägen, wie viel man pro Tag zockt und was man bereit ist für sein Hobby zu zahlen. Aktuell verbraucht meine RTX 3070 im Schnitt 220W und ich zocke schon sehr viel (in der Woche ~25h; am Wochenende auch schon mal 15h) und ich bin bei einem Jahresverbrauch von ~ 2.500 kWh (inkl. Home Office, usw.).

Bei aktuell 20 Cent pro kWh komme ich auf ~70€ Stromkosten im Monat. Das wird sich kommendes Jahr ändern, wenn meine Preisgarantie futscht ist und ich künftig ~40 Cent pro kWh zahlen darf. Das sind dann schnell mal über 130€ Strom im Monat. Finde ich ehrlich gesagt schon ziemlich heftig. Und das nur mit meiner RTX 3070. Wenn eine 4080 dann das doppelte verbrauchen würde, erreichste sicherlich auch schon die 150€ Stromkosten im Monat. Wenn nicht sogar mehr. Welcher Normalsterbliche in Deutschland kann sich das bitte noch leisten?
 
@D4rkResistance Bei 440W Verbrauch kostet dich der reine Betrieb der 4080:

1.png


Finde das jetzt für ein Hobby nicht sooo schlimm. Sicher ist günstiger besser, aber es ist schon leistbar.

PS: Editiert, da Stunden pro Tag nicht gepasst haben.
 
Du vergleichst die TDP einer 6 Jahre alten Gen mit der kommenden? Wird ja immer bunter was Du so ausgräbst... Dass eine 4060 bei ähnlicher TDP mehr Leistung bieten wird als Deine 1080 ist natürlich völlig egal. :schief:

Alles andere wäre auch extrem peinlich. Gut, man muß sagen, das ist es schon jetzt. Die RTX 3050 ist etwa so schnell, wie einer GTX 1070 und die hat 150W gebraucht, die RTX 3050 hingegen 130W. Das sind popelige 13% weniger Stromverbrauch für gut 6 Jahre warten. Einfach nur absolut armselig, mehr gibt es da nicht zu sagen. Bei der RTX 3060 sieht es etwas besser aus. Die ist ungefähr so gut wie eine RTX 1080Ti. Macht 170W zu 250W oder 32% weniger für 4 Jahre warten.

Die Luft ist raus, jetzt muß die Brechstange ran.
 
Glaube nach wie vor das hier dramatisiert wurde. Klar manche NT waren überfordert. Aber alleine schon Single Rail und MultiRail machte einen großen Unterschied.
Nachdem was ich gelesen habe, betraf es sowohl SR als aus MR Netzteile. Ich habe auch ein bisschen das Gefühl, dass das Thema Netzteil hier ofter höher aufgehängt wird, als nötig, sehe aber anhand diverser Tests und Berichte, dass die High End Karten für einige Netzteile ein ernstzunehmendes Problem darstellen können.

Frage:
Navi2, welche Karten gehören da denn nochmal alle zu?
Bei Igor habe ich mal gesehen, das die 6900XT, oder 6950XT prozentual nicht besser abgeschnitten hat, als eine 3090.
Ich meine Igor hat die Unterschiede in den Platinendesigns mal vorgestellt und dabei herausgestellt, dass (am Beispiel einer "großen") Navi2 mögliche Spannungsspitzen Richtung Energieversorgung filtert.

Wirklich positiv hervorheben würde ich an dieser Stelle tatsächlich die 3090TI, die zwar absurd viel säuft aber die Peaks um Welten besser im Griff hatte.
Alles andere wäre für Enduser auch kaum zumutar gewesen.
 
Zuletzt bearbeitet:
Wenn nicht sogar mehr. Welcher Normalsterbliche in Deutschland kann sich das bitte noch leisten?

Quasi jeder Erwachsene.

35h in der Woche sind schon recht heftig, das macht dann 150h im Monat. Gemäß den Gerüchten braucht die RTX 3080 nicht das doppelte, sondern "nur" 120W mehr. Das macht 18kWh im Monat mehr oder bei einem Strompreis von 0,5€, wenn es hart kommt, ganze 9€.

Dafür ist man freizeitechnisch extrem gut versorgt und braucht nicht mehr viel. Gaming ist ein relativ günstiges Hobby.

Das Problem sind die anderen Kosten und der Preis der Karte. Wenn man 2000€ mehr fürs Heizen, 1000€ mehr für den Strom (gibt ja noch andere Dinge) oder 2000€ mehr fürs Auto zahlen muß, dann ist die 750€ Karte (billiger wird es wohl nicht) einfach das erste, das man sich sparen kann. Mit einer GTX 970 aufwärts läuft auch noch absolut jedes Spiel. Das ist das eigentliche Problem für die Gamingkarten.
 
Von mir aus kann die kommende 4080 auch 500W bei Volllast schlucken. Manche tun grad so, als ob die Karten bei ihnen 24/7 am Limit laufen würden! :ugly:

Bei manchen hier ist das wohl so...gemssen an "Pöbelthreads" wo Spiele runtergelabert werden obwohl man diese nie spielen wollte etc...oder gemessen daran, dass hier viele keine andere Beschäftigung finden ist das gefühlt so. Also mich nervt es maximal nur dann, wenn ich mein 850W Nt wechseln muss, was ich notfalls aber einfach mache.

Naja keine Ahnung was hier so manchmal los ist.
 
Quasi jeder Erwachsene.

35h in der Woche sind schon recht heftig, das macht dann 150h im Monat. Gemäß den Gerüchten braucht die RTX 3080 nicht das doppelte, sondern "nur" 120W mehr. Das macht 18kWh im Monat mehr oder bei einem Strompreis von 0,5€, wenn es hart kommt, ganze 9€.
Vertippt? Das "aktuelle" Gerücht sagt dass die 4080 340W TDP haben soll, das wären 20W mehr als die 3080.
 
Quasi jeder Erwachsene.

35h in der Woche sind schon recht heftig, das macht dann 150h im Monat. Gemäß den Gerüchten braucht die RTX 4080 nicht das doppelte, sondern "nur" 120W mehr. Das macht 18kWh im Monat mehr oder bei einem Strompreis von 0,5€, wenn es hart kommt, ganze 9€.

Dafür ist man freizeitechnisch extrem gut versorgt und braucht nicht mehr viel. Gaming ist ein relativ günstiges Hobby.

Das Problem sind die anderen Kosten und der Preis der Karte. Wenn man 2000€ mehr fürs Heizen, 1000€ mehr für den Strom (gibt ja noch andere Dinge) oder 2000€ mehr fürs Auto zahlen muß, dann ist die 750€ Karte (billiger wird es wohl nicht) einfach das erste, das man sich sparen kann. Mit einer GTX 970 aufwärts läuft auch noch absolut jedes Spiel. Das ist das eigentliche Problem für die Gamingkarten.
Ich weiß, dass die Gerüchte von 340W sprechen, ich habe mit meinem Beitrag ja aber den von @Cruach zitiert, der meinte er würde auch ne RTX 4080 mit 500W kaufen. 340W finde ich ja mehr als okay. Die Strompreisanhebung von 20 auf 40 Cent pro kWh allerdings nicht (bzw. weiß ich noch nicht, wie viel ich ab dem 01.01.2023 genau zahlen werde; vllt sind es ja sogar dann 50 oder 60 Cent pro kWh :ugly: ).

Da ich außer Zocken kaum andere Hobbys habe (Radfahren evtl. noch), halten sich die Kosten wirklich in Grenzen. Dennoch würde ich 90€ weniger Geld am Monatsende definitiv schon finanziell merken.

Der Preis der Karte ist mir egal...rechne mit allem zwischen 700 und 1.400€ und bin auch alles in dem Preissegment bereit zu zahlen. Heizen wird bei mir zum Glück keine allzu große Rolle spielen, da "Wärmepumpe" (okay, durch den doppelten Strompreis evtl.), Auto fahre ich nicht. Und mit einer GTX 970 läuft sicherlich nicht jedes Spiel. Vielleicht in FullHD...aber sicher nicht in 3440x1440...da hat selbst meine alte GTX 1080 schon zu kämpfen überhaupt flüssige 60fps zu erreichen. Mit der RTX 3070 sinds dann je nach Spiel immerhin 70-90fps, was man durchaus als flüssig betrachten kann. Raytracing kann man mit der Karte in der Auflösung allerdings vergessen. Auch würde ich mir manchmal wünschen auf meinem 120Hz Monitor auch nur annähernd so viel fps zu erreichen, was allerdings meistens nur durch senken der Grafikdetails oder dem Einsatz von DLSS möglich wird.

Aha Lambo fahren und über 2,22€ pro Liter Super + & 30 l/100km Verbrauch beschweren.
Schlechter Vergleich, da es ja eher so ist, das Lambo fahren bisher mit 20l/100km für 1,11€ pro Liter Super+ möglich war und der neue Lambo nun plötzlich 30l auf 100km braucht und der Sprit doppelt so teuer geworden ist. :ugly:
 
Zuletzt bearbeitet:
Zurück