RTX 4090: Neuer Maximaltakt von 3.135 MHz bei unter 500 Watt erreicht

Die Founders lässt sich wohl nicht über die 450 Watt anheben.
Die Strix OC geht bis auf 610 hoch.
Quer durch alle Custom-Modelle ist alles möglich, von max. 450 bis über 600 Watt.
Die 450 Watt liegen natürlich nicht permanent an, aber das sollte ja klar sein.
 
Nur mal zum Nachdenken. Mein Mann und ich haben heute einen Ausflug gemacht. Rund 400km, mit einem vollekektrischen Auto. Dafür mussten wir rund 80kWh laden.

D.h. wir könnten damit eine 4090 mit 500 Watt 160 Stunden lang unter Volllast betreiben und zocken.

Dabei ist ein E-Fzg mit die energiesparenste Variante zu Reisen, im Individualverkehr momentan wohl ungeschlagen.

Nur um das ganze mal ins Verhältnis zu setzen, wenn hier immer geschimpft wird. Spätestens wenn man den Strom regenerativ erzeugt, sind die 500 W echt kein Problem. Da haben wir zur Zeit ganz andere Probleme.

Jeder, der mit seinem Verbrenner-Auto zum Einkaufen fährt, schädigt das Klima um ein vielfaches mehr, als der Zocker mit seinem PC.

Solche Beispiele darfst du bitte nicht bringen. Zuviel Wahrheit erträgt der Ökoterrorist nicht.

Das stimmt so nicht. Korrekt muss es heissen, haten ist bei NVIDIA normal. Bei den "Guten" hatet niemand.
Dafür kann ich in eine Grafikkarte noch so viel Strom reinprügeln und komm doch keinen Meter weit, wenn ich 3 Personen mit ihr transportieren will...

Das Beispiel oben hinkt so sehr... es ist nur eine witzige Anekdote und hat mal so gar nichts mit irgendwas zu tun, weil da zu viele Milchmädchen am Werk waren.
 
Das sehe ich deutlich an anders. Und du Morgen sicher auch.:kuss:
War nur 'ne Vermutung, kein gesichertes Wissen. Muss ich zugeben. Es sei jedem angehenden FE-Besitzer gegönnt, alles aus seiner neuen Errungenschaft rausholen zu können. ?

Aber danke fürs Küsschen! ? ?


Ja ja, das mag der Gaymer. ?
Ich wollte aber nur einen freundlichen Spaß machen.
Der süße Duft des weiblichen Gegenstücks ist immer noch jener, der meine Riechzellen betört.

Ich hoffe, ich durfte das ohne negative Konsequenzen schreiben und möchte ausdrücklich niemanden angreifen! ?
 
Zuletzt bearbeitet von einem Moderator:
Ich hab doch klar geschrieben worum es mir geht. Die Leute, die mit Fingern auf andere zeigen, weil sie Strom mit ihrem PC vergeuden, sollen erst mal vor ihrer EIGENEN Tür kehren. Und überlegen, ob sie selbst nicht um Potenzen mehr Energie unnötig verschwenden.

Mit Fingern auf andere zeigen ist immer so einfach.
Wie gesagt: Der Vergleich zieht nicht.
Auch wenn ihr beide rein zum Spaß unterwegs wart, wurde ja mehr nicht benutzt, als nur die Grafikkarte... Warm Wasser, Beleuchtung, Evtl. Fernseher... uvm. war alles aus...
Ein durchschnittlicher 2 Personen Haushalt verbraucht laut den Stromrechnern 2400 kWh / Jahr.
Das wären dann Pro Tag um die 6,7 kWh - mal großzügig gerechnet spart man um die 4 kWh, wenn man den Tag über nicht da ist und noch ein paar Dinge wie Waschmaschine, Kühlschrank u.ä. laufen hat.

Bleiben also noch 76 kWh "verschwendet".
Die Rechnung lässt halt nur eine Sache außen vor:
Jede Person fährt mal raus.. egal, ob ein PC Daheim steht, oder nicht....
Und viele machen das per ÖPNV, oder Auto mit Verbrenner...
Nennt sich Freizeit... genau wie PC.


Aber:
1) hätten wir beim Thema Individualverkehr nicht seit den 1970ern immer strengere Regeln angelegt, wären wir jetzt noch bei einem Durchschnittsverbrauch von 12 l selbst für kleinere Autos. (Mein 45 PS Corsa A von 1986 mit 735 kg Leergewicht kam so auf 7-9l.. je nach Fahrweise) - mein 286 PS Touareg kommt mit seinen 2070kg Leergewicht übrigens auf einen ähnlichen Durchschnittsverbrauch, wobei die Nadel da eher in Richtung 7 ausschlägt.
2) Haben GPUs beim Stromverbrauch mal gaaanz klein angefangen - komplett ohne Stromstecker und jegliche Kühlung.
3) sieht man da aktuell eher eine contraire Entwicklung - Autos, Verkehr... die meiste Elektronik.. wird immer Leistungsfähiger bei immer geringerem Strombedarf.
Mit Ausnahme der Grafikkarten und CPUs. Da ist es völlig aktzeptiert, wenn sie zwar mehr leisten, die Mehrleistung aber fast ausschließlich aus höherem Strombudget kommt.
Die 1080 TI kam mit 250W aus.
Nur 3 Generationen später sind wir einen Rang darunter (die 1080 TI stand Chipmäßig ungefähr da, wo jetzt die bald erscheinende 4090 TI sein wird.. denn eine Titan kommt sicher auch noch) bei akzeptierten 450W angekommen.
Da stimmt doch irgendwas nicht.

1080 TI im Test im März 2017:
Die 1080 TI war so schnell wie die Titan X, verbrauchte einen Hauch mehr - 250W vs. 230W (Kein Wunder.. ein wenig mehr beschnittener Chip.. etwas höherer Takt...).

Ja, die 4090 verbraucht "nur" so viel, wie eine 3090 TI....
Dumm nur, dass die 3090 ohne Anhängsel mit 350W Verbrauch daher kam.. also 100W weniger als die direkte Nachfolgerin.

Bei AMD gibt es einen ähnlichen, aber bei weitem nicht so intensiven Trend.
Die 6900 XT kommt immerhin auf 300W... nicht berühmt, aber auch nicht extrem hoch.
Für die 7000er hoffe ich auf bessere Werte, befürchte aber dank Balkentuning auch den Weg zu 450W...


Meinung von Nvidia Fans Anno 2017: "Wer ist denn so doof, sich eine 300W Heizung von AMD in den Rechner zu stecken? Da brauch ich ja ne eigene Klimaanlage"

Meinung von Nvidia Fans 2022: "450W? Klar, immer her damit, Hauptsache der Balken ist lang. Andere Freizeitaktivitäten brauchen viel mehr Strom"

Schönreden geht immer.
Gilt auch für die Profiberichterstatter.


Allerdings arbeite ich auch in der Autoindustrie... da ist ein Ruhestrom von 0,01A für ein Steuergerät schon hoch.

Ach ja..... das Effizienzwunder bei Elektromobilität ist aktuell noch immer der erste Hyundai Ioniq - Der kommt auf 10kWh / 100 km und mit seiner 36 kWh Batterie noch über 300 km weit.
Da wäre die "Stromverschwendung" für den Ausflug bei nur noch 40-45 kWh gelandet...
 
Aber:
1) hätten wir beim Thema Individualverkehr nicht seit den 1970ern immer strengere Regeln angelegt, wären wir jetzt noch bei einem Durchschnittsverbrauch von 12 l selbst für kleinere Autos. (Mein 45 PS Corsa A von 1986 mit 735 kg Leergewicht kam so auf 7-9l.. je nach Fahrweise) - mein 286 PS Touareg kommt mit seinen 2070kg Leergewicht übrigens auf einen ähnlichen Durchschnittsverbrauch, wobei die Nadel da eher in Richtung 7 ausschlägt.
Dat will ich sehen. Vielleicht auf der Autobahn bei 0% Steigung und 100 km/h Tempomat. In der City und Überland bist du locker bei 10-12 L. Ich fahre nen Cupra Leon St.. Deutlich aerodynamischer und leichter, der braucht mit 120 auf der Autobahn etwa 7,5-9 Liter, je nach dem ob Steigung vorhanden ist usw. In der Stadt bin bei 10-12L...
 
@Khabarak Wenn du maximal Stromsparen willst, darfst du sowieso nur ein Handy oder maximal ein Chromebook oder sowas haben.
Gaming ist per se Stromverschwendung.
450W ist viel, aber man kann es locker selbst runterschrauben. DAS ist auch ein Vorteil, wenn man die stärkste Karte hat: Meist wird nicht alles an Leistung gebraucht.
@TausendWatt Das Problem hat mein Vater auch...gutes Hybridauto das wenig verbraucht, aber die Kurzstrecke in der Stadt lässt dennoch Sprit ohne Ende fressen. Für sowas wäre echt ein E-Auto gut. Aber es ohne Carport oder Garage und ohne Ladesäule öffentlich oder privat Zuhause ist das unmöglich.
 
Dat will ich sehen. Vielleicht auf der Autobahn bei 0% Steigung und 100 km/h Tempomat. In der City und Überland bist du locker bei 10-12 L. Ich fahre nen Cupra Leon St.. Deutlich aerodynamischer und leichter, der braucht mit 120 auf der Autobahn etwa 7,5-9 Liter, je nach dem ob Steigung vorhanden ist usw. In der Stadt bin bei 10-12L...
Ich fahre wenig Stadt, das stimmt - allerdings lag mein Corsa in der Stadt auch eher bei 9l... Vergasermotoren sind halt nicht die effizientesten.
In der Stadt komme ich auch eher auf 12 bis 13 l/100 - weshalb ich hier auch lieber ZOE fahre.

Meine Arbeitsstrecke von Köln nach Kerpen ist nicht unbedingt irre lang, aber auch nicht frei von Steigungen. Da fahr ich so 100 bis 120. Tempomat hab ich zwar, aber nie genutzt.
Auf dem Rückweg lasse ich es was gemütlicher angehen... da bleib ich meist etwas unter 100 (Mitte 90 rum..) und schaffe so (auch wegen fehlender Linksabbiegerampel mit morgendlichem Rush) einen Verbrauch von 5,5 l/100km.

Die Strecke zu meinem Vater ins Bergische Land fahre ich meist mit um 6,6l - da fahr ich aber auch eher um die 120, nicht 160 - auch wenn der Verbrauch da nicht explodiert. Der Touareg geht ab 130 km/h "in die knie" und senkt sich um 5cm ab.

@Khabarak Wenn du maximal Stromsparen willst, darfst du sowieso nur ein Handy oder maximal ein Chromebook oder sowas haben.
Gaming ist per se Stromverschwendung.
450W ist viel, aber man kann es locker selbst runterschrauben. DAS ist auch ein Vorteil, wenn man die stärkste Karte hat: Meist wird nicht alles an Leistung gebraucht.

Das Argument ist irgendwie ein bisschen mau...
Immerhin konnte man auch schon bei 250W 1080 TI runterschrauben, ohne viel Leistung zu verlieren.
Das ist für mich noch immer kein Argument, weshalb die Karten innerhalb von 5 Jahren plötzlich alle alten Grenzen ignorieren und mal eben 200W Verbrauch draufpacken.

@TausendWatt Das Problem hat mein Vater auch...gutes Hybridauto das wenig verbraucht, aber die Kurzstrecke in der Stadt lässt dennoch Sprit ohne Ende fressen. Für sowas wäre echt ein E-Auto gut. Aber es ohne Carport oder Garage und ohne Ladesäule öffentlich oder privat Zuhause ist das unmöglich.

Hybridautos sind leider vollkommene Schönrechnerei.
Interessant, so lange die Batterie geladen ist, danach saufen die leider ohne Ende, weil sie Batterie und E-Motor mitschleppen müssen.
Auch ein paar Komfortelemente sind schwerer. z.B. will der Fahrer ja auch im E-Betrieb Klimaanlage. Also ist nix mehr mit Keilriemenantrieb für den Kompressor, der ist jetzt ein E-Motor getriebenes Teil mit eigenem Motörchen.

Denn eigentlich ist der Elektrobetrieb eines Hybridautos gerade für die Stadt gedacht... der Motor sollte da garnicht anspringen.
 
Das Argument ist irgendwie ein bisschen mau...
Immerhin konnte man auch schon bei 250W 1080 TI runterschrauben, ohne viel Leistung zu verlieren.
Das ist für mich noch immer kein Argument, weshalb die Karten innerhalb von 5 Jahren plötzlich alle alten Grenzen ignorieren und mal eben 200W Verbrauch draufpacken.
Weil eine 4090 4 mal soviel Leistung hat wie eine 1080Ti? 4x250W wäre 1000W, aber die 4090 hat "nur" 450W, was schon ansich weniger als die Hälfte ist.
Eine 4090 müsste also die Leistung einer 1080Ti bei nur 120W liefern können...leider skaliert alles nicht so gut.
Ich habe aktuell eine 3060Ti drinne, die auf 140W limitiert ist. Die läuft so ganz gut und liefert annähernd die Leistung einer 1080Ti UND hat DLSS und Co..
Noch habe ich keine 4090 und kann es nicht ausprobieren...nächste Woche vielleicht aber.
 
Weil eine 4090 4 mal soviel Leistung hat wie eine 1080Ti? 4x250W wäre 1000W, aber die 4090 hat "nur" 450W, was schon ansich weniger als die Hälfte ist.
Eine 4090 müsste also die Leistung einer 1080Ti bei nur 120W liefern können...leider skaliert alles nicht so gut.
Ich habe aktuell eine 3060Ti drinne, die auf 140W limitiert ist. Die läuft so ganz gut und liefert annähernd die Leistung einer 1080Ti UND hat DLSS und Co..
Noch habe ich keine 4090 und kann es nicht ausprobieren...nächste Woche vielleicht aber.
Sorry, aber das ist noch immer kein Argument...

Eine 1080 TI hat die 8,4 fache Rechenleistung einer GTX 480 und verbraucht gleich viel, bis sogar ein bisschen weniger... je nach Szenario.

Das Wesen der Elektronik wahr seit dem Beginn: deutliche Leistungssteigerung bei weniger Energieeinsatz.
Tjoa.. klappt aktuell leioder nicht mehr so.. und wird dennoch akzeptiert.
 
Ich denke einfach, um mal was einzuwerfen, dass die physikalischen Grenzen von Leistung = Effizienz erreicht sind. Zumindest für den Consumer-Markt. Aktuell ist da offenbar nur Brechstange drin.
 
Ich denke einfach, um mal was einzuwerfen, dass die physikalischen Grenzen von Leistung = Effizienz erreicht sind. Zumindest für den Consumer-Markt. Aktuell ist da offenbar nur Brechstange drin.
Mag sein, aber da müssen wir warten, was Navi 31 bringt.. immerhin sollen da auch 50% perf / Watt Steigerung rauskommen.
Also im besten Fall 6900 XT Leistung bei 6600 (ohne Anhang) Leistungsaufnahme.

Allerdings sehe ich dann mal wieder am oberen Ende schwarz... Die Chips bis an die Leistungsgrenze aufgedreht, nur um den längsten Balken zu haben.


Es gibt bei beiden einen offensichtlichen Unterschied im Marketing... AMD zeigt in den letzten Generationen immer auf perf / Watt Steigerungen, während Nvidia gern mal die Leistungssteigerungen überdreht formuliert "2-4 Mal schneller".
Letzteres muss sich ja offensichtlich beim Durchschnittskunden auswirken - sonst würden sie es nicht machen.
 
Na klar wird die Werbung mithilfe der wirksamen Psychologie gemacht.
Davon ab, die ersten Tests der 4090 sind da und es sieht, mit kleinen Abstrichen, sehr gut aus. Leistung satt und mit den heutzutage nötigen und möglichen Limitierungen und Tweaks ebenso im Rahmen, was die Verbrauch-/Leistung-Ratio angeht.
Die kleinen Abstriche sind im DLSS 3 zu finden, das, wie 2018 Raytracing, noch mit kleinen Fehlerchen (Artefakten) kämpft.
Egal, macht alles der Treiber und bis Ostern geb ich mir noch Zeit.
Mit der 3080, die im Übrigen weniger als halb so schnell wie die 4090 ist, kann ich erst mal leben.
 
Zurück