Nvidia Geforce RTX 3090 Ti: XOC-BIOS hebt Power-Limit auf 890 Watt an

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Nvidia Geforce RTX 3090 Ti: XOC-BIOS hebt Power-Limit auf 890 Watt an

Via Extreme-Overclocking-BIOS lässt sich das Power-Limit der Geforce RTX 3090 Ti deutlich aufbohren. Bis zu 890 Watt, wie Screenshots zeigen, kann sich das Nvidia-Flaggschiff damit zumindest in Theorie zu Gemüte führen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Nvidia Geforce RTX 3090 Ti: XOC-BIOS hebt Power-Limit auf 890 Watt an
 
Klar Chernobil 2 ,naja wenn man neben den Kraftwerk wohnt kriegt man sicherlich Rabatt :-)
 
Voll der Schwachsin. In Zeiten in denen die Energiepreise regelrecht explodieren kommen einzelne Grafikkarten Hersteller auf solche absurden Ideen. Ich kann nur sagen: "die haben den Gong nicht mehr gehört". Anstatt die Entwicklung auf Energieefizienz vorran zu treiben geht es immer weiter in Richtung verschwenden von Resorcen. Solche Karten sollte niemand kaufen und die Hersteller müssten auf so einem Scheiss sitzen blieben. Leider gibt es immer noch genug "Schwachköpfe" die sowas auch noch ihr "Eigen" nennen wollen.

Stark übertrieben:
Wenn man mal eine RTX 3090 oder auch eine RX 6900 mit einem 9 Volt Block betreiben kann, gehen wir erst in die richtge Richtung. Schande über NVidia.
 
Das gilt dann wohl für die Generation die kommen. Alle ziehen zuviel strom von Grak bis CPU. Deswegen wechsel ich auch nicht das System bei dem Verbrauch. Eine gute Sachte hat das , man kan im Winter Heizung aus machen und PC auf vollen Verbrauch Stellen :D
 
Voll der Schwachsin. In Zeiten in denen die Energiepreise regelrecht explodieren kommen einzelne Grafikkarten Hersteller auf solche absurden Ideen. Ich kann nur sagen: "die haben den Gong nicht mehr gehört". Anstatt die Entwicklung auf Energieefizienz vorran zu treiben geht es immer weiter in Richtung verschwenden von Resorcen.
Stimme dir zu. Mehr Leistung durch mehr Ressourcen ist kein Fortschritt sondern bestenfalls Stillstand.

Trotzdem werden die neuen Karten gekauft werden. Hohe Preise haben die Kundschaft nicht abgeschreckt und hohe Betriebskosten werden das auch nicht ändern :(
 
Vielleicht wird es im Heimbereich ja wie im Serverbereich. Da kauft man schon mal einen neuen Server für 20k€ weil man das allein am Strom wieder reinspart.

Auch f2p Spiele könnte das verändern. Von wegen, man kann sich alles auch über Zeit erspielen anstatt es im Cash Spop zu kaufen. Bei einer 3090 die 35 Cent die Stunde frisst kann sollte man wirklich mal nachrechnen, ob es einem nicht teurer kommt, wenn man sich das 5€ wirklich über Zeit erspielt auf so einer Karte.
 
Da braucht man ja ein Kraftwerk dazu... keine Ahnung wieso immer über Intel gemeckert wird... :D
 
Voll der Schwachsin. In Zeiten in denen die Energiepreise regelrecht explodieren kommen einzelne Grafikkarten Hersteller auf solche absurden Ideen. Ich kann nur sagen: "die haben den Gong nicht mehr gehört". Anstatt die Entwicklung auf Energieefizienz vorran zu treiben geht es immer weiter in Richtung verschwenden von Resorcen. Solche Karten sollte niemand kaufen und die Hersteller müssten auf so einem Scheiss sitzen blieben. Leider gibt es immer noch genug "Schwachköpfe" die sowas auch noch ihr "Eigen" nennen wollen.
Du vergisst, das sowas nicht nur für den deitschen Markt "entwickelt" wird. Den Rest der Welt juckt der Strompreis nicht so sehr, kommt schließlich aus der Wand und ist günstig.
 
Der große Kritikpunkt ist, dass es wahrscheinlich nicht zu kühlen ist und sämtliche Bauteile auf der Platine überlastet, wenn man wirklich soviel Leistung da durchjagt.

Umweltbedenken lassen wir hier mal außen vor. Zum einen wie schon geschrieben, ist das eine sehr deutsche Sichtweise, die der Rest der Welt nicht unbedingt mit uns teilt (Achtung: ich sage nicht dass es falsch ist sparsam mit Ressourcen umzugehen). Zum anderen dürfte das dem Käufer einer solchen Karte bewusst sein.
 
Naja die Tendenz ist klar erkennbar. Ein Kumpel hatte mich besucht und wir haben denn mal seinen Strommesser benutzt. Ich hatte vorher einen 5950X und eine 2070 Super im Rechner. In 3DMark bei Timespy Extrem hat dann mein Rechner fast 500 Watt aus der Steckdose gezogen. Ich bin wirklich erschrocken als ich diese Werte gesehen hatte. Mit meinem jetzigen Rechner habe ich diese Werte mehr als halbiert.
 
Ihr habt aber schon mitbekommen, dass es sich da um ein selbstgebasteltes custom BIOS handelt?

Weder Nvidia noch die anderen Hersteller, können was dafür, wenn so ein Uber-nerd fast 900W powerlimit in den ROM schreibt :ugly:
 
Zuletzt bearbeitet:
Ihr habt aber schon mitbekommen, dass es da um ein selbstgebasteltes custom BIOS handelt?

Weder Nvidia noch die anderen Hersteller, können was dafür, wenn so ein Uber-nerd fast 900W powerlimit in den ROM schreibt :ugly:

Klar haben wir das verstanden jedoch ist wie ich oben schon geschrieben habe die Tendenz klar erkennbar. Immer NOCH MEHR Verbrauch wo soll das denn hinführen. Klar war mein Vergleich übertrieben aber wäre doch schön wenn man ma in die Richtung WENIGER Verbrauch entwickeln würde anstatt immer MEHR.
 
So bereitet man den Kunden auf den Verbrauch der 4000er Generation vor. 900W sind dann normal.
 
Du vergisst, das sowas nicht nur für den deitschen Markt "entwickelt" wird. Den Rest der Welt juckt der Strompreis nicht so sehr, kommt schließlich aus der Wand und ist günstig.
Du triffst damit die Sache auf dem Kopf. Nvidia (und auch Intel/AMD) interessieren die horrenden Energiekosten in Europa, insbesondere in DE nicht die Spur. In den Staaten liegt der Preis für die KW/h sehr deutlich unter hiesigen Preisen. Da ist es völlig nebensächlich, ob eine GPU bis knapp 1000W und eine Desktop CPU bis zu 300W verbraten.

Hier in Deutschland werden wir in Kürze mit 40+X ct pro KW/h die mit Abstand höchsten Strompreise weltweit haben. Strom wird hier dann ein Luxusgut sein, das sich viele dann kaum noch leisten werden können. Das ist eben das Ergebnis dessen, wenn man mit Gewalt innerhalb kürzester Zeit bar jeglicher Vernunft zum Vorzeige Ökostromland werden will.
 
Du triffst damit die Sache auf dem Kopf. Nvidia (und auch Intel/AMD) interessieren die horrenden Energiekosten in Europa, insbesondere in DE nicht die Spur. In den Staaten liegt der Preis für die KW/h sehr deutlich unter hiesigen Preisen. Da ist es völlig nebensächlich, ob eine GPU bis knapp 1000W und eine Desktop CPU bis zu 300W verbraten.

Hier in Deutschland werden wir in Kürze mit 40+X ct pro KW/h die mit Abstand höchsten Strompreise weltweit haben. Strom wird hier dann ein Luxusgut sein, das sich viele dann kaum noch leisten werden können. Das ist eben das Ergebnis dessen, wenn man mit Gewalt innerhalb kürzester Zeit bar jeglicher Vernunft zum Vorzeige Ökostromland werden will.
Ich finde es ja perfide, dass der Staat an den horrenden Energiekosten der letzten Monate extrem mitverdient, da durch steigende Preise auch die Abgaben (welche auf Strom den Großteil des Preises ausmachen) mit steigen.

Bin ja froh, dass mein städtischer Stromlieferant die Strompreise für Bestandskunden nicht angezogen hat, welche noch immer bei ungefähr 27,5 Cent liegen.
Dafür ist mir aufgefallen, dass mein Monitor im Standby statt angegeben 0,5 Watt ganze 15 Watt zieht, was in einem Monat allein 10kWh für Standby allein wären. O_o
 
Zuletzt bearbeitet:
Bin gespannt wie lange es dauert das Firmensprecher diesen wahnsinn mit diesen Worten kommen:
Das bei 1200 watt energie Verbrauch pro stunde für das Computerspielen doch sehr günstig ist, mann würde für ca. 0.50 cent pro stunde gameplay doch günstig Unterhalten. Bei einem kino/ Theater, /Oper oder Konzertbesuch bezahlt man doch bedeutend mehr pro stunde Unterhaltung.Das sollte doch sogar Mindestlöhner 0.50 cent pro stunde leistbar und Wert sein für so viel gebotene Unterhaltung. Die Habgier und Raffsucht der Gesellschaft kennt kein Ende.
 
Wenn ich die Kommentare hier wieder lese :haha:

Für die 3090 non-Ti gibt es seit Ewigkeiten ein 1 kW Bios und hier liest man wieder nur das übliche Moral-Geblubber von Umwelt und Ressourcen. Die speziellen Biosversionen kommen nur bei der Jagd nach Highscores zum Einsatz, das nutzt niemand für den Alltag. Aber das wollen die Moralprediger hier nicht verstehen.

Wenn man mal eine RTX 3090 oder auch eine RX 6900 mit einem 9 Volt Block betreiben kann, gehen wir erst in die richtge Richtung. Schande über NVidia.
Weißt du überhaupt was du da schreibst? Nicht mal einen Raspberry Pi kannst du mit einer 9V Batterie betreiben weil 1. falsche Spannung und 2. nicht genug Saft zur Verfügung steht. Selbst mit einem Wandler von 9V auf 5V sind höchstens 40-50 Minuten Laufzeit drin und du verlangst hier, dass GPUs vom Kaliber eines GA102 in diese Richtung gehen. Da kann ich nicht oft und lang genug mit dem Kopf schütteln :nene:
 
Voll der Schwachsin. In Zeiten in denen die Energiepreise regelrecht explodieren kommen einzelne Grafikkarten Hersteller auf solche absurden Ideen. Ich kann nur sagen: "die haben den Gong nicht mehr gehört". Anstatt die Entwicklung auf Energieefizienz vorran zu treiben geht es immer weiter in Richtung verschwenden von Resorcen. Solche Karten sollte niemand kaufen und die Hersteller müssten auf so einem Scheiss sitzen blieben. Leider gibt es immer noch genug "Schwachköpfe" die sowas auch noch ihr "Eigen" nennen wollen.

Energie ist genug da nur die privaten Haushalte zahlen viel Geld dafür. Die großen Firmen zahlen Schnäppchenpreise dafür. Und das solle man nicht vergessen.
 
Zurück