Geforce RTX 3090 Ti: EVGAs Kingpin-Modell soll zwei 12-Pin-Stromanschlüsse erhalten

Man Glaubt das diese Karte ne Ausnahme ist mit dem verbrauch aber seit der RTX reihe verbrauchen Graks unglaublich viel Strom und bei den CPU sieht es nicht besser aus. Meiner meinung nach sollten CPU und GPU effizenter werden die Technik selbst ist ja schon effizenter geworden. So wie es jetz ist das der falsche weg
 
Solange der Strom grün ist, ist das doch alles kein problem ;)
 

Anhänge

  • IMG_20220103_134226~2.jpg
    IMG_20220103_134226~2.jpg
    3,1 MB · Aufrufe: 53
EVGA beliefert genau seine Kunden. Eine EVGA Karte kauft man üblicherweise, wenn man das besondere schätzt. Sei es die Option auf 10 Jahre Garantie (früher mal Standard, jetzt gegen Aufpreis), die Möglichkeit die Karte modifizieren zu dürfen oder eben eine Spannungsversorgung vom anderen Stern.
Da haben sich so einige New World-Gamer aber an der herausragenden unzweifelhaften Qualität erfreut.
Und da sticht EVGA mit ihrer so ganz eigenen Art an Chips auf der Platine schon sehr "positiv" aus der Menge der vielen bösen billigen Anbieter heraus. ;)
 
Netter versuch aber 1. produzieren wir nichtmal im ansatz so viel grünen Strom wie wir verbrauchen. 2 ist am ende viel wichtiger weniger zu verbrauchen. Was bringt es neue Technik zu haben wenn es am ende den Strom nur sie trinkt.
 
Man kann doch auch bei älteren GPUs bereits 1000 Watt BIOS-Dateien draufflashen, wenn man in bestimmten Overclocking-Foren danach sucht und keine Angst davor hat...

Da kommen dann auch meist die Kingpin-BIOS-Versionen zum Einsatz. So neu und verbrauchstechnisch frevelhaft wie hier z.T. beschrieben ist es dann wiederum nicht.

Gut, mehr Kontakte und andere Anschlüsse machen mehr mit und sind zuverlässiger. Mir persönlich wären Kingpin Karten jedoch zu teuer und zu überkandidelt.
 
NIEMAND der fähig ist sich selbst ne (gute) WaKü zusammen zu klöppeln, braucht so eine überteuerte "Fan" Karte. Selbst ohne Bios-Mod etc. laufen auch WaKü-Karten schon hart am Limit und selbst wenn die KingPin's es schaffen (was ich nicht glaube) mit 1000Watt Stabil zu laufen -> Heizkraftwerk mit nur ein paar Prozent mehr Leistung ggü. ner "normalen" die an den "Stock"-Watt kratzt.
Die Karten laufen eh schon am Limit und jedes Prozent mehr Realleistung steigert den Strombedarf enorm.
Die Zeiten wo mit moderatem OC mal eben 30+% Leitungssteigerung bei nur ~20% höherem PT möglich waren (680'er z.B.) sind absolut vorbei. OC geht nur noch mit dem Holzhammer in Sachen "Noch mal 100 Watt drauf packen" und dann schauen ob die Karte überhaupt noch läuft ... Die Ergebnisse sind dann am Ende den Aufwand kaum noch wert.
 
Selbst ohne Bios-Mod etc. laufen auch WaKü-Karten schon hart am Limit

Wo bitte läuft denn eine wakü Karte hart am Limit? Solange die Spannungsversorgung bei nv gelockt ist, hab ich meine Karte noch nicht am Limit gesehen! Bräuchte vor der Spannung sogar erst mal mehr Watt an meiner Platine. 400 w reichen leider fur meine dual 8 pin manli 3090 nicht aus! Die läuft immer noch ins PL! Und das bei wohlgemerkt 42° Hotspot unter Vollast!
 
Also meine 370 Watt 3080 schmiert gnadenlos ab wenn ich versuche 100% PL zu erreichen durch OC an allen Fronten. Wenn man natürlich eine 3090 mit "nur" 400 Watt damit vergleicht, hat meine dann doch etwas mehr "Luft nach oben". Zu viel für stabiles OC. Und ich meine STABIL und nicht "jeder 5. Bench läuft mal durch".

Habe das sogar auf die Spitze getrieben bei der GPU indem ich dem VRAM den Takt gesenkt habe wodurch er deutlich weniger Saft verbrätt und noch ein paar Watt mehr für die GPU frei sind -> Abschmieren bei ~2130Mhz @ 98-99% PL
Bei ~50°C auf der GPU nach längerem "Einheizen" wohlbemerkt.
2120Mhz läuft "Stabil" aber nicht GAMING Stabil .... deshalb rennt meine 3080 auch bei "nur" ~2Ghz und ~250Watt. dafür ROCK-Stabel. D.h. 120 mögliche "Mehrwatt" für ~100Mhz Takt -> Definition von Hart am Limit. Bei ner CPU würde jeder nur noch rumschreien .... da reichen schon kleinere Watt-Zahlen für Shitstorm aus !
Aber du kannst je gerne den üblichen Shunt-Mod u.ä. abziehen um das selbst zu testen mit deiner 3090. Nur 400 Watt ... :-)
 
Es gab mal eine Aussage der Grafikkartenhersteller: "mehr Leistung bei weniger Verbrauch".
Demnach 10% oder 15% Mehrleistung bei 50% oder 75% mehr Verbrauch oder ähnliches Szenario. Alle Grafikkartenhersteller haben sich daran definitiv nicht gehalten. Zumal mehr Verbrauch auch mehr Abwärme bedeutet. Damit steigt wiederum die Größe der Karten, da die Kühllösungen das auch bewerkstelligen müssen. Bald ist eine Karte nicht nur stromhungrig wie ein Ofen, sondern auch so groß.
 
Zurück