Eine neue "Titan"-Grafikkarte mit 800 Watt ... Das sagen die PCGH-Redakteure dazu

Grafikkarten sind nicht wie Oldtimer oder Rolex. Die Dinger altern wie Milch and gewinnen niemals an Wert.
 
Torsten sagt, dass er eine Grafikkarte, die nach aktuellem Stand in etwa die doppelte Leistung einer RTX 3090 Ti erreicht, nicht mal geschenkt nutzen würde, wenn sie dafür 800 Watt braucht. Echt, das siehst du auch so?

Ich frage, weil die Leistungsaufnahme einer Grafikkarte sehr flexibel ist. Im neuen Heft (auch digital verfügbar!) haben wir, wie von Richie in der Bildergalerie schon verlinkt, ein großes Undervolting-Special. Dort gibt's einen 4 Seiten starken Zusatz, welcher sich der Optimierung einer RTX 3090 Ti widmet. Diese kann man problemlos auf die Minimalspannung zwingen und damit die Leistungsaufnahme mehr als halbieren - selbstverständlich ohne dass die Leistung ebenfalls um ~60 Prozent sinkt. Sprich, die noch spekulative "Ada-Titan" mit 800 Watt wird sich vermutlich auch mit 300-350 Watt betreiben lassen, dann noch 70-80 Prozent ihrer Basisleistung aufweisen und wäre damit sehr effizient. Fangen wir an, die TGP als Startwert zu sehen, nicht als Ziel. :-)

MfG
Raff
Da kann aber theoretisch NV auch zu der Lösung der Vergangenheit zurück gehen und das Ding so auf den Markt werfen und Overclocker können dann Saft drauf geben.

Das ist imho das Kernproblem, dass die Karten heute ab Werk an der Kotzgrenze laufen.
 
800Watt...tja dann kann man zum Glück mit Strom heizen, wenns kein Gas mehr gibt.lol.

Da kommen mir die bis zu 420Watt (ohne Undervolting und co) meiner RTX 3080 Aorus Master 12GB, ja noch harmlos vor und die is schon ein kleines Blockheizkraftwerk, macht aber auch viele superschöne Psycho RT Bilder in Cyberpunk...^^

Aber 800Watt...wie will man das noch kühlen, vor allem mit Luft, wenn ich mir den Ziegelstein hier ansehe, der im H500M mit ordentlich Durchzug auf bis zu 75°C kommt...sehen wir dann 7Slot Kühler? :lol:

Aber wers braucht und sich leisten kann, bittesehr, mir doch Wumpe, da interessiert mich aber eher die 450Watt 4090 oder so.
 
Tja, scheint als wär der Klimaklamauk ausserhalb vom öko-sozialistischen Deutschland keine grosse Sache. Und diese peinlichen, ungepflegten Linksgrünen sind natürlich auch Stolz drauf, dass die Moralisten-Regierung Deutschland und fast ganz Europa ruiniert. Viel Spass beim Durchdrehen/Zensieren - mit der (unangenehmen) Wahrheit habt ihr's ja nicht so. Derweil erfreu ich mich an meiner 3090 und werd dann wohl die 4090 wechseln für mehr FPS.
 
Na ja, auch wenn die 800W stimmen, es ist die Titan und damit keine einfache Consumer-Karte, auch wenn sie sehr gerne als Premium-Karte gekauft wird und dafür auch sehr gut nutzbar ist.
Ein LKW braucht auch 30l/100km, während mein Auto 6-10l/100km braucht, je nach Fahrweise (in der Regel 7l/10km). Der Unterschied ist, ein LKW kann 40t Last befördern. Oder man sieht die Karte als Sportwagen, wenn man sie als das Topmodell des Consumer-Markts sieht. Die brauchen auch oft >20l/100km. Da beschwert sich auch kein Käufer drüber, weil es für die Käufer egal ist. Bei der Elektromobilität verhält es sich vergleichbar.
Die breite Masse jedoch fährt keinen Porsche 911 und benutzt auch keine Titan für x000€, sondern hat etwas Preiswerteres und für die eigenen Zwecke Sinnvolleres. Klar, als Enthusiast kann man sich solche Dinge anschaffen, aber das muss ja niemand. Dumm nur, der Markt will mehr Leistung und ignoriert den Verbrauch, bei Autos wie bei Grafikkarten.
Ich selbst sehe die 800W recht entspannt. Wer sie haben will (mit allen Vor- und Nachteilen), soll sie sich holen. Gibt mehr Spaß beim Wakü-Testen, -Basteln und -Beraten. Unter Wasser ist der Verbrauch ziemlich unkritisch. Das wird nicht zu warm.
 
Wenn die Titan kommt, dann ist es wohl eher dem PR - Lager geschuldet, durch diesen bewirkt.
Die nächste Gen benötigt Vergleichskarten um diese besonders vorteilhaft erscheinen zu lassen:

hier mal ein konstruiertes (erfundenes) Beispiel:

5060ti 10x less power consumption than Titan T-Rex at 1,5x FPS

Echte Nutzfallanwendungen der Titan werden aufgrund von schwachen Linuxtreibern eher die Ausnahme bilden, eventuell Videoschnitt, Cloud, KI.
 
Das mag zwar in einem Forum wo viele Nerds sind irgendwann mal funktionieren, aber die gefühlt 99,9% da draußen werden das sicher nicht machen.
Egal mit oder ohne untervolten, der verbrauch steigt dennoch deutlich immer weiter an.
Ja, dem stimme ich zu. Welcher normale Nutzer lädt sich ein Tuningtool runter, um die Spannung zu optimieren?

Und ja, der Verbrauch steigt trotz undervolting weiter an. Früher konnte eine potente Grafikkarte auf unter 200 Watt undervoltet werden. Nun sind es unter 300 Watt. Wie man es auch wendet und dreht, der Verbrauch steigt und der Strom wird parallel teurer.
 
Hi, und ich dachte immer das Programierer für eine Gute Illusion bezogen auf die maximale Pixelmenge die ein Bild ausmacht verantwortlich sind.. Wäre ja so als wenn ne 100 Watt Grafikkarte nur ein Testbild ausgeben könnte und die 800 Watt Karte ein Bild von ner echt super Kulisse ;-)

Oder Liegt es daran, das fast alle anstelle sich selbst Lösungen zu erarbeiten einfach nur jeder Standard Tool bzw. Engins nutzen, oder Vorgeschrieben bekomme die einfach exorbitant Leistung verbrennen? Fakt ist das im TV oder Bildschirm keine 3D Welt im inneren Existiert ;-) Mfg
 
Torsten sagt, dass er eine Grafikkarte, die nach aktuellem Stand in etwa die doppelte Leistung einer RTX 3090 Ti erreicht, nicht mal geschenkt nutzen würde, wenn sie dafür 800 Watt braucht. Echt, das siehst du auch so?
Ja ich würde so eine Karte gleich weiterverkaufen. Irgendwo muss auch mal Schluss sein. Das höchste der Gefühle von der neuen Gen is ne 4070. Aber so wie es aussieht, werde ich wohl eh eher auf AMD wieder gehen..
Wie man es auch wendet und dreht, der Verbrauch steigt und der Strom wird parallel teurer.
So siehts aus. Strom wird grade enorm viel teurer. Ich glaube manche haben das auch noch nicht realisiert oder es is ihnen einfach egal weil sie eh genug verdienen. Aber ich finde man muss solche Ausreißer an Grafikkarten wirklich nicht noch supporten. AMD scheint es ja deutlich sparsamer zu können.
 
Früher™ haben die Gaming PCs auch unter 100W gebraucht. Die Kompressporkühlungen haben nur wenige genutzt, denn Früher™ ist der PC schneller veraltet, als man schauen könnte. Das selbe mit mehreren Grakas. Das haben nur wenige gemacht, da es ein Jahr später schon die doppelte Leistung zum selben Preis gab.

Von daher verklärst du es.

Also nen Athlon XP mit Single Stage haste auch schon auf 800W Systemverbrauch bekommen. Und ne Mach 2 GT oder VapoChill hat niemand weggeworfen, beim Wechsel auf neue Hardware. Die Prometeia gabs sogar schlüsselfertig mit LianLi-Gehäuse. Das liess sich Jahrelang nutzen, wenn man nicht gerade irgendeinen Coldbug an der CPU hatte. Die waren so simpel wie heute ne AiO-Wakü.

Was die Grakas anging, hat ne GTX580 500€ oderso gekostet. Für den Preis einer heutigen 3090 konnte man da schon Triple- oder Quad-SLI fahren. Bei >250W je Graka kann sich jeder ausrechnen, was das bedeutet.

Da sind heutige "Enthusiasten"-PCs doch nicht schlimmer. Und dann kann man mit Powerlimit, Temperaturlimit, FPS-Limit und Undervolting kräftig Strombedarf sparen. Ich finde die aktuellen Produkte ziemlich beeindruckend, was das angeht.
 
Na dann machen wir doch direkt mal den Champagner auf, wenn die Karte dann…ähm…nur noch…bis 350W braucht. Zwar könnte man dann genauso gut eine günstigere und effizientere Grafikkarte kaufen, aber die macht sich natürlich nicht so gut in der Signatur und sie streichelt auch nicht so das Ego eines gewissen PCGH Redakteurs. Wie hieß er doch gleich? Laff? Baff? Ach ich weiß nicht mehr :ugly: :P
Mich kannst du jedenfalls nicht meinen, denn mein Ego braucht keine dicke GPU. Mein Anspruch als Pixelzähler hingegen schon - ich lebe diesen Beruf. Zum Flexen taugt eine GPU einfach nicht. Versuch mal, damit in der Fußgängerzone oder der Münchner Maximilianstraße vorzufahren und die Damen zu beeindrucken. ;)

MfG
Raff
 
Und ich Dussel überleg wie ich meiner Frau die neue Grafikkarte verklickern kann. Einfach kaufen und sie wird Wachs in meinen Händen ?
Aufregen bringt ja nichts, am Ende wird sie doch gekauft werden. Nivida baut und verkauft sowas nicht, wenn es keinen Markt dafür geben würde.
Ich persönlich werde einen großen Bogen machen. Die Anschaffungskosten werden weit mein Budget sprengen. Deswegen kann mir der Verbrauch fasst egal sein.
 
Würde ich kaufen, brauch ich im Winter das Wohnzimmer schon nicht Heizen.
Besser kann ich Wärme "passiv" ja kaum umwandeln vom Wirkungsgrad her.
 
800W sind doch Peanuts. Es gibt bestimmt viele Leute die sogar ihren Kühlschrank vom Netz trennen würden damit der PC die vollen 3600W ziehen kann. Also nvidia, da geht noch was!
 
Zuletzt bearbeitet:
Ich persönlich freue mich wie Bolle auf diese Karte, in VR ist GPU-Leistung schlichtweg nie genug vorhanden.

Aber, sehr konsequent und bei kolportierten 800W TGP auch notwendig: morgen kommt der Anlagenbauer und der Zockerraum wird dann mit Klimaanlage gekühlt. Denn in den den letzten Wochen war auch mit einer stinknormalen 3090 in einer Dachgeschosswohnung einfach nicht an zocken zu denken.

Betriebskosten laufen gegen die PV Anlage, Anschaffungskosten gegen das Einkommen. Muss jede/r so tarieren wie er/sie/es kann und will.
 
Also nen Athlon XP mit Single Stage haste auch schon auf 800W Systemverbrauch bekommen. Und ne Mach 2 GT oder VapoChill hat niemand weggeworfen, beim Wechsel auf neue Hardware. Die Prometeia gabs sogar schlüsselfertig mit LianLi-Gehäuse. Das liess sich Jahrelang nutzen, wenn man nicht gerade irgendeinen Coldbug an der CPU hatte. Die waren so simpel wie heute ne AiO-Wakü.

Was die Grakas anging, hat ne GTX580 500€ oderso gekostet. Für den Preis einer heutigen 3090 konnte man da schon Triple- oder Quad-SLI fahren. Bei >250W je Graka kann sich jeder ausrechnen, was das bedeutet.

Da sind heutige "Enthusiasten"-PCs doch nicht schlimmer. Und dann kann man mit Powerlimit, Temperaturlimit, FPS-Limit und Undervolting kräftig Strombedarf sparen. Ich finde die aktuellen Produkte ziemlich beeindruckend, was das angeht.
Ich bin seit 1993 mit Personalcomputern zugange, also auch schon ein paar Tage und würde sagen, dass Kompressorkühlungen, SLI Geschwader oder sonstige Freak-Ware in der guten alten Zeit™ niemals auch nur annähernd normal oder gar Standard waren, sondern immer schon nur für Enthusiasten. Ich denke, das weißt Du selber auch und willst nur ein bisschen Staub aufwirbeln, oder?

Wie auch immer, mittlerweile sollte den meisten Menschen doch halbwegs klar sein, dass "höher, schneller, weiter" langfristig gegen die Mauer fährt. Dazu gehört auch das extreme Konsumieren von Energie für Unterhaltungszwecke. Nicht nur, dass die Strompreise an sich kontinuierlich steigen, auch sind die Kapazitäten insgesamt endlich.

Smarter wäre es meiner Meinung nach, mit angemessenen Verbrauchsbudgets hauszuhalten. Ich will jetzt gar nicht festlegen, wo die im Einzelnen sein sollen, vielmehr sollte man ausgewogen offen diskutieren, aber >600W für eine Consumer-Grafikkarte ist definitiv eine Größenordnung zu viel. Von der Kühlbarkeit mal ganz abgesehen.
800W kann ich mir jetzt nicht vorstellen, aber selbst 600W für eine GPU wären meiner Meinung nach schon mehr als dekadent - und auch gar nicht nötig. Es ging so viel effizienter, wenn man wollte.
 
Meine 3080 Grafikkarte zieht um die 300-340 Watt im Schnitt (Stock) und das ist jetzt für mich bereits viel. Werde jedenfalls so lange diese Grafikkarte läuft keine andere Grafikkarte kaufen, die noch mehr Strom zieht. Ich bin ehe schon mit UV und FPS-Limit dran, damit mein System weniger Strom zieht. Damit komme ich dann auch unter 300 Watt mit der Grafikkarte.

Im Grunde muss ich auch nicht unendlich FPS haben, weil mein Monitor nur 120 Hz kann.
 
Ja, dem stimme ich zu. Welcher normale Nutzer lädt sich ein Tuningtool runter, um die Spannung zu optimieren?

Und ja, der Verbrauch steigt trotz undervolting weiter an. Früher konnte eine potente Grafikkarte auf unter 200 Watt undervoltet werden. Nun sind es unter 300 Watt. Wie man es auch wendet und dreht, der Verbrauch steigt und der Strom wird parallel teurer.
"Normale" Nutzer wahrscheinlich eher nicht - und das wird vermutlich (leider) auch die Mehrheit sein, machen wir uns nichts vor.

Trotzdem:
Ich sehe es persönlich als gesetzt, dass man sich gerade als Mensch, der in einem PC-(Hardware)Forum unterwegs ist, damit auseinandersetzt und sich ein gewisses Wissen aneignet. Ich rede hier mit Sicherheit nicht vom 08/15-GameStar-Leser (nicht abwertend gemeint).
Ob man sich dann letztendlich von vornherein eine Grenze setzt und eine GPU mit geringerer TDP-Angabe kauft oder aber mehr Rohleistung will, dann ein entsprechendes Modell wählt und selbst Hand anlegt, ist eine andere Sache. Jeder hat es verdammt noch einmal selbst in der Hand.

Es hat jeder die Möglichkeit sich das benötigte Wissen anzueignen und das ist auch kein Aufwand. GPU-Undervolting geht doch so dermaßen schnell (z.B. auch im Vergleich zu CPU-OC/UV oder RAM-OC). Das dauert nicht einmal einen Tag und dann hat man sich seine 3-4 Profile erstellt.
 
Zurück