Eine neue "Titan"-Grafikkarte mit 800 Watt ... Das sagen die PCGH-Redakteure dazu

FKY2000

PCGHX-HWbot-Member (m/w)
Warum wird sich bei Grafikkarten (hier) eigentlich so sehr am maximalen Verbrauch orientiert? Macht ihr das bei Autos auch so?

Naja, Autovergleiche passen meist nicht so ganz. Bei Autos redet übrigens niemand vom Maximalverbrauch, sondern vom Durchschnittsverbrauch resp. Messwerten im jew. aktuellen offiziellen Zyklus.
Und selbstverständlich ist der Kraftstoffverbrauch ein ganz wichtiges Kriterium. Bei Dir etwa nicht?

Wie bei Autos, so gilt auch für Grafikkarten, dass ein hoher "Maximalverbrauch" in aller Regel auch mit einem hohen Verbrauch bei Teillast einhergeht. Ein 6 Zylinder mit 3 Liter Hubraum wird bei 80km/h niemals den Verbrauch eines 3 Zylinders mit 1,0 Liter Hubraum erreichen.
Oder magst Du mir weismachen, dass aus einer Karte mit 450W bei 100% Auslastung plötzlich eine 150W Karte bei 70% Auslastung wird? Schluckspechte bleiben Schluckspechte.
Auch das Undervolting Argument zieht m.E. nicht wirklich: Ein durstiges Out of the box Produkt erst durch manuelle Eingriffe effizient bzw. sparsam zu machen ist doch nicht durchdacht. Zumal man das doch nicht dem Zufall / oftmals uninformierten Nutzer überlassen sollte.
 

Cook2211

Kokü-Junkie (m/w)
Warum wird sich bei Grafikkarten (hier) eigentlich so sehr am maximalen Verbrauch orientiert? Macht ihr das bei Autos auch so?
Der Vergleich hinkt. Eine solche GPU ist ein Rennwagen, kein Familienkutschen-Straßenfahrzeug.
Die kauft man sich nicht, wenn man nur in Netz surfen will. Wenn man die kauft, dann fordert man sie auch. Und natürlich ist dann der Maximalverbrauch eine nicht zu unterschätzende Kennzahl.
 

Birdy84

Lötkolbengott/-göttin
Naja, Autovergleiche passen meist nicht so ganz. Bei Autos redet übrigens niemand vom Maximalverbrauch, sondern vom Durchschnittsverbrauch resp. Messwerten im jew. aktuellen offiziellen Zyklus.
Genau, wieso wird bei Grakas ein Unterschied gemacht?

Wie bei Autos, so gilt auch für Grafikkarten, dass ein hoher "Maximalverbrauch" in aller Regel auch mit einem hohen Verbrauch bei Teillast einhergeht.
Oder magst Du mir weismachen, dass aus einer Karte mit 450W bei 100% Auslastung plötzlich eine 150W Karte bei 70% Auslastung wird? Schluckspechte bleiben Schluckspechte.
Das ist nicht ganz richtig. Große Chips mit vielen Recheneinheiten können generell effizienter sein. PCGH gibt bei GPU Tests auch immer den Verbrauch bei Wolfenstein mit 60 FPS in FHD, da benötigt eine 3090 beispielsweise nur 92W.
Bei Motoren kommt es auf die angeforderte Last an. Es gibt von Top Gear ein anschauliches Beispiel, wo ein M3 hinter einem Prius herfährt.

Edit:
Der Vergleich hinkt. Eine solche GPU ist ein Rennwagen, kein Familienkutschen-Straßenfahrzeug.
Die kauft man sich nicht, wenn man nur in Netz surfen will. Wenn man die kauft, dann fordert man sie auch. Und natürlich ist dann der Maximalverbrauch eine nicht zu unterschätzende Kennzahl.
Aha und woher nimmst du dieses Wissen? Zocken alle ohne CPU oder FPS Limit die fordernsten Spiele, wenn der Computer läuft?
 

Cook2211

Kokü-Junkie (m/w)
Aha und woher nimmst du dieses Wissen? Zocken alle ohne CPU oder FPS Limit die fordernsten Spiele, wenn der Computer läuft?
Du spielst doch hier herunter. Woher nimmst du denn dieses Wissen? Dass sich aber Leute eine solche GPU nicht kaufen, um sie im Idle zu betreiben sollte wohl klar. Die nimmt man entweder für‘s Rendern (>extrem hohe Auslastung) oder für’s Gaming (>extrem hohe Auslastung). Fps Limits sind wiederum in Zeiten variabler Refresh Rates aus der Mode gekommen. Dass man sich dann den Maximalverbrauch anschaut, um z.B. auch Gehäuselüftung und NT darauf abzustimmen ist wohl normal. Gerade dabei muss man immer den Worst Case beachten.
 

FKY2000

PCGHX-HWbot-Member (m/w)
Genau, wieso wird bei Grakas ein Unterschied gemacht?

Das ist nicht ganz richtig. Große Chips mit vielen Recheneinheiten können generell effizienter sein. PCGH gibt bei GPU Tests auch immer den Verbrauch bei Wolfenstein mit 60 FPS in FHD, da benötigt eine 3090 beispielsweise nur 92W.
Bei Motoren kommt es auf die angeforderte Last an. Es gibt von Top Gear ein anschauliches Beispiel, wo ein M3 hinter einem Prius herfährt.
Schau Dir doch die Verbrauchswerte des Boliden 3090ti im Teillastbereich / Spielebetrieb oder im Leerlauf einmal an.
https://www.pcgameshardware.de/Gefo...Founders-Edition-kaufen-Benchmarks-1392446/3/
Natürlich haben Spitzenmodelle einen Overheadverbrauch, der bei Geringst- oder Teillast ebenfalls deutlich mehr zuschlägt, als die kleineren Brot-und-Butter-Modelle.

Den Top Gear Auto-Vergleich (indem bei alltagstauglicher Geschwindigkeit ein M3 den Prius schlägt) magst Du mir bestimmt einmal zeigen, oder?
Ansonsten verweise ich auf Spritmonitor.de ... dort kann man sämtliche Modelle "im Alltagsverbrauch" einmal sehen.

Es bleibt dabei: Natürlich können große Grafikkarten auch -relativ- sparsam betrieben werden, aber wir können doch auch einmal zugeben, dass hier im Grunde einfach die Leistung -zu Lasten der Effizienz- im Vordergrund steht und sich seit geraumer Zeit Entwicklungen auftun, die einfach in die falsche Richtung zeigen. Um mehr geht es nicht.

Weiterhin möchte ich noch einmal betonen, dass man hersteller- bzw. produktseitig eine Schallmauer für den möglichen Verbrauch einziehen sollte und ein verbrauchsarmer Betrieb von Unterhaltungselektronik nicht dem (zu unbedarften) Nutzer auferlegt werden sollte.
 
Zuletzt bearbeitet:

Birdy84

Lötkolbengott/-göttin
Du spielst doch hier herunter. Woher nimmst du denn dieses Wissen?
Auf welches Wissen spielst du an? Oder ist das nur ein Plumper Versuch mich mit meinen eigenen Vormulierungen zu schlagen? Du bist derjenige, der pauschal etwas behauptet hat.

Dass sich aber Leute eine solche GPU nicht kaufen, um sie im Idle zu betreiben sollte wohl klar. Die nimmt man entweder für‘s Rendern (>extrem hohe Auslastung) oder für’s Gaming (>extrem hohe Auslastung). Fps Limits sind wiederum in Zeiten variabler Refresh Rates aus der Mode gekommen.
Fps Limits sind sehr wohl sinnvoll, denn wenn die GPU über der Bildwiederholrate des Monitors ausgibt, erzeugt das einen Inputlag, weil dann Vsync, oder, falls nicht, VRR nutzlos wird.
Darüberhinaus sind die Anforderungen von Spielen aktuell sehr unterschiedlich. Auf der einen Seite gibt es 2D Indie Titel, wo eine 3090 nicht mal in den 3D Modus wechselt, und auf der anderen Seite Metro Exodus. Dadurch ist eine pauschale Aussage einfach unpassend.

Dass man sich dann den Maximalverbrauch anschaut, um z.B. auch Gehäuselüftung und NT darauf abzustimmen ist wohl normal.
Das hat mit dem Thema nichts zu tun.

Edit:
Schau Dir doch die Verbrauchswerte des Boliden 3090ti im Teillastbereich / Spielebetrieb oder im Leerlauf einmal an.
https://www.pcgameshardware.de/Gefo...Founders-Edition-kaufen-Benchmarks-1392446/3/
Natürlich haben Spitzenmodelle einen Overheadverbrauch, der bei Geringst- oder Teillast ebenfalls deutlich mehr zuschlägt, als die kleineren Brot-und-Butter-Modelle.
Die Spannweite ist groß, oder? Worum geht es dir, Effizienz oder minimaler Verbrauch? Ich beschrieb Effizienz und habe dem Maximalverbrauch die Relevanz abgesprochen. Schau hier: https://www.pcgameshardware.de/Gefo...ts/Review-Gaming-Benchmarks-Studio-1358437/4/
Eine 3090 verbaucht bei Wolfenstein @ 60 Fps (FHD) nur 22W mehr, obwohl deren maximaler Verbrauch über 100W über der 5700XT liegt.

Den Top Gear Auto-Vergleich (indem bei alltagstauglicher Geschwindigkeit ein M3 den Prius schlägt) magst Du mir bestimmt einmal zeigen, oder?
Ich schrieb, der Verbrauch ist abhängig von der Last, weil die geschrieben hast, der Verbrauch ist generell höher.

Der Beitrag von Top Gear:
- Eingebundener Inhalt An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. Für mehr Informationen besuche die Datenschutz-Seite.

Es bleibt dabei: Natürlich können große Grafikkarten auch -relativ- sparsam betrieben werden, aber wir können doch auch einmal zugeben, dass hier im Grunde einfach die Leistung -zu Lasten der Effizienz- im Vordergrund steht und sich seit geraumer Zeit Entwicklungen auftun, die einfach in die falsche Richtung zeigen. Um mehr geht es nicht.
Das stimmt, aber nur solange man die volle Leistung abfordert. Da die Karten aber seit Jahren immer ausgeklügeltere Sparmechanismen haben, ist der Teillastbetrieb deutlich unter dem maximalen Verbrauch.

Weiterhin möchte ich noch einmal betonen, dass man hersteller- bzw. produktseitig eine Schallmauer für den möglichen Verbrauch einziehen sollte und ein verbrauchsarmer Betrieb von Unterhaltungselektronik nicht dem (zu unbedarften) Nutzer auferlegt werden sollte.
Ich kann diesem Ruf nach mehr Regulierung nicht nachvollziehen, da der Diskutierte Bereich wahrscheinlich eine irrelevante Gesamtgröße darstellt und weil, wie ich die ganze Zeit argumentiere, der Maximalverbrauch eben kein Dauerzustand ist.
 
Zuletzt bearbeitet:

Cook2211

Kokü-Junkie (m/w)
Auf welches Wissen spielst du an? Oder ist das nur ein Plumper Versuch mich mit meinen eigenen Vormulierungen zu schlagen? Du bist derjenige, der pauschal etwas behauptet hat.
Und du warst derjenige mit plumpen, wenig passenden und verallgemeinerten Autovergleichen. Genau darauf spielte ich an.
Darüberhinaus sind die Anforderungen von Spielen aktuell sehr unterschiedlich. Auf der einen Seite gibt es 2D Indie Titel, wo eine 3090 nicht mal in den 3D Modus wechselt, und auf der anderen Seite Metro Exodus.
Anforderungen von Spielen waren schon immer sehr unterschiedlich. Das ist nichts Neues. Nur kauft sich auch hier niemand eine Titan wenn er nur 2D Spiele spielt.
Und Metro Exodus hat schon einen Bart :ugly:


Dadurch ist eine pauschale Aussage einfach unpassend.
Bezogen auf High-End GAMING PCs ist das sehr wohl passend, weil man sich einen solchen PC gemeinhin kauft, um die anstehende Leistung auch abzurufen.
Das hat mit dem Thema nichts zu tun.
Natürlich hat auch das mit dem Thema zu tun u d ist auch hier schon mehrfach zur Sprache gekommen.


Unabhängig davon ist es aber auch egal welchen Leistungsbereich man betrachtet: Diese (hypothetische) GPU bleibt so oder so ein Stromfresser. Das kannst du drehen und wenden wie du magst: Es ändert nichts.
 
Zuletzt bearbeitet:

Birdy84

Lötkolbengott/-göttin
Und du warst derjenige mit plumpen, wenig passenden und verallgemeinerten Autovergleichen. Genau darauf spielte ich an.
Und was ist an meiner Aussage falsch gewesen?

Anforderungen von Spielen waren schon immer sehr unterschiedlich. Das ist nichts Neues. Nur kauft sich auch hier niemand eine Titan wenn er nur 2D Spiele spielt.
Was für ein Strohmann Argument.
Und Metro Exodus hat schon einen Bart :ugly:
Ist nach wie vor eines der fordernsten Spiele, weswegen es PCGH immer noch zum Testen verwendet. Ist aber auch egal, es dient nur als Beispiel für ein forderndes Spiel.

Bezogen auf High-End GAMING PCs ist das sehr wohl passend, weil man sich einen solchen PC gemeinhin kauft, um die anstehende Leistung auch abzurufen.
Schon von Hersteller ist Consumer oder Gaming Hardware gar nicht auf Dauerbetrieb oder -vollast ausgelegt. Aber davon abgesehen ist dein Aussage unhaltbar, denn ich biete bereits einen Gegenbeweis. Auf meinem System laufen auch häufig ältere oder Indie Titel, wo bei der 3090 nichtmal die Lüfter angehen. Und in meinem Freundeskreis sehe ich auch genau das. Da laufen die 3090s und 1080Tis auch nicht unter Dauervollast.
Ich finde das ein total bescheuertes Argument und das Autobeispiel sollte das verdeutlichen.

Natürlich hat auch das mit dem Thema zu tun u d ist auch hier schon mehrfach zur Sprache gekommen
Aber was soll das Beweisen? Du kaufst deine Autoreifen doch vermutlich auch passend zur maximalen Höchstgeschwindigkeit deine Fahrzeugs, betrachtest aber gleichzeit den Maximalverbrauch der Kiste nicht. Nur beim PC ist es anders, da wird (von euch) nur der Maximalverbrauch betrachtet.
 

Cook2211

Kokü-Junkie (m/w)
Und was ist an meiner Aussage falsch gewesen?
Habe ich bereits dargelegt.
Was für ein Strohmann Argument.
Warum? Du schriebst, dass die Anforderungen in Spielen, Zitat: "aktuell“ sehr unterschiedlich sind, was nun mal Quatsch ist weil das schon immer so war.

Schon von Hersteller ist Consumer oder Gaming Hardware gar nicht auf Dauerbetrieb oder -vollast ausgelegt.
Auch das ist so nicht richtig. Thema Mining….

Aber davon abgesehen ist dein Aussage unhaltbar, denn ich biete bereits einen Gegenbeweis. Auf meinem System laufen auch häufig ältere oder Indie Titel, wo bei der 3090 nichtmal die Lüfter angehen. Und in meinem Freundeskreis sehe ich auch genau das. Da laufen die 3090s und 1080Tis auch nicht unter Dauervollast.
Ich finde das ein total bescheuertes Argument und das Autobeispiel sollte das verdeutlichen.

Weder du noch dein Freundeskreis sind in irgendeiner Weise relevant. Ich meine, komm schon, du weißt doch aus deinen Forenjahren nur zu gut, dass der obligatorische Freundeskreis kein Argument darstellt.

Ich finde das ein total bescheuertes Argument und das Autobeispiel sollte das verdeutlichen.

Ob du das bescheuert findest, ist mir vollkommen egal. Es ist und bleibt so, dass die hier thematisierte GPU in keinem Lastzustand eine sparsame GPU sein wird. Da kannst du noch so viele unpassende und unzutreffende Autobeispiele bringen.

Du kaufst deine Autoreifen doch vermutlich auch passend zur maximalen Höchstgeschwindigkeit deine Fahrzeugs, betrachtest aber gleichzeit den Maximalverbrauch der Kiste nicht.
Kannst du mal bitte aufhören mit diesen unsinnigen Autovergleichen? Auch der passt mal wieder gar nicht.
Jetzt mal echt: Einen Autovergleich nach dem anderen, dazu der obligatorische Freundeskreis als Totschlagargument….fällt dir wirklich nichts besseres ein als sowas?
 
Zuletzt bearbeitet:

PCGH_Torsten

Redaktion
Teammitglied
Ich halte die 800W für ein Gerücht. Karten, mit Wakü, verkaufen sich eher schlecht. Außerdem wäre der Sprung wohl auch dafür zu groß.

Full-Length- und Über-Höhe sind Standard, Quad-Slot-Kühler werden gerade populär und Nvidia hat schon mehrfach Karten mit (deutlich) über 4 Sone rausgebracht. Wenn man das alles kombiniert, sind 800 W mit Luftkühlung im Bereich des möglichen.


Früher™ haben die Gaming PCs auch unter 100W gebraucht. Die Kompressporkühlungen haben nur wenige genutzt, denn Früher™ ist der PC schneller veraltet, als man schauen könnte. Das selbe mit mehreren Grakas. Das haben nur wenige gemacht, da es ein Jahr später schon die doppelte Leistung zum selben Preis gab.

Ergänzen möchte ich noch: Peltiers sind sehr schnell aus der Mode gekommen, als Athlon und Pentium 4 über die 70 W TDP gingen. Eben weil die wenigstens 200, bei größerem Delta T und OC aber eher 400 W selbst Übertaktern zu viel waren. Und die einzige Multi-GPU-Systeme, die parallel zu CPU-Peltierkühlungen in nenneswerter Zahl genutzt worden sein könnten, waren Voodoo 2 SLI und Voodoo 5. Ehe Geforce 6000 und Radeon und X800 erschienen, waren selbst die Kompressorkühlungen ins Rekordjäger-Lager abgedrängt weil sich bei CPUs mit 250 bis 400 W in übertaktetem Zustand Temperaturen deutlich unter 0 nur noch mit einem kaum akzeptablen Aufwand realisieren ließen.


Da kann aber theoretisch NV auch zu der Lösung der Vergangenheit zurück gehen und das Ding so auf den Markt werfen und Overclocker können dann Saft drauf geben.

Das ist imho das Kernproblem, dass die Karten heute ab Werk an der Kotzgrenze laufen.

Sie laufen noch nicht annähernd an der elektrischen Kotzgrenze. Nachträglich von 360 auf 460 W hochgezogene Chips wie die 3090 Ti sind natürlich nah der thermischen Limits, aber das ist das Problem ihrer Kühlung. Wenn man bereit ist, 600-800 W Wärme abzuführen, kann man da noch einiges an Takt rausholen. Kein Vergleich mit z.B. einem Core i9-11900K, aus dem sich maximal noch 100-200 MHz rausquetschen lassen und der umgekehrt bei 35 Prozent weniger Leistung mit weniger als einem Viertel seiner nominellen Package Power auskommt ohne dass man die Spannung auch nur manuell optimieren müsste. Mit UV würde der Leistungsverlust vermutlich sogar weniger als 20 Prozent betragen – wenn man mit ausreichend mieser Grütze anfängt, sind Erfolge leicht.

Aber bei Grafikkarten? Der GA102 ist mit 360 W gestartet. Raff hat man viel Aufwand seine Karte auf 3090 Ti auf maximal 200 W undervoltet. Wenn man das gleiche ausgehend von einem 800-W-GL102 macht (wie ist eigentlich das Kürzel von Ada/Lovelace?) ist man immer noch deutlich über 400 W. Das wäre zwar vermutlich eine Super Enthusiast-Karte, aber eben immer noch kein nettes Mainstream-Design. Dafür braucht es einen anderen Chip. Je nachdem, wie viel der Heizleistung Nvidia neben simplem Werks-OC (leicht korrigierbar) durch Architekturentscheidungen (= unbehebbare Ineffizienz) und wieviel durch simplen Transistoroverkill (= man muss nur was wegschneiden) realisiert, könnte kleinere "600 W"-Modelle vielleicht die nötige technische Basis für schönen 250-W-Betrieb liefern. Oft ist bei den 80-non-Ti ja etwas mehr drin, weil sie höher getaktet sind als bei den Big-Chips.

Aber: Auch das lohnt sich dann halt nur "geschenkt", denn die Preise für sowas werden wieder weit jenseits des Mainstreams liegen.


Edit:Aha und woher nimmst du dieses Wissen? Zocken alle ohne CPU oder FPS Limit die fordernsten Spiele, wenn der Computer läuft?

Dimensionierst du deine Kühlung und Stromversorgung nur für den Desktopbetrieb, weil der 90 Prozent der Nutzung ausmacht? Kaufst du eine 2.000-Euro-Grafikkarte, wenn dir die nächsten 3 Jahre auch ein 400-Euro-Modell reicht?

Autos haben ihre Maximalleistung und den damit einhergehenden Verbrauch für Beschleunigungsmanöver. Aber Bits haben keine Masse; ich kann mit meiner 2080 Ti nicht in 5 Sekunden auf 80 Fps hochziehen, dann in den höchsten Gang wechseln und mit 50 W bei konstanter Framerate weiter cruisen.
 

Thomas5010

Freizeitschrauber(in)
Trotzdem:
Ich sehe es persönlich als gesetzt, dass man sich gerade als Mensch, der in einem PC-(Hardware)Forum unterwegs ist, damit auseinandersetzt und sich ein gewisses Wissen aneignet. Ich rede hier mit Sicherheit nicht vom 08/15-GameStar-Leser (nicht abwertend gemeint).
Ob man sich dann letztendlich von vornherein eine Grenze setzt und eine GPU mit geringerer TDP-Angabe kauft oder aber mehr Rohleistung will, dann ein entsprechendes Modell wählt und selbst Hand anlegt, ist eine andere Sache. Jeder hat es verdammt noch einmal selbst in der Hand.

Es hat jeder die Möglichkeit sich das benötigte Wissen anzueignen und das ist auch kein Aufwand. GPU-Undervolting geht doch so dermaßen schnell (z.B. auch im Vergleich zu CPU-OC/UV oder RAM-OC). Das dauert nicht einmal einen Tag und dann hat man sich seine 3-4 Profile erstellt.
Sorry, die Grafikkarten werden nicht für Nutzer von PCGamesHadware Foren entwickelt, sondern allgemein für die Gesellschaft. Beim Thema Effizient und Leistung sehe ich nicht den Nutzer in der Pflicht, sondern den Hersteller. Dieser entwickelt die Produkte, und steht auch dafür gerade. Ich persönlich sehe mich nicht in der Verantwortung Grafikkarten sparsamer zu machen.
 

Birdy84

Lötkolbengott/-göttin
Autos haben ihre Maximalleistung und den damit einhergehenden Verbrauch für Beschleunigungsmanöver. Aber Bits haben keine Masse; ich kann mit meiner 2080 Ti nicht in 5 Sekunden auf 80 Fps hochziehen, dann in den höchsten Gang wechseln und mit 50 W bei konstanter Framerate weiter cruisen.
Ich hab in Verbindung mit Autos ganz allgemein von Last gesprochen. Man benötigt (mehr) Leistung eben auch um Lasten zu transportieren oder ziehen, auch abhängig vom Gefälle, je nach Geschwindigkeit.
Eine Grafikkarte benötigt je nach Lastzustand eben auch entsprechend Energie, aber fordert nicht Maximalleistung vom Einschalten bis Ausschalten.

Meine Aussage ist doch doch:
Warum wird sich bei Grafikkarten (hier) eigentlich so sehr am maximalen Verbrauch orientiert? Macht ihr das bei Autos auch so?
Und keiner konnte bislang belegen, warum das so sein sollte. Von daher habe ich das von @Cook2211 angemerkte "Freundeskreis Argument" genommen, aber nur, weil ich damit einfach seine pauschale Behauptung entkräften kann.

Edit:
Habe ich bereits dargelegt.
Mit einer Vermutung.

Warum? Du schriebst, dass die Anforderungen in Spielen, Zitat: "aktuell“ sehr unterschiedlich sind, was nun mal Quatsch ist weil das schon immer so war.
Hier war ich zu ungenau. Mit "aktuell" meinte ich, dass das Delta aktuell so hoch ist wie nie. Du kannst aktuell(e) Spiele mit 80W oder 580W Leistungsaufnahme zocken.


Auch das ist so nicht richtig. Thema Mining….
Wieso ist das nicht richtig? Hersteller haben deswegen extra ihre Garantiebedingungen angepasst!


Ob du das bescheuert findest, ist mir vollkommen egal. Es ist und bleibt so, dass die hier thematisierte GPU in keinem Lastzustand eine sparsame GPU sein wird. Da kannst du noch so viele unpassende und unzutreffende Autobeispiele bringen.
Im Gegensatz zu dir habe ich bereits themenbezogene Belege geliefert.

Kannst du mal bitte aufhören mit diesen unsinnigen Autovergleichen? Auch der passt mal wieder gar nicht.
Der passt, weil du in beiden Fällen die Hardware aufeinander abstimmst. Und wenn du dir mal Raff zum Beispiel anschaust, der seine 3090Ti undervoltet bis zum geht nicht mehr, benötigt der eben keine Kühlung und Netzteil, die 700W abführen bzw. bereitstellen.

Jetzt mal echt: Einen Autovergleich nach dem anderen, dazu der obligatorische Freundeskreis als Totschlagargument….fällt dir wirklich nichts besseres ein als sowas?
Ja, mir fällt langsam wirklich nichts mehr ein. Ich glaube fast, es gibt ein Missverständnis, schon allein, weil wir hier so Grundlagen, wie "GPU mit vielen Recheneinheiten sind effizienter", diskutieren müssen.
Noch mal: Ich finde lediglich, dass sich viel zu sehr an der maximal möglichen Leistungsaufnahme aufgehängt wird.
 
Zuletzt bearbeitet:

Cook2211

Kokü-Junkie (m/w)
Meine Aussage ist doch doch:Und keiner konnte bislang belegen, warum das so sein sollte. [….]Ich finde lediglich, dass sich viel zu sehr an der maximal möglichen Leistungsaufnahme aufgehängt wird.
darauf wurde mehrfach eingegangen, aber du bist für diese Argumente einfach nicht zugänglich.

1.) Die Angabe der maximalen Leistungsaufnahme ist alleine dann schon wichtig, wenn man die GPU kaufen möchte, weil man eben schauen muss, ob der PC im Worst Case darauf ausgelegt ist. Zum einen was das NT angeht, zum anderen was die Kühlung angeht.

2.) Diese Angabe ist auch dann nicht unwichtig, wenn man schauen möchte: Wo geht die Entwicklung bei GPUs hin. Scheinbar immer mehr in Richtung Brechstange. Deswegen wird die maximale Leistungsaufnahme hier immer wieder thematisiert.

3.) Wer sich eine solche Grafikkarte kauft, der tut dies um diese auch zu nutzen. UHD oder Multi-Monitor, Raytracing etc. Gib dem Monster Futter. Und natürlich schaut man sich dann an, was die Karte unter Last im Worst Case wegschlürft.

4.) Nein, Undervolting ist kein Heilmittel, es kaschiert nur die Problematik. Aber trotzdem bleibt eine 800W GPU auch nach Undervolting ein Stromfresser. Und nein, nicht jeder legt eine solche GPU per Undervolting an die Kette. Thema Punkt 3.) Heißt auch hier schaut man sich durchaus den Worst Case und nicht die Schönwetterwerte an.

Nun kannst du meinetwegen wieder mit Autovergleich kommen….aber diese 4 Punkte sind gute Gründen sich eben die Maximalaufnahme anzuschauen.
 
Zuletzt bearbeitet:

Dr1val

Komplett-PC-Aufrüster(in)
Sorry, die Grafikkarten werden nicht für Nutzer von PCGamesHadware Foren entwickelt, sondern allgemein für die Gesellschaft.
Klar, da hast Du vollkommen recht mit. Deshalb schrieb ich ja auch, dass ich damit (ausschließlich) Leute anspreche, die bereits in entsprechenden Foren passiv oder aktiv zu Gange sind. Diese Menschen sollten es eben wissen bzw. meiner Meinung nach wissen wollen.

Beim Thema Effizient und Leistung sehe ich nicht den Nutzer in der Pflicht, sondern den Hersteller. Dieser entwickelt die Produkte, und steht auch dafür gerade. Ich persönlich sehe mich nicht in der Verantwortung Grafikkarten sparsamer zu machen.
Korrekt, bringt mir aber nichts, wenn mir der Hersteller Grafikkarte X bei Spannung Y und resultierendem Verbrauch Z nicht ab Werk liefert, weil er meint mit der Brechstange ranzumüssen um etwaige Mitbewerber in Schach zu halten.

Dann habe ich dennoch 2 Optionen:

1.) Ich unterstütze das prinzipiell nicht, weil ich es aus [...] Gründen nicht akzeptiere und kaufe dementsprechend nicht oder ich kaufe eine andere Karte, die ab Werk weniger verbraucht.

2.) Ich ignoriere es, weil ich selber weiß, wie ich an mein gewünschtes Ziel komme bzw. gebe der Grafikkarte die jeweilige Spannung um den entsprechenden Verbrauch, den ich persönlich akzeptiere, zu erhalten. Natürlich bin ich mir dessen bewusst, dass ich damit den Hersteller durch die Hintertür trotzdem unterstütze, weil ich ja sein Produkt, so wie er es auf den Markt geschmissen hat, gekauft habe.

Ich wähle Option 2 und bin zufrieden. :)


@Cook2211 & @Birdy84: Ich glaube, dass alles immer eine Sache der Perspektive ist.

Die einen meinen halt, dass ein Produkt halt von vornherein nicht dafür gedacht ist, gar nicht die volle Leistung, die ab Werk zur Verfügung steht, ausschöpfen zu wollen und dass man die Komponente der Wahl ergo auch exakt so betreiben MUSS/SOLLTE, wie sie der Hersteller nun eben auf den Markt gebracht hat. Sonst hätte man ja auch ein anderes Produkt kaufen können. Wenn man ein bestimmtes Produkt kauft, unterstützt man natürlich den Hersteller mit seiner Kaufwahl. Dessen sollte man sich bewusst sein. Der Hersteller hat keinen Einfluss darauf, wie der Konsument sein Produkt betreibt.

Und dann gibt es eben die anderen Leute, die darum Bescheid wissen und sich ihrer Komponente gerne "personalisieren". Man kann, wenn man eben will, auch eine RTX 3090 Ti und einen Core-i9-12900K bei entsprechendem Extrem-UV bzw. einer Leistungsbegrenzung mit einem 500W-Netzteil betreiben. Ob das jetzt sinnig ist oder nicht, sei mal dahingestellt. Fakt ist aber eben, dass es prinzipiell möglich ist (super aufschlussreiche Artikel dahingehend in der neuen PCGH-Ausgabe, Chapeau an der Stelle!). Und dann hat man bei meinem Beispiel und entsprechender Einbremsung eben seine RTX 3080- und Core-i7-12700K-Leistung bei einem Verbrauch und einer Lauftemperatur, der mit den entsprechenden genannten Leistungspendants eben nicht möglich gewesen wäre.

Beide Perspektiven sind völlig in Ordnung. Lasst die Leute doch selber entscheiden.
 
Zuletzt bearbeitet:

Der_KHAN

Schraubenverwechsler(in)
Ich bin seit 1993 mit Personalcomputern zugange, also auch schon ein paar Tage und würde sagen, dass Kompressorkühlungen, SLI Geschwader oder sonstige Freak-Ware in der guten alten Zeit™ niemals auch nur annähernd normal oder gar Standard waren, sondern immer schon nur für Enthusiasten. Ich denke, das weißt Du selber auch und willst nur ein bisschen Staub aufwirbeln, oder?

Also da reden wir wirklich aneinander vorbei. Der Artikel über den wir hier debattieren handelt doch von einer Karte in der "Titan"-Klasse mit 48GB GDDR-Speicher. Das ist nun wirklich die Definition von Freak-Hardware!

Wer sowas kauft, hat damals auch die Triple-SLI-Brücke benutzt, die jedem besseren Mainboard beilag.
 

DARPA

Volt-Modder(in)
Warum wird sich bei Grafikkarten (hier) eigentlich so sehr am maximalen Verbrauch orientiert? Macht ihr das bei Autos auch so?
Grafikkarten sind viel einfacher konstant am Limit zu betreiben als ein Auto im öffentlichen Straßenverkehr (dafür wurde der Verbrauchsmix erfunden).

Dein Vergleich würde passen, wenn du Autos im Trackeinsatz betrachtest.

Ich nutze zwar auch immer ein fps Limit, stelle die Settings aber so ein, dass ich trotzdem bei 90%+ Auslastung bin. Sonst hätte ich mir auch ne kleinere Karte kaufen können. Aber da hat ja jeder sein eigenes Vorgehen.
 

Bert2007

PCGH-Community-Veteran(in)
Grafikkarten sind viel einfacher konstant am Limit zu betreiben als ein Auto im öffentlichen Straßenverkehr (dafür wurde der Verbrauchsmix erfunden).

Dein Vergleich würde passen, wenn du Autos im Trackeinsatz betrachtest.

Ich nutze zwar auch immer ein fps Limit, stelle die Settings aber so ein, dass ich trotzdem bei 90%+ Auslastung bin. Sonst hätte ich mir auch ne kleinere Karte kaufen können. Aber da hat ja jeder sein eigenes Vorgehen.
Ganz genau, du sagst es. Ich kaufe doch keine Titan mit 800w um sie dann bei 50% zu betreiben. Da könnte ich auch eine 4060 kaufen. Ein Auto ist null mit einer Grafikkarte zu vergleichen. Das einzige wo ich eine Gemeinsamkeit sehe ist der Verbrauch. Mich interessiert auch was das Auto und mein PC so frisst. Sollte ich jemals in die Verlegenheit kommen in Geld zu schwimmen, dann mag das für mich wohl auch uninteressant werden. Und zum Thema Kosten, wir sind nicht die einzigen wo die Preise steigen. In den USA werden die Preise auch stark angehoben.
 

Cook2211

Kokü-Junkie (m/w)
Gegenbeispiel ist Raff, der seine 3090Ti weit unter 300W betreibt. Womit auch dein (zum wiederholten Mal gebrachtes) Argument widerlegt ist.
Ich denke, da ging es eher um die Machbarkeit (PCGH Artikel) und Raffs Spaß an der Freud, und und weniger darum, die Grafikkarte dauerhaft so zu betreiben. Ich denke nicht, dass Raff seine High-End GPU 24/7 erheblich in der Leistung beschneidet.
 

Birdy84

Lötkolbengott/-göttin
Ich denke, da ging es eher um die Machbarkeit (PCGH Artikel) und Raffs Spaß an der Freud, und und weniger darum, die Grafikkarte dauerhaft so zu betreiben. Ich denke nicht, dass Raff seine High-End GPU 24/7 erheblich in der Leistung beschneidet.
Ich hab grad gemerkt, dass ich Raffs Post in diesem Thread übersehen habe. Er schrieb ja bereits, dass die Leistungsaufname einer Graka sehr variabel ist. Damit ist eigentlich alles gesagt.
Hier ist ein passender Thread: https://extreme.pcgameshardware.de/threads/rtx-3090-fe-bei-0-737-volt-maximales-undervolting.617752/
 
Oben Unten