S
Schaffe89
Guest
AW: AMD Radeon RX 590 & 580: Preissenkungen im Gespräch
Irrelevant, wer wo günstiger oder teurer Strom bezieht, deswegen nimmt man den Schnitt.
Ach Bärenmarke jeder weiß doch dass du immer gegen die Realität ankämpfst, solange es gegen deinen Lieblingshersteller geht.
Du kannst natürlich auch eine non-Custom Vega 56 mit Brüllkühler kaufen, dann sind es nur ~110 Watt hinten am Netzteil.
Zu den beliebten Vega 56 Dragon, Nitro +, Gigabyte OC oder Pulse sind es aber unterm Strich sogar oft mehr als 140 Watt.
Also an den Werten kann man immer hin und herschieben, wenngleich das Referenzdesign keineswegs zu empfehlen ist.
Gilt aber dann nur für die schlechtere Konkurrenz.
Komisch, mir ist kein aktuelles Spiel bekannt, was die GPU nicht auslasten würde, ja nichtmal Fortnite.
Und 144 FPS auf einer Midrangekarte sind nun wirklich die Ausnahme als die Regel.
Also spielt man laut neuester Bärenmarke-Erkenntnis nur noch im CPU Limit und unter "Halblast", weil die Spiele eh locker 144 Hertz/FPS schaffen.
Das schafft vielleicht meine RTX Titan in Full HD aber keine Vega 56/1660 Ti, das sind Mittelklassekarten die auch unter Full HD recht viel zu schwitzen haben.
Also nein, der Stromverbrauch reduziert sich da nicht wie durch ein Wunder.
Da musst du den Monitor für abschalten.
Tja und dennoch sind das bei den meisten Modellen (außer dem Referenzdesign) riesige Unterschiede (~150 Watt ohne Netzteilverluste) die sich da auftun, das kann auch ein Bärenmarke nicht wegdiskutieren.
Insgesamt schon peinlich muss man sagen. Du argumentierst überall dass man keine schnelle CPU benötigt- da man ja im GPU Limit liegt und nun wenn es um den Verbrauch geht, wird die GPU plötzlich nicht ausgelastet. Mein Lieber.
Das liegt am generell bessen Nvidia V-ram Management das mittlerweile auch schon seit Jahren immer erneut in den Tests steht, zuletzt bei Turing.
Selbst eine 780 Ti mit 3GB , eine GTX 970 mit 3,5GB und 0,5GB quasi nicht nutzbarem V-ram haben in Full HD bessere Percentil Werte bei GamersNexus als eine mit vollwertigen 4GB ausgestattete RX570.
Habe das Video oben gepostet, soweit die Fakten.
Wenn jemand den Verbrauch der AMD GPU´s anhand aktueller Strompreise in Geld umrechnet, dann kommen plötzlich x User dahergeschossen die dich mit irgendwelchen Sonderfällen vollabern.
Erstens betreibt da draußen kein Mensch Chill und zweitens ist das Feature nur dann nützlich wenn die GPU zu viele FPS ausspuckt, das ist bei einer Midrangekarte bei heutigen Spielen quasi nicht sinnvoll nutzbar.
Verstehe nicht, warum du so erpicht darauf bist, einfach Fakten mit irgendwelchen Sonderfällen kaschieren zu wollen.
So? Wieso ist es denn dann nicht standardmäßig aktiviert, wenn es doch so toll ist?
Sry mit dir will ich gar nicht weiterdiskutieren, weil das fruchtlos ist, ich kann auch den PC ausschalten und nur 1 Stunde pro Woche Spielen.
Dann sind die Kosten irrelevant.
Was bringt es dir auf solchen minimalen Unterschieden herumzureiten. Wenn ich 2h zocke, dann bin ich sicherlich auch 10 Minuten im Menü und dann habe ich eben nur 1Stunde 50 min Vollast auf der GPU.
An dem Strombedarf ändert sich da grundsätzlich aber gar nichts und dass du mit einer R9 290x durchgehend Radeon Chill nutzt und das was bringen soll (die Karte ist ja nicht mehr die schnellste) halte ich für eine Falschbehauptung.
Immer schön AMD verteidigen, zu einem Thema, wo es leider nichts zu verteidigen gibt.
Ich weiß ja nicht woher ihr euren Strom bezieht, aber bei mir kostet er auch 26 cent die kWh...
Irrelevant, wer wo günstiger oder teurer Strom bezieht, deswegen nimmt man den Schnitt.
Wollen wir nicht gleich 200 oder 300W mehr nehmen...
So einen scheiß den du hier zusammenrechnest ist schon nicht mehr feierlich.
Ach Bärenmarke jeder weiß doch dass du immer gegen die Realität ankämpfst, solange es gegen deinen Lieblingshersteller geht.
Du kannst natürlich auch eine non-Custom Vega 56 mit Brüllkühler kaufen, dann sind es nur ~110 Watt hinten am Netzteil.
Zu den beliebten Vega 56 Dragon, Nitro +, Gigabyte OC oder Pulse sind es aber unterm Strich sogar oft mehr als 140 Watt.
Also an den Werten kann man immer hin und herschieben, wenngleich das Referenzdesign keineswegs zu empfehlen ist.
Wenn ich mir hier den Verbrauch anschaue sind wir nichtmal bei 100W Unterschied.
Gilt aber dann nur für die schlechtere Konkurrenz.
Dann rennt die Karte ja auch nicht immer auf 100%, gerade bei so spielen, wo man die fps auf 144 gedecket hat, aber locker 200+ erreichen würde...
Komisch, mir ist kein aktuelles Spiel bekannt, was die GPU nicht auslasten würde, ja nichtmal Fortnite.
Und 144 FPS auf einer Midrangekarte sind nun wirklich die Ausnahme als die Regel.
dann nehme doch realistische Werte wie 70-80W mehr als Verbrauch an. Das dürfte dann auch so in etwa hinkommen, weil die Karte rennt ja nicht immer auf Volllast wo gerade die Vega Karte viel säuft.
Also spielt man laut neuester Bärenmarke-Erkenntnis nur noch im CPU Limit und unter "Halblast", weil die Spiele eh locker 144 Hertz/FPS schaffen.
Das schafft vielleicht meine RTX Titan in Full HD aber keine Vega 56/1660 Ti, das sind Mittelklassekarten die auch unter Full HD recht viel zu schwitzen haben.
Also nein, der Stromverbrauch reduziert sich da nicht wie durch ein Wunder.
Ansonsten auch bitte die Idle Zeit mit dem Zerocore Mode berücksichtigen...
Da musst du den Monitor für abschalten.
Und übrigens hat jede Vega zwei Biose zu Verfügung, da kann man dann auch ruhig das mit dem niedrigeren Stromverbrauch wählen, da die Performance dann immernoch höher ist
Tja und dennoch sind das bei den meisten Modellen (außer dem Referenzdesign) riesige Unterschiede (~150 Watt ohne Netzteilverluste) die sich da auftun, das kann auch ein Bärenmarke nicht wegdiskutieren.
Insgesamt schon peinlich muss man sagen. Du argumentierst überall dass man keine schnelle CPU benötigt- da man ja im GPU Limit liegt und nun wenn es um den Verbrauch geht, wird die GPU plötzlich nicht ausgelastet. Mein Lieber.
Könnte auch einfach daran liegen, dass du nicht wirklich Ahnung hast...
Das liegt am generell bessen Nvidia V-ram Management das mittlerweile auch schon seit Jahren immer erneut in den Tests steht, zuletzt bei Turing.
Selbst eine 780 Ti mit 3GB , eine GTX 970 mit 3,5GB und 0,5GB quasi nicht nutzbarem V-ram haben in Full HD bessere Percentil Werte bei GamersNexus als eine mit vollwertigen 4GB ausgestattete RX570.
Habe das Video oben gepostet, soweit die Fakten.
Dank der Tuning Ratgeber, die sehr prominent platziert sind, kommen deutlich mehr Leute in den Genuss von Chill, als du dir offenbar ausmalst.
Wenn jemand den Verbrauch der AMD GPU´s anhand aktueller Strompreise in Geld umrechnet, dann kommen plötzlich x User dahergeschossen die dich mit irgendwelchen Sonderfällen vollabern.
Erstens betreibt da draußen kein Mensch Chill und zweitens ist das Feature nur dann nützlich wenn die GPU zu viele FPS ausspuckt, das ist bei einer Midrangekarte bei heutigen Spielen quasi nicht sinnvoll nutzbar.
Verstehe nicht, warum du so erpicht darauf bist, einfach Fakten mit irgendwelchen Sonderfällen kaschieren zu wollen.
1 Klick auf den Ratgeber, dann ein Klick zum Bestätigen der vorgeschlagenen Einstellungen und schon ist Chill aktiv.
So? Wieso ist es denn dann nicht standardmäßig aktiviert, wenn es doch so toll ist?
Sry mit dir will ich gar nicht weiterdiskutieren, weil das fruchtlos ist, ich kann auch den PC ausschalten und nur 1 Stunde pro Woche Spielen.
Dann sind die Kosten irrelevant.
Zwei Stunden zocken bedeutet nicht gleich 2 Stunden Vollast auf der Karte.
Wenn ich zocke, sind es oft mehr als 2 Stunden. Aber Volllast sieht meine Karte da nicht durchgehend.
Was bringt es dir auf solchen minimalen Unterschieden herumzureiten. Wenn ich 2h zocke, dann bin ich sicherlich auch 10 Minuten im Menü und dann habe ich eben nur 1Stunde 50 min Vollast auf der GPU.
An dem Strombedarf ändert sich da grundsätzlich aber gar nichts und dass du mit einer R9 290x durchgehend Radeon Chill nutzt und das was bringen soll (die Karte ist ja nicht mehr die schnellste) halte ich für eine Falschbehauptung.
Immer schön AMD verteidigen, zu einem Thema, wo es leider nichts zu verteidigen gibt.
Zuletzt bearbeitet: