manimani89
Volt-Modder(in)
Stand doch 1199 dollarÄhm nein. Bei nem UVP von 1000 machen 19% keine 400 aus.
Stand doch 1199 dollarÄhm nein. Bei nem UVP von 1000 machen 19% keine 400 aus.
Und die 1199$ sind halt Blödsinn. Die UVPs liegen bei 999 respektive 899$.Stand doch 1199 dollar
Ja habs nur so gelesen abet stimmt die liegt bei 999Und die 1199$ sind halt Blödsinn. Die UVPs liegen bei 999 respektive 899$.
Aha 19% von 1000 sind 400+was denkst du denn was eine 7900 xtx kostet. alleine mit steuern sind wir schon bei 1400+
Du suggerierst mit "knapp bemessen" ein bisschen, dass es nicht reicht. Es reicht aber zu 100% für die Standard-Karten. Sie Sicherheit bei den Steckern liegt hinter der Spezifikation von 150 Watt. Wenn da 200 Watt auf einem Kabel liegen würde, passiert auch nichts. Daher sind 2 Kabel vollkommen ausreichend.
Und wie gesagt, für die OC Varianten sind ja schon 3 Stecker angekündigt.
Er ist von den falschen 1199$ im Artikel ausgegangen.Aha 19% von 1000 sind 400+
Gut in Mathe aufgepasst
Hör bitte auf bei 300 plus Watt von "Effizienz" zu sprechenWurde eben lange gemunkelt, dass die Karten 450 - 800 Watt brauchen würden und so wäre es auch mit der Samsung Fertigung. Jetzt wissen wir, dass die 4080 und dann die 4090 mit Abstand die effizientesten Karten sind. Hoffentlich kommt AMD da auch hin. Mit 250 Watt 4k + Raytracing + hohe Frames ist schon geil!
FPS/Watt gemessen sind sie effizient. 300+ Watt hin oder her.Hör bitte auf bei 300 plus Watt von "Effizienz" zu sprechen
Wenn man ein paar mehr IQ Punke besitzt sollte man beim Verbrauch immer auch die Leistung am Ende berücksichtigen.Hör bitte auf bei 300 plus Watt von "Effizienz" zu sprechen
Du verwechselst "sparsam" mit "effizient".Hör bitte auf bei 300 plus Watt von "Effizienz" zu sprechen
Grundsätzlich muss man wegen jenseits von 350Watt nicht den Stromfresserteufel auf die Wand malen... Diese Karten lassen sich auch gänzlich genügsam betreiben.Wer sinnlos gestört viel Strom verballern will, kann ja zu den Customs greifen.
Absolut korrekt.Grundsätzlich muss man wegen jenseits von 350Watt nicht den Stromfresserteufel auf die Wand malen... Diese Karten lassen sich auch gänzlich genügsam betreiben.
Auch wenn Raff & Co oft meinen, es würde gar keinen Sinn machen sich eine 4090 für kleine Auflösung zu kaufen und vor zwei Jahren klang es ähnlich bei Ampere.
die XX90er Modelle wären eine gänzliche Verschwendung für Pixelschwache Auflösungen...
... Ich stehe da mehr auf dem Standpunkt, hat man ein XX90er Modell - kann soviel Stromsparen wie man mag, mit UV - extremen Frame Limits - und wenn möchte auch mit kleinen Auflösungen. (Immerhin hat man ja sicher noch irgendwo einen FullHD-Monitor auch noch herumstehen - und könnte als alternative für Stromsparevents sofort angeschlossen werden.)
Wenn man eine Grafikkarte haben will, die unter 350 Watt zieht und so eine Garfikkarte vielleicht sogar immer weniger als 150Watt schlucken dürfte. Eine 3090, eine 4090 können das - können das auch, der Gamer muss es nur wollen.
Aber die XX90er bieten auch die Freiheit, wenn man zwischendurch das genaue Gegenteil davon will und braucht - dann können solche Karten das auch. Die kleinen Grafikkarten können dass dann aber nicht und rösten sich dabei höchstens selbst.
Und die Customs lassen sich genau so im Diät-Modus betreiben - und wenn man dagegen ist, muss man überhaupt nicht sinnlos viel und viel zu viel Strom verballern - das lässt sich mit etwas Willen immer vermeiden.
Wenn einen das Geld nicht zu schade ist, behaupte ich, lässt sich mit effizienten Highendkarten besser Strom sparen - als mit den angeblichen Stromsparern, die irgendwo unter oder weit unter 350Watt herumkrebsen - und selbst ältere Spiele nicht im Schlafwagenmodus rendern können.
Hör bitte auf bei 300 plus Watt von "Effizienz" zu sprechen
Ja, gut...mehr als 2000€ um eine Grafikkarte auf 200 Watt niedriger betreiben zu können. Klingt nicht wirklich wirtschaftlich.... Ich stehe da mehr auf dem Standpunkt, hat man ein XX90er Modell - kann soviel Stromsparen wie man mag, mit UV - extremen Frame Limits - und wenn möchte auch mit kleinen Auflösungen. (Immerhin hat man ja sicher noch irgendwo einen FullHD-Monitor auch noch herumstehen - und könnte als alternative für Stromsparevents sofort angeschlossen werden.)
Wenn man eine Grafikkarte haben will, die unter 350 Watt zieht und so eine Garfikkarte vielleicht sogar immer weniger als 150Watt schlucken dürfte. Eine 3090, eine 4090 können das - können das auch, der Gamer muss es nur wollen.
Gibts dazu einen link o.ä?Ja, gut...mehr als 2000€ um eine Grafikkarte auf 200 Watt niedriger betreiben zu können. Klingt nicht wirklich wirtschaftlich.
Theoretisch wäre es möglich eine Grafikkarte für 700€ zu kaufen. Für den Differenzbetrag zu den 2000€ kann eine 1000 Watt Solaranlage mit einem Batteriespeicher erworben werden, dann läuft der gesamte PC umsonst.
Als Endnutzer ist an Videospielen das allerwenigste wirtschaftlich.Klingt nicht wirklich wirtschaftlich.