Geforce RTX 3080: Heute ab 15 Uhr der FE-Test, morgen startet der Verkauf

Wow ... bin immer wieder erstaunt wie egal es doch den meisten Spielern hier ist, wie energieeffizient die Karte(n) zum einen, aber auch wie hoch der Energieverbrauch der Karte(n) absolut gesehen ist. Das der Strom auch erzeugt werden muss (und bezahlt...) scheint wohl völlig egal zu sein.
Bin davon überzeugt, dass die RDNA2 Karten da eine bessere Bilanz vorzeigen können, immerhin haben die eine 7nm Fertigung ja schon länger im Griff, Nvidia mit dem 8nm Fertigungsprozess ist da ja noch nicht so erfahren.

überschlag einfach mal die Kosten, die da potentiell auf dich zukommen könnten. Selbst wenn die NV Karten 100 oder 200W mehr nehmen würden und beim Zocken permanent max TGP anliegt, bleibt das monetär überschaubar.
 
Ok, akzeptier ich gerne und würde mich auch für AMD freuen. Aber woher kommt diese Einschätzung?

Ich kenne die Werte für Ampere bereits. Wenn man die versprochene Effizienzsteigerung von RDNA2 und den Prozessvorteil von TSMC's 7nm EUV dagegenhält, ist es sehr wahrscheinlich, dass die Aussage passt. Alles andere würde mich ehrlich gesagt sehr verwundern.
 
Ich bin ready, morgen ab 14:55 die F5-Taste zu hämmern. :D Neues Netzteil ist schon auf dem Weg hierher, fehlt nur noch die 3080. :banane:
 
Ich kenne die Werte für Ampere bereits. Wenn man die versprochene Effizienzsteigerung von RDNA2 und den Prozessvorteil von TSMC's 7nm EUV dagegenhält, ist es sehr wahrscheinlich, dass die Aussage passt. Alles andere würde mich ehrlich gesagt sehr verwundern.

Auch wenn die bessere Auslastung der FP32 Einheiten sicher auch mehr Energie kostet, würde ich davon ausgehen, dass AMD das derzeit nur mit mehr Einheiten ausgleichen kann. Und das kostet sicher NOCH mehr Energie. Ich würde also nicht davon ausgehen, dass AMD BigNavi automatisch weniger Energie aufnimmt, es sei denn, man hat eine ähnliche Lösung wie Ampere im Ärmel.
 
Wow ... bin immer wieder erstaunt wie egal es doch den meisten Spielern hier ist, wie energieeffizient die Karte(n) zum einen, aber auch wie hoch der Energieverbrauch der Karte(n) absolut gesehen ist. Das der Strom auch erzeugt werden muss (und bezahlt...) scheint wohl völlig egal zu sein.
Letzteres ist definitiv völlig egal. Ob eine GPU 250 oder 350W frisst unter Last macht geldmäßig selbst wenn ich jeden Tag den Gott erschaffen hat 6 Stunden durchzocke keine 5€ im Monat aus. Das is völlig vernachlässigbar, auch hinsichtlich "muss ja erzeugt werden" - selbst im zivilen Bereich ist das Messungenauigkeit, industriell erst Recht.

Deswegen ist aber die Leistungsaufnahme sicher nicht ganz egal, denn die Kosten sind der mit Abstand unwichtigste Punkt bei Karten im 800+€ Bereich. Nur wenn eine Karte 350W frisst muss die Abwärme auch wieder weg und das ist mit nem Luftkühler egal wie fancy der auch gestaltet ist einfach nicht mehr silent möglich. Für mich persönlich sind da 200W die Grenze wo ich darüber selbst einen ASUS Strix Kühler der zu den leisesten am Markt gehört als zu laut empfinde.
 
Auch wenn die bessere Auslastung der FP32 Einheiten sicher auch mehr Energie kostet, würde ich davon ausgehen, dass AMD das derzeit nur mit mehr Einheiten ausgleichen kann. Und das kostet sicher NOCH mehr Energie. Ich würde also nicht davon ausgehen, dass AMD BigNavi automatisch weniger Energie aufnimmt, es sei denn, man hat eine ähnliche Lösung wie Ampere im Ärmel.

Das klingt jetzt vielleicht komisch, aber Ampere ist ein bisschen wie Vega. Die Rohleistung muss erstmal auf die Straße gebracht werden. Der custom 8nm von Samsung ist vor allem eines, kosteneffizient. ^^
 
Das klingt jetzt vielleicht komisch, aber Ampere ist ein bisschen wie Vega. Die Rohleistung muss erstmal auf die Straße gebracht werden. Der custom 8nm von Samsung ist vor allem eines, kosteneffizient. ^^

Das war jetzt keine Antwort auf meine Frage. Die Möglichkeit, 2 FP32 Einheiten parallel nutzen zu können, ist ein Vorteil, auch in der Energie-Bilanz. Siehst Du das anders?

Und meinst Du, BigNavi kann das kompensieren? Und wenn ja, wie?
 
Das klingt jetzt vielleicht komisch, aber Ampere ist ein bisschen wie Vega. Die Rohleistung muss erstmal auf die Straße gebracht werden. Der custom 8nm von Samsung ist vor allem eines, kosteneffizient. ^^
Das hatte ich befürchtet. Vor dem Hinblick sind besonders die aufgerufenen 1500€ für die 3090 sehr bitter.
 
Wow ... bin immer wieder erstaunt wie egal es doch den meisten Spielern hier ist, wie energieeffizient die Karte(n) zum einen, aber auch wie hoch der Energieverbrauch der Karte(n) absolut gesehen ist. Das der Strom auch erzeugt werden muss (und bezahlt...) scheint wohl völlig egal zu sein.
Bin davon überzeugt, dass die RDNA2 Karten da eine bessere Bilanz vorzeigen können, immerhin haben die eine 7nm Fertigung ja schon länger im Griff, Nvidia mit dem 8nm Fertigungsprozess ist da ja noch nicht so erfahren.

Tatsächlich ist mir der Verbrauch völlig egal, ich möchte Leistung im Rechner und da sind ein paar Euro wegen Strom völlig uninteressant. Ich kauf mir ja auch kein Auto mit 500PS und hoffe der verbraucht nur 5l auf 100km
 
Letzteres ist definitiv völlig egal. Ob eine GPU 250 oder 350W frisst unter Last macht geldmäßig selbst wenn ich jeden Tag den Gott erschaffen hat 6 Stunden durchzocke keine 5€ im Monat aus. Das is völlig vernachlässigbar, auch hinsichtlich "muss ja erzeugt werden" - selbst im zivilen Bereich ist das Messungenauigkeit, industriell erst Recht.

Deswegen ist aber die Leistungsaufnahme sicher nicht ganz egal, denn die Kosten sind der mit Abstand unwichtigste Punkt bei Karten im 800+€ Bereich. Nur wenn eine Karte 350W frisst muss die Abwärme auch wieder weg und das ist mit nem Luftkühler egal wie fancy der auch gestaltet ist einfach nicht mehr silent möglich. Für mich persönlich sind da 200W die Grenze wo ich darüber selbst einen ASUS Strix Kühler der zu den leisesten am Markt gehört als zu laut empfinde.

Sicherlich hast Du bei Deiner Betrachtung zur Wärmeentwicklung (die steht ja im Prinzip 1:1 zum Stromverbrauch) recht.

Allerdings ging es mir nicht (so wie bei vielen Egomanen hier) um die persönliche Mehrkostenbetrachtung pro Monat (bspw. 5€), sondern um die Krux des Mehrverbrauchs aus gesellschaftlicher Sicht. Also in einfacheren Worten, dass je mehr Leute die gleiche Einstellung haben und sich nicht um Energieeffizienz kümmern, desto mehr geht die Umwelt vor die Hunde und der zusätzliche Energieverbrauch erzeugt dann in Summe die Notwendigkeit, noch mehr Kraftwerke aufzubauen. (Eigentlich wäre das die mentale Einstellung von Amerikanern, und nicht der Deutschen.)
 
Sicherlich hast Du bei Deiner Betrachtung zur Wärmeentwicklung (die steht ja im Prinzip 1:1 zum Stromverbrauch) recht.

Allerdings ging es mir nicht (so wie bei vielen Egomanen hier) um die persönliche Mehrkostenbetrachtung pro Monat (bspw. 5€), sondern um die Krux des Mehrverbrauchs aus gesellschaftlicher Sicht. Also in einfacheren Worten, dass je mehr Leute die gleiche Einstellung haben und sich nicht um Energieeffizienz kümmern, desto mehr geht die Umwelt vor die Hunde und der zusätzliche Energieverbrauch erzeugt dann in Summe die Notwendigkeit, noch mehr Kraftwerke aufzubauen.

Es gibt so viele Stellen wo es mehr Sinn macht sich über Effizienz Gedanken zu machen...... Meine Meinung
 
Zurück