Über 300 Watt Leistungsaufnahme bei Ampere... - Das sagen die PCGH-Redakteure dazu

Wenn die Hälfte der Leute die eine 3080 kaufen wollten, eine Karte bekommen hätten, würde jene Käufer die 3080 ordentlich verteidigen. Aber weil niemand eine Kaufen kann, muss man sich dass irgendwie Schönreden, also sucht man sich Argumente die darüber hinwegtrösten, dass man keine bekommt.

Also sind viele bereit die Schwächen der 3080 und 3090 zu suchen und diese Schwächen über die Vorzüge zu stellen. Genau das passiert jetzt häufiger in den Kommentaren. Also nicht unbedingt Werbung für Ampere. Das hat Jensen die Lederjacke wohl so nicht kommen sehen. So als hätte John Wick dem Hype einen Schuß ins Knie verpasst, geht dieser nun zu Boden.

Und die Chance wächst, dass viele die noch unentschieden waren, sich die nächsten Wochen gedulden und auf AMD warten, auch wenn sich die Ampere-Verfügbarkeit bessern sollte.
Was du schreibst, klingt so, als würden Leute, die sich eine Karte für 700 oder 800 Euro kaufen, alle 5 Minuten wegen irgendwelcher Kleinigkeiten ihre Meinung ändern. Kann ich irgendwie nicht glauben. Wenn ich mich erst mal für eine Karte entschieden habe, fange ich bestimmt nicht an, da jetzt zwanghaft nach irgendwelchen Schwächen zu suchen, nur weil die jetzt halt mal im Moment gerade nicht verfügbar ist. Abgesehen davon, muss die Verfügbarkeit der AMD-Karten bei deren Launch erst mal besser sein ...
 
Ich bin nicht mehr auf dem laufenden, ist das Scully der wieder sein Unwesen treibt?

Topic: Schon wieder ein neues Netzteil kaufen hätte ich jedenfalls keinen Bock drauf. Das größte was ich unter den neueren Modellen aufbieten könnte wäre ein Seasonic Focus Plus Gold 650Watt. Bin mal gespannt was weitere Tests zeigen, ob eine 3080 @stock damit zuverlässig laufen würde.
 
Wenn die Hälfte der Leute die eine 3080 kaufen wollten, eine Karte bekommen hätten, würde jene Käufer die 3080 ordentlich verteidigen. Aber weil niemand eine Kaufen kann, muss man sich dass irgendwie Schönreden, also sucht man sich Argumente die darüber hinwegtrösten, dass man keine bekommt.

Also sind viele bereit die Schwächen der 3080 und 3090 zu suchen und diese Schwächen über die Vorzüge zu stellen. Genau das passiert jetzt häufiger in den Kommentaren. Also nicht unbedingt Werbung für Ampere. Das hat Jensen die Lederjacke wohl so nicht kommen sehen. So als hätte John Wick dem Hype einen Schuß ins Knie verpasst, geht dieser nun zu Boden.

Und die Chance wächst, dass viele die noch unentschieden waren, sich die nächsten Wochen gedulden und auf AMD warten, auch wenn sich die Ampere-Verfügbarkeit bessern sollte.
[/QUOTE]
Eines der besten Kommentare heute. Da ist sicherlich etwas dran.
 
Naja, die vollmundigen Ankündigungen zerbröseln halt langsam unter der zunehmenden Anzahl an Tests. Bei der Lautstärke der FE hat Jensen z.B. glatt gelogen. Genau genommen hätte die FE leicht leiser als die 2080 FE werden sollen. Wenn man es nicht so genau nimmt gleich laut. Jetzt ist sie erheblich lauter und läuft bei den Temperaturen auch noch hart am Limit.
 
Ich frage mich, wie weit die Akzeptanz eines hohen/steigenden Stromverbrauchs noch ansteigt. Meine Vega56 verbraucht bspw. bei XCom2 150 Watt undervoltet (220 Watt bei Werkseinstellungen, Werte nach GPU-Z) und ist damit, meine ich, nicht weit entfernt von einer 1070 Ti. Theoretisch wäre es durchaus interessant, was bei den GTX 3XXX so durch Undervolting möglich ist. Andererseits sind die Werkseinstellungen bereits mit 330 Watt bei der 3080 sehr hoch. Sicherlich kann das auch relativ gesehen werden. Meine Graka ist ja eine "etwas ältere" Mittelklassen-Karte. Andererseits - wie weit nach oben darf/sollte ein Stromverbrauch maximal gehen?

PS: Ich hoffe, die Besitzer*innen von GPUs mit hohem Stromverbrauch kommen nicht auf die schräge Idee, das viele Geld für die Graka über den Strombezug eines Standard-Atom-Kohlestrom-Anbieter wieder reinzuholen, sondern beziehen ihren Strom wenigstens von einem kleinen, konsequenten Ökostromanbieter wie EWS oder Greenpeace Energy. :ugly:
Mit Ökostrom wirds in diesem Bereich schwierig.
Da zumeist abends und im Winter gespielt wird ist Solar kaum relevant. Wind nur wenig.
 
Ich sehe das der Hype nicht abbricht, nur das die Leute n wenig angepisst sind weil viele Boardpartner und Shops einfach schlecht arbeiten und nichts kommunizieren - das ist das schlimmste an dem Launch.
Zu wenig Karten aus technischen Gründen ist OK, aber man kann ja kommunizieren das man zu wenige hat.

Technisch ist die 3080 etwa das was man erwartet hat - eine deutlich schnellere Karte als das was bislang zu kaufen gab.
Oben drauf ist die Founders Edition gut gelungen - sie ist nicht laut, überhitzt nicht (wenn man sie nicht erwürgt) und der höhere Stromverbrauch ist nichts schlimmes, angesichts der Performance.
Spätestens mit einem Waterblock haben sich alle Nachteile der 3080 erledigt.
 
Aber nicht jeder möchte wakü, und da geht es los. Thermisch am Limit ist bei Referenz ja nicht neu, aber was ist im Sommer bei 36 Grad ?
Das die neuen Karten nach release schlecht verfügbar waren hatten wir schon bei Vega und bei Turing n und wird in Zukunft wohl so bleiben. Ich denke Navi wird auch nicht besser verfügbar. Ist doch bei CPU's momentan auch schon so.
 
Aber nicht jeder möchte wakü, und da geht es los. Thermisch am Limit ist bei Referenz ja nicht neu, aber was ist im Sommer bei 36 Grad ?
Das die neuen Karten nach release schlecht verfügbar waren hatten wir schon bei Vega und bei Turing n und wird in Zukunft wohl so bleiben. Ich denke Navi wird auch nicht besser verfügbar. Ist doch bei CPU's momentan auch schon so.

Naja für die Leute die keine Custom WaKü wollen, gibt es AIO ab Werk. Kostet halt n bissl viel.
Die werden kommen, noch hab ich nix gesehen was AIO oder nen Waterblock hat.

Und was ist im Sommer bei 36°C? Schwitzende Gamer die eher irgendwo am See rumliegen als daheim gekocht zu werden. Wie eben diesen Sommer auch. Oder die schaffen sich ne Klimaanlage an.
Die Sommer sind keine grauen, verregneten Monate mehr, es gibt halt 37°C und neue Rekorde, da holt man sich ne Klimaanlage - ist ziemlich normal für Orte wo es heiß ist.
 
Ich habe letztes Jahr beim Systembau noch auf der BE Quiet Seite, mit dem PSU Kalkulator mein Netzteil berechnet. Habe sogar extra eine 2080Ti und auch übertakten angegeben. Empfohlen wurde das 650DP Ich habe extra zum 750er gegriffen um etwas Reserve zu haben. Laut Berechnung bewege ich mich bei 67% Auslastung und 94% Effizienz. Der maximale Watt Bedarf liegt bei 500. ( Bei angegebener 2080TI)
Ändere ich jetzt auf die 3080er wäre das 1000 Wat DP11 zu nehmen mit 83% Auslastung und 94,1 % Effizienz. Der maximale Watt-Bedarf liegt bei satten 833 Watt. Ich nehme an hier sind die Peaks mitkalkuliert.
Nur am Rande. Meine 5700XT würde sich mit dem 550 Watt DP11 zufrieden geben.
Finde das schon recht bedenklich. Ich hoffe der Fertigungsprozess von RDNA2 ist da etwas effizienter.
 
Mit Ökostrom wirds in diesem Bereich schwierig.
Da zumeist abends und im Winter gespielt wird ist Solar kaum relevant. Wind nur wenig.
Der Sinn hinter dem Strombezug von kleinen, unabhängigen Ökostromanbietern ist zum einen das persönliche Unterstützen der Energiewende. Gerade EWS bezieht Ökostrom von neuen Anlagen bzw. finanziert selbst Neuinstallationen von Ökostromanlagen. Dadurch kommen stetig neue Ökostromanlagen und Ökostrom dazu. AKW- und Kohlekraftwerke würden so auf kurze Sicht hin nicht mehr gebraucht und können also abgeschaltet werden. Zum anderen drückt der Wahl des Stromanbieters Boykott gegenüber den großen, mächtigen AKW-Kohhle-Stromanbietern aus.
 
Das wäre sicher interessant, unbestreitbar. Ich war aber schon froh, dass ich das Crysis-Video noch halbwegs in der Arbeitszeit hinbekommen hab (nachdem das Netzteil abgeschmiert ist und ich mein System dann auseinandernehmen und wieder zusammensetzen musste - da kommt man eventuell sogar ein bisschen ins Schwitzen)


Das ist ja alles ganz nett und einleuchtend...

Aber dann ist Raff's neues 850-Watt-Netzteil abgekratzt.

Gruß,
Phil

Cina böller oder wat? Also wenns bei mir ne 3080 werden sollte und mein Prime TX-850 (single rail) Dabei hopps geht dann bekommt seasonix das teil zurück ganz einfach wenn ich n 250€ Netzteil kaufe dann hat das mindestens mal das zu liefern was auffer verpackung steht und selbst mit 500watt spitzen komm ich nicht auf 850watt
Touch a nerve did I? :D:D:D

Ich Spiele in wqhd, dabei ist mein GPU leise, und ausreichend für mein Bedarf, zusätzlich muss ich nicht ein mobilen Generator im Garten stehen haben.

Ja aber dann haste ja auch kein grund ne 3080 zu kaufen.... Mal abgesehen davon bleibt am ende der FAKT das ne egal welche graka du jetzt hast, ne Ampere bei gleicher Auflösung und gleichen FPS wie du sie jetzt hast, weniger strim verbrauchen würde.... Versteh das ganze effizienz geheule nicht. miene vega verbraucht aufm harten OC profil 260watt und bringt dabei nur n bruchtteil der leistung.... trotzdem bin ich sicherlich noch günstiger dabei als hätt ich mir ne 2060 gekauft
Bei einem Strompreis von 30 Cent pro kWh und einer Benützungsdauer von sagen wir mal 4 Jahren sehen die Kosten
folgendermaßen aus:
Ich nehme gleich die max. OC Variante der 3080 mit 420W wir machen doch keine halben Sachen.
Gaming pro Tag in h auf 4 Jahre berechnet:
1h / Tag = 184€
2h / Tag = 368€

Je nach Wirkungsgrad des Netzteils kann man eigentlich auch gleich mit 500W rechnen dan währe man bei 1h bei ca. 220€.

Jetzt kommt noch die CPU und der Rest des Systems dazu und man ist ratzfatz bei > 300€ für 1h/Tag anegelangt

Dazu kommen noch die Kosten für ein 1000W Markennetzteil hinzu dann wird aus dem vermeintlichen Schnäppchen
ein Fass ohne Boden.

Dachte man noch man hätte das Schnäppchen des Jahres gemacht in dem man ein gutes custom Modell für 700 -800€
abstauben konnte ist der reale Preis mit Netzteil und Stromkosten (Relativ zu einer Karte mit einem normalen Verbrauch) wohl eher bei in etwa 1000€ angesiedelt und das für ein 10GB Modell!

Gaming isn Hobby.... Das kostet nunmal geld.... wer das net akteptieren will soll halma spielen gehen.... Und creator juckts net was die teile verbrauchen da verdienen die karten Geld
 
Der Sinn hinter dem Strombezug von kleinen, unabhängigen Ökostromanbietern ist zum einen das persönliche Unterstützen der Energiewende. Gerade EWS bezieht Ökostrom von neuen Anlagen bzw. finanziert selbst Neuinstallationen von Ökostromanlagen. Dadurch kommen stetig neue Ökostromanlagen und Ökostrom dazu. AKW- und Kohlekraftwerke würden so auf kurze Sicht hin nicht mehr gebraucht und können also abgeschaltet werden. Zum anderen drückt der Wahl des Stromanbieters Boykott gegenüber den großen, mächtigen AKW-Kohhle-Stromanbietern aus.
Nochmal, ich schrieb abends und nachts. Welche "Neuinstallationen" liefern nachts?
Man nutzt auch Biogas, auch hier ein enormer Verbrauch an Diesel. Und zudem teilweise auch Augenwischerei.
 
Ich sehe den generellen Rückstand von RDNA1 den du anhand der RX5700XT sehen willst einfach nicht.
Die RX5700XT ist einfach ein Ausreißer der mit ein wenig weniger Spannung und Takt ebenfalls deutlich besser dastehen würde als es jetzt der Fall ist.
Andererseits ist die 5600XT deutlich besser und die 5700 kaum schlechter.

DLSS eigenet sich natürlich momentan überhaupt nicht einen Effizienzvergleich zwischen AMD und NVIDIA
anzustellen und wird auch nicht von längst allen Spielen unterstützt.
Weiter kann man wohl davon ausgehen das AMD mit RDNA2 wohl etwas vergleichbares bringen wird.
Machine learning (ML) inference acceleration for games
Anhang anzeigen 1333882
Hast du auch mal die Skalierung bei der grafischen Darstellung etwas näher angeschaut, die könnte von NVIDIA höchstpersönlich sein
1.84 vs. 1.94 bzw. 5% liegen zwischen einer 3080 und 2080ti
Anhang anzeigen 1333879

Anhang anzeigen 1333880

Berücksichtigt man deine Posts der letzten Monate, dann ist klar, dass du das nicht "siehst". ;-)
Und natürlich ist die RX 5700 XT ein "Ausreißer", schlicht weil die auf hohe Leistung getrimmt ist, oder wie es manch anderer Forenuser hier sagen würde, "geprügelt" wurde.
Und es hat auch keiner bestritten, dass die RTX 3080 im Vergleich zu Turing nur wenig effizienter ist, jedoch ist sie effizienter und liefert dabei auch noch deutlich mehr Fps und wenn man die Karte gar etwas limitiert wird sie noch deutlich effizienter und kann auch problemlos unterhalb von 300 W mit dennoch deutlich mehr Fps betrieben werden.
Schlussendlich kann sich da ja auch jeder selbst ein Bild von machen ... hier mal zusammenfassend die Daten von Igors umfangreichem Testing in einer relativen Darstellung:

rtx_3080_cmp_at_4k.png


*) Btw, warum schreibst du hier was von DLSS? Ich zumindest haben DLSS-Ergebnisse zuvor überhaupt nicht berücksichtigt, denn darüber kann man sich immer streiten, wie man hier im Forum sieht, auch wenn die Motivation dazu oftmals fragwürdig ist.
Und bzgl. ML ist doch von langer Hand absehbar gewesen, dass AMD hier reagieren muss, denn andernfalls hätten sie einen handfesten Nachteil auf ihrer Architektur mit Blick auf hohe Auflösungen. Wann sie aber etwas DLSS 2.x-Ähnliches bieten können werden, muss man noch abwarten. Vorerst stellen sie in der Architektur nur die technische Grundlage in Form einer universellen MMA-Operation unterstützenden Funktionalität bereit. Intel hat das bspw. auch in Xe bereits in der kleinsten Version Xe-LP implementiert in Form von DP4A.

 
Zuletzt bearbeitet:
Nochmal, ich schrieb abends und nachts. Welche "Neuinstallationen" liefern nachts?
Man nutzt auch Biogas, auch hier ein enormer Verbrauch an Diesel. Und zudem teilweise auch Augenwischerei.
  1. Du wirst wie Alle über das Stromnetz versorgt, nicht direkt über einzelne Anlagen. Das Stromnetz ist quasi die Summe aus Stromtransport,-erzeugung und -speicherung.
  2. Nachts ist der allgemeine Stromverbrauch niedriger. Nächtliches Zocken ist antizyklischer Stromverbrauch.
  3. Tageslichtunabhängige erneuerbare Energien sind neben den von Dir genannten auch Wasser.
  4. Wie ich schrieb, ist der Sinn des Wechsels zum Ökostrom, die Unterstützung der Energiewende. Anhand einzelner Konsumentscheidungen wird natürlich nicht die Abschaffung von Atom- und Kohlestromerzeugung bewirkt. Wenn allerdings viele wechseln, kann das schon einen Unterschied machen.
  5. Für Deutschland gab die Bundesregierung November letzten Jahres bekannt, dass die Temperaturerhöhung um 1,5 Grad in Deutschland bereits erreicht sei. Die Klimaerhitzung schreitet voran. Es drohend unumkehrbare Prozesse in Gang gesetzt zu werden. Die heftigen Auswirkungen sind bereits jetzt in Ansätzen zu sehen. CO2-äquivalente Emissionen müssen also schnell reduziert werden, will mensch für Menschen und Tiere existenzbedrohende Entwicklungen vermeiden.
  6. ...
 
Zuletzt bearbeitet:
Ich bin wirklich mega gespannt darauf. Ich fress einen Besen mitsamt Putzfrau wenn (m)ein 700W Straight Power 10 trotz übertaktetem 9700k nicht ausreichen sollte.

Und in Anbetracht der Tatsache, wie viele User diesbezüglich verwirrt und ratlos sind, würde ich dem die höchste Priorität geben.
Das wäre sicher interessant, unbestreitbar. Ich war aber schon froh, dass ich das Crysis-Video noch halbwegs in der Arbeitszeit hinbekommen hab (nachdem das Netzteil abgeschmiert ist und ich mein System dann auseinandernehmen und wieder zusammensetzen musste - da kommt man eventuell sogar ein bisschen ins Schwitzen)


Das ist ja alles ganz nett und einleuchtend...

Aber dann ist Raff's neues 850-Watt-Netzteil abgekratzt.

Gruß,
Phil
Klingt ja echt übel... wie waren denn beide Netzteile abgesichert?
BeQuiet bietet ja diesen netten Switch, sodass die Rails zusammengeschaltet werden können, für eine deutlich höhere Absicherung....
Die Frage ist ja auch, ob nur ein 8Pin auf einmal die +150 Watt zusätzlichen Peak stemmen muss, oder es sich verteilt... Falls es wirklich nur einer Leitung wäre, dann bringen mehrere Rails keinen Vorteil, dort ist eine Single Rail mit extremer Absicherung die bessere Wahl.

Wenn man sich die Daten von IgorsLab anschaut ist das aber auch echt übel, da sollte nvidia evtl. die Absicherung auf den einzelnen Rails angeben, anstatt nir die Gesamtleistung des Netzteils...
Leider ist auf der Seite auch nicht aufgeschlüsselt wie sich die Peaklast verteilt - aber keine Sorge, das wird noch spannender mit der 3090, evtl. sehen wir dann eine Peaklast von 550 bis 600 Watt...?
Aber nvidia umgeht dieses Problem durch den neuen Anschluss...
Nett das Forum ist voll mit Beiträgen die Jedem radikal nicht mehr wie 550W empfohlen haben obwohl selbst bei Pascal Systemen da keine Reserven mehr waren. Schon damals hab ich nahebringen wollen das Reservern wichtig sind und man nicht nur die TDP einberechnen darf, wurde belächelt. Jetzt dürften sich die NT Hersteller über diese Missempfehlungen ein drittes E.. freuen ;).



Wie es dann wohl mit einer 3080 20G oder gar 3090 ausschauen wird. Da fällt mir ein ich habe noch ein 1,2KW Seasonic, hat wer Interesse.
Tja, es wurde auch schon in jüngerer Zeit gegen meine Empfehlung bzw. Bedenken gehatet und geflamt... ich habs dann einfach gelassen irgendwann. Es gibt halt einige die müssen es erst von pcgh offiziell erfahren, dass diese kurze Spitezenlast (welche in der TBD und Co. nicht aufgeführt wird) zu Problemen bei NT führen kann unter gewissen Punkten.
Ich habe da einige Beiträge zu geschrieben in verschiedenen Themen, wo es diskutiert wurde und es war jedes Mal das Gleiche.
Gegenwind und leugnen. Jetzt werden alle nach und nach diese Probleme feststellen - erinnert micj damals an das VRM Disaster beim 8auer - wollte auch keiner wahr haben...

Egal sag ich mir mittlerweile - ebtspannt zurücklehnen und die Show genießen, die 3090 kommt ja erst noch und die wird etwas agressiver arbeiten mit der Spitzenlast, keine Sorge. Meine Vermutung sind 550 Watt bis hin zu 600.


Jetzt muss ich nochmal kurz auf Die Netzteile eingehen.

Ich kann es mir anhand der gesehenen Werte nicht vorstellen, das es mit Ampere wirklich grundsätzlich Probleme, mit den Netzteilen gibt.

Wenn Seasonic 560W (als Beispiel) drauf schreibt, dann ist damit nicht Peak gemeint, sondern Dauerlast. Das sit bei Chinaböllern anders, aber nicht bei Markennetzteilen.
Auch das Corsaif SF450 von mir ist für eine Dauerlast von 450W berechnet, plus Reserve. Real im Test schultert dieser Zwerg 560W Dauerlast. Ein Netzteil wird so ausgelegt, das bei 450W Dauerlast, Peaks bis knapp 650W kein Problem sind.
Wenn ich mir jetzt die schnellstmögliche Messung von Igor anschaue, dann vertraue ich auch seinen Werten und Worten.

Er schreibt, das die 3080 mit 370W TDP Einstellung, Peaks bis 450W hat. Was auch noch gar nicht so extrem ist, wenn ch zurück denke, das auch eine Fury X, R9 390X usw, bei 300W TDP, auf 420W gesprungen sind in Peaks.


Ist doch aber ganz einfach, die Summe aller Peaks darf halt nicht über (um bei mir zu bleiben und meinem SF450) 650W liegen, genau wie der typische Verbrauch nicht über 450W liegen sollte.

Wenn ich die Peaks durch ein TDP absenken, mit reduziere, was Fakt ist, dann sollte die Welt entspannter sein.

Beispiel:

3080 TDP Stock 320W (330W) Peaks dann vielleicht bis 405W. Unterstellen wir einem 3900X auch mal eben Lastspitzen ;) dann wird es eben je nach CPU schnell eng. Hier muss man jetzt je nach Netzteil genau schauen.

An meinem NT würde ich aktuell nur maximal einen 3700X betreiben, sofern ich nicht undervolte.
Theoretisch ist aber auch mehr möglich, mit sinnvoller Einstellung.
3080 mit Undervolting und höherem Takt, auf 300W TDP justieren, was Peaks um 365W erzeugen sollte. Damit bleiben mir noch 285W von meinem maximalen 650W Peak. Damit könnte man selbst einen Undervolteten 10900k mit P1 100W und P2 125W, wobei ich immernoch Peaks bis 160W unterstelle, betreiben und hat noch die nötigen Reserven für ein paar Laufwerke und Peripherie.

Dabei muss man bedenken, das man so noch Taktraten oberhalb der Herstellerspecs erreichen kann.

Dann schaut man noch schnell auf die typische Last. Also da ist man bei 300W (mein Beispiel für die optimierte 3080) für die GPU und bis 100W für den Intel (den ich hier einfach mal als Stomvernichter angenommen habe, der aber in Spielen bei 5,2GHz dennoch nicht über 100W liegt), plus 2 SSD´s (10W) und Peripherie (10W), sowie Ram und Board (20W).

Unterm strich sind das bei realer Last, bis zu 440W, was aber im Schnitt sich eher bei 405W liegen dürfte, sofern die GPU im Spiel voll ausgelastet ist. An 12V natürlich, was primär zu etwa 450W führt. Für die die an der Steckdose messen.

Also wäre ein Betrieb an meinem Corsair SF 450 schon möglich.

Mit einem 65W Zen 2, oder bald Zen 3 sollte es möglich sein mit Undervolting sogar die Peaks noch um 60W zu reduzieren, sowie die typische Last noch auf "bis zu" 405W zu reduzieren und im Schnitt mit voller GPU Last in Spielen, ca 370W.


Wer seine CPU mit extra Spannung übertaktet, sowie die GPU, der muss natürlich anders rechnen.
450W für die GPU Peaks, dazu 350W Peak für einen max OC 10900k, dazu noch locker 50-100W für Ram, Board, usw., je nach dem war wer daran hängen hat.


Da ist man dann bei Peaks um 900W, was einer typischen Last um 660W entsprechen sollte.

Ein neues qaulitativ hochwertiges Single Rail Netzteil mit 700W wäre hier wohl die richtige Wahl. Ohne große Reserven. Wenn man noch Reserven haben möchte, so sollte man wohl in ein 750W-850W Netzteil investieren. Das wird sich dann mit der 3090 bestimmt nochmal um 50W nach oben bewegen.


Ohne undervolting kommt mir keine 3080 ins Haus, auch ein 10900k käme mir nicht ohne UV ins Haus.

Ich persönlich plane aktuell mit einer 3080 und einem ZEN3 8 Kerner (65W am besten), mit Undervolting.

Gerne auch bei Fragen, per PN, wem das hier den Rahmen sprengt.
 
Hat Igor aber nicht auch bei seinen Messungen gesagt das diese Peaks schon recht lang anhalten gegenüber früheren Karten? Ob man das gerade bei den schnellen Lastwechseln wirklich noch als Peak sehen darf bezweifel ich so langsam.

In ein paar Wochen und ein paar tausend mehr ausgelieferter Einheiten wissen wir mehr.
Ich denke nie war es sinniger mit dem Kauf neuer Grafikkarten etwas länger zu warten.
 
Also ich muss schon sagen, dass ich da Aussagen gelesen habe, die ich so in keiner Weise nachvollziehen kann.

Ich versuch mal zu rekapitulieren, was hier von gestandenen Profis von sich gegeben wird:

Insofern hatte ich eigentlich schon gehofft, dass Nvidia die feinere Strukturbreite in der Fertigung auch dafür nutzt, bei der absoluten Leistungsaufnahme keine Nachteile gegenüber den Vorgängern einzufahren. Das ist nur teilweise gelungen
Teilweise? Ich wüsste nicht wo es teilweise gelungen wäre, die Verlustleistung ist stark gestiegen, die Lastspitzen killen sogar eure Netzteile (die wahrscheinlich nicht von LC Power sind)

Letztendlich kann aber der User auch selbst festlegen wie viel Strom die Grafikkarte verbrauchen darf oder eben nicht.
Das Killerargument aller User, die die 3080 schönreden. Schon ein wenig seltsam, wenn man sich hier an die ganzen Threads zur Radeon VII erinnert, wo auf dem Verbrauch herumgeritten wurde bis kein Abend mehr da war. Alle Versuche, des manuellen Undervoltings wurden mit einem Wisch weggewischt, das hat hier nix zu suchen und wenn der Hersteller es nicht selbst in den Griff bekommt, bin ich doch kein Versuchskaninchen.
Recht haben sie, nur warum gilt dies jetzt nicht mehr?
Außerdem kaufe ich mir ja nicht eine 3080 nur um dann manuell auf 3070 Niveau zu fallen!




Über 300 Watt Leistungsaufnahme bei Ampere... waren nötig, um in neue Leistungsgefilde vordringen zu können.
Eben nicht, zeigen ja die ersten Undervolting Versuche. Die Leistung im Verhältnis zum Verbrauch ist nichts anderes als enttäuschend!

sind ganz schön happig, aber man muss es in Relation zur gebotenen Leistung sehen.
In meinen Augen ist es okay, denn die Effizienz (Fps pro Watt) stimmt

Tue ich und bin maßlos enttäuscht, nur knapp 5% Effizienzgewinn zur Vorgängergeneration sind schlichtweg peinlich für NV. Die Effizienz stimmt hier also keineswegs, nur will das irgendwie derzeit keiner so wirklich wahrhaben. Wir reden hier von einem FullNode bei NV und 5% Effizienzgewinn. Die Leute sind ja schon bei Zen2 auf die Barrikaden geklettert, weil nicht die versprochenen 50% (die der Umstieg von 14nm auf 7nm lt. Theorie ausmachen sollen) im Diagramm stehen. Aber 5% sind einfach nur peinlich! Auch wenn ich aktuell nicht in der Lage bin genau zu beantworten, was es mit Samsungs 8nm auf sich hat, dieser scheint ein Teil des Problems zu sein. Aber er ist eben hauptverantwortlich für den guten Preis bei NV, Gamestar hat hierzu geschrieben, dass ein 7nm Chip bei TSMC rund 55% teurer als der gleiche Chip bei Samsung sein könnte. (Gamestar schreibt auch was von Half Node, vergisst aber scheinbar, dass NV nie im 10nm Prozess gefertigt hat, sondern nur einen 12nm, der wiederrum ein verbesserter 16nm Prozess war).

Ich will hier wirklich niemanden direkt angreifen, aber mir scheinen einige der Aussagen sind getroffen worden, bevor sich der Redakteur mit der Materie befasst hat, oder aber auch, der Redakteur hat eine gewisse grüne Vorliebe. Anders kann man aktuell den Hype nicht verstehen. Die RTX 3080 schafft in der FE Variante so eben die Leistung der 2080Ti OC, der Vorsprung liegt teils bei nur 10%. Das ansich ist gar nicht mal schlimm, weil der Preis der 3080 so extrem geil ist. Aber technisch betrachtet, ist der Chip eine absolute Katastrophe. Man muss sich ja eigentlich nur einmal anschauen, dass ein 8nm Chip mit 680mm² Chipfläche, lediglich 15% vor einem 12nm TSMC Chip mit 750mm² Chipfläche liegt (Titan RTX). Das ist nicht das, was der Full Node (wie gesagt, in meinen Augen ist es ein Full Node, Samsungs 16nm wurde mittels HalfNode auf 10nm und ein weitere HalfNode auf 8nm gebracht, zwei halbe sind ein ganzer) bewirken kann / muss. Aber um das nochmal klar zu machen, ich finde die Karte aus Gamersicht sicherlich einen riesigen Gewinn, der Preis ist für diese Leistung phänomenal und da gibt es nichts dran auszusetzen, ehrlicherweise sind mir 320W dann auch egal. Nur erwarte ich hier, in einem PC Games Hardware Forum, dass sich Techniknerds um die Artikel kümmern und als solcher muss man von der technischen Umsetzung maßlos enttäuscht sein. Ob AMD das besser hinbekommt wird die Zeit zeigen, auch wenn ich es ärgerlich finde, dass sie nicht aus der Kiste kriechen, evtl. wissen sie aber auch, dass NV erstmal nur homäopathische Dosen verteilen kann, finde ich dennoch doof. Würde eigentlich gerne eine Entscheidung treffen, muss ja unter Umständen wohl überlegt sein. Aktuell könnte ich mich aber nicht entscheiden, da mir der Vergleich fehlt. Auch wenn ich nach den ersten Test, schon recht euphorisiert war, 700 EUR für diese Leistung!, so hat der Techniknerd in mir gewonnen und wartet auf jeden Fall ab, was AMD bringen kann. Die 3080 halte ich eigentlich für realistisch und da dies genau mein Preisrahmen ist, bin ich mal gespannt.

P.S.
Wenn ich gerade den PCIe 3.0 gegen 4.0 Beitrag so anschaue, scheint es ja sogar so zu sein, dass der Abstand zur 2080Ti nochmal schrumpt, sofern man aktuell kein CometLake / Ryzen (mit 500er Chipsatz) als Unterbau nutzt. Die 5% Effizienzsteigerung werden davon komplett aufgefressen.
 
Zuletzt bearbeitet:
Also ich muss schon sagen, dass ich da Aussagen gelesen habe, die ich so in keiner Weise nachvollziehen kann.

Ich versuch mal zu rekapitulieren, was hier von gestandenen Profis von sich gegeben wird:


Teilweise? Ich wüsste nicht wo es teilweise gelungen wäre, die Verlustleistung ist stark gestiegen, die Lastspitzen killen sogar eure Netzteile (die wahrscheinlich nicht von LC Power sind)


Das Killerargument aller User, die die 3080 schönreden. Schon ein wenig seltsam, wenn man sich hier an die ganzen Threads zur Radeon VII erinnert, wo auf dem Verbrauch herumgeritten wurde bis kein Abend mehr da war. Alle Versuche, des manuellen Undervoltings wurden mit einem Wisch weggewischt, das hat hier nix zu suchen und wenn der Hersteller es nicht selbst in den Griff bekommt, bin ich doch kein Versuchskaninchen.
Recht haben sie, nur warum gilt dies jetzt nicht mehr?
Außerdem kaufe ich mir ja nicht eine 3080 nur um dann manuell auf 3070 Niveau zu fallen!





Eben nicht, zeigen ja die ersten Undervolting Versuche. Die Leistung im Verhältnis zum Verbrauch ist nichts anderes als enttäuschend!




Tue ich und bin maßlos enttäuscht, nur knapp 5% Effizienzgewinn zur Vorgängergeneration sind schlichtweg peinlich für NV. Die Effizienz stimmt hier also keineswegs, nur will das irgendwie derzeit keiner so wirklich wahrhaben. Wir reden hier von einem FullNode bei NV und 5% Effizienzgewinn. Die Leute sind ja schon bei Zen2 auf die Barrikaden geklettert, weil nicht die versprochenen 50% (die der Umstieg von 14nm auf 7nm lt. Theorie ausmachen sollen) im Diagramm stehen. Aber 5% sind einfach nur peinlich! Auch wenn ich aktuell nicht in der Lage bin genau zu beantworten, was es mit Samsungs 8nm auf sich hat, dieser scheint ein Teil des Problems zu sein. Aber er ist eben hauptverantwortlich für den guten Preis bei NV, Gamestar hat hierzu geschrieben, dass ein 7nm Chip bei TSMC rund 55% teurer als der gleiche Chip bei Samsung sein könnte. (Gamestar schreibt auch was von Half Node, vergisst aber scheinbar, dass NV nie im 10nm Prozess gefertigt hat, sondern nur einen 12nm, der wiederrum ein verbesserter 16nm Prozess war).

Ich will hier wirklich niemanden direkt angreifen, aber mir scheinen einige der Aussagen sind getroffen worden, bevor sich der Redakteur mit der Materie befasst hat, oder aber auch, der Redakteur hat eine gewisse grüne Vorliebe. Anders kann man aktuell den Hype nicht verstehen. Die RTX 3080 schafft in der FE Variante so eben die Leistung der 2080Ti OC, der Vorsprung liegt teils bei nur 10%. Das ansich ist gar nicht mal schlimm, weil der Preis der 3080 so extrem geil ist. Aber technisch betrachtet, ist der Chip eine absolute Katastrophe. Man muss sich ja eigentlich nur einmal anschauen, dass ein 8nm Chip mit 680mm² Chipfläche, lediglich 15% vor einem 12nm TSMC Chip mit 750mm² Chipfläche liegt (Titan RTX). Das ist nicht das, was der Full Node (wie gesagt, in meinen Augen ist es ein Full Node, Samsungs 16nm wurde mittels HalfNode auf 10nm und ein weitere HalfNode auf 8nm gebracht, zwei halbe sind ein ganzer) bewirken kann / muss. Aber um das nochmal klar zu machen, ich finde die Karte aus Gamersicht sicherlich einen riesigen Gewinn, der Preis ist für diese Leistung phänomenal und da gibt es nichts dran auszusetzen, ehrlicherweise sind mir 320W dann auch egal. Nur erwarte ich hier, in einem PC Games Hardware Forum, dass sich Techniknerds um die Artikel kümmern und als solcher muss man von der technischen Umsetzung maßlos enttäuscht sein. Ob AMD das besser hinbekommt wird die Zeit zeigen, auch wenn ich es ärgerlich finde, dass sie nicht aus der Kiste kriechen, evtl. wissen sie aber auch, dass NV erstmal nur homäopathische Dosen verteilen kann, finde ich dennoch doof. Würde eigentlich gerne eine Entscheidung treffen, muss ja unter Umständen wohl überlegt sein. Aktuell könnte ich mich aber nicht entscheiden, da mir der Vergleich fehlt. Auch wenn ich nach den ersten Test, schon recht euphorisiert war, 700 EUR für diese Leistung!, so hat der Techniknerd in mir gewonnen und wartet auf jeden Fall ab, was AMD bringen kann. Die 3080 halte ich eigentlich für realistisch und da dies genau mein Preisrahmen ist, bin ich mal gespannt.


An allem was du sagst ist etwas dran, nur muss AMD jetzt erst Big Navi bringen und beweisen, das es besser geht.
Wenn es Big Navi nicht besser kann, dann ist es quasi ein Frefahrtschein für Nvidia.

Wenn Big Navi mit 330W nur 10% hinter der 3080 landen würde (nur mal eine theoretische Annahme, zum verdeutlichen) Dann wäre es ok, das Nvida 330W braucht. Wenn AMD es aber schafft (was ich hoffe), mit 270-300W "schon" 3080 Leistung zu bieten, dann wäre das ein klarer Nachteil für Nvidia! Und grundsetzlich die AMD die bessere Karte.

Dann muss man natürlich noch schauen, was die Karten sonst noch wie gut können. Wie viel Speicher hat Big Navi, als Kontrahent der 3080, wie gut funktioniert RT bei AMD. Das sind die für mich wichtigen Punkte.

Ich hoffe das Big Nav bei 300W, mit 16GB am besten es noch 10% vor eine 3080 schafft und auch bei RT nicht abgehängt wird.
 
  1. Du wirst wie Alle über das Stromnetz versorgt, nicht direkt über einzelne Anlagen. Das Stromnetz ist quasi die Summe aus Stromtransport,-erzeugung und -speicherung.
  2. Nachts ist der allgemeine Stromverbrauch niedriger. Nächtliches Zocken ist antizyklischer Stromverbrauch.
  3. Tageslichtunabhängige erneuerbare Energien sind neben den von Dir genannten auch Wasser.
  4. Wie ich schrieb, ist der Sinn des Wechsels zum Ökostrom, die Unterstützung der Energiewende. Anhand einzelner Konsumentscheidungen wird natürlich nicht die Abschaffung von Atom- und Kohlestromerzeugung bewirkt. Wenn allerdings viele wechseln, kann das schon einen Unterschied machen.
  5. Für Deutschland gab die Bundesregierung November letzten Jahres bekannt, dass die Temperaturerhöhung um 1,5 Grad in Deutschland bereits erreicht sei. Die Klimaerhitzung schreitet voran. Es drohend unumkehrbare Prozesse in Gang gesetzt zu werden. Die heftigen Auswirkungen sind bereits jetzt in Ansätzen zu sehen. CO2-äquivalente Emissionen müssen also schnell reduziert werden, will mensch für Menschen und Tiere existenzbedrohende Entwicklungen vermeiden.
  6. ...
Ich kenne das alles, nur funktioniert es auf diese Weise eben nicht. Sonst bräuchten wir nicht laufend Strom aus dem Ausland um das Konzept zu retten.
Bitte nachschauen was Wasserkraft bringt. In regenarmen Jahren fast nichts.
Vor einigen Jahren brachten die "neuen" im Winter gerade mal 5% des Verbrauchs. Woher kam der Rest?

Generell haben wir eher das Problem, daß die Produktzyklen zu kurz sind und das seit vielen Jahren der ganzen Welt beibringen. Gut, einem Spieler kann man so nicht kommen, den meisten ist das egal. Da zählt nur mehr Leistung, egal wie. Daher wird es auf Zwang und neue Steuern hinauslaufen um die Kaufkraft zu senken. Bei vielen Waren haben wir heute schon künstliche Preise die bis zum 10fachen des Herstellungspreises gehen. Besonders bei in China gefertigten Waren. Zuviele verdienen mit ohne eine Leistung zu erbringen.
Muß ich die Elektronikberge erwähnen die durch die Digitalisierung noch exorbitant steigen werden? Unsere Deponien sind seit Jahren schon voll, nur verbrennen hilft noch eine zeitlang weiter. Die toxischen Reste müssen allerdings auch irgend wohin.
Wer seinen PC länger benutzt hat auf jeden Fall die Zeichen der Zeit erkannt. Der Rest wird wohl von der Politik gezwungen, in irgendeiner Weise. Zum Beispiel über den Preis.
 
Zuletzt bearbeitet:
Zurück