Über 300 Watt Leistungsaufnahme bei Ampere... - Das sagen die PCGH-Redakteure dazu

Läuft mit einem 550 W NT bei mir :rollen:. OC traue ich mich zwar nicht aber Pauschal zu sagne braucht 750 und drüber nein braucht man nicht. Wenn man alles an der Kotzgrenze antreibt braucht man sich auch nicht wundern und 20 Lüftern und 10 RGB quatsch.:fresse:

Hat es zu Vega so einen Thread auch gegeben? Wahrscheinlich nicht:rollen: obwohl das Teil ja extra dazu noch nichtmal schneller war oder sonst was ber hier macht man ein Fass auf bei der 2 schnellsten Grafikkarte die es gibt für uns. Schmeckt nach clickbait.

Trotzdessen ist es die effizienteste Karte auf dem Markt(Selbst Stock 4k) Extreme Oc 2080 Ti Leistung mit 260 Watt kein Problem testet es ruhig und wundert euch.
 
Bei 900mv läuft die GPU bereits ins PT wenn man vernünftig Last anlegt. Im Time Ex oder ner anständigen Vulkan oder DX12 Anwendungen zerreist dir das den Boost bis unter 1600 mit Auto Abit. Das sind schön Wetter Werte, 1900 mit 900mv gehen nur mit massiver Kühlung und golden Chip UHD Stable, wenn überhaupt.


Höheres Powerlimit bei weniger Spannung -> stabilerer Takt und weniger Spikes. https://www.forum-3dcenter.org/vbulletin/images/3dc/smilies/common/bluesmile.gif

MfG
Raff

--> Sowohl Spannung runter als auch PL auf Maximum. Nicht entweder ... oder ....
 
Zuletzt bearbeitet:
1. Ne Ampere braucht in nem Game bei gleichen einstellungen und gleichen Frames weniger strom als Turing

2.Neue Architektur. Geb dem ganzen doch zeit zu reifen. den Leistungsschub haben wir bekommen die Effizienz der Architektur wird folgen
1. Dieser Umstand rechtfertigt aber nicht die Verwendung von "ne". Denn es ging ja hierum: schwachen Effizienzfortschritt
Schwach, nicht nonexistent!
2. Bislang gab es da nur wenige Fälle, in denen die historische Bewertung des Effizienzfortschrittes und die zeitgenössische stark von einander abwichen...
 
Vielleichtt ist es j mal wieder so weit. Vor etlichen Jahren hatte ich mal ein Zweitsystem mit 2 Netzteilen betrieben, weil ich einfach zu faul war nen größeres NT zu kaufen. Nen 600 Watt nur für die GraKa.. billiger als nen 1000Watt oder größeres NT.
Weg vom GraKa Sli, hin zum NT SLI :lol:
 
Wenn es nur an den Lastspitzen auf der 12V-Schiene liegt, so etwas gibt es bestimmt auch mit RGB :D

powercap.jpg
powercap.jpg
 
Das wäre sicher interessant, unbestreitbar. Ich war aber schon froh, dass ich das Crysis-Video noch halbwegs in der Arbeitszeit hinbekommen hab (nachdem das Netzteil abgeschmiert ist und ich mein System dann auseinandernehmen und wieder zusammensetzen musste - da kommt man eventuell sogar ein bisschen ins Schwitzen)


Das ist ja alles ganz nett und einleuchtend...

Aber dann ist Raff's neues 850-Watt-Netzteil abgekratzt.

Gruß,
Phil
1. Ne Ampere braucht in nem Game bei gleichen einstellungen und gleichen Frames weniger strom als Turing

2.Neue Architektur. Geb dem ganzen doch zeit zu reifen. den Leistungsschub haben wir bekommen die Effizienz der Architektur wird folgen
Also eigentlich brauchen GPUs wie CPUs nach einer gewissen Zeit mehr Strom, das durch Softwareanpassungen der Verbrauch sinkt, die Effizienz maßgeblich steigt ist mir neu.
 
Wolltest du vielleicht jemand anderen zitieren? Denn weder enthält mein Posting Ansätze von Hating noch bietet der Nickname irgendeinen Bezug...
Du hast gesagt ampere liefert keinen Fortschritt in Effizienz was einfach komplett Falsch ist es sind die effizientesten Karten am markt. meisten fps in relation zum verbrauch. Daneben sieht eine 5700 XT extrem ineffizient aus nur mal so nebenbei.

Bei turing wurde dasselbe gesagt aber eine 2070 ist extrem effizient. Wer bei diesen Leistungen der Karten erwratet das die aufnahme sinkt und die Leistung massiv steigt wie bei Pascal der sollte nochmal zurück in den Physikunterricht.

Navi 2 wird auch die 300 Watt brauchen ausser sie wollen sich weiter mit Turing prügeln:slap: wäre überrascht wenn sie eine 2080ti oc schlagen tbh.
 
Du hast gesagt ampere liefert keinen Fortschritt in Effizienz was einfach komplett Falsch ist es sind die effizientesten Karten am markt. meisten fps in relation zum verbrauch. Daneben sieht eine 5700 XT extrem ineffizient aus nur mal so nebenbei.

Bei turing wurde dasselbe gesagt aber eine 2070 ist extrem effizient. Wer bei diesen Leistungen der Karten erwratet das die aufnahme sinkt und die Leistung massiv steigt wie bei Pascal der sollte nochmal zurück in den Physikunterricht.

Navi 2 wird auch die 300 Watt brauchen ausser sie wollen sich weiter mit Turing prügeln:slap: wäre überrascht wenn sie eine 2080ti oc schlagen tbh.
Du hast gesagt ampere liefert keinen Fortschritt in Effizienz
Habe ich nicht und dass ich das nicht geschrieben habe, wurde auch nochmal in dem von dir zitierten Posting wiederholt: Ich habe von einem schwachen Effizienzfortschritt gesprochen. Von nichts mehr.

Was du mit meinem Nickname meinst, wieso du
das einer mit dem namen hated kein wunder
geschrieben hast, hast du übrigens immer noch nicht aufgelöst.
 
Das ist NICHT ein Anwachsen der Effizienz über Zeit durch neue Software-Revisionen, sondern durch ein anders gewähltes PowerTarget. → es liegt kein Bezug zum Kern des Postings von PCTom vor.
 
Also mein damaliger Rechner bei dem ich mein aktuelles 660W Netzteil vor 9 Jahren gekauft hatte war ein i7-2600k und eine GTX 690...ja die Dual-GPU Karte...(war ein reinfall BTW, SLI pfff) Die Karte hatte immerhin auch eine TDP von 300W. Wobei die normale 680er hatte eine von 195W.
Das Netzteil hatte keine Probleme.

Im übrigen die im Crysis-Test genutzte 3080 Custom Karte hat 3x8Pin Anschlüsse....kann ja sein das die noch mehr sauft als gedacht. Ich weiß nur von der FE mit Lastspitzen bis 500W.

@PCGH_Raff
Ich erwarte mit Vorfreude den Undervolting test.
 
Bei einem Strompreis von 30 Cent pro kWh und einer Benützungsdauer von sagen wir mal 4 Jahren sehen die Kosten
folgendermaßen aus:
Ich nehme gleich die max. OC Variante der 3080 mit 420W wir machen doch keine halben Sachen.
Gaming pro Tag in h auf 4 Jahre berechnet:
1h / Tag = 184€
2h / Tag = 368€

Je nach Wirkungsgrad des Netzteils kann man eigentlich auch gleich mit 500W rechnen dan währe man bei 1h bei ca. 220€.

Jetzt kommt noch die CPU und der Rest des Systems dazu und man ist ratzfatz bei > 300€ für 1h/Tag anegelangt

Dazu kommen noch die Kosten für ein 1000W Markennetzteil hinzu dann wird aus dem vermeintlichen Schnäppchen
ein Fass ohne Boden.

Dachte man noch man hätte das Schnäppchen des Jahres gemacht in dem man ein gutes custom Modell für 700 -800€
abstauben konnte ist der reale Preis mit Netzteil und Stromkosten (Relativ zu einer Karte mit einem normalen Verbrauch) wohl eher bei in etwa 1000€ angesiedelt und das für ein 10GB Modell!
 
Mich wundert nur mit welcher Sicherheit die Menschen die massive Effizienzsteigerung bei BigNavi erwarten.

Die 5700XT ist ja schon kein Effizienzwunder, hat aber die selbe Basis-Architektur (RDNA) und auch die selbe Strukturbreite wie BigNavi. Wo soll denn die Effizienzsteigerung bei BigNavi herkommen?

Klar, ich erwarte eine Verbesserung, die gibt es immer und alles andere wäre ja auch eine absolute Enttäuschung. Aber damit BigNavi die selbe Effizienz wie Ampere erreichen kann, muss es eine gewaltige Steigerung geben. Und die würde mich ernsthaft überraschen.
 
Zuletzt bearbeitet von einem Moderator:
Mich wundert nur mit welcher Sicherheit die Menschen die massive Effizienzsteigerung bei BigNavi erwarten.

Die 5700XT ist ja schon kein Effizienzwunder, hat aber die selbe Basis-Architektur (RDNA2) und auch die selbe Strukturbreite wie BigNavi. Wo soll denn die Effizienzsteigerung bei BigNavi herkommen?

Klar, ich erwarte eine Verbesserung, die gibt es immer und alles andere wäre ja auch eine absolute Enttäuschung. Aber damit BigNavi die selbe Effizienz wie Ampere erreichen kann, muss es eine gewaltige Steigerung geben. Und die würde mich ernsthaft überraschen.
Ich erwarte auch keine Wunder, aber die 5700XT ist RDNA, nicht RDNA2, ergo noch der Hybrid aus RDNA und GCN. Erst RDNA2 wird eine eigenständige Generation ohne Altlasten.
 
Mich wundert nur mit welcher Sicherheit die Menschen die massive Effizienzsteigerung bei BigNavi erwarten.

Die 5700XT ist ja schon kein Effizienzwunder, hat aber die selbe Basis-Architektur (RDNA) und auch die selbe Strukturbreite wie BigNavi. Wo soll denn die Effizienzsteigerung bei BigNavi herkommen?

Klar, ich erwarte eine Verbesserung, die gibt es immer und alles andere wäre ja auch eine absolute Enttäuschung. Aber damit BigNavi die selbe Effizienz wie Ampere erreichen kann, muss es eine gewaltige Steigerung geben. Und die würde mich ernsthaft überraschen.

Ein RDNA2 Derivat der in der XBOX Seies X verbaut ist existiert ja schon und die Effizienz
ist atemberaubend.
Dies wird wohl auch einer der Gründe sein wieso NVIDIA gerade Kriese schiebt und mit ihren Boardpartnern 420 /440W Boliden unter das Folk streut weil es sonst eben nicht reichen wird.
 
Zurück