Über 300 Watt Leistungsaufnahme bei Ampere... - Das sagen die PCGH-Redakteure dazu

Gemäß Igors Tests bietet eine RTX 3080 FE (@Stock) in SotTombRaider, 4K eine +38 % höhere Perf/Watt-Effizienz i. V. z. einer RX 5700 XT. In Ghost Recon Breakpoint, 4K wird der Unterschied noch eklatanter und die Ampere-Karte ist +61 % effizienter als die Navi-Karte. - AMD hat hier durchaus einiges "aufzuholen" bzgl. RDNA2.
Darüber hinaus ist die RTX 3080 FE auch @Stock in den beiden Titeln mit +7 % und +19 % effizienter als die RTX 2080 Ti und liefert dabei noch absolut deutlich mehr Fps. Zieht man das Power Target etwas herunter steigt die Effizienz weiter an, so auf +14 % bzw. +28 % Effizienz bei immer noch deutlich mehr Fps als eine Ti.

In Anlehnung an PCTom: Neue Algorithmen (über Hard- wie Software) können hier jedoch tatsächlich eine siginifikaten Effizienzsteigerung hervorbringen, so hier konkret mit Blick auf DLSS. Igor hatte auch das getestet und die Wolfenstein-Ergebnisse zeigten tatsächlich deutliche Zugewinne.
ohne DLSS: 2,35 W/Frame
mit DLSS: 1,84 W/Frame
Und auch hier ist Ampere noch einmal effizienter als Turing aufgrund der moderneren Architektur, in Verbindung mit den Tensor Cores v3. Die 2080 Ti schafft mit DLSS nur mal 1,94 W/Frame.

 
Zuletzt bearbeitet:
Ich denke einfach, nvidia hat mit der Samsung-Fertigung auf gut deutsch die Arschkarte gezogen. TSMC wird AMD bestimmt was effizienteres hinstellen. Und ich glaube auch nicht, dass AMD langsamer sein wird.
nvidiakiller is coming ;)
 
navi 2 ist over 300 watts and slower mark my words
Vielleicht die OC Varianten bei denen könnte ich mir gut vorstellen das es deutlich über 300W gehen könnte.
Aber laut letztem Gerücht zieht Big Navi nur um die 275W.
Und die 3080 wird kein ernst zu nehmender Gegner für die 6900XT mit wohl 16GB sein.

Da gibt es noch die 6900 der dieser Karte zugeordnet wird, aber du wirst schon sehen.

Mal davon abgesehn davon das eine Karte mit 16GB auch einige Watt mehr als eine 10GB verbrauchen dürfte aber zu dem wird es nicht kommen da ich fest davon ausgehe das die Effizienz von Big Navi derer von der 3080/3090 überlegen sein wird.

Punkto Verbrauch wird es noch spannend wie viel die 20GB Variante verbrauchen werden aber eins kann ich schon Mal sagen es wird garantiert nicht weniger werden.
 
Gemäß Igors Tests bietet eine RTX 3080 FE (@Stock) in SotTombRaider, 4K eine +38 % höhere Perf/Watt-Effizienz i. V. z. einer RX 5700 XT. In Ghost Recon Breakpoint, 4K wird der Unterschied noch eklatanter und die Ampere-Karte ist +61 % effizienter als die Navi-Karte. - AMD hat hier durchaus einiges "aufzuholen" bzgl. RDNA2.
Darüber hinaus ist die RTX 3080 FE auch @Stock in den beiden Titeln mit +7 % und +19 % effizienter als die RTX 2080 Ti und liefert dabei noch absolut deutlich mehr Fps. Zieht man das Power Target etwas herunter steigt die Effizienz weiter an, so auf +14 % bzw. +28 % Effizienz bei immer noch deutlich mehr Fps als eine Ti.
Es ist nicht relevant wie die Effizienz der 5700XT aussieht das ist nur ein Ablenkungsmanöver derer die einfach nicht einsehen wollen das die Effizienz zwischen Turing und RDNA1 nur marginal diveriert.
Sonst kannst du ja die 5700 anstatt der 5700X T heranziehen die hat einne deutlich bessere Effizienz vorzuweisen.

Die 5700XT wurde einfach über dem Sweetspot betrieben und kommt bei dem Testbei Igor auch ziemlich schlecht weg.
Da gab es schon andere Tests der der Karte eine bessere Effizienz zuschrieb.
 
Und warum versuchst du nun abzulenken? Ich habe ebenso gegen den TU102 verglichen. Die Demonstration von Navi 10 war schlicht erforderlich um den deutlichen Rückstand von AMD (trotz bereits 7 nm, konkret gar dem neueren N7P) zu demonstrieren, der, wenn man nicht seinem Bias erliegt, offensichtlich ist. Und entsprechend hat AMD erst mal viel Aufholarbeit zu leisten, was bedeutet, dass sie Ampere zweifelsfrei nicht in "Grund und Boden stampfen" werden. Wenn bei AMD alles optimal läuft, werden sie vollends konkurrenzfähig sein, mehr aber höchstwahrscheinlich nicht. Beispielsweise für Zen haben sie dafür auch drei Architektur-Iterationen benötigt und rund 2,5 zusätzliche Jahre.

Und btw ... die Effizienz der RX 5700 XT ist wie sie ist, die lässt sich nicht mit "anderen Tests" schönrechnen. Wie du schon selbst geschrieben hast, hat AMD die Karte weit über ihren SweetSpot hinaus spezifiziert und dadurch wurde sie relativ gesehen zur mit Abstand ineffizientesten Navi-Karte und steht auch im Vergleich zu Turing schlecht da. Das ist nu einmal schlicht so.
Bereits die RX 5700 ist in obigen Titeln gemittelt +28 % effizienter als die RX 5700 XT. Ist das jetzt schlecht und verwerflich, dass AMD die Karte soweit ausreizt ... oder ist ein derartiges Vorgehen nur bei nVidia ein Probem? Und sind alle Käufer der RX 5700 XT nun dumme Schafe, weil sie sich für ein offensichtlich derart überzüchtetes Design entschieden haben anstatt die viel effizientere RX 5700 zu nehmen? ;-)
 
Zuletzt bearbeitet:
@sandworm

Wir wissen noch nicht, was die XBox Series X an Strom aufnimmt. Die Tatsache, dass man sich solche Mühe machen musste, um die Box zu kühlen (ebenso die PS5) lässt nicht vermuten, dass es Effizienzwunder sind.

Woher nimmst Du also die Gewissheit, dass RDNA2 einen solchen Riesenschritt hinlegt? Und wie soll der technisch realisiert worden sein?
 
@sandworm

Wir wissen noch nicht, was die XBox Series X an Strom aufnimmt. Die Tatsache, dass man sich solche Mühe machen musste, um die Box zu kühlen (ebenso die PS5) lässt nicht vermuten, dass es Effizienzwunder sind.

Wir wissen zumindest dass ein 315Watt Netzteil verbaut wurde. Zumindest kommt die APU damit klar wie es scheint.

Rest muss sich jeder selber zusammenreimen oder echte Test der Konsole abwarten.
 
Und warum versuchst du nun abzulenken? Ich habe ebenso gegen den TU102 verglichen. Die Demonstration von Navi 10 war schlicht erforderlich um den deutlichen Rückstand von AMD (trotz bereits 7 nm, konkret gar dem neueren N7P) zu demonstrieren, der, wenn man nicht seinem Bias erliegt, offensichtlich ist. Und entsprechend hat AMD erst mal viel Aufholarbeit zu leisten, was bedeutet, dass sie Ampere zweifelsfrei nicht in "Grund und Boden stampfen" werden. Wenn bei AMD alles optimal läuft, werden sie vollends konkurrenzfähig sein, mehr aber höchstwahrscheinlich nicht. Beispielsweise für Zen haben sie dafür auch drei Architektur-Iterationen benötigt und rund 2,5 zusätzliche Jahre.

Und btw ... die Effizienz der RX 5700 XT ist wie sie ist, die lässt sich nicht mit "anderen Tests" schönrechnen. Wie du schon selbst geschrieben hast, hat AMD die Karte weit über ihren SweetSpot hinaus spezifiziert und dadurch wurde sie relativ gesehen zur mit Abstand ineffizientesten Navi-Karte und steht auch im Vergleich zu Turing schlecht da. Das ist nu einmal schlicht so.
Bereits die RX 5700 ist in obigen Titeln gemittelt +28 % effizienter als die RX 5700 XT. Ist das jetzt schlecht und verwerflich, dass AMD die Karte soweit ausreizt ... oder ist ein derartiges Vorgehen nur bei nVidia ein Probem? Und sind alle Käufer der RX 5700 XT nun dumme Schafe, weil sie sich für ein offensichtlich derart überzüchtetes Design entschieden haben anstatt die viel effizientere RX 5700 zu nehmen? ;-)
Ich sehe den generellen Rückstand von RDNA1 den du anhand der RX5700XT sehen willst einfach nicht.
Die RX5700XT ist einfach ein Ausreißer der mit ein wenig weniger Spannung und Takt ebenfalls deutlich besser dastehen würde als es jetzt der Fall ist.
Andererseits ist die 5600XT deutlich besser und die 5700 kaum schlechter.

DLSS eigenet sich natürlich momentan überhaupt nicht einen Effizienzvergleich zwischen AMD und NVIDIA
anzustellen und wird auch nicht von längst allen Spielen unterstützt.
Weiter kann man wohl davon ausgehen das AMD mit RDNA2 wohl etwas vergleichbares bringen wird.
Machine learning (ML) inference acceleration for games
xbox ml.png

Hast du auch mal die Skalierung bei der grafischen Darstellung etwas näher angeschaut, die könnte von NVIDIA höchstpersönlich sein
1.84 vs. 1.94 bzw. 5% liegen zwischen einer 3080 und 2080ti
PW 5700XT.png


dlss.png
 
Ich frage mich, wie weit die Akzeptanz eines hohen/steigenden Stromverbrauchs noch ansteigt. Meine Vega56 verbraucht bspw. bei XCom2 150 Watt undervoltet (220 Watt bei Werkseinstellungen, Werte nach GPU-Z) und ist damit, meine ich, nicht weit entfernt von einer 1070 Ti. Theoretisch wäre es durchaus interessant, was bei den GTX 3XXX so durch Undervolting möglich ist. Andererseits sind die Werkseinstellungen bereits mit 330 Watt bei der 3080 sehr hoch. Sicherlich kann das auch relativ gesehen werden. Meine Graka ist ja eine "etwas ältere" Mittelklassen-Karte. Andererseits - wie weit nach oben darf/sollte ein Stromverbrauch maximal gehen?

PS: Ich hoffe, die Besitzer*innen von GPUs mit hohem Stromverbrauch kommen nicht auf die schräge Idee, das viele Geld für die Graka über den Strombezug eines Standard-Atom-Kohlestrom-Anbieter wieder reinzuholen, sondern beziehen ihren Strom wenigstens von einem kleinen, konsequenten Ökostromanbieter wie EWS oder Greenpeace Energy. :ugly:
 
Zuletzt bearbeitet:
Was Menschen, die nicht einen Satz fehlerfrei herausbringen, auf dicke Hose machen, unfassbar, müssen stark ausgeprägte Geltungsbedürfnisse haben oder sowas.
Wir sind nicht alle Deutsche Muttersprachler hier, ich zumindest nicht, ich habe mir selber Deutsch beigebracht, sorry das ich nicht so Perfekt bin wie du. Im übrigen, es gibt auch Menschen mit Legesthenie, die wohl bewusst ihre Problematik sind, solch Übermenschen wie du machst den das ohnehin bescheidene Lage noch bescheidener. #helddestages
 

und punkt aus bye hes biased af amd kann mit 7nm nicht mal 12 schlagen und nun sollen 7++ 8nm von nvidia schlagen und auch noch schneller sein. klar so wie die vega die 1080ti weggeblasen hat :lol: :lol: :lol: :lol: ich höre das seit 10 jahren und auf einmal soll amd eine wunder archt entwickelt haben wo sie 2 gens überspringen wenn sie die 2080 ti einholen ist das schon gut für Amd verhältnisse. Hier wird sepkuliert das sie eine 3080 schlagen LMFAO

Zum mitschreiben AMD kann noch nichtmal nvidias topmodell von 2017 schlagen und nun gleich die 2080ti und die 3080 und dann biste aufgewacht von physik keine ahnung und nur am ************************ labern tolles forum ihr seit ein witz :kuss:

3080 undervolted ist 2 mal schneller als eine 5700xt und braucht weniger als diese customs von denen :daumen: amd ist jahre hinten wie immer
Um, genau das haben die damals mit die Ryzen CPUs. Davor waren die auch abgeschrieben. Abwarten, Tee trinken.
 
Dich habe ich überhaupt nicht gemeint?! Du bist auch überhaupt nicht provokant in Erscheinung getreten, wie kommst du darauf dass ich dich damit meinte? Kleiner Tipp: Achte mal auf die Ähnlichkeiten im Satzbau ein paar Postings darüber.
 
Du kannst nicht die 62 Ampere der 12V Leitung (744 Watt) einfach mit 41 den Ampere der CPU (1,x Vcore) in Zusammenhang bringen.

Das kann ohnehin nicht stimmen, bei 111 Watt (41 Ampere) müsste dein 3700X demnach mit 2,x Vcore gelaufen sein, auch wenn man noch die Watt/Ampere des SoC abzieht. Ein 3700X zieht bei Vollast über 60A und ein 3900X über 100A (inkl. SoC) bei 1,x Vcore und damit haben auch Netzteile mit lediglich 35 Ampere auf der +12V Schiene kein Problem.

Du hast scheinbar nicht meinen Antwortpost auf andere Beiträge etwas später gelesen...
Da hab ich nämlich explizit darauf hingewiesen, das es:
A: das komplette Package war (die Cores lagen da bei iwas in den 90 Wattern)
B: das eben nicht alles, sondern nur ein Teil der CPU mit der 12Volter mit versorgt wird
C: der 3700X läuft per Ryzen Master im Auto OC mit bis zu 1.5V VCore soweit ich das gesehn hab
D. die Werte hab ich mit HW Monitor 1.42 (Standard Version) ausgelesen, das waren die max Angaben bei Package und CPU Current
E: Nach Berechnung der Ryzen Master Werte komme ich auf knapp 58A TDC (12%) und 101A EDC (47%) (mit jetzt FF, Vortex, Cinebench R20 und Vortex am laufen, nur mit Cinebench sind die Werte etwas höher) keine Ahnung was HW Monitor da genau ausliest.

Danke für den Hinweis. :)
 
Was Menschen, die nicht einen Satz fehlerfrei herausbringen

Mir ist bewusst das mein Deutsch nicht Perfekt ist, insbesondere mein Grammatik, da du niemand Persönlich genannt hast, lässt das viele Leute sich angesprochen fühlen. Ich komme aus eine Familie (Frau, Tochter, Nichte) wo viele vom Legesthenie betroffen sind. Es ist den unangenehm, hat aber mit Intelligenz, oder mangelnde Intelligenz nichts zu tun. Einfach hinweg sehen wenn die Schreibweise, Rechtsschreibung oder Grammatik stört, für mein Empfindung bin ich zufrieden so lange ich den sinn eines Satzes entziffern kann.
 
Was Menschen, die nicht einen Satz fehlerfrei herausbringen

Mir ist bewusst das mein Deutsch nicht Perfekt ist, insbesondere mein Grammatik, da du niemand Persönlich genannt hast, lässt das viele Leute sich angesprochen fühlen. Ich komme aus eine Familie (Frau, Tochter, Nichte) wo viele vom Legesthenie betroffen sind. Es ist den unangenehm, hat aber mit Intelligenz, oder mangelnde Intelligenz nichts zu tun. Einfach hinweg sehen wenn die Schreibweise, Rechtsschreibung oder Grammatik stört, für mein Empfindung bin ich zufrieden so lange ich den sinn eines Satzes entziffern kann.
Nochmal, um dich ging es nicht. Da dir die Feinheiten wohl entgangen sind, stelle ich extra für dich an dieser Stelle nochmal den Zusammenhang her:

was menschen für einblicke in die arch haben unfasbar müssen amd mitarbeiter sei oder sowas.
Was Menschen, die nicht einen Satz fehlerfrei herausbringen, auf dicke Hose machen, unfassbar, müssen stark ausgeprägte Geltungsbedürfnisse haben oder sowas.
Das hat weder mit Legasthenie, noch mit Muttersprache zu tun, sondern einfach mit seiner ätzenden Art und Weise. Wieso ich mich dazu habe hinreißen lassen und es auch absolut gar nichts gebracht hat, wie man an seiner nächsten Antwort sieht, steht auf einem anderen Blatt.
 
Zuletzt bearbeitet:
Oookay, ich hatte da gestern im gemoddeten Witcher (PCGH "Wicked", 5K, Texturmod, volle Kanne und so) immer noch TGP-Werte über 300 Watt, aber Undervolting ist definitiv sehr hilfreich beim Glätten aller Probleme. =)

MfG
Raff
Da bin ich mal gespannt auf die Tests. Und ich frag mich ob die Ampere-Architektur mit z.B. 5% weniger Leistung nicht diese fiesen Lastspitzen auffährt (oder weniger fies). Dann wären auch nicht so überdimensionierte Netzteile zur durchschnitllichen Leistugsaufnahme nötig. Ansonsten ist die Performance pro Watt der RTX 3080 wirklich Klasse.
 
Wenn die Hälfte der Leute die eine 3080 kaufen wollten, eine Karte bekommen hätten, würde jene Käufer die 3080 ordentlich verteidigen. Aber weil niemand eine Kaufen kann, muss man sich dass irgendwie Schönreden, also sucht man sich Argumente die darüber hinwegtrösten, dass man keine bekommt.

Also sind viele bereit die Schwächen der 3080 und 3090 zu suchen und diese Schwächen über die Vorzüge zu stellen. Genau das passiert jetzt häufiger in den Kommentaren. Also nicht unbedingt Werbung für Ampere. Das hat Jensen die Lederjacke wohl so nicht kommen sehen. So als hätte John Wick dem Hype einen Schuß ins Knie verpasst, geht dieser nun zu Boden.

Und die Chance wächst, dass viele die noch unentschieden waren, sich die nächsten Wochen gedulden und auf AMD warten, auch wenn sich die Ampere-Verfügbarkeit bessern sollte.
 
Zurück