Über 300 Watt Leistungsaufnahme bei Ampere... - Das sagen die PCGH-Redakteure dazu

Du wirfst hier viel zu viel zusammen in einen Topf und rechnest doppelt und dreifach an, was am Ende dazu führen würde, das BigNavi min. +120 % schneller als eine 3090 werden müsste. ;-)
Die "+60% Perf/ Watt" inkludieren schon alle architektonischem, IPC-relevanten Optimierungen, d. h. hier kannst du nicht noch zusätzlich irgendwelche "ergänzenden" IPC-Zugewinne anrechen. Und bzgl. dem Takt dürftest du absehbar zu hoch greifen. Erst kürzlich wurde bekannt, dass Sony mit ihrem SoC-Yield-Probleme hat und das, obwohl es sich hierbei nur um eine relativ kleine 36 CUs umfassende GPU handelt. Was denkst du wird man haben bei schätzungsweise einem 80 CU-Chip? Und glaubst du dass nVidia sich grundlos beim GA102 bei 1,7 GHz einpendelt und dass der GA100 im N7 gar nur einen offiziellen Boost-Takt von 1,41 GHz aufweist?

Btw ... was hat eine HighEnd-Desktop-GPU mit einem mobilen Tiger Lake/Cezanne zu tun? Und darüber hinaus wird es Cezanne in diesem Jahr gesichert nicht mehr geben ...
Mag sein das ich zu viel in einen Topf werfe, aber es könnte auch so knapper werden als angenommen und die High End Desktop CPU hat damit zu tun das AMD in beiden Welten CPU und GPU führend sein will! Soll heißen Zen 3 CPU Leistungssieger und Big Navi GPU Leistungssieger! Anders würde https://twitter.com/Radeon keinen Sinn machen!
 
Ich hätte es begrüßt, wenn du das System mit einem aktuellen 750er Netzteil getestet hättest. Einfach als Vergleich.

Das wäre sicher interessant, unbestreitbar. Ich war aber schon froh, dass ich das Crysis-Video noch halbwegs in der Arbeitszeit hinbekommen hab (nachdem das Netzteil abgeschmiert ist und ich mein System dann auseinandernehmen und wieder zusammensetzen musste - da kommt man eventuell sogar ein bisschen ins Schwitzen)
DAS.

Zudem ist es Single Rail, die liefert zwar 62Ampere, aber mit dem angestrebten engen Voltagen des Netzteils, is das wohl dem Netzteil sein Tod gewesen, als die Spitzen reinkamen.

Zumal unsere aktuellen Prozis auch nicht gerade Ampere Sparbrötchen sind, wenn ich sehe das mein 3700X sich unter maximaler Last bis zu 111 Watt und bis zu 41Ampere gönnt...da bleibt bei diesem SingleRail Modell für die GPU nicht viel übrig.
(Ninja Edit nach Cinebench R20 Run mit korrigierten Werten)

Nen gutes Multirail NT dürfte hier besser abschneiden, erst Recht wenn es mehr als nur 1 GPU bedienen könnte und man die Last auch noch auf die Anschlüsse und Rails verteilen kann.

Hier dürfte zBsp. das 750er Straight Power 11 mit 2x20 und 2x 24Ampere wesentlich besser dastehen.

Das ist ja alles ganz nett und einleuchtend...

Aber dann ist Raff's neues 850-Watt-Netzteil abgekratzt.

Gruß,
Phil
 
Zuletzt bearbeitet:
Hmpf. Dann haben sich be quiet! Mit ihren neuen Dark Power doch was dabei gedacht sie für 1200W und 1500W auszulegen. Mit nur schleierhaft wie damit 2x 3090er laufen sollen. :D
 
"Trockeneis schmilzt nicht, es sublimiert." Danke, dass der Physik hier zu ihrem Recht verholfen wird:hail: Persönlich sehe ich das Einsatzszenario der RTX 3080 nicht. Für 1080p und 1440p auf die RTX 3070 warten und für UHD reicht der Speicher schon jetzt nur knapp. Eine 3080 mit 20GB wäre dagegen auch mit 340 Watt Leisungsaufnahme eine Investition wert, zumal die Karten im Idle ja mindestens so effizient sind wie ihre Vorgänger.
 
Mag sein das ich zu viel in einen Topf werfe [...]

Was ist denn das offizielle Maß zu "knapper als angenommen"? Aktuell gehen die Meinungen hier sehr weit auseinander, d. h. es gibt kein universelles, unpersönliches, allgemeingültiges "angenommen". Manche spekulieren auf eine Leistung der Topkarte knapp unterhalb der 3080, manche auf dem Niveau oder gar etwas über der 3080 und andere wollen gar einen 3090-Killer erwarten. ;-)
Und welche HighEnd-Desktop-CPU? Du hast Tiger Lake zitiert, eine Mobile-CPU. Du meinst vielleicht Rocket Lake? ;-) Der wird jedoch erst grob Anfabg 2021 erscheinen und der ist zudem nur mäßig interessant, da dies immer noch ein 14nm-Chip ist, wenn auch mit modernerer Mikroarchitektur (jedoch voraussichtlich leider kein Willow Cove). Wirklich interessant wird es bei Intel erst wieder Ende 2021 mit Alder Lake und nachfolgenden CPUs im Consumer-Segment. Nichtsdestotrotz wird man dennoch auch unzweifelhaft mit Rocket Lake sehr gut spielen können, denn hier zieht voraussichtlich dann das gleiche Argument, dass derzeit AMD-Fans für sich beanspruchen: "Die paar Fps weniger sind doch nicht relevant." ;-) Schlussendlich wird man abwarten müssen, wie dann der CPU-Vergleich im Gaming ausfallen wird, jedoch absehbar sollte AMD hier durchaus auch im Gaming (mindestens leicht) vor Intel liegen könnnen.
Und welchen tieferen Sinn sollte der Tweet haben? Beziehst du dich hier auf eine besondere Stelle? Ich hoffe nicht, dass du den Tweet vom 9.9. mit dem RDNA2-Teaser meinst, denn das ist schlichtes 08/15-Marketing, mehr nicht. Ähnliches gab es auch schon damals zu Vega und bzgl. der bahnbrechenden Raytracing-Technologie ist AMD mal eben knapp zwei Jahre zu spät dran. ;-) Das muss man natürlich anders verkaufen, keine Frage, aber AMD ist hier nur Nachzügler und ob die Implementation ähnlich leistungsfähig wie die von nVidia oder gar besser werden wird, muss sich erst mal noch zeigen, denn aktuell weiß man diesbezüglich noch nichts.
Und wenn man schon mit Spekulatius um sich wirft ... wer weiß, vielleicht kommt im 2HJ21 ein Xe-HPG-Multi-Tile-Design, dass nVidia und AMD gleichermaßen wegputzt? Übermäßig wahrscheinlich erscheint das nicht, aber skalierungstechnisch hat Intel hier voraussichtlich die Nase vorn, denn nVidia und AMD werden erst in 2022 mit MCM-GPU-Designs folgen.
 
Zuletzt bearbeitet:
Ja ich bin
An die Liebe PCGH Redaktion.
Versucht mal die 3080 runterzutakten. Und zwar so weit, das diese nur noch 250W oder weniger zieht.
Computerbase hat dies bis 270W gemacht. Und die FPS sind nur im Einzelstellenbreich gesunken. Es war ca 5% Performance.
Sollte die 3080 mit nur 250W nur 10% Performance in Total verlieren, würde es den Abstand zur 20er Serie noch weiter ausbauen. Desweiteren wäre es interessant dann noch die Temperaturen und die Lautsträke zu wissen bei der geringeren Leistungsaufnahme.
Ein weiterer Grund ist die Temperatur des Rams. Igor von igorsLAB hats getestet und der Ram wird 104°C (Spitze) heiß ohne OC.
Bei 110°C taktet der Ram stark runter und bei 120°C stirbt er. Deswegen ist ein hoher Ram-OC nicht möglich, weil dieser überhitzt.
Ein Downclock würde auch dem Ram gut tun.

Der Hauptgrund warum ein Downclock sehr sinnvoll ist, ich glaube das Nvidia die 3080 am Werk so hoch übertaktet hat, das die Effizienz stark leidet.
Etwa so als würde Intel ein 91W CPU um 300MHz am Werk übertakten und den mit einer 200W TDP verkaufen. Wobei nur diese extra 300MHz verantwortlich für 50% des Stromverbrauchs sind. Und der Leistungsboost gerade mal 10% wäre.

P.S. Ich würde es ja selbst testen...aber ich habe keine Founders bekommen bisher.......wie fast alle hier :-P

Mich würde ja interessieren, ob meine Gigabyte auch betroffen ist...wobei ich bei 10.000 Mhz Ram bereits keine Einbußen hatte, ich muss mein Glück aber auch nicht herausfordern. Die Inno3D Ichill X4 dürfte das Problem nicht haben, da extra ein kleinen Ramlüfter verbaut ist.
 
Ich bin wirklich mega gespannt darauf. Ich fress einen Besen mitsamt Putzfrau wenn (m)ein 700W Straight Power 10 trotz übertaktetem 9700k nicht ausreichen sollte.

Und in Anbetracht der Tatsache, wie viele User diesbezüglich verwirrt und ratlos sind, würde ich dem die höchste Priorität geben.
Sollte es soweit kommen, dann werde ich gerne eine Erinnerungsnachricht verfassen...
 
Jahrelang wurden AMD Grafikkarten regelrecht in der Luft zerrissen wenn sie zu viel Strom brauchten.
falsch. sie wurden in der luft zerrissen weil sie zu viel strom brauchten für die leistung die sie brachten. wenn amd die stärkste gpu auf dem markt releast dann darf die auch saufen.

ein ferrari darf 20 liter schlucken, ein opel astra halt nicht...
 
falsch. sie wurden in der luft zerrissen weil sie zu viel strom brauchten für die leistung die sie brachten. wenn amd die stärkste gpu auf dem markt releast dann darf die auch saufen.
ein ferrari darf 20 liter schlucken, ein opel astra halt nicht...

Der Stromverbrauch bei GPUs war im Allgemeinen jahrelang ein großes Thema - unabhängig von der Leistung. Eigentlich war die Holzhammermethode immer verpönt.
 
Zuletzt bearbeitet:
Ja ich bin


Mich würde ja interessieren, ob meine Gigabyte auch betroffen ist...wobei ich bei 10.000 Mhz Ram bereits keine Einbußen hatte, ich muss mein Glück aber auch nicht herausfordern. Die Inno3D Ichill X4 dürfte das Problem nicht haben, da extra ein kleinen Ramlüfter verbaut ist.

Der Ram tut nichts zur Sache für die Lastspitzen, das macht das Board und die GPU.
 
Nein. Der Stromverbrauch bei GPUs war im Allgemeinen jahrelang ein großes Thema - unabhängig von der Leistung. Eigentlich war die Holzhammermethode immer verpönt.
soweit ich die diskussionen verfolgt habe sicher nicht. da müßen wir uns wohl in unterschiedlichen dimensionen bewegen... MIR persönlich ist aber eh nur die leistung wichtig. bin keiner von den „ich rette die welt weil ich meine grafikkarte auf silent eingestellt habe jungs“ ;-)
 
soweit ich die diskussionen verfolgt habe sicher nicht. da müßen wir uns wohl in unterschiedlichen dimensionen bewegen...
So wie ich das sehe, bewegen wir beide uns in der Dimension des PCGHX Forums...

bin keiner von den „ich rette die welt weil ich meine grafikkarte auf silent eingestellt habe jungs“

Mit einer Silent Karte rettet man nicht die Welt. Aber ein leiser PC kann durchaus sehr angenehm zum Zocken sein.
 
Das ist das erste mal, dass ich die Leistungsaufnahme abschreckend finde und zwar nicht wegen der Lautstärke, oder dem neuen Netzteil sonder tatsächlich wegen der entstehenden Wärme.
Seh ich auch als Problem. Im Sommer kann die Abwärme in kleineren Räumen schon kritisch sein. Immer mehr Leistung wird irgendwann an seine Grenzen stossen.
 
Das wäre sicher interessant, unbestreitbar. Ich war aber schon froh, dass ich das Crysis-Video noch halbwegs in der Arbeitszeit hinbekommen hab (nachdem das Netzteil abgeschmiert ist und ich mein System dann auseinandernehmen und wieder zusammensetzen musste - da kommt man eventuell sogar ein bisschen ins Schwitzen)


Das ist ja alles ganz nett und einleuchtend...

Aber dann ist Raff's neues 850-Watt-Netzteil abgekratzt.

Gruß,
Phil

Klingt ja echt übel... wie waren denn beide Netzteile abgesichert?
BeQuiet bietet ja diesen netten Switch, sodass die Rails zusammengeschaltet werden können, für eine deutlich höhere Absicherung....
Die Frage ist ja auch, ob nur ein 8Pin auf einmal die +150 Watt zusätzlichen Peak stemmen muss, oder es sich verteilt... Falls es wirklich nur einer Leitung wäre, dann bringen mehrere Rails keinen Vorteil, dort ist eine Single Rail mit extremer Absicherung die bessere Wahl.

Wenn man sich die Daten von IgorsLab anschaut ist das aber auch echt übel, da sollte nvidia evtl. die Absicherung auf den einzelnen Rails angeben, anstatt nir die Gesamtleistung des Netzteils...
Leider ist auf der Seite auch nicht aufgeschlüsselt wie sich die Peaklast verteilt - aber keine Sorge, das wird noch spannender mit der 3090, evtl. sehen wir dann eine Peaklast von 550 bis 600 Watt...?
Aber nvidia umgeht dieses Problem durch den neuen Anschluss...
 
Zuletzt bearbeitet:
Seasonic verbaut(e?) auch gerne Mal mehrere Rails und nennt es Single-Rail weil sich das in den USA besser verkauft. Das könnte(!) hier auch das Problem gewesen sein, dass eine nicht als solches markierte "Unter-Rail" auf Überlast gegangen ist.
Edit: WTF? CB hat beim snow silent damals gemessen dass die Abschaltung der 12V erst bei über 1000W anzieht
@PCGH-Team: Es wäre glaubich angebracht hier dann doch Mal ein Statement von Seasonic einzuholen.
 
Zuletzt bearbeitet:
Eigentlich ist die Diskussion under Shitstorm wegen der Stromaufnahme widersinnig.

Wenn man nur darauf aus ist, Strom zu sparen (und die Produktionskosten der Karte außer Acht lässt), dann muss man sich sofort eine 3080 (oder gar 3090) kaufen.

Und dann die Framerate auf das gewünschte limitieren und ggf. das Powertarget entsprechend setzen.

Keine andere derzeit erhältliche Karte wird die gewünschte Framerate mit weniger als der von der Ampere abgerufenen Stromaufnahme produzieren können.

Wenn mir also im Sinne der Umwelt 60fps auf FHD in Doom Eternal reichen, dann bekomme ich das bei vermutlich keiner anderen Karte billiger (Kartenpreis jetzt mal außer Acht lassend).

Warum wird das eigentlich nie von dieser Seite aus beleuchtet? Jeder spricht nur davon, wieviel die Ampere aufnimmt, wenn man sie voll rennen lässt. Das ist aber eigentlich am Ziel vorbei geschossen!
 
Zurück