Geforce RTX 4000 & Radeon RX 7000: Top-Grafikkarten bei über 400 Watt?

Pu244

Lötkolbengott/-göttin
Kann nicht sein, außer es ist ein uralt NT. Wie soll das auch gehen? Ein 750W Multirail NT schaltet nicht ab und ein 1200W Singlerail schon? Merkste selbst oder?

Das hängt vom Überstromschutz ab und der war bei Seasonic recht scharf eingestellt, was auch gut war.

Dein Argument ist so, als würde jemand auf die Aussage, dass Alkohol im Straßenverkehr gefährlich ist entgegnen "Was für ein Blödsinn, mein Opa ist 50 Jahre sternhagelvoll Auto gefahren und nie ist etwas passiert". Mag so sein, entkräftet jedoch nicht das eigentliche Argument.

Im Fall der Netzteile wird man sich wohl in Zukunft 10-20ms Zeit lassen, anstatt sofort abzuschalten. Damit haben AMD und Nvidia die Welt wieder etwas unsicherer gemacht.

Wenn der Verbrauch bei den HighEnd Karten weiter ansteigt, wie in dieser Generation, wird auch in den unteren Klassen entsprechend der Verbrauch zunehmen. Da kann ich wohl so eine sparsame 75W Gamer GPU endgültig vergessen. ^^

Es wird wohl auch weiterhin 75W Karten geben, was daran liegt, dass der PCIe Slot nur soviel bereitstellen kann (ohne Zusatzkabel).
 

ZeXes

Software-Overclocker(in)
Gefällt mir ganz und gar nicht der Trend. Ich werde mir keiner dieser 400W Grafikkarten zulegen und ich hoffe das mit den 400W nur die Flaggschiffe gemeint sind und keine RTX..80 oder .800XT. Das wäre schon sehr belastend.

Ein Glück reicht mir meine RTX2080 für mein Gamingkonsum noch völlig aus. Sollten die FPS bei 1440p in den nächsten Jahren weniger werden, dann werden halt die Grafikeinstellungen etwas runtergestellt.
Halb so wild.

Die nächste Aufrüstung ist erst für 2024-2026 geplant und hoffe das dann mit 3nm/20A, RibbonFET, PowerVia und MCM der Verbrauch von CPU und GPU wieder in erträgliche Verbrauchsregionen sinken wird.
 
Zuletzt bearbeitet:

gerX7a

BIOS-Overclocker(in)
Nein, grundsätzlich finde ich die hohen Verbräuche auch nicht gut aber was soll man machen, wenn man sonst nicht auf die gewünschte Leistung kommt oder anders gesagt, für die Leistung, die Nvidia mit Ampere bringt ist der Verbrauch zu hoch, da steht nun mal Big Navi besser dar.
Vielleicht einfach solche komplett gegensätzlichen und offensichtlich zweckentfremdenten Aussagen von vorne herein unterlassen? ;-)

Wenn der Verbrauch bei den HighEnd Karten weiter ansteigt, wie in dieser Generation, wird auch in den unteren Klassen entsprechend der Verbrauch zunehmen. Da kann ich wohl so eine sparsame 75W Gamer GPU endgültig vergessen. ^^
Das muss nicht sein, denn absehbar werden sowohl die Architektur als auch der Fertigungsprozess effizienter (wobei man bei AMD aber nicht vorhersagen kann, ob sich die kleineren Chips aus kostengründen nicht vielleicht eher des N6 bedienen werden).
Am Ende wird es im unteren Bereich aber auch zweifellos effizientere Modelle geben. Die Effizienz wird erst nivelliert, wenn man die neuen Designs bis zum Äußersten ausreizt, was jedoch typischerweise nur bei den HighEnd-Modellen erfolgt. Darüber hinaus, muss es ja auch kein Hinderungsgrund sein, dass man seine GPU nicht tunen kann (Taktreduktion, Undervolting, etc.) Die Modelle könnten damit immer noch leistungsfähiger als ihre direkten Vorgänger bleiben aber viel effizienter.
Entsprechendes sah man doch schon bereits in der aktuellen Generation @ Stock. Die RTX 3060 Ti übertrifft die RTX 2080 Super signifikant und ist dennoch sparsamer, d. h. deren Effizienz ist deutlich höher. Hinzu kommt auch noch, dass man hier das Niveau der Vorgängerkarte nun mit einem Modell eines kleineren Marktsegments erreicht. Die Super kostete noch 699 US$, die 3060 Ti ist gerade mal für 399 US$ zu haben, es gibt also mehr Leistung und mehr Effizienz für gar noch weniger Geld. In vergleichbarer Art wird sich das in dem Bereich in 2022 auch darstellen, egal ob bei nVidia oder AMD.

Dass die Schere beim Verbrauch nun auseinandergehen zu scheint liegt schlicht daran, dass hier das Bedürfnis nach vieeel mehr Leistung im Markt deutlich überwiegt (und der zudem auch offensichtlich zeigt, dass er gewillt ist dafür zu bezahlen). Würde man sich dagegen mit eher konservativeren Leistungssteigerungen im Bereich von +35 bis +50 % zufrieden geben, müsste man vermutlich nicht zusätzlich die TBP-Grenzen derart erweitern. Letzten Endes gibt man dem Markt hier schlicht wonach er zu verlangen scheint. Zum Glück bedeutet das jedoch nicht gleichzeitig nicht, dass es keine sparsamen Modelle mehr geben wird. ;-)
 

owned139

BIOS-Overclocker(in)
Das hängt vom Überstromschutz ab und der war bei Seasonic recht scharf eingestellt, was auch gut war.
Nein. Das Seasonic powert 1200W raus, wenn benötigt. Die OCP triggert erst jenseits der 1200W. Ein 750W NT kann das logischerweise nicht und schaltet knapp darüber ab.

Im Fall der Netzteile wird man sich wohl in Zukunft 10-20ms Zeit lassen, anstatt sofort abzuschalten. Damit haben AMD und Nvidia die Welt wieder etwas unsicherer gemacht.
Das ist jetzt schon so. Bei be quiet sinds glaub ich 30ms. Das sagt Igor aber auch im verlinkten Video, also hast du es dir scheinbar nicht angeschaut ;)
 

Tiltproof100

Schraubenverwechsler(in)
Waschmaschinen, Kühlschränke und andere Haushaltsgeräte müssen immer sparsamer werden, aber beim PC wird es tolleriert, weil er zur Unterhaltung dient?

AMD und Intel haben doch schön gezeigt das man innerhalb von <= 105W TDP noch viel Leistung rausholen kann, bei den CPUs. Warum kann man nicht auch bei den HighEnd GPUs in einem TDP Limit von 250-300W bleiben und weiter optimieren?
Gleichzeitig müssen auch die Spiele Entwickler ihre Spiele Engine besser optimieren und nicht nur mit mehr Shader und mehr Takt skalieren.
 

dynastes

Software-Overclocker(in)
Dennoch steigende Effizienz hin oder her, es wäre wirklich einmal Zeit, hinsichtlich des Verbrauchs *mindestens* zu stagnieren. *Mindestens*. Der Hunger der RTX 3000-Karten ist wirklich genug.
 

Norkzlam

Freizeitschrauber(in)
Seh das Problem nicht. Wollt ihr langsamere Karten? Wenn die Effizienz nicht oder nur gering steigt, dann kann man das kritisieren. Aber solange die passt ist doch alles gut.
2*3090 Performance für 400W fänd ich jedenfalls deutlich ansprechender als 1*3090 Performance für 200W. Wenn euch das zu viel ist, dann kauft ein, zwei Klassen drunter, spart Geld und, sofern die Effizienz passt, bekommt ihr die Leistung die ihr wollt.
 

Gerd82

Kabelverknoter(in)
Seh das Problem nicht. Wollt ihr langsamere Karten? Wenn die Effizienz nicht oder nur gering steigt, dann kann man das kritisieren. Aber solange die passt ist doch alles gut.
2*3090 Performance für 400W fänd ich jedenfalls deutlich ansprechender als 1*3090 Performance für 200W. Wenn euch das zu viel ist, dann kauft ein, zwei Klassen drunter, spart Geld und, sofern die Effizienz passt, bekommt ihr die Leistung die ihr wollt.
Guter Witz.
 

sandworm

Software-Overclocker(in)
Die RX7900XT wird voraussichtlich wohl auch mindestens 30% schneller (eher 40% Begründung siehe unten) als NVIDIAS's Top Dog werden, da ist sie selbst mit 400W noch ein wahres Effizienzwunder.

Bei NVIDIA hingegen sind >=400W indiskutabel, aber anders geht es wohl nicht bei <= 300W könnten sie die Flinte Leistungstechnisch wiederum gleich ins Korn werfen.

Es ist sowieso noch fraglich, wie sie die PS am Ende auf die Strasse bringen wollen.
Es wird ja davon ausgegangen, das der AD102 (RTX4090) relativ zur GA102 (RTX3090) 70% mehr Shader units hat und 5nm Prozess bedingt ca. 20% mehr Takt aufweisen soll was am Ende in +90-100% resultieren soll.

Da davon ausgegangen wird, das NVIDIA immer noch auf GDDR6X ,mit wohl 24Gbps setzen wird, sehe ich das anhand einer mangelhaften Speicherbandbreite nicht.
24Gbps beuten zuerst einmal noch mehr Leistungsaufnahme, als die bereits grenzwertig hohe des micron 19.5Gbps Speicher der auf der 3090 verbaut wird.
Aber bei einem ebenfalls 384Bit SI wären das gerade mal +23% (24/19.5)
In welcher Welt soll das reichen um die anvisierten 90-100% zu erreichen, die Karte wird so doch gnadenlos ausgebremst.
Also kommt wohl wenn man bei GDDR6X bleiben will, nur ein 512Bit SI in Frage 512/384*1.23= +64%
und selbst dies ist schon grenzwertig wenig um kein Flaschenhals zu erzeugen.

Als kleine Veranschaulichung wie es bei der letzten Gen. aussah:
GeForce RTX 2080 Ti (FE) = 616 GB/s
RTX 3090 = 936.2 GB/s (Speicherbandbreite +50% resultiert in einer Leistung von +45% in 4k)

Also ich bin auf jeden Fall gespannt wie das NVIDIA bewerkstelligen will.
Auch ist anzumerken das schnellerer Speicher, in Kombination mit einem 512Bit SI wohl den Löwenanteil der Prozessbedingten Power Reduktion wieder zu Nichte machen würde. Und das natürlich bei gleichem Takt, wenn da nun zusätzlich der Takt um 20% gesteigert würde, kann sich ja jeder selber ausmahlen wie der Verbrauch dann durch die Decke geht.
Daher meine Prognose, es wird woĥl trotz TSMC 5nm keine grösseren Taktsteigerungen geben.
+70% würde auch viel besser zu den +64% passen.
Am Ende würde ich also auf eine Leistung von +70% relativ zur RTX 3090 bei ca. 400W tippen.
5nm.png



Da könnte sich wirklich ein mittlere Katastrophe für NVIDIA anbahnen.

Man stelle sich nur vor, NVIDIA's Top Dog erreicht am Ende mit ach und Krach nur +70% (Faktor x 1.7 rel. 3090) bei ca. 400W
und AMD ca. +140% (Faktor 2.4 rel. 3090) bei ebenfalls 400W.

AMD hingegen mit ihrem Geniestreich, dem so genanten Infinity Cache Ansatz holt mit RDNA3 die Ernte ein.
Bei weiterhin 256Bit SI (+ eventuell leicht schnellerer GDDR6) und 512MB IC (der nur einen Bruchteil eines analogen GDDR6 SI Verbraucht) macht das Unmögliche möglich und bringt bei 400W ca. die 2.5 Fache Performance auf die Strasse.

Selbst NAVI32 müsste da nicht mehr all zuweit zurückliegen und wenn es denn stimmt, das er ein halbierter (bzw. 1 + 1 Chiplet) NAVI 31 sein sollte, würde er wohl auch entsprechend höher getaktet werden (in etwa wie z.B. die 6700XT vs. 6900XT) dies natürlich bei entsprechend geringer Die Fläche (bzw. Vorteil Chiplet gute Yield Rate)
Ein Angebot das man wohl kaum ablehnen kann und bei NVIDIA für schlaflose Nächte sorgen wird, da ihre Marge erodiert und sie dann über den Preis kommen müssen.
 
Zuletzt bearbeitet:

Gerd82

Kabelverknoter(in)
Spitzen sind drüber aber darum geht es ja nicht. 210max bei der Series X laut DF. Aber ist auch zu viel. Meistens bei 130-160. Je nach Spiel. Dürfte schon runter auf 100 bei Vollauslastung. Die letzte gen hat das gleiche verbraucht also auch hier schon Stillstand.
 

Pu244

Lötkolbengott/-göttin
Nein. Das Seasonic powert 1200W raus, wenn benötigt. Die OCP triggert erst jenseits der 1200W.

Richtig und da die Lastspitzen, für eine kurze Zeit, über 100A lagen, hat sich das Netzteil abgeschaltet.

Ein 750W NT kann das logischerweise nicht und schaltet knapp darüber ab.

Das kommt auf das jeweilige Netzteil an, da kann man nicht pauschal sagen. ein Themaltake Netzteil aus der Städteserie, wird damit z.B. kein Problem haben.

Das ist jetzt schon so. Bei be quiet sinds glaub ich 30ms. Das sagt Igor aber auch im verlinkten Video, also hast du es dir scheinbar nicht angeschaut ;)

Ich meinte es generell und nicht nur bei Listan.
 

owned139

BIOS-Overclocker(in)
Richtig und da die Lastspitzen, für eine kurze Zeit, über 100A lagen, hat sich das Netzteil abgeschaltet.
Nein. Auch das siehst du im verlinkten Video. Die Lastspitzen gehen hoch bis 600W bzw. 50A.
Ein 750W NT schaltet eher ab als ein 1200W. Das sollte selbst dir einleuchten.
Im HWLuxx hatte jemand das 1200W Seasonic mit übertakteter Intel CPU und einer Asus Strix 3090 OC + Wakü.
Da hat nichts abgeschaltet.

Das kommt auf das jeweilige Netzteil an, da kann man nicht pauschal sagen. ein Themaltake Netzteil aus der Städteserie, wird damit z.B. kein Problem haben.
Richtig, aber Seasonic ist kein Billigschrott.
 

Gerd82

Kabelverknoter(in)
Mit welche Gen wurde das bitte nicht 🤣
Da musste ich such schmunzeln auf den Nvidia „Killer“ warten wir schon sehr lange. Sowas als „Killer“ zu bezeichnen grenzt auch schon an einer psychischen Störung. Selbst wenn Amd schneller wäre und gleichzeitig effizienter. Nvidia hat trotzdem fast den gesamten Markt inne. Und mit top karten macht man keinen kundenzuwachs da fast niemand diese Karten kauft.
 
Oben Unten