News Radeon RX 9070 (XT): Angeblich über 300 Watt Verbrauch - und ohne 12VHPWR-Anschluss

Habe mir ein neues Netzteil gegönnt, weil es mit dem alten leider zu abstürzen kam. Das hat die diesen neue 12VHPWR Anschluss. Bloß das einzige, das ich immer davon höre, ist dass er irgendwie zum Schmoren tendiert.
Daher sind mir die alten Anschlüsse dann doch irgendwie lieber.
Ich würde auch definitiv zur neuen Revision raten, wenn man schon ein neues Netzteil kaufen muss. ATX 3.0 ist einfach ein Chinaböller.
 
Effizienz juckt eigentlich niemanden der einer Arbeit nach geht. Mal angenommen ich würde eine 300W Auslastung mit einer 250W Auslastung vergleichen und mal angenommen ich verwende die Karten in Volllast 8 Stunden am Tag alle 365 Tage im Jahr.. dann kostet mich die 300W Karte ganze großartige 21€ mehr mit meinem Stromtarif.
Doch mich zum Beispiel und warum bringt ihr immer, die Stromkosten ins spiel viel wichtiger ist die Abwärme und Lautstärke, die mit einer besseren Effizienz angenehmer ist. Ich verstehe aber, was du meinst, von mir aus kann das Teil auch abgehen wie Schmidts Katze, sie sollte aber zu bändigen sein.
 
Doch mich zum Beispiel und warum bringt ihr immer, die Stromkosten ins spiel viel wichtiger ist die Abwärme und Lautstärke, die mit einer besseren Effizienz angenehmer ist.
Gegen den Lärm kann man was tun. Und ob Dein Rechner nun 600 oder 500W insgesamt verbraucht wirst Du in der Temperatur so schnell nicht merken. Nach einem Tag zocken hast Du dann vielleicht nen Grad Unterschied im Zimmer. Wenn Du nie lüftest.
 
Gegen den Lärm kann man was tun. Und ob Dein Rechner nun 600 oder 500W insgesamt verbraucht wirst Du in der Temperatur so schnell nicht merken. Nach einem Tag zocken hast Du dann vielleicht nen Grad Unterschied im Zimmer. Wenn Du nie lüftest.
Hast du schon mal eine 7900XTX gehabt, das kannst du vergessen, mit den Aktuellen GeForce Karten ist es möglich. Die Radeon wurde verdammt heiß, obwohl ich ein Big Tower mit genügend Lüfter habe. :ugly:
 
Das Problem ist nicht die Kontaktfläche.
sondern die kleinen fragilen PINs. Schön das wir jetzt in der Gegenwart sind. ;)

1735580045581.png


In der Tat - es wären wohl genauso nur 12pins.
Noch ein Grund mehr, das der neue Stecker so gar keinen Sinn macht.

@HardWareFresser87 - japp, kann ich bestätigen.
Die 7000er Serie von AMD erinnert mich an die 3000er Reihe von Nvidia.

Hab Bruder eine 7700 XT verbaut.
Da hatte ich deutlich mehr Probleme die leise & kühl zu bekommen als die 4070.

245W vs 200W
 
Bin echt am überlegen ob ich mir noch ne 7900 GRE hole, RDNA 4 soll ja nicht so gewaltig besser werden. Liegt mit 244 W noch relativ gut für die Leistung, oder?

Das kann dir keiner sagen, da man das ganze nicht weiß. Auch wenn hier einige 95% der Leistung eine RTX 4080 als gesetzt stehen, so ist das nicht sicher. Kann auch sein, dass da einfach jemand ein Gerücht in die Welt gesetzt hat und sich nun daran aufgeilt, dass die Leute es nachplappern.

Was man weiß, bzw. vermutet:
- Raytracingeinheiten der dritten Generation sind quasi gesetzt, damit würden sie zu Nvidia aufschließen.
. vom Preis hat keiner eine Ahnung. Eine sind der Überzeugung, dass sie die Leistung der RTX 4080 für unter 600€ bekommen werden. Kann aber auch sein, dass es nur die Leistung einer RTX 4070Ti Super wird und der Spaß 800€ kostet.
- Leistung: siehe Punkt oben, alles ist möglich.
- Wie sich FSR4 auf den alten Karten machen wird ist auch fraglich. Gut möglich, dass die neuen Karten da einen ordentlichen Vorsprung haben werden.
- ein vollwertiger DP 2.1 gilt als gesetzt. Das ist wichtig, wenn du dir in Zukunft einen neuen 4K240 Monitor kaufen willst.

Von daher: mach was du willst.

Wenn du jetzt Bock auf eine neue Karte hast, dann hol sie dir. Beschwer dich aber nicht, wenn sie im Raytracing nicht so viel besser, als deine RTX 3060 ist und du in einem halben Jahr viel mehr für dein Geld bekommst. Wenn du warten willst, dann warte. Ich persönlich würde mit deiner Karte wohl noch 4 Jahre auskommen, da drückt der Schuh nicht wirklich, dank DLSS und FSR. Beschwer dich dann aber nicht, wenn du in einem halben Jahr nur etwas mehr Leistung bekommst und dafür deutlich mehr blechen mußt. Außerdem kann ein Mining-/KI Boom kommen.

Ich persönlich hab mir eine RTX 4080 Super geholt und den Sack zugemacht, statt zu warten. (btw: neues System in die Signatur eintragen)

Bei über 300 Watt gehe ich davon aus, dass die Leistung mind. der 7900xt übertroffen wird. Macht doch sonst keinen Sinn.

Natürlich ergibt das Sinn und zwar, wenn AMD einen kleinen Chip per Brechstange sehr hochprügelt. Wenn AMD die Leistung einer RTX 4070Ti erreicht und wesentlich effizienter ist, dann ist das ganz nett. Wenn sie jedoch die Leistung einer RTX 4080 erreicht, dann ist das wesentlich besser und kaum einer interessiert sich dafür, dass die Karte nur so effizient ist, wie eine zwei Jahre alte RTX 4080.

Gerüchten zufolge sieht es bei Nvidia wohl unterhalb der RTX 5090 ähnlich aus.

Immer noch witzig das der neue Stecker als Fehlkonstruktion bezeichnet wird. Nur weil ein paar, sorry, deppen die Teile nicht richtig anschließen können.

Du bist natürlich das Supergenie, das in die Zukunft blicken kann. Mal zu den Fakten: vor der Problematik hat kein Hardwaretutorial dazu geraten, die Stromanschlüsse der Graka einzustöpseln, bevor man sie in den Slot einbaut, danach schon. Von daher waren alle, außer dir natürlich, Deppen.

Btw: kannst du auch die Lottozahlen für nächste Woche Samstags vorhersehen?

Entgegen der Meinungsäußerung im Bericht gehe ich davon aus, dass die Anschlussart der Karte definitiv ihren Einfluss auf die Käuferschaft haben wird. Wir reden nicht von 10% PC-Nerds, sondern vom Rest der Spieler.

Für die meisten ist es relativ egal, da den Netzteilen noch beide Stecker beiliegen. Man nimmt einfach, was dabei ist. Kann sein, dass es den einen oder anderen gibt, für den Kabelmanagement alles ist und der dann zu einer RTX 5070Ti von Nvidia greift.

Ich kaufe jedenfalls keine Karte mit 300 Watt oder eine mit neuem Stromstecker, wenn ich dafür dann gleich ein neues Netzteil benötige.

Es sind Adapter dabei, damit kannst du auch ein über 15 Jahre altes Netzteil nutzen. Ob man das sollte, steht auf einem anderen Blatt, aber man kann eine RTX 4090 an einem uralten Netzteil zum laufen bekommen.

Zudem finde ich die Gerüchte mit 300 Watt und mehr als äußerst befremdlich und irgendwie nicht plausibel.

Wenn man einen kleinen Chip mit der Taktbrechstange bearbeitet, dann kann das sehr wohl stimmen.

Jedenfalls aber ein gutes Stück besser als die Vorgängerserie, nicht identisch, dann kann man ja gleich einfach umlabeln, gell?

Nein, wenn der Chip kleiner ist, dann spart das Unternehmen Geld.

Man muß auch berücksichtigen, dass AMD den großen Chip eingestellt hat. Von daher ergibt es Sinn, da soviel Leistung, wie nur möglich herauszuquetschen, da es sonst nichts gibt, das gegen die schnelleren Nvidiakarten antritt.

Ich gebe nichts mehr auf diese Balken, nachdem ich auf meiner 7900XTX AlanWake 2 mit RT gespielt habe Diashow. :ugly:

Wie, das ist gar kein rundenbasierendes Strategiespiel aus der 3 Person perspektive?

Ich würde auch definitiv zur neuen Revision raten, wenn man schon ein neues Netzteil kaufen muss. ATX 3.0 ist einfach ein Chinaböller.

Tut mir leid, aber die Aussage ist einfach nur Blödsinn.

Gegen den Lärm kann man was tun. Und ob Dein Rechner nun 600 oder 500W insgesamt verbraucht wirst Du in der Temperatur so schnell nicht merken. Nach einem Tag zocken hast Du dann vielleicht nen Grad Unterschied im Zimmer. Wenn Du nie lüftest.

20% mehr Abwärme ist ein großer Unterschied, wenn man es kühlen will. Nebenbei: 24h x 100W macht 2,4kWh. Das ist dann so, als würdest du einen 2,4kW Heizlüfter eine Stunde laufen lassen und danach ist deine Bude schon wärmer, als nur das eine Grad Differenz.
 
aber dennoch sind 300W für weniger Leistung als eine 7900XT ein Witz
Da bin ich absolut deiner Meinung. Bei 277w geht eine 7900XT kanpp 5-6% besser und macht bei ca 260w immer noch die Leistung des Referenz VBIOS mit 308w Limit, bzw bei 265w die Leistung des größten VBIOS mit 348w. Die ist absolut grottig optimirt, aber wer selber was macht, kann einiges bewirken. Mir sind TDP oder realer Verbrauch daher völlig egal.
Bei über 300 Watt gehe ich davon aus, dass die Leistung mind. der 7900xt übertroffen wird. Macht doch sonst keinen Sinn.


Ich habe die merc. Die willst du allerdings nicht mit über 300 Watt betreiben, dann hast du einen Fön. Ich habe sie auf 280 Watt gedeckelt und nur 2-3 fps weniger im Limit.
Habe ich auch, mach mal ein UV und zieh die Taktrate hoch, lass den VRAM aber unberührt, dann gehen die Wert von oben. Und ja 50-60% RPM müssen schon her, wenn meine ihr 400w wegnuckelt, mit geschloßenem Gehäuse geht das aber noch, da können die Arctic P12Max schlimmer sein (wenn ich sie lassen würde).
Und ich hoffe auch, dass man wenigstens eine XT schlägt.
Die letzten paar Grafikkarten Generationen haben (leider?) nicht mehr so viel OC Spielraum gelassen wie früher, da sie schon recht ordentlich optimiert raus kamen, und wenn, dann mit eigentlich unverschämter Spritschluckerei, die zu kühlen ein Krampf war.
Da geht schon noch was, auch ohne all zu viel Powerlimit, teilweise braucht man sogar gar keins und da gehen immer noch 10% mehr Leistung, wenn man aber richtung 20% will, dann müssen da knapp 30% mehr Leistungsaufnahme gegenüber dem Referenzmodell her. So weiß ich es von einigen XTX und von meiner XT.
Sie ist auf Platz 7 minimal vor dem 8 Platz mit weniger als einem 1%.
AMD Kauft man nicht wegen RT die Preisleistung Stimmt da einfach nicht jedenfalls bei den OberenKarten.
AMD kauft man für die Brachiale Raster Leistung und Gutem VRAM .
Stock, wenn man die Kosten im Endeffeckt und die Leistung mal vergleicht, dann sollte man zur XTX greifen und ein Aqua VBIOS fahren, sollte dann so ca 30% besser gehen, was sie zu einer 4090/4080(S) werden lässt. Klar die nimmt dann ca 550-600w, kostet aber auch weniger als eine 4080S und knapp die Hälfte einer 4090.
 
Die Diskussion is müßig. Dass es Mängel gab bei der ersten Auslegung der Spec steht außer Zweifel.

Aber dieser Satz:

ist in meinen Augen absoluter Schmarrn.

Es gibt andere Gründe den Stecker so auszulegen, wie er ist. Platz auf dem GPU Board dürfte ein treibender Grund gewesen sein, aber auch die Tatsache, dass die alten zwei Kabelstränge eben extrem unflexibel und unnötig aufwendig beim Verlegen sind.

1) Man kann einen 12VHPWR Stecker designen, ohne die Kabel und Pins zu verkleinern... Klappt mit kaum mehr Platzbedarf und noch immer viel Einsparung um Vergleich zu 2x 8 Pin.
2) Auch in der 2. Auflage der Spec waren noch 2 verschiedene Pin Typen erlaubt.. mit grausig großen Toleranzen.
3) Alles in allem ist der 12VHPWR Stecker eine gute Idee... extrem mies ausgeführt. (Und das selbst nach mehrfacher Änderung, weil die grundsätzliche Reduktion der Sicherheitsmarge beibehalten blieb)
4) Dünnere Pins mit dünnerer Materialstärke lassen sich deutlich einfacher deformieren, als die älteren, großen Pins.
5) Hier war mal wieder "Ich will es so klein und so billig wie möglich" als Order von Oben am Werk und keine wirkliche Überlegung eines Ingenieurs... Die Konstrukteure haben es dann halbwegs hingebogen, dass es passt - sieht man an der grauenhaft geschriebenen Spec... Ein Trauerspiel im Vergleich zu den Zeichnungen und Vorgaben sonstiger Molex Stecker in anderen Bereichen.

Ich würde dir gern ein paar Beispiele nennen, leider sind die mir zugänglichen Teilenummern (und damit auch Zeichnungen / Specs) proprietär für einzelne Automotive Hersteller.
Wir sind hier nicht im War Thunder Forum und ich arbeite nicht für einen Hersteller von Panzern.
Es sind nicht mehr stromführende Kontakte, nein. Bei beiden Anschlüssen sind es 6x Ground und 6x 12V.

Und dass die Fläche der einzelnen Pins ein klein wenig kleiner ist bei den alten Kontakten ist nahezu irrelevant. Das Problem ist nicht die Kontaktfläche.
Doch... Kontaktfläche ist eines der Designprobleme...
Nicht, weil sie unbedingt schmelzen, aber fehlende Kontaktfläche und damit viel zu hohe Stromdichte an den einzelnen Pins war das Problem.... diene GN und QIX...

Wie gesagt, ich will die Diskussion hier nicht nochmal komplett aufrollen.. zu viel OT.
 
Dazu ein Interessanter und durchaus Plausibler Beitrag von Computerbase .


Sollte die brandneue Amd Rx 9070Xt wie bei Computerbase dargelegt tatsächlich nur mickrige 7% vor einer Rx 7900GRE liegen und dabei unverschämte ( ca.) 270 -300 Watt verbraten ist diese Karte schon eine Totgeburt .

Bei den angepeilten Takraten von 2,8 bis 3,1 GHZ sind auch 330,- Watt nicht unrealistisch , da Amd,s GPU Architektur samt Software von Haus aus nicht gerade Sparsam mit dem Strom umgehen .

Beim Stecker gilt nach wie vor :

Zu kleiner Querschnitt oder zu kleine Kontaktfläche , bei geichzeitig zu hohen Stromstärken führt zu ( auch übermässiger ) Hitze .

Scheint denke ich jeder Elektriker ( Handwerker ) zu wissen , und auch wie das zum Schluss ausgeht wenn durch ( Billig) Hersteller und Studien Anfänger mit zwei linken Händen gemurkst wird! :devil:
 
Gegen den Lärm kann man was tun. Und ob Dein Rechner nun 600 oder 500W insgesamt verbraucht wirst Du in der Temperatur so schnell nicht merken. Nach einem Tag zocken hast Du dann vielleicht nen Grad Unterschied im Zimmer. Wenn Du nie lüftest.
ich halte die ganze Wärme Disskussion für überflüssig und das was mein ignorierter Vorschreiber geschrieben hat wieder für absoluten Quatsch. Ich werde auch in Kürze berichten können ob das mit der 7900 XTX stimmt.
Allerdings bin ich mir sehr sicher, dass wenn man die 7900 XTX "richtig" einstellt, die Temperatur absolut kein Problem ist.
Mit meiner aktuellen Karte kann ich alles (was ich Spiele D4, BF2042, Forza5 etc.) auf max, in 1440p (WQHD) spielen und die Karte wird dank undervolting gerade mal 56 Grad warm und ist flüster leise.
In 4K mit RT sind es dann 74 Grad mit agressiver Lüftereinstellung oder 83 Grad und die Kiste ist akzeptabel leise.

Wie hier im Forum schon ein netter Kollege geschrieben hat, ist es bei AMD halt nicht Plug and Play, da muss man sich schon etwas mit der Materie bzw. den Einstellung auseinadersetzen.

Und selbst für Menschen mit nicht so großer Technikaffinität hat man auch schon eine Lösung gefünden. Mit den beiden BIOS, Q und P.
Da braucht man dann sogar nur noch den Schalter an der GPU umlegen. ;-)

Dazu ein Interessanter und durchaus Plausibler Beitrag von Computerbase .


Sollte die brandneue Amd Rx 9070Xt wie bei Computerbase dargelegt tatsächlich nur mickrige 7% vor einer Rx 7900GRE liegen und dabei unverschämte ( ca.) 270 -300 Watt verbraten ist diese Karte schon eine Totgeburt .

Bei den angepeilten Takraten von 2,8 bis 3,1 GHZ sind auch 330,- Watt nicht unrealistisch , da Amd,s GPU Architektur samt Software von Haus aus nicht gerade Sparsam mit dem Strom umgehen .

Beim Stecker gilt nach wie vor :

Zu kleiner Querschnitt oder zu kleine Kontaktfläche , bei geichzeitig zu hohen Stromstärken führt zu ( auch übermässiger ) Hitze .

Scheint denke ich jeder Elektriker ( Handwerker ) zu wissen , und auch wie das zum Schluss ausgeht wenn durch ( Billig) Hersteller und Studien Anfänger mit zwei linken Händen gemurkst wird! :devil:
sehe ich ähnlich, daher wird es spannend was mit den Preisen der 7900 XTX (300-350 Watt Leistugnsaufnahme) passiert, da ich außer beim Raytraycing keinen großen Wurf von der 9070xt erwarte.
Wenn man dann nicht die Team Grün Preise zahlen möchte und etwas mit mehr Leistung haben will, wird es sehr eng werden.

Damit wäre RDNA 4 ein Easy Pass, allerdings Nvidia ab der RTX 5070 alleine auf dem Spielfeld und könnte Tore schießen wie es ihr beliebt.

Hatte eigentlich überlegt ggf. eine 9070 zu kaufen, habe mich troz der immer noch wagen Informationslage dennoch anders entschieden.
Grün bleibt außen vor da Preisleistung für mich nicht stimmt und ich Lederjacke nicht weiter die Taschen voll machen möchte. ;-)
 
Zuletzt bearbeitet:
Danke für den Tipp :daumen:
Kommt aber vllt auch aufs Custommodell an. Ich habe mit Sapphire da nie schlechte Erfahrungen gemacht. Gut, sind halt auch nicht günstig, aber haben mich noch nie im Stich gelassen. Rasterleistung und 24 GiB VRAM reizen mich schon ein wenig ;-)
Gruß T.
hör nicht drauf was der Dude schreibt, in eine andere Thread wollte er eine 5090 kaufen und hat Team grün in den Himmel gelobt, jetzt ist er für alles offen.

Die RX 7900 Karten laufen ohne (hörbares) Spulenfiepen (Ausnahmen betätigen die Regel - Powercolor RX 7900 XTX Hellhound Spectral White - und auch nur unter Last) im Regelbetrieb ohne OC.
Wenn sie OC't sind kann Spulenfiepen auftauchen.
Die Karten durchlaufen ja eine Qualitätskontrolle und da wird auch darauf geachtet.

Auch die Abwärme und Laustärke die hier von meinem ignorierten Vorschreiber benannt wird deutet eher auf OC oder OC Bios hin.
Wichtiger wäre auch zu wissen was für ein Modell der 7900 XTX er hatte, denn da gibt es auch teilweise Unterschiede in Wärme, Lautstärke etc.

Wenn du an einer 7900 XTX interessiert bist lies dir den ausführlichen Test hier mal durch da steht alles Wissenswerte drin:

 
Zuletzt bearbeitet:
Die RX 7900 Karten laufen ohne Spulenfiepen
Keine Karte der Welt kann Spulenfiepen ganz vermeiden. Ob es lauter und damit hörbarer ist, hängt von extrem vielen Dingen ab und ist weitestgehend Glück. Die Wahl der Spulen und wie der Kühler montiert ist, sind dabei die größte Einflussgröße. Und damit Dinge, die weder AMD noch NVidia in der Hand haben.
 
Keine Karte der Welt kann Spulenfiepen ganz vermeiden. Ob es lauter und damit hörbarer ist, hängt von extrem vielen Dingen ab und ist weitestgehend Glück. Die Wahl der Spulen und wie der Kühler montiert ist, sind dabei die größte Einflussgröße. Und damit Dinge, die weder AMD noch NVidia in der Hand haben.
danke für die Ergänzung
 
Danke für den Tipp :daumen:
Kommt aber vllt auch aufs Custommodell an. Ich habe mit Sapphire da nie schlechte Erfahrungen gemacht. Gut, sind halt auch nicht günstig, aber haben mich noch nie im Stich gelassen. Rasterleistung und 24 GiB VRAM reizen mich schon ein wenig ;-)
Gruß T.
Ja die Marke Sapphire ist top damit machst du nichts falsch :)

Gruß zurück
Immer noch witzig das der neue Stecker als Fehlkonstruktion bezeichnet wird. Nur weil ein paar, sorry, deppen die Teile nicht richtig anschließen können.
Also bevor ich ein ATX 3.1 Netzteil hatte, war ein 3.0 bei mir im Einsatz und ich hatte auch keine dieser Probleme.

LG
Sollte die brandneue Amd Rx 9070Xt wie bei Computerbase dargelegt tatsächlich nur mickrige 7% vor einer Rx 7900GRE liegen und dabei unverschämte ( ca.) 270 -300 Watt verbraten ist diese Karte schon eine Totgeburt .
Du hast da ein Denkfehler der Protakt ist um 7 % schneller diese musst du addieren dann bekommst du das Ergebnis raus, was die Karte liefern wird. ;)

Die Punktgeschwindigkeit ist besser als bei RDNA3
 
Zuletzt bearbeitet:
Dazu ein Interessanter und durchaus Plausibler Beitrag von Computerbase .


Sollte die brandneue Amd Rx 9070Xt wie bei Computerbase dargelegt tatsächlich nur mickrige 7% vor einer Rx 7900GRE liegen und dabei unverschämte ( ca.) 270 -300 Watt verbraten ist diese Karte schon eine Totgeburt .

Computerbase legt in dem Artikel eigentlich doch bloß dar, dass mindestens eines der Gerüchte nicht stimmen kann.
 
Wird einfach auf den Preis ankommen

Hab eine TUF RX 6800 seit paar Monaten will, die aber tauschen gegen was stärkeres 7800XT/7900XT stehen da in der Auswahl da die GRE halt super schlecht verfügbar ist.

Wenn die 9070 (wenn sie den so heißt) deutlich bessere Leistung als eine RX 6800 plus Raytracing bietet zu einem Vernünftigen Preis werde ich die kaufen, dabei ist es mir wumpe ob die 200 oder 300Watt verbraucht.

Sehe irgendwie nicht ein bei NVIDIA für 12GB (RTX 4070 Super) deutliche Aufpreise zu zahlen, obwohl ich persönlich gerne wieder eine Nvidia Karte haben wollen würde.
 
Wird einfach auf den Preis ankommen

Hab eine TUF RX 6800 seit paar Monaten will, die aber tauschen gegen was stärkeres 7800XT/7900XT stehen da in der Auswahl da die GRE halt super schlecht verfügbar ist.

Wenn die 9070 (wenn sie den so heißt) deutlich bessere Leistung als eine RX 6800 plus Raytracing bietet zu einem Vernünftigen Preis werde ich die kaufen, dabei ist es mir wumpe ob die 200 oder 300Watt verbraucht.

Sehe irgendwie nicht ein bei NVIDIA für 12GB (RTX 4070 Super) deutliche Aufpreise zu zahlen, obwohl ich persönlich gerne wieder eine Nvidia Karte haben wollen würde.
Warte lieber noch ab bis die neuen Karten da sind, kauf dir dann eine neue.

LG und frohes neues Jahr.
 
Naja wenn eine "9070 XT" dann bei 260w(?) im Referenzdesign liegt. Und Customs sich bis zu 330w genehmigen dürfen ändert sich schon ein wenig. Wenn sie Performancetechnisch dann im Raster zwischen 7900XT und XTX (Gerücht) am Ende liegt. Und beim Ray Tracing zulegt ist das imo ganz ok. Eine 4080S liegt ja auch bei 320w.

7900XT AFAIK 315w AMD Referenz. Die Nitro + schiebt sich lt. Sapphire bis zu 368w rein.
7900XTX Referenz 355w und Sapphire lässt 420w zu

Die Frage ist ob AMD den Verbrauch bei Multi Display Setups und Video Playback besser in den Griff bekommen hat. Da hakt es bei AMD leider immer noch.
 
Zurück