Jou klar die kolportierten 350W bei der 3080TI/3090 sind ja sowas von effizent
.
Nein, das riecht nach "keiner Ahnung, aber großer Klappe".
Erst einmal ist das die TDP, also Abwärme! Der reelle Stromverbrauch liegt meist deutlich unter dieser Angabe. Laut Erfahrungswerten dürfte dieser irgendwo bei 270 bis 320 bei Volllast pendeln. PowerTarget unagetastet versteht sich.
Desweiteren ist eine Effizenzrechnung ein Performance pro Watt Quotient. Ist diese Ampere RTX 3080 Ti (oder ähnlicher Name!) nämlich durchschnittlich 70-90% plus DLSS 2.0+ schneller als eine Turing RTX 2080 Ti, hätte dabei aber nur 20-30% mehr Stromverbrauch, wäre die Karte äußerst effizient.
Anders als hingegen Stromvernichter Vega mit 300-400W aber kaum schneller als eine GTX1080.
Sondern was? Teurer was sonst, was genau in das Profil passt. Die Effizienz geht also zu Lasten der Waferfläche die du bezahlst. Das ist bei euch also Fortschritt. Effizienter im Zusammenhang mit größer, zwangsläufig teurer und irgw. mal unbezahlbar für den Großteil, wobei kaum/knapper verfügbar?
Waferfläche wurde bisher nur in Turing für zusätzliche Hardware wie die Tensorkerne verbraucht. Die Tensorkerne bringen aber wesentlich höhere Mehrleistung in Raytracing & Co. als mit reinem Aufpumpen der CUDA-Kerne / Shader. Das hat AMD übrigens noch vor sich, also nicht zu weit aus dem Fenster lehnen!
Je nachdem welchen Weg Nvidia bei Ampere mit dedizierten Einheiten geht, könnten sie sogar Chipfläche sparen. Ich bin immer noch nicht über die Geschichte mit dem "Traversal Co-Prozessor" hinweg. Das tauchte einfach zu oft in den Gerüchten auf um eine Ente zu sein.
Falls Nvidia unter der Haube nämlich wirklich eine Neuheit versteckt, würde das auch ihr geheimnisvolles 21 day / 21 years erklären. Für sie ist das genau so bahnbrechend wie der Geforce 256 chip damals. Aber hey, abwarten!
Seinesgleichen habe ich bereits gefunden und die nennt sich Titan (Ampere) und wenn man den Gerüchten glauben schenkt pirscht sie sich mit leisen Schritten auf die 400W zu.
Jetzt übertreibst du aber!
Bei Vega hat euch die Stromvernichtung nicht sonderlich gestört. Jetzt auf einmal? Vielleicht ein bißchen zu heuchlerisch?
Die 3080ti / 3090 werden wohl auch deutlich über 300W ziehen.
Dagegen ist meine 2GHz RDNA2 ja fast schon eine Stromsparausführung.
Du hast also schon eine RDNA²? Woher denn bitte ... Wirtschaftspionage?
Wahrscheinilch meintest du Navi mit RDNA ver 1.0. Die hat aber ebenfalls jenseits der 200W verbraucht. Besonders mit Übertaktung. Das wird mit BigNavi ungefähr verdoppelt werden müssen. Angeblich ist laut AMD die Energieeffizient um 50% gestiegen. Das hieße RDNA² wäre ebenfalls bei 300W+ Stromverbrauch / TDP.
Je nach dem wie sehr AMD einmal wieder die Spannungen und den Takt übertreibt, eher mehr!
Ich würde also die Füße still halten bis finale Tests kommen! In Sachen Energieeffizienz war AMD nicht einmal mit weit überlegenem 7nm Fertigungsprozess eine weit überlegene RTX 2060 und RTX 2070 zu schlagen. Richtig peinlich wie sie in diesem Bezug versagt haben!
Der Rest klärt sich in Tests innerhalb der nächsten Wochen und Monate!