Man will nicht unken, aber wenn sie nicht zulegen ist das einfach Turing in 7nm+Ausbau (Shader, Tensor, RT Core) und der braucht halt Energie. [...]
Einfach ein geshrinkter Turing ist es zweifelsfrei nicht, da der Chip wesentlich größer ist bzw. deutlich mehr Transistoren verwendet. Selbst in der konservativesten Schätzung hat der GA102 bereits rd. 35 % mehr Transistoren als der TU102 (und in weniger zurückhaltenden Schätzungen könnte der Zuwachs gar auf über 100 % ansteigen, was keinesfalls unrealistisch wäre).
Warum sollte die 3080-GPU in 7nm 50 Watt mehr ziehen als die 2080 in 12nm?
Wo ist da die Logik?[...]
Was er denken mag, bzw. wohl offensichtlich eher was du denken magst, hat nichts mit seiner Vernetzung und seinen Quellen zu tun und nur die sind relevant für das was er sagen oder auch bewußt (noch) nicht sagen kann zu diesem Thema.
Abgesehen davon kann man die Angaben weder in die eine noch andere Richtung anzweifeln, sondern hier spielen eher die Präferenzen der betreffenden Leute in der Regel die weitaus größere Rolle. AMD-Fanboys, zweifeln alles an und werten dies als schlechte Zeichen, Angst, Panik, Unfähigkeit und sonst was bei nVidia und nVidia-Fanboys werten die exakt gleichen Aussagen als positives Zeichen für sehr gute, leistungsfähige Karten. Mit einer kritischen und sachverständigen Auseinandersetzung der vielen Bausteine, die hier zu einem Gesamtbild zusammengefügt werden sollen, hat das jedoch wenig zu tun, sondern eher mit Confirmation Bias & Co.
Der Chip wird deutlich größer und wenn dazu auch noch ein hoher Takt angepeilt wird, zieht das Design nun einmal viel Strom, das ist schlicht so. Daran können auch 7 nm nichts ändern. Bereits AMDs durchwachsenes Navi 10-Design würde in der oftmals schlicht verdoppelt angenommenen Ausbaustufe ein Heizbrikett ohne Gleichen werden, entsprechend sind deren versprochene +50 % Perf/Watt für RDNA2 auch nicht abwegig, denn ohne die architektonischen und vielleicht auch im Kleinen fertigungstechnischen Optimierungen könnte AMD so etwas wie "Big Navi" gar nicht fertigen.
Und bzgl. der Namen "3080" (oder auch nicht) ist noch vieles im Fluss. Aktuell weiß man nicht ob das kleinere GA102-Modell möglicherweise einen "3070"-Namen bekommt und die vermeintliche "3090" kann man ebenfalls noch nicht final einsortieren. nVidia könnte damit die ehemalige große Ti ersetzen und mit einem "regulären" Namen ausstatten, man könnte aber ggf. auch die Titan ersetzen wollen oder, oder, oder.
Naiv ist jedoch zu meinen, dass in irgend einem Marketingalmanach verbrieft stehen muss, dass ein als "x080" benanntes GPU-Modell zwangsweise in der Mark/Produktkategorie XY einzusortieren ist. In erster Linie sind nVidia's nummernbasierte Modellnamen als relative Klassifizierung innerhalb des jeweiligen aktuellen nVidia-Portfolios zu verstehen, nicht mehr und nicht weniger. Und wenn sich die Leistung des neuen Portfolios insgesamt nach oben verschiebt, verschieben sich wohl auch alle Modelle und damit können sich auch Spezifikationen verschieben.
Schlussendlich sind 300 oder gar 350 W nichts ungewöhnliches für GPUs; alles schon dagewesen, sowohl von AMD wie auch von nVidia ... einfach abwarten und Tee trinken.