@Torsten:
Könntest du nochmal ein Bild mit Pfeilen posten, wo du die Nachbearbeitung vermutest?
Weiß jetzt nicht welches du meinst.
Ich bin sehr sicher bei dem rückseitigen Lüfter. Da sieht man deutlich, dass die der Bildmitte nähere Seite optisch gestaucht und die der bildmitte fernere optisch gestreckt ist. Bei einem normalen Objektiv ist das genau umgekehrt: Bereiche zum Rand hin, die in einem flacheren Winkel abgelichtet werden, müssten optisch gestauch sein. Also hat der rückseitige Lüfter entweder die Form eines Eis, was Rotation ziemlich schwierig macht, oder es handelt sich um eine eigentlich aus Gegenrichtung aufgenommenes Lüfter-Foto, das nachträglich auf das Bild des Kühlers/der Karte geschnitten. Da es kühlungstechnisch sowieso keinen Sinn ergibt (siehe vorangehende Posts) einen nach unten blasenden Lüfter zu verbauen, vermute ich, dass hier ein saugender Lüfter mit dem Bild eines blasenden verdeckt wurde.
Weitere, aber nur einen Pixel breite, Auffälligkeiten sehen einige Anwender an einigen Lamellen. Da bin ich aber unentschlossen – bei einem so matschigen Foto sind andere Ursachen denkbar, wenn auch unwahrscheinlich.
Next Leak, nackter Kühlkörper:
NVIDIA GeForce RTX 3080 heatsink leaked - VideoCardz.com
4 Heatpipes vom PCB rüber in den hinteren Part mit dem extra Lüfter. Klare Trennung erkennbar zwischen dem hinteren und vorderen Part. Mittlerer Part ist nur passiv gekühlt, blockt den vorderen vom hinteren Part ab.
Thorstens Buchsen Ausschnitt ist auch da
Allerdings kein zweiter sichtbar, muss man wohl mit deiner 225W These mit gehen....
.gif)
Ich mag kein GPU-Experte sein, aber mit Kühlung setze ich mich gelegentlich auseinander.
Es gilt Tests abzuwarten was eine übertaktete Ampere an Saft zieht. Vielleicht reicht ja ein 150W Stromstecker plus PCIe. Oder er ist eben doch unzureichend und man sollte auf die Customdesigns warten, die dann 2 haben. Ich finde haben ist besser als brauchen.
Für den GA104 wären 225 W maximale Board-Power ohne Übertaktung sehr realistisch. Aber "Leaker" haben halt von einem GA102 für die 3080 gesprochen und da wären unter 275 W unerwartet. Natürlich hindert nichts und niemanden Nvidia daran, das komplette Namensschema mal wieder auf den Kopf zu stellen.
Meine persönliche Vermutung, ist wie schon mehrfach geäußert, dass Nvidia die Leaker trollt um Lecks ausfindig zu machen: Dem einen erzählt man komische Speicherangaben (10 GB + 11 GB + 24 GB?), dem anderen falsche Chips ("Klar verbauen wir das größte Gaming-Silizium unterhalb der xx80 Ti"), dem nächsten um 20-30 W verschobene TDPs, etc.. Nichts davon ist für sich genommen komplett unglaubwürdig, aber logischerweise passt es am Ende nicht zusammen, weil es teilweise erlogen ist. Da aber jedem ein anderer Fehler untergeschoben wurde, kann man anhand der im Internet auftauchenden Lügen leicht ermitteln, wer Daten durchgestochen hat.
Was war ein meinem Post unverständlich und welchen Sinn sollte deiner haben? Die RTX 2080 FE hat um die 160 W TDP und die zuvor zitierte Zahl an Stromanschlüssen, das ist schlicht ein Fakt.
Igor vermisst GPUs sehr umfangreich und differenziert und wenn er für die Modelle öffentlich 320 - 350 W in den Raum stellt, wird er damit zweifelsfall nicht 1 ms-Peaks oder weniger meinen (die darüber hinaus in einem ganz anderen Bereich rangieren, denn bereits eine RTX 2080 Ti erreicht hier rd. 400 W und eine RX Vega 64 toppte das gar schon mit 420 W).
Wenn Igor misst, dann gründlich, aber bislang hat er nicht zugegeben, eine 3080 vermessen zu haben. Die Angaben aus seiner News sind TDP-Werte, die Nvidia an die Board-Partner weitergegeben hat. (Oder, siehe oben: Weitergegeben haben soll.) Also eine Anweisung an MSI & Co: "Stellt euch darauf ein, dass ihr 320-/350-W-Kühler braucht." Da steht aber nirgendwo bei, ob es exakt 320 W werden und auch nicht, unter welchem Betriebszustand. Mit Übertaktung? Oder fordert Nvidia auf diesem Wege Kühlreserven für leisere oder kältere Karten?