Ja absolut. Keiner glaubt, dass NVIDIA die Karte @stock am Anschlag betreiben will.Dennoch bleibt, wenn die 350W zu einer entsprechenden Leistung führen würden, dann könnte diese Karte sogar deutlich effizienter sein, als bisherige.
Was gibt es da zu sehen, Lüfter oberhalb der geraden Lamellen, so sieht jedes Axiallüfter Design aus. Nicht so wie so ein humbug der nicht funktionieren kann
"Nur".Ihnen bleibt nur HighEnd Gaming und Compute und Datacenter.
Darum ging es im Kern eigentlich nicht, sondern um eine Begründung zu finden warum mindfactory im mindstar einen Großteil an Boards anbietet, die vor allem den Namenszug von Nv tragen. Das könnte eine Abverkaufsaktion sein, aber auch dem Umstand geschuldet sein den Umsatz anzukurbeln. Da müsstest du den Threadverlauf bedienen, um den Ausgangsbeitrag zu finden.Mich zum Beispiel interessiert in diesem Thread weder AMD noch Aktienkurse. Bin an der nächsten Ausbaustufe von Nvidia's RTX Lösung interessiert. Shader haben alle, Raytracing ist bei mir im Focus. Da hat Nvidia vorgelegt. Jetzt werden sie nachlegen.
Du hast das Bild und die Orientierung der zwei Grafikkarten nicht verstanden.
Das was entscheidend ist, ist der linke Teil der oberen Grafikkarte. Und diese Lamellen kann der Lüfter problemlos, ohne jede Umlenkung oder Hindernis, anströmen. Die oberen Lamellen sind wahrscheinlich einfach nur Deko bzw. nicht aktiv angeströmt.
Da wäre ich vorsichtig, weil GPU und VRAM näher zueinander rücken und die VRM vmutl. wieder zweigeteilt ausgeführt wird. Das hängt davon ab wie groß sie in der Fläche ausfällt und wie der Sweetspot unter 7nm bei der Voltage ausfällt (ich denke unter 0,7V). Das führt zu Spannungsabfällen, wenn ein Design sehr groß ausgeführt, dann muss ich mehr Gas geben oder die Energiezufuhr verteilen.Ich bezweifel auch das die Karte überhaupt so kurz wird. Außerdem verbaut man nicht extra Lamellen zu Deko, was wäre unwirtschaftlich. Als Abdeckung nimmt man eine Kunstoffblende, die man nach seinen eigenen Vorgaben gestalten kann.
Da wäre ich vorsichtig, weil GPU und VRAM näher zueinander rücken und die VRM vmutl. wieder zweigeteilt ausgeführt wird. Das hängt davon ab wie groß sie in der Fläche ausfällt und wie der Sweetspot unter 7nm bei der Voltage ausfällt (ich denke unter 0,7V). Das führt zu Spannungsabfällen, wenn ein Design sehr groß ausgeführt, dann muss ich mehr Gas geben oder die Energiezufuhr verteilen.
Das Problem wird sein den GDDR nicht zu überhitzen (siehe Groundplane, vor allem Voltage). Dann müsste man ihn direkt von der SKU Kühlung entkoppeln.
Da man kurze Signalwege braucht mit geringer Interference wird es insgesamt kompakter und kann die Platine (PCB) auch kleiner ausfallen.
Das ist Deko und die Lamellen rund um den Lüfter werden eben die komplette Breite der Karte einnehmen, während unter dem Lüfter die Lamellen schmaler sein müssen, damit der Lüfter platz hat.
Durch die Lamellen gehen Heatpies von der GPU. So wird die Wärme von der GPU schnell zu den Lamellen übertragen und von dort an die Umgebungsluft abgegeben.
Durch den horizontalen Einbau werden auch die nicht vom Lüfter angeströmten Lamellen ihren Teil dazu beitragen, Kamineffekt und so.
Grundsätzlich traue ich NVIDIA und ihren Partnern da etwas mehr Wissen/Erfahrung zu, als den Usern hier im Forum. Oder wer hat hier schonmal einen GPU Kühlkörper entworfen?
s.o.
Grundsätzlich traue ich NVIDIA und ihren Partnern da etwas mehr Wissen/Erfahrung zu, als den Usern hier im Forum. Oder wer hat hier schonmal einen GPU Kühlkörper entworfen?
Ich und erstaunlich was Du so alles über andere Menschen so alles weißt. Im übrigen ist weder bestätigt das es sich im eine 3080 handelt etc. Ich werde Dir bei erscheinen der 3080 noch mal eine PM schreiben und dann schauen wir mal ob die Karte dann zwei verkehrte Lüfter hat.
Der Inhalt der Postings ist meistens ziemlich entlarvend. Da merkt man mit etwas Ahnung von der Materie schnell, dass da nur mit etwas Schulphysik irgendwas ausgedacht wird, aber das tatsächliche Prinzip von einer guten Luftkühlung gar nicht verstanden wurde.
Kein Faker denkt sich sowas aus
In deinem Universum ja, andere sind nur Zulieferer. Vor allem mit einer großen Portion Selbstüberschätzung, kann man in Foren gestandenen Hardwareentwickler übers M*ul fahren und bei jedem anecken, weil man sie für dumm erklärt. Die Bühne dafür hast du ja gezielt ausgesucht.Da hast du zum ersten Mal Recht
Der Kühler-Hersteller für das Referenzdesign ist übrigens auch ein Partner von NVIDIA, nur mal für dich zum nachdenken
Die Beschriftungen an dem Bild zeigen eben, dass du das Prinzip schlicht nicht verstanden hast.
Auf meine Posting mit der Erklärung bist du auch nicht eingegangen.
Falsch, die Annahme trifft auf den Lüfter überhalb des PCB, rechts Bild 1, auf jeden so zu. Ich bezweifel auch das die Karte überhaupt so kurz wird. Außerdem verbaut man nicht extra Lamellen zu Deko, was wäre unwirtschaftlich. Als Abdeckung nimmt man eine Kunstoffblende, die man nach seinen eigenen Vorgaben gestalten kann.
Dunning-Kruger in Perfektion.
Ob die Partner das so übernehmen würde ich abwarten. Aber letztlich braucht es teurere Komponenten (thermische Stabilität) und vermutlich Backdrill, was die Kosten wieder steigern kann. Das kompakte Design eines Interposeraufbau's hat auch Nachteile (Druckempfindlichkeit, HBM Bindung) und die Beteiligung mehrerer Subunternehmen, wo es in der Lieferkette immer happern kann und die Logistik die Kosten in die Höhe treibt. Nicht zu vergessen das Gewine der Nano, weil die Energiedichte auf dem PCB deutlich ansteigt und es zu unerwünschten Effekten kommen kann (was den Kupferanteil in die Höhe treiben kann).Kleinere PCB´s wären endlich mal etwas. Hatte damals bei AMD schon gefeiert, das es 170mm lange High End Karten gibt. (HBM)
Kleiner Tipp: Auf dem Bild, wo du die ganzen Pfeile und Bemerkungen dran geschrieben hast - da ist gar kein PCB unterhalb des Lüfters
Wie schließt du von einem Bild auf die Haptik?[...] Würde daher eher zur Titan X passen, wobei da die Verarbeitungsqualität und Haptik bisher nicht passt [...]
...erwischt.Wie schließt du von einem Bild auf die Haptik?