Geforce RTX 3080: Neues Bild des Kühlkörpers aufgetaucht

nv3000.jpg


Größenvergleich mit einer ASUS GeForce RTX 2080S ROG STRIX
Musste etwas perspektivisch verzerren.

Die Länge der Karte ist leicht kürzer.
Die Höhe der Karte ist niedriger.


Unten eine 2080 Super als nacktes PCB
Die Karte ist gespiegelt, man hat wenn man so will Röntgenblick von hinten.
Das Overlay zeigt das angebliche PCB.
Die Folge davon wäre, dass der gesamte Aufbau der Stromversorgung der Verkürzung zum Opfer fällt und neu gemacht werden muss.
Bei 350W keine leichte Sache.

GDDR6 wurde bislang in Modulen zu je 1Gb verbaut.
Was sollen 10GB und 11GB bedeuten? 5x2GB? 5x2GB + 1x1GB (970 lässt grüßen?).
Der Speicherausbau klingt nach einem finsteren Hack.
GDDR6 kostet ca. 23€ pro GB. (Hier ein Link zu einer Rolle für Euren Bestückungsautomaten zu Hause: MT61K512M32KPA-16:B Micron Technology Inc. | Integrated Circuits (ICs) | DigiKey)
Gretchenfrage: welchen Rabatt wollen wir den Herstellern geben, wenn wir jetzt nicht eine Rolle kaufen, sondern ganze Monatsproduktionen der Fabrik?

Wenn 8GB also um die 184€ (ohne Steuer) kosten, dann verlangt Nvidia für den Rest einer 2060 Super bislang 150€ (ohne Steuer) samt Kühler und für eine 2080S ca. 425€. Was soll der Kühler kosten? 25€

Milchmädchen:
3080 Board 400€
Board Redesign kleiner, bessere VRMs für 350W Leistung: 50€ (Schätzung auf Basis von Preisunterschieden bei Mainboards bei denen VRMs was taugen zu Müllboards gleicher Ausstattung, z.B. Asrock B450 vs Tomahawk)
10GB RAM: 115€ (wir haben uns mal 50% Rabatt gegeben)
Kühler: angeblich 150€

Dann sind wir bei 715€ und dazu kommt die Steuer.
macht dann 849€ für eine RTX 3080 die ich mir hier als Preis aus dem halb-informierten Hintern ziehe auf basis all dieser Gerüchte die da rumschwirren. Die 2080S bewegt sich zur Zeit im Rahmen zwischen 720€ und 800€ bei Mindfactory aber 770€ - 1000€ bei Caseking. Es gibt also jetzt schon diesen Bruch, wo der Preis davon abhängt wo man die Karte kauft und was für ein Publikum die Webseite bedient. Nvidia will 750€ auf der eigenen Seite, da erscheinen 100€ mehr für die 3000er Serie nicht unrealistisch.

Dafür spart man ja dieser Tage beim Urlaub könnte man Nvidia entgegnen.
 
Es kann auch völlig anders kommen, wenn man die Entwicklungskosten mit einrechnet bei bestimmter Marge, nämlich Einstieg bei 1499! Zudem gibt es zwei PCB's wobei den Partner dieses nicht angeboten wurde. Die werden das sicher nicht wollen, weil der Preis einfach utopisch ausfällt und sie bisher nichts kompatibles auf Lager haben, dann eine komplette Neuentwicklung anstehe würde. So nehmen sie was aus dem Regal, funktionieren es paßgenau um und gut. Die haben sowieso immer schon die besseren Kühler geliefert.

Da sagen die meisten, "...och nee lass mal. Mach du mal"...:D

Auf Kleinserien haben die keinen Bock, weil die Entwicklung mehr kostet als man dann später über den Verkaufspreis wieder reinholt.
 
Zuletzt bearbeitet von einem Moderator:
Kurzes PCB und große Kühlfläche um den GPU hmmm. Setzt NV auf HBM?

Nein, def. GDDR6, jedoch mit hoher Geschwindigkeit pro Pin. Die BGAs werden daher etwas näher an der GPU verbaut, was voraussichtlich mitverantwortlich für das etwas kompaktere Layout ist.
HBM2 kann man ggf. bei AMDs teuersten Top-Modellen erwarten, ist aber dort bisher noch nicht bestätigt.
 
Anhang anzeigen 1092343


Größenvergleich mit einer ASUS GeForce RTX 2080S ROG STRIX
Musste etwas perspektivisch verzerren.

Die Länge der Karte ist leicht kürzer.
Die Höhe der Karte ist niedriger.


Unten eine 2080 Super als nacktes PCB
Die Karte ist gespiegelt, man hat wenn man so will Röntgenblick von hinten.
Das Overlay zeigt das angebliche PCB.
Die Folge davon wäre, dass der gesamte Aufbau der Stromversorgung der Verkürzung zum Opfer fällt und neu gemacht werden muss.
Bei 350W keine leichte Sache.

GDDR6 wurde bislang in Modulen zu je 1Gb verbaut.
Was sollen 10GB und 11GB bedeuten? 5x2GB? 5x2GB + 1x1GB (970 lässt grüßen?).
Der Speicherausbau klingt nach einem finsteren Hack.
GDDR6 kostet ca. 23€ pro GB. (Hier ein Link zu einer Rolle für Euren Bestückungsautomaten zu Hause: MT61K512M32KPA-16:B Micron Technology Inc. | Integrated Circuits (ICs) | DigiKey)
Gretchenfrage: welchen Rabatt wollen wir den Herstellern geben, wenn wir jetzt nicht eine Rolle kaufen, sondern ganze Monatsproduktionen der Fabrik?

Wenn 8GB also um die 184€ (ohne Steuer) kosten, dann verlangt Nvidia für den Rest einer 2060 Super bislang 150€ (ohne Steuer) samt Kühler und für eine 2080S ca. 425€. Was soll der Kühler kosten? 25€

Milchmädchen:
3080 Board 400€
Board Redesign kleiner, bessere VRMs für 350W Leistung: 50€ (Schätzung auf Basis von Preisunterschieden bei Mainboards bei denen VRMs was taugen zu Müllboards gleicher Ausstattung, z.B. Asrock B450 vs Tomahawk)
10GB RAM: 115€ (wir haben uns mal 50% Rabatt gegeben)
Kühler: angeblich 150€

Dann sind wir bei 715€ und dazu kommt die Steuer.
macht dann 849€ für eine RTX 3080 die ich mir hier als Preis aus dem halb-informierten Hintern ziehe auf basis all dieser Gerüchte die da rumschwirren. Die 2080S bewegt sich zur Zeit im Rahmen zwischen 720€ und 800€ bei Mindfactory aber 770€ - 1000€ bei Caseking. Es gibt also jetzt schon diesen Bruch, wo der Preis davon abhängt wo man die Karte kauft und was für ein Publikum die Webseite bedient. Nvidia will 750€ auf der eigenen Seite, da erscheinen 100€ mehr für die 3000er Serie nicht unrealistisch.

Dafür spart man ja dieser Tage beim Urlaub könnte man Nvidia entgegnen.

Mit HBM Stacks könnten sie den Speicherausbau realisieren und es wäre eine Erklärung für das kurze PCB.

Nein, def. GDDR6, jedoch mit hoher Geschwindigkeit pro Pin. Die BGAs werden daher etwas näher an der GPU verbaut, was voraussichtlich mitverantwortlich für das etwas kompaktere Layout ist.
HBM2 kann man ggf. bei AMDs teuersten Top-Modellen erwarten, ist aber dort bisher noch nicht bestätigt.

Weis nicht, wenn der GDDR 6 nicht auf die Oberseite der Karte wandert wird es schon verdammt eng um den GPU.
Bei den Mondpreisen die NV abruft wäre HBM locker drinn.
 
Zuletzt bearbeitet:
NV ist ja bei HBM schon länger dabei und vielleicht ist die Ausbeute bei HBM mittlerweile so gut das HBM jetzt auch auf Consumer Karten verbaut wird bei NV.
Das ist richtig, passt aber nicht ins Layout, denn das steht bereits fest. Dann dürfte GDDR6 fast zu sicher sein, irgendeine schnelle Abwandlung mit X, die bisher nicht offiziell gelistet wird, aber exclusiv sein kann.
 
NVIDIA bringt den GDDR aber durch neue PCB-Techniken für die Signalintegrität näher an den Chip daran, d.h. der Platzbedarf wird nicht sonderlich größer werden auf dem PCB als ein HBM-Chip.

Auch HBM benötigt durch den Interposer deutlich mehr Platz als die reine Chipfläche.
Das ist richtig, passt aber nicht ins Layout, denn das steht bereits fest. Dann dürfte GDDR6 fast zu sicher sein, irgendeine schnelle Abwandlung mit X, die bisher nicht offiziell gelistet wird, aber exclusiv sein kann.

OK wenn dann noch die Spannungsversorgung direkt daneben sitzt wirds kuschlig warm. Dann versteh ich auch die Kühlerkonstruktion. Wir werden sehen, bin auf jeden Fall gespannt.
 
Mit HBM Stacks könnten sie den Speicherausbau realisieren und es wäre eine Erklärung für das kurze PCB.

Weis nicht, wenn der GDDR 6 nicht auf die Oberseite der Karte wandert wird es schon verdammt eng um den GPU.
Bei den Mondpreisen die NV abruft wäre HBM locker drinn.

Ich weiß zwar nicht, was du dir unter "Ober/Unterseite" einer Karte vorstellst, jedoch ist GDDR6 für den GA102 quasi schon implizit bestätigt. Igor ist hier relativ gut vernetzt und so wie er das darstellt, gibt es da zumindest bzgl. des verwendeten Speichertyps keine Unsicherheiten mehr. Zudem verbietet sich das umso mehr, da es offensichtlich drei abgestufte Kartenmodelle basierend auf dem GA102 geben wird und HBM2 wird relativ gesehen zunehmend teuerer mit Blick auf die günstigeren Modelle.
Für die großen Quadro's und die Titan hätte sich HBM2 sicherlich gelohnt, jedoch dürften die Fertigungskosten klar dagegen gesprochen haben, denn einen entsprechenden Chip hätte man im Consumer-Segment ausschließlich auf dem teuersten Top-Design verwenden können; die kleineren Modelle würden dagegen deutlich auf die Marge drücken.
(AMD dagegen ist ein anderes Thema; die müssen schlicht mehr fürs gleiche Geld bieten. Entsprechend kann man hier ggf. erwarten zumindest beim Top-Modell HBM2 anzutreffen?)

Das ist richtig, passt aber nicht ins Layout, denn das steht bereits fest. Dann dürfte GDDR6 fast zu sicher sein, irgendeine schnelle Abwandlung mit X, die bisher nicht offiziell gelistet wird, aber exclusiv sein kann.

Anmerkung: Micron teaserte GDDR6 mit 20 Gbps bereits Mitte 2018. Das "teasern" ist wörtlich zu nehmen, denn in Verbindung mit schnellen Chips erweiterte man die Prüfungen und kam bereits damals zu dem Schluss: "[...] it is possible to push Micron Technology, Inc.'s GDDR6 I/O as high as 20Gb/s."
 
Dumme Frage:
bringt der Kühlkörper wirklich was, oder ist das eher ein optisches Gimmick? Man wird es messen müssen.

Eine 2070 gibt es als mini, aber die hat auch keine 350 Watt.


Für den Einsatz von HBM spricht, dass die große karte mit 40GB HBM schon offiziell ist und wo 40GB gehen, da sollten auch 10 möglich sinn weil der Custom HBM Stack entsprechend geteilt werden kann. Das werden Enthusiasten sicherlich positiv zur Kenntnis nehmen, allein das Problem der Speichergröße bleibt im Hinblick auf Konsolen. AMD könnte das mit 16GB Karten böse aushebeln. Nvidia holt sich hier einen Makel ins Haus der nur ein Spiel braucht das mit 16GB schöner aussieht als mit 10GB und dann wird es keine Rolle spielen, wenn Nvidia 80fps liefert und AMD 60fps. Es sieht besser aus mit mehr Speicher also weg mit dem 10GB Ghetto Ding, auch wenn es schnell ist. Meine 970 war auch irgendwann noch schnell genug für Ultra-texturen. Aber wenn die nicht in den Speicher passen, dann kommt der fps Einbruch und Ende.
 
Ich weiß zwar nicht, was du dir unter "Ober/Unterseite" einer Karte vorstellst, jedoch ist GDDR6 für den GA102 quasi schon implizit bestätigt. Igor ist hier relativ gut vernetzt und so wie er das darstellt, gibt es da zumindest bzgl. des verwendeten Speichertyps keine Unsicherheiten mehr. Zudem verbietet sich das umso mehr, da es offensichtlich drei abgestufte Kartenmodelle basierend auf dem GA102 geben wird und HBM2 wird relativ gesehen zunehmend teuerer mit Blick auf die günstigeren Modelle.
Für die großen Quadro's und die Titan hätte sich HBM2 sicherlich gelohnt, jedoch dürften die Fertigungskosten klar dagegen gesprochen haben, denn einen entsprechenden Chip hätte man im Consumer-Segment ausschließlich auf dem teuersten Top-Design verwenden können; die kleineren Modelle würden dagegen zunehmend auf die Marge drücken.



Anmerkung: Micron teaserte GDDR6 mit 20 Gbps bereits Mitte 2018. Das "teasern" ist wortlich zu nehmen, denn in Verbindung mit schnellen Chips erweiterte man die Prüfungen und kam bereits damals zu dem Schluss: "[...] it is possible to push Micron Technology, Inc.'s GDDR6 I/O as high as 20Gb/s."


Igor OK sorry ich versuch mich zwar immer aktuell zu halten aber Alle Neuigkeiten bekomm ich nicht sofort mit ;). War ja auch keine Festellung von mir sondern nur eine Vermutung.
 
Für den Einsatz von HBM spricht, dass die große karte mit 40GB HBM schon offiziell ist und wo 40GB [...]

Die Aussage ist unzutreffend, da GA100 und GA102 komplett unterschiedliche Designs sind. Zudem ist sie auch betriebswirtschaftlich fehlgeleitet; das eine Design wird für grob um die 10.000 US$ verkauft, das andere dagegen für 900 - 1500 US$.
Und 10 GiB HBM2 sind per se nicht sinnvoll möglich, weil es kostentechnisch absurd ist für derartiges ein HBM2-Design zu entwickeln. Eine entsprechende Leistungsklasse lässt sich mit GDDR6 viel effizienter abbilden, zumal es auch rein technisch keine Abbildungsmöglichkeit für 10 GiB gibt, da es keine passenden Bausteine für diese Kapazitäten gibt (also bspw. 5 GiB- oder gar 2,5 GiB-BGAs) ;-)

Hinzu kommt, dass auch die Konsolenbetrachtung verfehlt ist. Die Konsolen haben gerade mal 16 GiB (V)RAM insgesamt, d. h. von diesem sind einige GiB für das OS, die Hintergrunddienste und den gerade laufenden Titel abzuziehen. Ein PC könnte bereits 10 GiB VRAM zzgl. 16 GiB RAM nutzen und dem steht es zudem natürlich auch frei, eine schnelle NVMe zusätzlich zu nutzen.
Abgesehen davon kann man absehen, dass AMD einen großen Speicherausbau nur bei den teueren Top-Modellen bieten (können) wird und das umso mehr, wenn es dann auch noch HBM2 sein sollte, d. h. derartige Hardware wird per se nur einem sehr kleinen Prozenteil der PC-Spieler zuteil werden, da der Großteil hier weitaus genügsamer/kostenbewußter unterwegs ist. (Zum Vergleich: Die Radeon VII wurde so selten verkauft, dass sie es nicht einmal in eine separate Wertung in den Steam-Charts geschafft hat, d. h. deren Verbreitung liegt bei unter 0,15 %.)

Igor OK sorry ich versuch mich zwar immer aktuell zu halten aber Alle Neuigkeiten bekomm ich nicht sofort mit
zwinker4.gif
. War ja auch keine Festellung von mir sondern nur eine Vermutung.

Ist ja vollkommen ok, war ja von mir auch nur noch einmal als Erklärung gemeint ... mit ein bisschen mehr Unterfütterung als nur einem schlichten "Nein". ;-)
 
Zuletzt bearbeitet:
Also der eine saugt die Luft an und der andere bläst die warme Luft wieder aus. Wie ein Kreislauf.
Dann müsste man sie etwas anderst einbauen.
Ich bin echt auf die Temperaturen gespannt. Vor allem wann sie drosselt.
Aber ob die Karte dadurch leiser wird, bezweifle ich. Wenn diese Konstruktion erfolg hat, nice work. Abwarten nach dem Stress Test. :cool:
 
Also macht je nur Sinn wenn der eine Lüfter (zb der vordere) kalte Luft von außen ansaugt...
...die Lüft dann mit hoher Geschwindigkeit/Druck durch die Kühllamellen gedrückt wird...
und der hintere Lüfter die Warmluft wieder raussaugt...

Ähnlich wie bei vielen dicken Cpu Kühlern wie dem Noctua Cromax...da sind die Lamellen auch oben und seitlich zu und 2 oder 3 Lüfer pusten/saugen in Reihe durch.
Beschleunigter Luftstrom...
https://i.ytimg.com/vi/_Nc2aonsseg/maxresdefault.jpg
Nur halt in Längsrichtung...

Trotzdem wird das Teil deutlich den dicken Trippelfan Luftkühlern unterlegen sein - wie immer.

Aber sieht schick aus!
 
Also der eine saugt die Luft an und der andere bläst die warme Luft wieder aus. Wie ein Kreislauf.
Dann müsste man sie etwas anderst einbauen.
Ich bin echt auf die Temperaturen gespannt. Vor allem wann sie drosselt.
Aber ob die Karte dadurch leiser wird, bezweifle ich. Wenn diese Konstruktion erfolg hat, nice work. Abwarten nach dem Stress Test. :cool:
Die Konstruktion ist nicht drauf damit es leiser wird, sondern um den Hotspot um den GPU unter Kontrolle zu bekommen ;).
Wenn man es genau nimmt ist die ganze Karte jetzt ein Hotspot.
 
Bin da echt gespannt,was die ersten Tests zu den Temperaturen (VRM/GPU/Memory) sagen werden. Kann mir das noch nicht so richtig vorstellen.
 
Ich weiß zwar nicht, was du dir unter "Ober/Unterseite" einer Karte vorstellst, jedoch ist GDDR6 für den GA102 quasi schon implizit bestätigt. Igor ist hier relativ gut vernetzt und so wie er das darstellt, gibt es da zumindest bzgl. des verwendeten Speichertyps keine Unsicherheiten mehr. Zudem verbietet sich das umso mehr, da es offensichtlich drei abgestufte Kartenmodelle basierend auf dem GA102 geben wird und HBM2 wird relativ gesehen zunehmend teuerer mit Blick auf die günstigeren Modelle.
Für die großen Quadro's und die Titan hätte sich HBM2 sicherlich gelohnt, jedoch dürften die Fertigungskosten klar dagegen gesprochen haben, denn einen entsprechenden Chip hätte man im Consumer-Segment ausschließlich auf dem teuersten Top-Design verwenden können; die kleineren Modelle würden dagegen deutlich auf die Marge drücken.
(AMD dagegen ist ein anderes Thema; die müssen schlicht mehr fürs gleiche Geld bieten. Entsprechend kann man hier ggf. erwarten zumindest beim Top-Modell HBM2 anzutreffen?)



Anmerkung: Micron teaserte GDDR6 mit 20 Gbps bereits Mitte 2018. Das "teasern" ist wörtlich zu nehmen, denn in Verbindung mit schnellen Chips erweiterte man die Prüfungen und kam bereits damals zu dem Schluss: "[...] it is possible to push Micron Technology, Inc.'s GDDR6 I/O as high as 20Gb/s."




WOW Igor vermutet oder hat festgestellt das GDDR 6 zum Einsatz kommen wird :D

Das ist ja was ganz neues , das wussten wir ja schließlich noch nicht :ugly:

Igor ist wirklich gut vernetzt bravo :daumen:

Der Kühlkörper sieht interesant aus ,wie werden wohl die Spawas gekühltwerden ? :)
 
Der Kühler ist egal, wird eh unter Wasser gesetzt, wäre echt super wenn man endlich mal Karten ohne Kühler kaufen könnte, von mir aus direkt beim Hersteller mit dem Versprechen zu wissen was man macht.
Die WaKü gerüsteten Customs sind viel zu teuer und nehmen den Bastelspass.
Glaube nicht, dass die wesentlich billiger wären:
Kleinstserie, extra Verpackung, der Stock-Kühler ist in Massenfertigung eh nur Beiwerk
in der Produktkalkulation und Gewährleistung muss trotzdem drauf...

Abgesehen davon sind Preise für Grafikkarten-Custom-Wasserkühler teilweise auch
ganz schön happig.

Aber egal, die nächste - egal welche - kommt bei mir als Premiere auch an den Schlauch.
 
Anmerkung: Micron teaserte GDDR6 mit 20 Gbps bereits Mitte 2018. Das "teasern" ist wörtlich zu nehmen, denn in Verbindung mit schnellen Chips erweiterte man die Prüfungen und kam bereits damals zu dem Schluss: "[...] it is possible to push Micron Technology, Inc.'s GDDR6 I/O as high as 20Gb/s."
Kurz beantwortet: Nein.

Es ging dabei um die kurzfristige Umgehung des Protokolls zu Lasten des E/A Arrays (Voltage=Versorgungsspannung), was eigentlich nur aufzeigen sollte welches Potential GDRR6 hat und ob man höhere Geschwindigkeiten auch erreichen kann (da diskutierte man ja 2018 drüber als HBM Ersatz wegen der Kosten und Stacking). War sozusagen eine Demonstration für eine fortschreitende Entwicklung. Wie erinnern uns an die thermische Instabilität bei bestimmten Nv Karten. Das löst man jetzt anders. Ob eine 3080 die hohe Bandbreite überhaupt braucht, ist wieder eine andere Frage. Irgendwo muss es Ansätze zur Preisminderung geben. Das eine Titan unter 2-3K liegt sollte man nicht annehmen, dann kann man auch Selektion betreiben.
 
Zuletzt bearbeitet von einem Moderator:
Zurück