• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Geforce RTX 3080: Neues Bild des Kühlkörpers aufgetaucht

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 3080: Neues Bild des Kühlkörpers aufgetaucht

Im Netz ist ein weiteres Bild aufgetaucht, das den Kühlkörper einer Geforce RTX 3080 zeigen soll. Dieses Mal ist der Kühler ohne Abdeckungen und Lüfter zu sehen, deshalb lässt sich die Lamellenstruktur klar erkennen. Falls die Bilder echt sind, dürfte Nvidia auf einen Mix auf Aktiv- und Passivkühlung setzen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Geforce RTX 3080: Neues Bild des Kühlkörpers aufgetaucht
 

catze

Komplett-PC-Käufer(in)
Wenn das gut funzt ,und es sieht nicht schlecht aus UND die Lautstärke gut ausfällt ,könnte das meine erste seit der ti 4800 ohne wakü werden (aber wahrscheinlich doch nicht :lol:)
 

X-Bow

PC-Selbstbauer(in)
Also der "untere" Lüfter drückt die Luft klassisch aufs PCB mit Kühlkörper.
Der "obere" Lüfter bläst die warme aufsteigende Luft der CPU und Grafikkarte wieder unter die Grafikkarte?

Und so wie es aussieht kann die Luft vom "unteren" Lüfter nur durch die Slotblende entweichen.
 

catze

Komplett-PC-Käufer(in)
Der Lüfter müber dem Prozessor drückt die Luft über die Slot blend raus ,der andere Lüfter kühlt die Heatpipes und die luft geht seitlich raus
 

Captain-S

Software-Overclocker(in)
Durch die hohe Anzahl an Lamellen ist hier richtig viel Kühlfäche vorhanden.
Man kann 4 Heatpipes erkennen die in den hinteren Teil des Kühlers führen.
Der Kühler könnte richtig gut sein.
 
Zuletzt bearbeitet:

Ripcord

BIOS-Overclocker(in)
Sieht zwar ganz nett aus, bevorzuge aber trotzdem einen klassischen Kühler welchen ich von dünnen, lauten, klapprigen und schwachbrüstigen 80-90mm Lüftern befreie und gegen 2 flüsterleise 120er ersetzt welche nebenbei auch noch massiv die Kühlleistung erhöhen.

Hoffe daher auf 3080 Karten die einen normalen Kühler besitzen.
 

-Xe0n-

BIOS-Overclocker(in)
150$ für den Kühler... Da kann man schonmal von ausgehen das die nächste Generation 100$ teurer wird
 

Blackvoodoo

Volt-Modder(in)
Wenn das gut funzt ,und es sieht nicht schlecht aus UND die Lautstärke gut ausfällt ,könnte das meine erste seit der ti 4800 ohne wakü werden (aber wahrscheinlich doch nicht :lol:)
Egal wie gut der Kühler ist. Die Karte wird unter Wasser gesetzt.
Sonst langweilt sich mein Mo-Ra3 noch mehr als er es eh schon tut wenn er nur die CPU kühlen darf.
 
U

userguide

Guest
Wenn die Leaks suchen haben sie das bisher nicht gefunden und den Chinesen scheint das egal zu sein.

Vaporchamber und 4x10mm Heatpipes a 80w? Also Minimum eine Wärme von 250+ Watt weg von der GPU und dem Speicher für eine 3080? Einfach lächerlich. Von wegen 50 Prozent schneller und 50 Prozent effizienter. Sieht aus wie mit der Brechstange. Vor allem haben die schwarz lackieren Kühler bei Asus schon nicht funktioniert.

Radeon 7 Kühler in schwarz und hässlich der schon dort nicht funktioniert hat.
 
E

eclipso

Guest
Das sieht schon ziemlich nach Serienfertigung aus.
EVT ist nahe dem Status, man sieht ja auch auf anderen Bilder, dass die Karten auf einem Band liegen. Der "Leaker" hat nur eine umgedreht. Muss aber keine finale Serienfertigung sein. Ich vermute Nv ändert jetzt etwas ab, die haben ein massives Problem mit Lecks bei ihren Auftragsfertigern.

Vaporchamber und 4x10mm Heatpipes a 80w? Also Minimum eine Wärme von 250+ Watt weg von der GPU und dem Speicher für eine 3080? Einfach lächerlich.
Der fordere Heatsink muss keine Vapor Chamber sein. Sondern ein Kupferheatsink (wird auch anders gefertigt als ein Heatpipeaufbau), beides wird dann miteinander verbunden, so dass der hintere Heatpipeaufbau des Kühlers den Großteil bewältigt. Mit einem Lüfter? Ich weiß ehrlich nicht wie das gehen soll, wobei das Prinzip immer noch unklar ist?

4x80 wären 320 und würden dann zu den kolportierten 320w passen, dass vordere Heatsink kann dabei die gesamten Bauteile der Platine berühren und würde gleichzeitig als Art Frontplate fungieren, also eine Stabilisierung übernehmen und die Backplate kann man sich dann sparen. Man scheint also vor allem in den Kühler als solches investiert zu haben, spart aber Arbeitsschritte und komplexe Vorgänge in der Fertigung. Die VRM kühlt man dann zusätzlich mit den sichtbaren seitlichen Finnen.

Mir scheint das trotzdem sehr grobschlächtig verarbeitet. Schwarz lackieren oder eloxieren könnte an dem Materialmix liegen. Heatsink, Heatpipes und Finnen aus unterschiedlichem Material, was sonst der Anmutung schadet und einheitliche Farbgebung auch Verarbeitungsspuren beseitigt. Eine Vapor Chamber hätte natürlich den Vorteil einer thermischen Spreizung, nur würde sie die Leistungsfähigkeit der Heatpipes direkt beeinflussen. Grundsätzlich ist der Wärmewiderstand einer Heatpipe kleiner als der von reinen Metall-Heatsinks, sie hat aber auch Wechselwirkungsgrenzen und braucht um gut zu funktionieren eine hohe Wärmedichte. Sie eignet sich besonders für den Abtransport der Wärme, um die Wärmestromdichte zu erhalten und so einen geringen Widerstand zu ermöglichen. Ihre Funktion ist völlig unabhängig von ihrer Einbaulage oder Position, da geschlossen.

Allein die zwei Lüfter scheinen mir nicht in der Lage die Wärme dann auch ausreichend an die Luft zu übergeben, aus dem Prinzip wird man bisher nicht schlau und die Finnen stehen sehr eng, da muss man erstmal "durchpusten" ohne mit einem hohen Widerstand rechnen zu müssen. Dann müssen die Lüfter auch schnell genug drehen.
 
Zuletzt bearbeitet von einem Moderator:

Scorpio78

Software-Overclocker(in)
Der Kühler ist egal, wird eh unter Wasser gesetzt, wäre echt super wenn man endlich mal Karten ohne Kühler kaufen könnte, von mir aus direkt beim Hersteller mit dem Versprechen zu wissen was man macht.
Die WaKü gerüsteten Customs sind viel zu teuer und nehmen den Bastelspass.
 

Animaniac

PC-Selbstbauer(in)
Sieht interessant aus und bietet viel Fläche bei evtl. hoher laminarer Strömung im hinteren Bereich.
Denke, das ganze steht und fällt mit dem Rest vom Kühlkonzept des PCs / Gehäuses.
Saugt der hintere Lüfter schon warme Luft der CPU an ist das Konzept fürn Eimer, schaufelt ein frontseitiger Lüfter genug Frischluft herbei und die CPU Lüftung arbeitet parallel zur Grafikkarte könnte es funktionieren.
Aber viel interesanter wird die Preisgestaltung, das nützt ja alles nix wenn die Preise noch Mal anziehen.
 

sunburst1988

Software-Overclocker(in)
Führst dich auf als hätten die jetzigen Karten keine Leistung selbst eine 1070 wird reichen um Cyberpunk zocken zu können, warum glauben Leute das, dass ein Crysis wird.

Raytracing?

Ich selbst werde mir CP auch erst mit einer RT-Karte gönnen.

Das Kühlerdesign würde ich so langsam wirklich als bestätigt ansehen.
Wegen den 320/350W würde ich mir nicht allzu viele Gedanken machen. Weit über 250W wird der Verbrauch wohl nicht gehen.
Die gönnt sich meine 1070 (theoretisch) auch :D
 

Bl4d3runn3r

Freizeitschrauber(in)
Der Kühler ist egal, wird eh unter Wasser gesetzt, wäre echt super wenn man endlich mal Karten ohne Kühler kaufen könnte, von mir aus direkt beim Hersteller mit dem Versprechen zu wissen was man macht.
Die WaKü gerüsteten Customs sind viel zu teuer und nehmen den Bastelspass.

Ich weiss was du meinst, aber eigentlich sind doch die MSI Seahawk Karten garnicht so viel teurer...

Ich werde aber auch wahrscheinlich auf Ref Design setzen plus EK Kuehler oder eben auf die Big Navi. Je nachdem was besser performt. Ueber 1000 Euro gebe ich aber fuer die reine Karte nicht aus.
 

4thVariety

Software-Overclocker(in)
nv3000.jpg


Größenvergleich mit einer ASUS GeForce RTX 2080S ROG STRIX
Musste etwas perspektivisch verzerren.

Die Länge der Karte ist leicht kürzer.
Die Höhe der Karte ist niedriger.


Unten eine 2080 Super als nacktes PCB
Die Karte ist gespiegelt, man hat wenn man so will Röntgenblick von hinten.
Das Overlay zeigt das angebliche PCB.
Die Folge davon wäre, dass der gesamte Aufbau der Stromversorgung der Verkürzung zum Opfer fällt und neu gemacht werden muss.
Bei 350W keine leichte Sache.

GDDR6 wurde bislang in Modulen zu je 1Gb verbaut.
Was sollen 10GB und 11GB bedeuten? 5x2GB? 5x2GB + 1x1GB (970 lässt grüßen?).
Der Speicherausbau klingt nach einem finsteren Hack.
GDDR6 kostet ca. 23€ pro GB. (Hier ein Link zu einer Rolle für Euren Bestückungsautomaten zu Hause: MT61K512M32KPA-16:B Micron Technology Inc. | Integrated Circuits (ICs) | DigiKey)
Gretchenfrage: welchen Rabatt wollen wir den Herstellern geben, wenn wir jetzt nicht eine Rolle kaufen, sondern ganze Monatsproduktionen der Fabrik?

Wenn 8GB also um die 184€ (ohne Steuer) kosten, dann verlangt Nvidia für den Rest einer 2060 Super bislang 150€ (ohne Steuer) samt Kühler und für eine 2080S ca. 425€. Was soll der Kühler kosten? 25€

Milchmädchen:
3080 Board 400€
Board Redesign kleiner, bessere VRMs für 350W Leistung: 50€ (Schätzung auf Basis von Preisunterschieden bei Mainboards bei denen VRMs was taugen zu Müllboards gleicher Ausstattung, z.B. Asrock B450 vs Tomahawk)
10GB RAM: 115€ (wir haben uns mal 50% Rabatt gegeben)
Kühler: angeblich 150€

Dann sind wir bei 715€ und dazu kommt die Steuer.
macht dann 849€ für eine RTX 3080 die ich mir hier als Preis aus dem halb-informierten Hintern ziehe auf basis all dieser Gerüchte die da rumschwirren. Die 2080S bewegt sich zur Zeit im Rahmen zwischen 720€ und 800€ bei Mindfactory aber 770€ - 1000€ bei Caseking. Es gibt also jetzt schon diesen Bruch, wo der Preis davon abhängt wo man die Karte kauft und was für ein Publikum die Webseite bedient. Nvidia will 750€ auf der eigenen Seite, da erscheinen 100€ mehr für die 3000er Serie nicht unrealistisch.

Dafür spart man ja dieser Tage beim Urlaub könnte man Nvidia entgegnen.
 
E

eclipso

Guest
Es kann auch völlig anders kommen, wenn man die Entwicklungskosten mit einrechnet bei bestimmter Marge, nämlich Einstieg bei 1499! Zudem gibt es zwei PCB's wobei den Partner dieses nicht angeboten wurde. Die werden das sicher nicht wollen, weil der Preis einfach utopisch ausfällt und sie bisher nichts kompatibles auf Lager haben, dann eine komplette Neuentwicklung anstehe würde. So nehmen sie was aus dem Regal, funktionieren es paßgenau um und gut. Die haben sowieso immer schon die besseren Kühler geliefert.

Da sagen die meisten, "...och nee lass mal. Mach du mal"...:D

Auf Kleinserien haben die keinen Bock, weil die Entwicklung mehr kostet als man dann später über den Verkaufspreis wieder reinholt.
 
Zuletzt bearbeitet von einem Moderator:

gerX7a

Software-Overclocker(in)
Kurzes PCB und große Kühlfläche um den GPU hmmm. Setzt NV auf HBM?

Nein, def. GDDR6, jedoch mit hoher Geschwindigkeit pro Pin. Die BGAs werden daher etwas näher an der GPU verbaut, was voraussichtlich mitverantwortlich für das etwas kompaktere Layout ist.
HBM2 kann man ggf. bei AMDs teuersten Top-Modellen erwarten, ist aber dort bisher noch nicht bestätigt.
 

PCTom

BIOS-Overclocker(in)
Anhang anzeigen 1092343


Größenvergleich mit einer ASUS GeForce RTX 2080S ROG STRIX
Musste etwas perspektivisch verzerren.

Die Länge der Karte ist leicht kürzer.
Die Höhe der Karte ist niedriger.


Unten eine 2080 Super als nacktes PCB
Die Karte ist gespiegelt, man hat wenn man so will Röntgenblick von hinten.
Das Overlay zeigt das angebliche PCB.
Die Folge davon wäre, dass der gesamte Aufbau der Stromversorgung der Verkürzung zum Opfer fällt und neu gemacht werden muss.
Bei 350W keine leichte Sache.

GDDR6 wurde bislang in Modulen zu je 1Gb verbaut.
Was sollen 10GB und 11GB bedeuten? 5x2GB? 5x2GB + 1x1GB (970 lässt grüßen?).
Der Speicherausbau klingt nach einem finsteren Hack.
GDDR6 kostet ca. 23€ pro GB. (Hier ein Link zu einer Rolle für Euren Bestückungsautomaten zu Hause: MT61K512M32KPA-16:B Micron Technology Inc. | Integrated Circuits (ICs) | DigiKey)
Gretchenfrage: welchen Rabatt wollen wir den Herstellern geben, wenn wir jetzt nicht eine Rolle kaufen, sondern ganze Monatsproduktionen der Fabrik?

Wenn 8GB also um die 184€ (ohne Steuer) kosten, dann verlangt Nvidia für den Rest einer 2060 Super bislang 150€ (ohne Steuer) samt Kühler und für eine 2080S ca. 425€. Was soll der Kühler kosten? 25€

Milchmädchen:
3080 Board 400€
Board Redesign kleiner, bessere VRMs für 350W Leistung: 50€ (Schätzung auf Basis von Preisunterschieden bei Mainboards bei denen VRMs was taugen zu Müllboards gleicher Ausstattung, z.B. Asrock B450 vs Tomahawk)
10GB RAM: 115€ (wir haben uns mal 50% Rabatt gegeben)
Kühler: angeblich 150€

Dann sind wir bei 715€ und dazu kommt die Steuer.
macht dann 849€ für eine RTX 3080 die ich mir hier als Preis aus dem halb-informierten Hintern ziehe auf basis all dieser Gerüchte die da rumschwirren. Die 2080S bewegt sich zur Zeit im Rahmen zwischen 720€ und 800€ bei Mindfactory aber 770€ - 1000€ bei Caseking. Es gibt also jetzt schon diesen Bruch, wo der Preis davon abhängt wo man die Karte kauft und was für ein Publikum die Webseite bedient. Nvidia will 750€ auf der eigenen Seite, da erscheinen 100€ mehr für die 3000er Serie nicht unrealistisch.

Dafür spart man ja dieser Tage beim Urlaub könnte man Nvidia entgegnen.

Mit HBM Stacks könnten sie den Speicherausbau realisieren und es wäre eine Erklärung für das kurze PCB.

Nein, def. GDDR6, jedoch mit hoher Geschwindigkeit pro Pin. Die BGAs werden daher etwas näher an der GPU verbaut, was voraussichtlich mitverantwortlich für das etwas kompaktere Layout ist.
HBM2 kann man ggf. bei AMDs teuersten Top-Modellen erwarten, ist aber dort bisher noch nicht bestätigt.

Weis nicht, wenn der GDDR 6 nicht auf die Oberseite der Karte wandert wird es schon verdammt eng um den GPU.
Bei den Mondpreisen die NV abruft wäre HBM locker drinn.
 
Zuletzt bearbeitet:

PCTom

BIOS-Overclocker(in)
Würde nicht zum SI passen.

Bin auf jeden Fall gespannt was die da zusammengeschustert haben. Welches SI meinst du 384bit?

NV ist ja bei HBM schon länger dabei und vielleicht ist die Ausbeute bei HBM mittlerweile so gut das HBM jetzt auch auf Consumer Karten verbaut wird bei NV.
 
E

eclipso

Guest
NV ist ja bei HBM schon länger dabei und vielleicht ist die Ausbeute bei HBM mittlerweile so gut das HBM jetzt auch auf Consumer Karten verbaut wird bei NV.
Das ist richtig, passt aber nicht ins Layout, denn das steht bereits fest. Dann dürfte GDDR6 fast zu sicher sein, irgendeine schnelle Abwandlung mit X, die bisher nicht offiziell gelistet wird, aber exclusiv sein kann.
 

PCTom

BIOS-Overclocker(in)
NVIDIA bringt den GDDR aber durch neue PCB-Techniken für die Signalintegrität näher an den Chip daran, d.h. der Platzbedarf wird nicht sonderlich größer werden auf dem PCB als ein HBM-Chip.

Auch HBM benötigt durch den Interposer deutlich mehr Platz als die reine Chipfläche.
Das ist richtig, passt aber nicht ins Layout, denn das steht bereits fest. Dann dürfte GDDR6 fast zu sicher sein, irgendeine schnelle Abwandlung mit X, die bisher nicht offiziell gelistet wird, aber exclusiv sein kann.

OK wenn dann noch die Spannungsversorgung direkt daneben sitzt wirds kuschlig warm. Dann versteh ich auch die Kühlerkonstruktion. Wir werden sehen, bin auf jeden Fall gespannt.
 

gerX7a

Software-Overclocker(in)
Mit HBM Stacks könnten sie den Speicherausbau realisieren und es wäre eine Erklärung für das kurze PCB.

Weis nicht, wenn der GDDR 6 nicht auf die Oberseite der Karte wandert wird es schon verdammt eng um den GPU.
Bei den Mondpreisen die NV abruft wäre HBM locker drinn.

Ich weiß zwar nicht, was du dir unter "Ober/Unterseite" einer Karte vorstellst, jedoch ist GDDR6 für den GA102 quasi schon implizit bestätigt. Igor ist hier relativ gut vernetzt und so wie er das darstellt, gibt es da zumindest bzgl. des verwendeten Speichertyps keine Unsicherheiten mehr. Zudem verbietet sich das umso mehr, da es offensichtlich drei abgestufte Kartenmodelle basierend auf dem GA102 geben wird und HBM2 wird relativ gesehen zunehmend teuerer mit Blick auf die günstigeren Modelle.
Für die großen Quadro's und die Titan hätte sich HBM2 sicherlich gelohnt, jedoch dürften die Fertigungskosten klar dagegen gesprochen haben, denn einen entsprechenden Chip hätte man im Consumer-Segment ausschließlich auf dem teuersten Top-Design verwenden können; die kleineren Modelle würden dagegen deutlich auf die Marge drücken.
(AMD dagegen ist ein anderes Thema; die müssen schlicht mehr fürs gleiche Geld bieten. Entsprechend kann man hier ggf. erwarten zumindest beim Top-Modell HBM2 anzutreffen?)

Das ist richtig, passt aber nicht ins Layout, denn das steht bereits fest. Dann dürfte GDDR6 fast zu sicher sein, irgendeine schnelle Abwandlung mit X, die bisher nicht offiziell gelistet wird, aber exclusiv sein kann.

Anmerkung: Micron teaserte GDDR6 mit 20 Gbps bereits Mitte 2018. Das "teasern" ist wörtlich zu nehmen, denn in Verbindung mit schnellen Chips erweiterte man die Prüfungen und kam bereits damals zu dem Schluss: "[...] it is possible to push Micron Technology, Inc.'s GDDR6 I/O as high as 20Gb/s."
 

4thVariety

Software-Overclocker(in)
Dumme Frage:
bringt der Kühlkörper wirklich was, oder ist das eher ein optisches Gimmick? Man wird es messen müssen.

Eine 2070 gibt es als mini, aber die hat auch keine 350 Watt.


Für den Einsatz von HBM spricht, dass die große karte mit 40GB HBM schon offiziell ist und wo 40GB gehen, da sollten auch 10 möglich sinn weil der Custom HBM Stack entsprechend geteilt werden kann. Das werden Enthusiasten sicherlich positiv zur Kenntnis nehmen, allein das Problem der Speichergröße bleibt im Hinblick auf Konsolen. AMD könnte das mit 16GB Karten böse aushebeln. Nvidia holt sich hier einen Makel ins Haus der nur ein Spiel braucht das mit 16GB schöner aussieht als mit 10GB und dann wird es keine Rolle spielen, wenn Nvidia 80fps liefert und AMD 60fps. Es sieht besser aus mit mehr Speicher also weg mit dem 10GB Ghetto Ding, auch wenn es schnell ist. Meine 970 war auch irgendwann noch schnell genug für Ultra-texturen. Aber wenn die nicht in den Speicher passen, dann kommt der fps Einbruch und Ende.
 

PCTom

BIOS-Overclocker(in)
Ich weiß zwar nicht, was du dir unter "Ober/Unterseite" einer Karte vorstellst, jedoch ist GDDR6 für den GA102 quasi schon implizit bestätigt. Igor ist hier relativ gut vernetzt und so wie er das darstellt, gibt es da zumindest bzgl. des verwendeten Speichertyps keine Unsicherheiten mehr. Zudem verbietet sich das umso mehr, da es offensichtlich drei abgestufte Kartenmodelle basierend auf dem GA102 geben wird und HBM2 wird relativ gesehen zunehmend teuerer mit Blick auf die günstigeren Modelle.
Für die großen Quadro's und die Titan hätte sich HBM2 sicherlich gelohnt, jedoch dürften die Fertigungskosten klar dagegen gesprochen haben, denn einen entsprechenden Chip hätte man im Consumer-Segment ausschließlich auf dem teuersten Top-Design verwenden können; die kleineren Modelle würden dagegen zunehmend auf die Marge drücken.



Anmerkung: Micron teaserte GDDR6 mit 20 Gbps bereits Mitte 2018. Das "teasern" ist wortlich zu nehmen, denn in Verbindung mit schnellen Chips erweiterte man die Prüfungen und kam bereits damals zu dem Schluss: "[...] it is possible to push Micron Technology, Inc.'s GDDR6 I/O as high as 20Gb/s."


Igor OK sorry ich versuch mich zwar immer aktuell zu halten aber Alle Neuigkeiten bekomm ich nicht sofort mit ;). War ja auch keine Festellung von mir sondern nur eine Vermutung.
 

gerX7a

Software-Overclocker(in)
Für den Einsatz von HBM spricht, dass die große karte mit 40GB HBM schon offiziell ist und wo 40GB [...]

Die Aussage ist unzutreffend, da GA100 und GA102 komplett unterschiedliche Designs sind. Zudem ist sie auch betriebswirtschaftlich fehlgeleitet; das eine Design wird für grob um die 10.000 US$ verkauft, das andere dagegen für 900 - 1500 US$.
Und 10 GiB HBM2 sind per se nicht sinnvoll möglich, weil es kostentechnisch absurd ist für derartiges ein HBM2-Design zu entwickeln. Eine entsprechende Leistungsklasse lässt sich mit GDDR6 viel effizienter abbilden, zumal es auch rein technisch keine Abbildungsmöglichkeit für 10 GiB gibt, da es keine passenden Bausteine für diese Kapazitäten gibt (also bspw. 5 GiB- oder gar 2,5 GiB-BGAs) ;-)

Hinzu kommt, dass auch die Konsolenbetrachtung verfehlt ist. Die Konsolen haben gerade mal 16 GiB (V)RAM insgesamt, d. h. von diesem sind einige GiB für das OS, die Hintergrunddienste und den gerade laufenden Titel abzuziehen. Ein PC könnte bereits 10 GiB VRAM zzgl. 16 GiB RAM nutzen und dem steht es zudem natürlich auch frei, eine schnelle NVMe zusätzlich zu nutzen.
Abgesehen davon kann man absehen, dass AMD einen großen Speicherausbau nur bei den teueren Top-Modellen bieten (können) wird und das umso mehr, wenn es dann auch noch HBM2 sein sollte, d. h. derartige Hardware wird per se nur einem sehr kleinen Prozenteil der PC-Spieler zuteil werden, da der Großteil hier weitaus genügsamer/kostenbewußter unterwegs ist. (Zum Vergleich: Die Radeon VII wurde so selten verkauft, dass sie es nicht einmal in eine separate Wertung in den Steam-Charts geschafft hat, d. h. deren Verbreitung liegt bei unter 0,15 %.)

Igor OK sorry ich versuch mich zwar immer aktuell zu halten aber Alle Neuigkeiten bekomm ich nicht sofort mit
. War ja auch keine Festellung von mir sondern nur eine Vermutung.

Ist ja vollkommen ok, war ja von mir auch nur noch einmal als Erklärung gemeint ... mit ein bisschen mehr Unterfütterung als nur einem schlichten "Nein". ;-)
 
Zuletzt bearbeitet:

latinoramon

PCGHX-HWbot-Member (m/w)
Also der eine saugt die Luft an und der andere bläst die warme Luft wieder aus. Wie ein Kreislauf.
Dann müsste man sie etwas anderst einbauen.
Ich bin echt auf die Temperaturen gespannt. Vor allem wann sie drosselt.
Aber ob die Karte dadurch leiser wird, bezweifle ich. Wenn diese Konstruktion erfolg hat, nice work. Abwarten nach dem Stress Test. :cool:
 

MiezeMatze

Software-Overclocker(in)
Also macht je nur Sinn wenn der eine Lüfter (zb der vordere) kalte Luft von außen ansaugt...
...die Lüft dann mit hoher Geschwindigkeit/Druck durch die Kühllamellen gedrückt wird...
und der hintere Lüfter die Warmluft wieder raussaugt...

Ähnlich wie bei vielen dicken Cpu Kühlern wie dem Noctua Cromax...da sind die Lamellen auch oben und seitlich zu und 2 oder 3 Lüfer pusten/saugen in Reihe durch.
Beschleunigter Luftstrom...
https://i.ytimg.com/vi/_Nc2aonsseg/maxresdefault.jpg
Nur halt in Längsrichtung...

Trotzdem wird das Teil deutlich den dicken Trippelfan Luftkühlern unterlegen sein - wie immer.

Aber sieht schick aus!
 

PCTom

BIOS-Overclocker(in)
Also der eine saugt die Luft an und der andere bläst die warme Luft wieder aus. Wie ein Kreislauf.
Dann müsste man sie etwas anderst einbauen.
Ich bin echt auf die Temperaturen gespannt. Vor allem wann sie drosselt.
Aber ob die Karte dadurch leiser wird, bezweifle ich. Wenn diese Konstruktion erfolg hat, nice work. Abwarten nach dem Stress Test. :cool:
Die Konstruktion ist nicht drauf damit es leiser wird, sondern um den Hotspot um den GPU unter Kontrolle zu bekommen ;).
Wenn man es genau nimmt ist die ganze Karte jetzt ein Hotspot.
 

trigger831

Freizeitschrauber(in)
Bin da echt gespannt,was die ersten Tests zu den Temperaturen (VRM/GPU/Memory) sagen werden. Kann mir das noch nicht so richtig vorstellen.
 

plusminus

BIOS-Overclocker(in)
Ich weiß zwar nicht, was du dir unter "Ober/Unterseite" einer Karte vorstellst, jedoch ist GDDR6 für den GA102 quasi schon implizit bestätigt. Igor ist hier relativ gut vernetzt und so wie er das darstellt, gibt es da zumindest bzgl. des verwendeten Speichertyps keine Unsicherheiten mehr. Zudem verbietet sich das umso mehr, da es offensichtlich drei abgestufte Kartenmodelle basierend auf dem GA102 geben wird und HBM2 wird relativ gesehen zunehmend teuerer mit Blick auf die günstigeren Modelle.
Für die großen Quadro's und die Titan hätte sich HBM2 sicherlich gelohnt, jedoch dürften die Fertigungskosten klar dagegen gesprochen haben, denn einen entsprechenden Chip hätte man im Consumer-Segment ausschließlich auf dem teuersten Top-Design verwenden können; die kleineren Modelle würden dagegen deutlich auf die Marge drücken.
(AMD dagegen ist ein anderes Thema; die müssen schlicht mehr fürs gleiche Geld bieten. Entsprechend kann man hier ggf. erwarten zumindest beim Top-Modell HBM2 anzutreffen?)



Anmerkung: Micron teaserte GDDR6 mit 20 Gbps bereits Mitte 2018. Das "teasern" ist wörtlich zu nehmen, denn in Verbindung mit schnellen Chips erweiterte man die Prüfungen und kam bereits damals zu dem Schluss: "[...] it is possible to push Micron Technology, Inc.'s GDDR6 I/O as high as 20Gb/s."




WOW Igor vermutet oder hat festgestellt das GDDR 6 zum Einsatz kommen wird :D

Das ist ja was ganz neues , das wussten wir ja schließlich noch nicht :ugly:

Igor ist wirklich gut vernetzt bravo :daumen:

Der Kühlkörper sieht interesant aus ,wie werden wohl die Spawas gekühltwerden ? :)
 

Lexx

Volt-Modder(in)
Der Kühler ist egal, wird eh unter Wasser gesetzt, wäre echt super wenn man endlich mal Karten ohne Kühler kaufen könnte, von mir aus direkt beim Hersteller mit dem Versprechen zu wissen was man macht.
Die WaKü gerüsteten Customs sind viel zu teuer und nehmen den Bastelspass.
Glaube nicht, dass die wesentlich billiger wären:
Kleinstserie, extra Verpackung, der Stock-Kühler ist in Massenfertigung eh nur Beiwerk
in der Produktkalkulation und Gewährleistung muss trotzdem drauf...

Abgesehen davon sind Preise für Grafikkarten-Custom-Wasserkühler teilweise auch
ganz schön happig.

Aber egal, die nächste - egal welche - kommt bei mir als Premiere auch an den Schlauch.
 
E

eclipso

Guest
Anmerkung: Micron teaserte GDDR6 mit 20 Gbps bereits Mitte 2018. Das "teasern" ist wörtlich zu nehmen, denn in Verbindung mit schnellen Chips erweiterte man die Prüfungen und kam bereits damals zu dem Schluss: "[...] it is possible to push Micron Technology, Inc.'s GDDR6 I/O as high as 20Gb/s."
Kurz beantwortet: Nein.

Es ging dabei um die kurzfristige Umgehung des Protokolls zu Lasten des E/A Arrays (Voltage=Versorgungsspannung), was eigentlich nur aufzeigen sollte welches Potential GDRR6 hat und ob man höhere Geschwindigkeiten auch erreichen kann (da diskutierte man ja 2018 drüber als HBM Ersatz wegen der Kosten und Stacking). War sozusagen eine Demonstration für eine fortschreitende Entwicklung. Wie erinnern uns an die thermische Instabilität bei bestimmten Nv Karten. Das löst man jetzt anders. Ob eine 3080 die hohe Bandbreite überhaupt braucht, ist wieder eine andere Frage. Irgendwo muss es Ansätze zur Preisminderung geben. Das eine Titan unter 2-3K liegt sollte man nicht annehmen, dann kann man auch Selektion betreiben.
 
Zuletzt bearbeitet von einem Moderator:
Oben Unten