Geforce RTX 3080: Neues Bild des Kühlkörpers aufgetaucht

Und bitte wo ist der Gamingbereich wichtig und wie trennt sich dieser von Computing, Compute?

Ich dachte Nvidia/AMD generiert mehr money mit Gaming.
Aber ich glaub du hörst dich einfach selber gern reden und bevorzugst AMD Hardware, ich bleib bei meiner Meinung.
HBM war ne schöne Fehlentscheidung und viel zu früh. Für Computing sinnvoll, aber das meinte ich ja nicht.

Nv wehrt sich lange gegen Trends, dass kennt man schon.

HBM war kein Trend.

Weil NVIDIA den HPC-Markt wohl nicht aufgeben will!

Geht um den Gaming Markt!
 
Bei Dual Slot könnte man im günstigsten Fall von 14 auf 21 mm Lamellendicke kommen, also +50 Prozent, wenn man die Lüfterdicke nicht verändert. Aber auch dieses Plus wird nur auf circa einem Drittel der Kühlergrundfläche erreicht und Nvidia bringt weitere Opfer für die diagonalen Lamellen und reduziert die Lamellendichte im mittleren Kühlerteil wegen der abweichenden Luftführung deutlich. Am Ende bleiben dann vielleicht 10 Prozent mehr Lamellenfläche im Luftstrom der Lüfter als mit einem konventionellen Design und diese Lamellen werden durch die ungewöhnlich geringe Heatpipe-Zahl ungleichmäßiger erwärmt. Weitere Nachteile erwarte ich durch die Schrägstellung: Zwar kann man die geringere Lamellenzahl bei gleichem Abstand durch die größere Lamellenlänge weitestgehend ausgleichen, aber die Kontaktfläche zwischen Lamellen und Heatpipes sinkt bei einer reduzierten Lamellenzahl und wenn Nvidia die Lamellen nur gesteckt/verpresst hat, wie dies bei Grafikkarten meinem Wissen nach üblich ist, wäre auch der Kontakt jeder einzelnen Lamelle zur Heatpipe schlechter.

tl;dr: Ich stimme dir zu, dass die Kühlfläche etwas größer wird, weil man weniger Kartenvolumen auf das PCB verschwendet. Aber ich denke nicht, dass dies einen großen Unterschied macht. Viel wichtiger ist die sauber Luftführung in gerader Linie durch den Kühlkörper.

90 Prozent des Aufwandes sind definitiv nur für die Optik. Das dürfte besonders für die Schrägstellung der Lamellen und deren Teilung in vier Segmente gelten. Kühltechnisch gleichwertig, vermutlich sogar besser und sicherlich auch günstiger wären durchgehenden Lamellen auf der Vorderseite mit normaler Heatpipe-Führung und zwei saugenden Lüftern dahinter – links einen Diagonallüfter, der seine Abwärme promt zum Slotblech hinausbefördert und rechts (etwas nach hinten versetzt und hinter dickeren Lamellen) ein Axiallüfter, der in Richtung CPU arbeitet. Aber dann wäre die Karte von vorne so "spannend" wie eine Gainward Phantom gewesen.

Natürlich spielt Design eine Rolle, ist ja schließlich ein Consumerprodukt. Nur ist die Frage ob Nvidia alleine für das Design ein so aufwendiges Kühldesign fertigen lässt. Durch die verschienden Bereichen wird das sehr wahrscheinlich alles andere als günstig. Wenn Igors Lab in dem Bezug recht hat wäre der sogar sündhaft teuer. Und insbesondere bei den Grünen ist das ungewöhnlich die Marge aufzugeben, wenn es nicht sein muss. Sofern es sich nicht um irgendwelche Limited Editions handelt wäre ich erstaunt über den Aufwand. Denn auch hier kann man sagen, dass man ausgefallen Designs auch mit klassischen Lüfteranordnung hinbekommt.
Ich würde auch den Vorteil der Kühlfläche nicht unterschätzen. Die alte FE hatte ja ebenfalls keine durchgehende Höhe sondern varierte teilweise deutlich. Ich denke das man insgesamt mehr wie 10% an Fläche gewonnen hat. Auch wenn sich das mit Bildern alleine nicht wirklich sicher sagen lässt und täuschen kann :)
Wie sehr der Kontakt Heatpipe zur Lamelle am Ende einfluss nimmt, kann ich nicht beurteilen, da ich nicht weiß wie sehr der heutigen Kühlern wirklich limitiert/nicht limitiert.
Bei der geradlinigen Luftführung hingegen sehe ich eher Vorteile für die Lautstärke, da am Kühlerende durch den größeren Querschnitt weniger Verwirbelungen entstehen sollten und die Lüfter nicht so stark arbeiten müssen. Das kann man dann natürlich für mehr Kühlleistung aufgeben.
Ich gehe mal von aus, dass es einige Änderungen sind die sich am Ende summieren. Die Kühlluft des einen Lüfters wird direkt vor der CPU abgenommen, welche üblicherweise gut mit Frischluft versorgt wird, die schrägen Lamellen, die die Luft weg von den GPU Lüftern verteilen, wodurch die Lüfter nicht direkt diese Abluft wieder einsaugen. Es ist halt nur die Frage wie gut das am Ende wirklich läuft. Wenn dieser Kühler so kommt würde ich den gerne mal in kleinen Cases sehen.
 
Ich dachte Nvidia/AMD generiert mehr money mit Gaming.
Aber ich glaub du hörst dich einfach selber gern reden und bevorzugst AMD Hardware, ich bleib bei meiner Meinung.
Und ich glaube du schreibst viel Unsinn. Eine GT102 oder GT104 wird auch im Pro Segment verwendet (es ist die gleiche SKU und das gleiche PCB) und Nv arbeitet emsig daran, auch HBM verwenden zu können. Und nein, ich kritisiere beide Hersteller und "verwende" auch beide wenn's passt sowie die dazugehörigen Softwareumfelder.

Was ist bei dir Computing? Algorithmische Prozesse und dazugehörige Prozessoren werden auch unter Gaming genutzt (seit Ewigkeiten). Es gibt dort schlichtweg keine Trennung, wenn man spezifische Aufgaben und dazugehörige Entwicklungen außen vor lässt. Das Computing als Oberbegriff teilt sich dabei in viele Bereiche zu dem auch Compute unter Spielen gehört.

Bevor du also dass nächste mal eher überhelblich ausholst, solltest du dich grundlegend damit beschäftigen was du schreibst und auf Hinweise achten, die dir dein Gegenüber sogar mitgibt.
 
Deshalb stapelt Intel bei Lakefield Speicher, Kerne und Funktionen übereinander und will die Prozessoren in Mobile verwenden. Klar HBM ist Müll weil AMD in verwendet.

Bei manchen Leuten muss man sich echt fragen wo technikbegeistert anfängt?
 
HBM ist zum jetzigen Zeitpunkt im Desktop-Bereich die schlechtere Wahl, da braucht man nicht weiter drüber zu diskutieren. Man hat erhebliche Zusatzkosten für RAM und Substrat (erst recht ohne EMIB) und weder einen sinnvollen Verwendungszweck für eine wesentlich höhere Speichertransferrate, noch eine Möglichkeit, diese mit einer bezahlbaren Zahl an Stacks zu erreichen, ohne die knappen Effizienzvorteile aufzugeben. Die große Stärke von HBM, der geringere Platzverbrauch, spielt dagegen noch keine Rolle denn bislang wird der Speicherausbau nicht durch verfügbare PCB-Fläche, sondern durch das Budget limitiert. Eine Speicherzelle HBM kostet aber genauso viel wie eine Speicherzelle GDDR und der Chip drum herum wegen der Vias und dem aufwendigeren Packaging sogar noch etwas mehr – unabhängig von etwaigen weiteren Preisaufschlägen für "High-End", "Neu" und "kleine Stückzahlen" ist HBM in der Fertigung einfach aufwendiger. Im HPC-Markt, wo wesentlich mehr Speicher üblich ist und eine kompakte Bauweise nicht nur Racks einspart, sondern auch Entfernungen verkleinert und damit Interconnects vereinfacht, lohnt sich das. Im High-End-Ultra-Mobile-Bereich würde es sich auch rentieren, aber wie Kaby Lake G bewiesen hat, ist dieses Marktsegment vernachlässigbar klein. Überall anders ist GDDR die günstigere Lösung.

Lakefield nutzt übrigens LPDDR4X, der zwar mehr Chips nebeneinander (!) in ein Package packt, technisch aber ganz normaler DDR ist.
 
Das teure am HBM war nicht das Material (Interposer z.B. ist spottbillig), sondern das Packaging. Auch bedingt durch hohe Ausschussraten, vorallem zu Beginn (Fiji, GP100). Da wäre es für ne Betrachtung interessant, was sich beim Packaging in den letzten Jahren getan hat.

Davon ab wird immer so getan, als ob es GDDR Lösungen "kostenlos" gibt. Der Design- und Fertigungsaufwand ist auch nicht ohne, hierbei vorallem das Design des PCB und der Signalwege. Mit wachsender Speichermenge und Durchsatzrate wird es immer aufwendiger, kann man ja jetzt schon erahnen.

Also so pauschal würde ich das nicht immer abtun, auch wenn mir da grad Zahlen fehlen, um mal was zu überschlagen.

Außerdem finde ich HBM technologisch ziemlich geil. In der Vergangenheit hatte ich das Gefühl, dass dieser Speicherstandard in der Community eher gehatet wird. Warum auch immer.
 
Wann immer Emotionen jenseits von "faszinierend" und vielleicht noch "sieht geil aus" bei banaler Technik ins Spiel kommen, ist es Zeit das Weite zu suchen.

Das teure am HBM war nicht das Material (Interposer z.B. ist spottbillig), sondern das Packaging. Auch bedingt durch hohe Ausschussraten, vorallem zu Beginn (Fiji, GP100). Da wäre es für ne Betrachtung interessant, was sich beim Packaging in den letzten Jahren getan hat.

Davon ab wird immer so getan, als ob es GDDR Lösungen "kostenlos" gibt. Der Design- und Fertigungsaufwand ist auch nicht ohne, hierbei vorallem das Design des PCB und der Signalwege. Mit wachsender Speichermenge und Durchsatzrate wird es immer aufwendiger, kann man ja jetzt schon erahnen.

Also so pauschal würde ich das nicht immer abtun, auch wenn mir da grad Zahlen fehlen, um mal was zu überschlagen.

Außerdem finde ich HBM technologisch ziemlich geil. In der Vergangenheit hatte ich das Gefühl, dass dieser Speicherstandard in der Community eher gehatet wird. Warum auch immer.

Die Entwicklung von Speicherbussen verläuft graduell, da fängt niemand bei null an. Ein paar 100 MHz mehr rauszukitzeln ist zwar ein gewisser Aufwand, aber umgelegt auf die Stückzahlen des gesamten Desktop-Sektors vernachlässigbar. Fertigung und Verarbeitung eines Interposers zahlt man dagegen bei jeder einzelnen Karte und während das bei der Marge eines High-End-Produktes noch drin ist, wird es spätestens in der Mittelklasse sehr schwierig, zumal es gar keine halben HBM-Stacks gibt. Muss man aber für eine 150-Euro-Karte sowieso ein aktuelles GDDR-Interface entwickeln, kann man es in entsprechend vervielfachter Form auch gleich für das Topmodell mit benutzen. Nvidia verbaut aktuell von der RTX 2060 bis zur Titan RTX GDDR6 mit 7 GT/s.
 
HBM ist zum jetzigen Zeitpunkt im Desktop-Bereich die schlechtere Wahl, da braucht man nicht weiter drüber zu diskutieren. Man hat erhebliche Zusatzkosten für RAM und Substrat (erst recht ohne EMIB) und weder einen sinnvollen Verwendungszweck für eine wesentlich höhere Speichertransferrate, noch eine Möglichkeit, diese mit einer bezahlbaren Zahl an Stacks zu erreichen, ohne die knappen Effizienzvorteile aufzugeben. Die große Stärke von HBM, der geringere Platzverbrauch, spielt dagegen noch keine Rolle denn bislang wird der Speicherausbau nicht durch verfügbare PCB-Fläche, sondern durch das Budget limitiert.
Ist sie überhaupt nicht, dass ist ja das Gerücht. HBM spart Platz und durch das breitere Interface lassen sich fast alle Chiplet verwenden, die Ausbeute steigt stark an, weil die Taktrate niedriger ausfällt. Das man auch Strom spart ist ein Nebeneffekt davon. Nur muss man dafür einen kompatiblen MC entwickeln, das ist alles und warum sollte Nv technisch etwas für AMD pushen?

Wer glaubt GDDR6X ist billiger, glaubt auch an den Weihnachtsmann, da ist wirklich Flucht angesagt. Das Ganze Gequatsche darüber ist einfach blauer Dunst, ohne das Intel daran beteiligt wäre.

Edit sagt: ... ich fand schon absolut lächerlich, wie man die Preise bei HBM2 der RVII bestimmte, die Karte kostete ja 729$ die Hälfte davon kostete der HBM2 also 364,50$ errechnete der begeisterte Hardwarefan, ergo kostet ein 4HI Stack 91,12$ (Steuer- und Logistikkosten unbereinigt).

Hahahaha und wo bleibt die Marge für AMD, die liegt bei knapp 50%, daher...nicht jeden Quark glauben und nein, sie haben die Karte nicht verschenkt!

Und falls sich jemand fragt wie das für die Partner läuft wenn die kein Auftragsfertiger sind oder Referenzen abnehmen, die kaufen GPU's inklusive VRAM, ob HBM oder GDDR5/6 Banane. Vor allem ist das ein dickes Geschäft für die IHV's.
 
Zuletzt bearbeitet von einem Moderator:
Ist sie überhaupt nicht, dass ist ja das Gerücht. HBM spart Platz [...]

"HBM spart Platz": Korrekt aber für die aktuellen Mainstream-Speicherbestücken derzeit noch sekundär und das Platzsparen kostet zusätzliches Geld, weil der Interposer deutlich teuerer ist als ein einfaches Package-Substrat für einen normalen Chip.

"durch das breitere Interface lassen sich fast alle Chiplet verwende": Inkorrekt, hat nichts mit der Chipausbeute zu tun. Darüber hinaus, Speicherchips haben per se mit die höchsten Yields in der Halbleiterfertigung.
Das extrem breite Interface und die niedrige Pro-Pin-Geschwindigkeit dienen der Bandbreitenerhöhung UND dem Stromsparen, was ein wesentliches Kriterium für HBM ist (und kein "Nebeneffekt"). Der immer weiter steigende Energiebedarf für die ungeremst wachsenden Speichersubsysteme (Kapazität wie auch Bandbreite) wird zunehmend zum Problem.

"warum sollte Nv technisch etwas für AMD pushen?" Unzutreffend, AMD hat mittlerweile nicht mehr damit zu tun als Intel, nVidia Xilinx und andere, denn HBM ist seit 2013 ein offizieller JEDEC-Standard und wird von denen in Verbindung mit den Speicherherstellern vorangetrieben. Genaugenommen haben Intel und nVidia schon seit längerem mehr mit HBM zu tun als AMD selbst.

"Wer glaubt GDDR6X ist billiger, glaubt auch an den Weihnachtsmann": Das ist keine Frage des Glaubens sondern schlichte wirtschaftliche Beobachtung ... und das bei allen Marktteilnehmern, inkl. AMD, Intel, nVidia & Co. HBM wird nur dort eingesetzt, wo es technisch sinnvoll vertretbar ist und die zusätzlichen Kosten durch technische Vorteile ausgeglichen werden können. Andernfalls greift man auf normales (LP)DDR oder GDDR zurück (je nach konkretem Produkt). Vergleichbares beobachtet man auch bei nVidia, die bspw. HBM2 noch vor AMD einsetzten, jedoch nur dort, wo es sinnvoll und wirtschaftlich war.
Und im Gegesatz zu einem einfachen DRAM-Chip ist ein HBM-Stack weitaus komplexer, denn hier müssen die Chips mit extremer Präzision übereinander gestapelt und Tausende von TSVs ausgerichtet und validiert werden. Hinzu kommt auch ein komplexeres Interface.
AMD hat in der Vergangenheit nicht HBM verwendet, weil es ja angeblich so bilig ist, sondern weil sie es mussten, denn andernfalls wären sie noch weniger konkurrenzfähig gewesen mit ihren jeweiligen Designs.
Und die Radeon VII ist dahingehend auch ein schönes Beispiel. Die hat AMD unerwartet und ohne Ankündigung ausgekoppelt und man wusste zu Beginn auch gar nicht so recht, wie sie im Consumer-Markt positioniert werden sollte und hat sich hier mehrfach wiedersprochen. Als die Karte dann kam, war sie nicht wirklich konkurrenzfähig weil sie viel zu teuer im Vergleich zu den Geforce-Modellen war. Und als dann der Preis zwei, drei Monate später zu Fallen begann wurde die Karte nur zwei, drei weitere Monate später bereits EOL gesetzt, weil der Verkauf für AMD damit unrentabel wurde.
Entsprechend schön auch von dir der Bezug zur Marge, auch wenn so nicht von dir intendiert ;-), etwas gesunkener Preis und weg war die Karte und das obwohl AMD die Lücke im oberen Segment mit nichts füllen konnte (absehbar und konkret gar für die rund nächsten 12 - 15 Monate), schlicht weil die Marge bei dem Design unterirdisch gewesen sein dürfte, was auch nicht verwunden sollte, da das Design inkl. PCB ursprünglich für Instinct-Karten konzipiert wurde, die für das 6- bis 14-fache verkauft werden/wurden.
 
Die 240$ für die vier 4Hi-Stack sind einfach Schwachfug und darauf baut dieses ganze Kartenhaus auf, von irgendwem in die Welt gesetzt der HBM nicht braucht. Zumal es für jeden Bereich und jedes Segment Konkurrenz gibt, was auch gut so ist. Für Vectorbeschleuniger ist GDDR undenkbar.

Sieh dir einfach das Phy und SI einer Hawaii Karte an und du weist was das AMD bringt. Die Karte die bei AMD vom Band viel und die sie dann mit Protreiberkompatibilität weiterverkauften solltest du dir in bestimmten Anwendungen und für den Preis auch mal ansehen, da ist nicht nur Nv vorne mit dabei. Ist für hier aber sicher nicht relevant. Auf jeden Fall animierte es Nv, es gleich zu tun. Strikte Trennung von HPC, Computing (wie hier immer so schön geschrieben wird) und Gaming wird es auch zukünftig nicht geben, eher werden beide Bereiche weiter ineinander fließen. Grundsätzlich sind zukünftige Entwicklung so flexibel, das sie expliziet für einen Bereich ausgelegt werden können und dazu gehört auch HBM.

Und zu dem Rest wird immer mehr dazu gedichtet, in jedem Forum. Was du gestern dazu geschrieben hast passt auch dort. Ein bisschen Wahrheit ist an jeder Lüge und oder Gerücht, und umgekehrt ist es genauso.
 
Ich kann's auch einfach mal schreiben, die Kosten lagen bei der Vega56/64 bei ca. 170$, IP+HBM inklusive Logistik, bei 8 GiB GDDR5 für Nv bei 130$ ohne Logistik. Und ich meine GDDR5! Die Effizienzersparnis von HBM zu HBM2 liegt bei 8%, von GDDR5 zu HBM bei 40%.

Ja doppelt und dreifach so teuer, klar. Quark mit Soße....:schief:

Das entspricht sogar fast der geringen Marge die AMD erhebt, sie verdienen insgesamt weniger daran, stimmt.
 
Wir Reden von einer Branche in der Mainboards (angeblich) vor die Updatewand fahren weil <2€ für genügend UEFI-Speicher eingespart wurde und du nennst den von dir selbst aufgezeigten Differenzbetrages von annähernd 40$ vernachlässigbar? Das passt nicht zusammen.
 
Du glaubst das sei der Grund dafür? Wie wäre es damit, dass nicht genügend Bausteine in entsprechender Größe am Markt verfügbar waren? Und was nimmst du dann? Das AMD den internen Aufbau und das I/O grundlegend ändert, war für die Partner zu dem Zeitpunkt sicher nicht ersichtlich, die ROMs sind verlötet und ganz zuletzt ist das einfach nur eine Ausrede, nicht zuzulassen das neuste Hardware auch auf alten Boards läuft.

Ich habe auch extra das Bsp. der Vega10 genommen, weil GDDR6 deutlich teurer ist als GDDR5 und was du an "OHNE Logistik" nicht verstehst, ist mir auch schleierhaft. Bei den Speichertypen wird gern der Grundpreis hergenommen um Vergleiche anzustellen (wobei er bei dem HBM Modul gerne als platziert und verlötet verkauft wird), für den die IHVs diese an die GPU Hersteller abgeben, aber das du 8 Module platzieren, stabilisieren und verlöten musst interessiert keinen Menschen mehr. Was dabei manchmal rauskommt und wo gespart wird, haben wir ja an der 2080ti gesehen! Ich kenne keine AMD Karte mit HBM, wo der Speicher ein Problem ist und dessen Position im Layout.

Die Kosten dürften fast zu identisch sein und für GDDR6 deutlich höher liegen, was man an Preisgestaltung der MSI Karte mit schnelleren Modulen auch ablesen kann, und so ging es ersten HBM Iterationen sicher auch. Das heißt nicht, dass sie doppelt so teuer waren, sondern liegt oft an der Verfügbarkeit weil alle wie wild auf die Bestellliste klicken und das Gaming dort wichtig ist, ist kaum glaubhaft. Selektierte Hardware geht vor allem in Bereiche die die Preiskategorie von Custom deutlich übersteigen.

Falls ich dazu was empfehlen darf, schreibt bitte sowas nicht als Moderation, weil jeder mit dieser Info als gesichert losrennt und denkt das sei so, wobei man selbst nur spekuliert.
 
Zuletzt bearbeitet von einem Moderator:
woher holst Du dir eigentlich deine informationen? oder ist das alles so gesetzt, allein weil Du es behauptest?
 
Die Borniertheit wenn es um AMD Entwicklungen geht ist kaum verständlich. Wer will denn als technikaversierter Freak nicht das Neuste?

Von den 16gb der R7 kann man doch Jahre zerren wenn Raytracing selbst noch keine Größe ist. War die erste Karte mit 16gb, in 7nm und mit HBM2 für den Normalo. Was interessiert mich da der Preis für Einzelkomponenten. Denkt jemand AMD hätte diese Karte dann für 400 Euro verschenkt? Quatsch ist sowas vor allem wenn NVidia für den billigeren Standard dann mehr verlangt. Wo spiegelt sich denn in den Preisen wieder das GDDR preiswerter ausfällt? Doch nirgendwo. Die verlangen bei der Titan für 8gb höheren Speicherplatz und 25 Prozent mehr GPU Leistung knapp 2000 Euro mehr. Das ist dann egal.

Also ich hätte gerne 16gb HBM2 auch a. Wie der heißt und was der kostet ist mir doch egal wenn die Karte in mein Beuteschema passt. Wenn die R7 nicht so teuer gewesen wäre hätte ich wahrscheinlich eine gekauft. HBM hat ja auch noch andere Vorteile. Er ermöglicht neben den Ersparnissen wie Energie und Platz auch noch Material zu sparen weil er die Miniaturisierung vorantreibt und die Anbindung einfacher ausgeführt wird. Man braucht nur einen Platz für ein Speichermodul nicht 8 oder 16. Stellt euch mal ein Speichermodul als RAM mit HBM vor wenn das ginge. Das fällt winzig aus. Die Mehrkosten wenn sie vorhanden sind holt man woanders wieder rein.

Für Gamer hat GDDR keinen Vorteil er ist langsamer, braucht mehr Energie, mehr Platz und die Ersparnisse die er vermeintlich in der Anschaffung mitbringt dienen eher dafür die Marge der Hersteller zu erhöhen anstatt sie an den Käufer weitergegeben werden. Dann wähle ich persönlich den modernen Standard. Er kostet mich in der Anschaffung das Gleiche oder ist dann im Gesamtpaket sogar preiswerter. Der R7 hat doppelt soviel Speicher wie eine 2080 und ist ohne Raytracing fast genauso schnell war aber 100 Euro preiswerter.
 
Zuletzt bearbeitet von einem Moderator:
woher holst Du dir eigentlich deine informationen? oder ist das alles so gesetzt, allein weil Du es behauptest?

Woher holt ihr denn eure Informationen? Wenn man sich die Qualität einiger Beiträge hier anschaut ist das alles frei weg aus der Nase gezogen weil es nur darum geht AMD zu bashen.
 
Ich fragte nicht für einen Freund, ich fragte für mich selbst. Und zwar aus reinem Interesse.
 
Wenn jemand so konkrete Zahlen in den Raum wirft wäre eine valide Quelle schön ansonsten nehme ich das halt nicht für voll :ka:


Gesendet von iPhone mit Tapatalk
 
Zurück