Plant Galaxy eine Dual-Geforce-GTX-285-Grafikkarte?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu Plant Galaxy eine Dual-Geforce-GTX-285-Grafikkarte? gefragt. Beachten Sie dabei unsere Forenregeln.

arrow_right.gif
Zurück zum Artikel: Plant Galaxy eine Dual-Geforce-GTX-285-Grafikkarte?
 
Ein weiterer Papiertiger, ned schlecht :ugly: . Eigentlich ist die Technik nicht wirklich neu und das ganze wird vor allem eine Preisfrage. Dennoch werden sich wohl mehr Leute für ne 5870 oder 5970 entscheiden, da diese Karten einfach mehr und vorallem die neuere Techniken und Features bieten, von der DX-11-Kompatibilität mal abgesehen. Das ganze klingt nach Verzweiflung bei den NVidia-Boardpartnern das Weinachtsgeschäft zu überstehen, da die nun erneut anfangen Chips zu kombinieren. Ich weiß nicht, was man weniger gebrauchen kann, eine solche Karte oder Weihnachten. Wer sich so eine Karte noch kauft, muss schon sehr vernarrt in diese Firma sein.
__________________

wenn sie directx11 unterstützt

Wird Sie nicht .

Edit: ach Du meintest das ironisch, sry :schief: .

Gruß Explosiv
 
Zuletzt bearbeitet:
Ein weiterer Papiertiger, ned schlecht :ugly: . Eigentlich ist die Technik nicht wirklich neu und das ganze wird vor allem eine Preisfrage. Dennoch werden sich wohl mehr Leute für ne 5870 oder 5970 entscheiden, da diese Karten einfach mehr und vorallem die neuere Techniken und Features bieten, von der DX-11-Kompatibilität mal abgesehen. Das ganze klingt nach Verzweiflung bei den NVidia-Boardpartnern das Weinachtsgeschäft zu überstehen, da die nun erneut anfangen Chips zu kombinieren. Ich weiß nicht, was man weniger gebrauchen kann, eine solche Karte oder Weihnachten. Wer sich so eine Karte noch kauft, muss schon sehr vernarrt in diese Firma sein.

Das sehe ich ganz genauso!!!

Verstehe auch nicht, wie man jetzt noch Entwicklungskosten in eine Karte invenstiert, die der 5970 (wahrscheinlich) eh hinterher hingt. Und in anbetracht des Kommenden Fermi.
 
Na ja. Die Boardpartner müssen ja auch von irgendwas Leben, und die ATI Karten sind z. Zeit ja auch nicht so gut verfügbar. Wohin soll man also wechseln. Eine Dual GrKa in der Gewichts und Preisklasse, wird sicher auch Ihre Kunden finden. Wie die ASUS Mars.
 
Na ja. Die Boardpartner müssen ja auch von irgendwas Leben, und die ATI Karten sind z. Zeit ja auch nicht so gut verfügbar. Wohin soll man also wechseln. Eine Dual GrKa in der Gewichts und Preisklasse, wird sicher auch Ihre Kunden finden. Wie die ASUS Mars.

Die Asus mars ist ja mehr ne art vermögenssteuer für fanboys.
 
Bin ich der einzige, dem es etwas komisch vorkommt, dass die abgebildeten Kühlkörper ~die Dimension einiger HD5750 Kühler haben? Die Kühlleistung der Dinger dürfte nicht mal in die Nähe der Verlustleistung eines vollständigen g200 kommen, die sind bestenfalls für einen G92 ausreichend.
Und wo auf der Galaxy-Seite findet sich doch gleich dieses verdächtig dicht bestückte (und abgesehen davon mit einer GTX295 identische) PCB?
 
Stimmt, wo Du es jetzt erwähnst, fällt das einem schon arg auf.
Der Kühler sieht sehr dürftig aus, auch auf der Explosions-Darstellung sieht man das sehr schön.
Wo ist denn da die notwendige Kühlfläche in Form von Kühlrippen, das bisschen in der Mitte wird doch wohl kaum reichen :what: ?
Wenn das der finale Kühler sein soll, müssen die Propeller ja permanent Hochtourig laufen :ugly: .

Gruß Explosiv
 
Als wenn ich mir die Grafik so anschaue, dann sehe ich einen großen Fehler.
2 Lüfter sollen pro GPU eine Kühlung bewirken. Wenn die Mitte aber komplett geschlossen, wird so ein Wärmestau erzeugt. Da hätte man Kühlschlitze und Kühlungskanäle mit Einplanen müssen.:schief:

Diese Karte kommte technisch gesehen zu spät.:P
 
Stimmt, wo Du es jetzt erwähnst, fällt das einem schon arg auf.
Der Kühler sieht sehr dürftig aus, auch auf der Explosions-Darstellung sieht man das sehr schön.
Wo ist denn da die notwendige Kühlfläche in Form von Kühlrippen, das bisschen in der Mitte wird doch wohl kaum reichen :what: ?

Unter den Lüftern finden sich sehr flache Kühlblöcke mit radialen/spiralförmigen Kühlrippen. (ähnlich Intel-Boxed-Kühlern)

Als wenn ich mir die Grafik so anschaue, dann sehe ich einen großen Fehler.
2 Lüfter sollen pro GPU eine Kühlung bewirken. Wenn die Mitte aber komplett geschlossen, wird so ein Wärmestau erzeugt. Da hätte man Kühlschlitze und Kühlungskanäle mit Einplanen müssen.:schief:

Den Fehler machen 99% aller Dual-Lüfter-Kühler. Manchmal frage ich mich, welche Leute eigentlich Kühler entwickeln und wie sie auf die Idee kommen, dass Abluft auf magische Weise verschwindet, sobald sie die Wärme aufgenommen hat. Oft muss man ja schon froh sein, wenn die Entwickler nicht allein auf die Selbstdisziplin der Luft bauen, wenn es darum geht, dass sie nach der Beschleunigung durch den Lüfter auch tatsächlich einen Weg durch den Kühlblock nimmt...
 
Wirklich sinvoll finde ich das nicht. Die sollte lieber Nvidia in den Ar*** treten das die mit denn GT300 Karten schneller machen. Bin aber dennoch auf die Karte gespannt. Die Leistung wird sicherlich nicht schlecht sein und auch nicht so teuer wie Mars sein. Der Kühleraufbau gefällt mir gut und scheint gut zu Doppel GPU Grafikkarte zu passen.
 
Was mich auch verwundert, ist, dass die Lüfter genau auf den Chips sitzen.
Ok, ich hab grade erst ne Physik Arbeit verhauen, aber wäre es nicht trotzdem schlauer, EINEN Lüfter in die Mitte zu setzen? So verschenkt man so viel Platz in der Mitte, außerdem ist die Kühlung direkt auf den Chips nicht dolle... Wenn man den in die Mitte setzen würde (bzw. wenigstens annährend), könnte man größere Kühlkörper auf die Chips packen, die Luft würde wohl auch direkt rausgeblasen werden - zu beiden Seiten.
So ist die Lüfternabe genau auf dem Chip, in der Mitte ist NICHTS (die paar Dinger da bewirken eh nichts), es wird sich nur - wie bereits erwähnt - ein Wärmestau bilden.

Die MARS war ja schon total bekloppt, taktet sich bei fast jedem Spiel runter da zu warm... Bei SO EINEM Kühlkörper würds mich nich wundern, wenn das gleiche bei der Karte passieren sollte.
2 solche "Einzelkühler", die nur auf dem Chip sind - wie n zerotherm GX810 (hatte ich mal ;P) - würde die Chips wohl kühler halten... Bei meiner HD4850 hat er auch für den VRAM und Spannungswandler gereicht, jedenfalls hat sich seit dem Musashi nich viel geändert.

Jetzt hab ich schon wieder so nen Roman geschrieben, verdammt! xD
 
Das mit den 2 Lüftern gibs ja noch ein Probelm:

Die MITTE der Lüfter sitzt genau aud der MITTE der Chips. Das heißt da wo am meisten Temperaturunterschied möglich wäre (zur strömenden Luft) gibt es keine strömenden Luft!!!! ... Hier: Erst über längere "Weiterleitung" der Wärme (Wärmeleitung) durch das ALU/Kupfermaterial zu den Fins am Radius und dann mit Wärmeübertragung in die Luft..... das wäre nicht nötig....

Und die Luft bleibt IM GEHÄUSE! Wie immer muß man nochmal erwähnen, dass das gesamte Luft-Kühlsystem eines PCs von den Temperaturunterschieden Kühlkörper/Luft lebt!
 
Das wär übelst sinnlos angesichts der Fermi Karten und angesichts der 5000 von Ati. Desweiteren wäre der Treiber Support von NV Fragwürdig.:daumen2:
 
Diese Karte kommte technisch gesehen zu spät.:P

dito. Jetzt wo es ATI DX11er gibt und die neuen GeForce-Karten quasi in den Startlöchern stehen, wozu dann eine High-End-Grafikkarte die es einfach nicht braucht? Asus hat doch schon bewiesen, das es eine GTX285 GX2 einfach nicht bringen. Darüberhinaus gibt's die HD5970.
 
Zurück