Geforce GTX 590: Doppelter GF110 tritt gegen Antilles alias HD 6990 an

Ich wechsele schon mal vorsichtshalber zu einem günstigen Stromanbieter :D

Aber vielleicht spare ich ja auch durch Thermi (der mit der Lizenz zum Grillen) Heizkosten, was sich dann vielleicht sogar ausgleicht :P
 
also diese Labelpolitik geht mir echt gegen den Strich. Ich bin davon als pcgh-user ja nich betroffen, aber es ist mir echt unsympathisch, dass AMD und Nvidia die Bezeichnungen immer transparenter gestalten. Bei einer Dual Karte will ich ein X2 oder ähnliche Hinweise sehen
 
Selbst wenn da "nur" zwei 570er Gf 110 Chip's verwendet werden, dann braucht es mindestens die 375 Watt !

Das ganze soll ja grundsätzlich auch erstmal mit luft gekühlt werden und obwohl da sicherlich ein großer Vapor Chamber Kühler drauf Platz finden könnte, müsste dieser von mindestens zwei 92er Lüfter'n versorgt werden.

Ich glaube es geht nicht ohne eine Konstruktion, bei der nicht mindestens die Hälfte der Abluft ins Case geblasen wird. Oder aber man hätte eine Karte die deutlich lauter ist als eine GTX 480 !

Die GTX 480 Lightning von MSI hat ja vorgemacht das sowas eigentlich gangbar gemacht werden kann. Sie zeigt aber auch das es nicht leise gehen wird. Bleibt nur bessere Kühlung. Wer heute ne Highend Graka kauft und an eine Wakü anschließen will, kauft GTX 480. 30% billiger und nur 10% langsamer als GTX 580 im Extremeinsatz. Im Notfall nimmt man halt zwei :)
 
Zuletzt bearbeitet:
wer sich 2 480 leisten kann den stört der preis einer 580 oder 2 auch nicht:devil:
und die leistung braucht man als normaler zocker so gut wie in keinem game
 
Naja ich seh die Meldung dann doch ehr skeptisch, die gtx 580 kommt mit der Schutzschaltung auf ~250watt mal 2 macht 500Watt ,wenn man hiermal nur über den Daumen gepeilt den Dreisatz hernimmt und Annimmt das der Stromverbrauch = Fps ist(sehr grob da gewisse Teile in der Gpu wie der Speichercontroller auch eine gewisse Mindestspannung brauchen) komm ich bei 375 Watt auf ca. 75% der Leistung pro Gpu im Verhälltniss zur 580
Für mich würd da doch ehr ein Voll funktionierender Gf104 in Betracht kommen natürlich als superduper neuen Chip alla gf114 ;P
 
Rechenleistung und Verlustleistung stehen aber nicht in linearem Bezug ;)
Eine Senkung der Taktraten würden zugleich auch eine Senkung der Spannung und damit eine deutliche Senkung der Verlustleistung ermöglichen. Die pro-Chip-Leistung würde vielleicht nicht mehr weit über einem vollausgebauten, vollgetaktetem gf104 liegen - aber die Verlustleistung wäre geringer. (zwei volle gf104 dürften ebenfalls die 300W Grenze sprengen)
 
solange es NVIDIA oder AMD nicht hin bekommen das wirklich jede GPU die Hälfte der Arbeit vollrichtet halte ich von diesen extrem teuren Multi GPU Karten nix.

Wenn PCGH einen Bericht liefert womit es einer der Hersteller geschafft hat das wirklich die GPUs je ein Bild zum 100 % im Wechsel berechnet oder beide GPUs synchron sich die Berechnung von Bildabschnitten teilen, dann finde ich die Multi GPUs Karten ihren Preis wer ;)
 
solange es NVIDIA oder AMD nicht hin bekommen das wirklich jede GPU die Hälfte der Arbeit vollrichtet halte ich von diesen extrem teuren Multi GPU Karten nix.

Wenn PCGH einen Bericht liefert womit es einer der Hersteller geschafft hat das wirklich die GPUs je ein Bild zum 100 % im Wechsel berechnet oder beide GPUs synchron sich die Berechnung von Bildabschnitten teilen, dann finde ich die Multi GPUs Karten ihren Preis wer ;)

Profi Grafikkarten können das haben aber nicht so viel Leistung ausser ähm ein Schrank voll der Teile. Darüber wurde glaub ich schon mal berichtet wenn ich mich nicht täusche
 
Mal davon abgesehen finde ich es interessant, dass sich NV sowas antut.
Kriegen danach eh nur zu hören, dass sowas keiner brauch und die Stromkosten und microruckeln...
Irgendwie erweckt das in mir den Gedanken, dass Cayman doch mehr drauf hat als alle glauben und die nur mit der Dual-GPU-Lösung die Krone retten können!
 
Mal davon abgesehen finde ich es interessant, dass sich NV sowas antut.
Kriegen danach eh nur zu hören, dass sowas keiner brauch und die Stromkosten und microruckeln...
Irgendwie erweckt das in mir den Gedanken, dass Cayman doch mehr drauf hat als alle glauben und die nur mit der Dual-GPU-Lösung die Krone retten können!

Da wär ich gar nicht mal so sicher. Falls es vielen noch nicht aufgefallen ist, vorallem in den USA scheren sich viele Bencher nen feuchten Furz um den Verbrauch. Im Evga Forum haben User schon ein Quad-SLI mit GTX 480 auf die Beine gestellt mit 2 Netzteilen, ohne auch nur einen Gedanken an nen hohen Verbrauch zu verschenken. Oder guckt mal in Asien und selbst hier in Europa hat es nen Haufen Leute, die sich nicht gross drum kümmern (guckt mal in Russland, was da Leute zum Thema Stromverbrauch sagen). Ergo wird es immer(!) irgendwelche Leute gegen, die selbst solche Übermonster lechzend kaufen würden.
Persönlich interessiert mich der Verbrauch auch nicht gross (sonst würd ich ja kein 750W Netzteil bei ner 460 einbauen ;-) ), da ich Ende Jahr jeweils nur nen seeeeeeeeeeeeeehr kleinen Aufpreis dank Solarzellen auf Hausdach zahlen muss : Es lebe der Fortschritt :-)
 
Zuletzt bearbeitet:
wen stört der Verbrauch wenn die Leistung passt,
alles nur geflame.
ein Lamborghini Fahrer wird sich über 16 - 20 l Verbrauch auch keine Gedanken machen.
 
Das ist richtig. Aber in meiner Aussage geht es nicht nur um den Verbrauch, sondern um die Idee, sich selbst dir Leistungskrone ab zu jagen.
Das kostet Gelder für die Entwicklung und Nerven. Der Gewinn bei dualgpu karten dürfte sich seh in grenzen halten.
 
Hier geht es aber wieder mal um Prestige und das verstehe die Meisten immernoch nicht.
Es ist scheißegal wie viel die Karte verbraucht oder wie viele Leute sowas kaufen.
1. Wird es immer Leute geben, die soetwas kaufen.
2. Der promotion-Wert so einer Graka, wenn sie denn wirklich die schnellste Karte sein wird, ist viel höher anzusehen, als dies die meisten tun.
Denn dadurch werden die ganzen Mainstreamkarten von dem jeweiligen Hersteller hervorgehoben.
Der Mediamarkt-Käufer hört nunmal irgendwo, dass nVidia mit seiner Highend Karte ala GTX590 das schnellste Pferd im Stall hat und schließt nunmal daraus, dass die kleineren Ableger ebenfalls besser sind, als die von der Konkurrenz.
Nicht jeder Beitzer eines PC's informiert sich umfassen mit den einzelnen Karten. Dort wird gehört: nVidia hat die schnellste Karte, deshalb kaufe ich nVidia.
Und genau das bringt Marktanteile, was viel wichtiger ist, als die lächerlichen Produktions-und Entwicklungskosten für so eine Dual-GPU.
 
wird man die eigendlich im 2x ,3x,4x Sli fahren können xD ?
datt geheuese will ich mal sehen und das netzteil erst :D
:lol::lol::lol:
Ich lade mal später ein Foto von meinem Cousin hoch der sich mit seinem pc einen eigenversuch gemacht hat mit ner GTX 460 4xSLI
der hat immerhin eine 1200 Watt Netzteil :schief:
Verbrauch halt :schief:
Das ist machbar mit viel erfindungsgeist xD
 
Hier mal ein Video von 4x GTX 580 und vorallem, wie brutal gut die skalieren: Asus Geforce GTX580 im 4fach SLI | HardwareClips - Dein Hardware Video-Portal. Man beachte das a) Board (saugt extrem viel) und b) was die für ein Netzteil genutzt haben -> Antec Quattro 1200. So extrem viel Saft braucht man auch nicht unbedingt. Und sonst knallt man halt 2 Netzteile zusammen. Gab ja in ner PCGH mal ne Anleitung dazu, wie man dies macht.
Die 590 (oder doch 595? -> News auf Fudzilla ;-)) kann man wohl höchstens im SLI nutzen, 3-Way oder 4-Way wird wohl kaum gehen, da man keine 8 GPUs zusammen nutzen kann.
 
Zurück