Bericht: Dual-GPU-Grafikkarten Geforce GTX 590 mit handselektierten Chips

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu Bericht: Dual-GPU-Grafikkarten Geforce GTX 590 mit handselektierten Chips gefragt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Bericht: Dual-GPU-Grafikkarten Geforce GTX 590 mit handselektierten Chips
 
handselektiert ist immer gut. somit werden die karten höchstwahrscheinlich übertaktungsmonster. amd kann schonmal das fernglas auspacken :lol:

edit: sorry elnino82 :D
 
erster! :) (EDIT: DAMN! ;) )

Auch wenn diese Karte noch Zukunftsmusik ist: träumen darf man ja :) Bei so einer Stückzahl und dem Specs der Karte wird sie wohl verdammt teuer --> nicht für mein Portemonnaie konzipiert :)
 
handselektiert ist immer gut. somit werden die karten höchstwahrscheinlich übertaktungsmonster. amd kann schonmal das fernglas auspacken :lol:

:ugly::lol:

Ist nicht nur besonders gut sondern auch besonders teuer.

2x8 polige Versorgung langt selbst bei den Handselektierten Chips gerade so aus, um sie mit niedrigen Taktraten zu betreiben. Was anderes steht auch zwischen den Zeilen gelesen nicht in den News ;)

AMD wird es genau so machen, momentan bleibt den Herstellen ja nichts anderes übrig bis GF und TSMC die neuen Prozesse in kleineren Strukturen im Griff haben.
 
ist ja schön das dann die ganzen gf110 handselktiert fürdie 590gtx rausgesucht werden das freut natürlich die käufen der singlekarte mit gf110 die dann weniger gute chips im umlauf haben :)
 
handselektiert ist immer gut. somit werden die karten höchstwahrscheinlich übertaktungsmonster. amd kann schonmal das fernglas auspacken :lol:

edit: sorry elnino82 :D

wollt auch grad sagen, da wird kaum oc potenzial sein, bei den chips schon, aber ohne modifizierte spannungsversorgung könnte es passieren, dass man auf leds im rechner verzichten kann, dank rotglühenden kabeln ;)

ich denke das werden die 2 schlechtesten dual-karten (in relation gesehen), die es bisher gab (also antilles und die bude hier).
 
handselektiert ist immer gut. somit werden die karten höchstwahrscheinlich übertaktungsmonster. amd kann schonmal das fernglas auspacken :lol:

edit: sorry elnino82 :D


:lol: genau anders rum. NV muss selektiren um überhaupt was zu stande zu bringen :lol:Na wenn man nur so mithalten kann, ist das schon traurig. :daumen2:
Aber im ernsz. Irgend was hast du nicht verstanden, von wegen OC. Lies noch mal, warum man selektiert und Poste dann noch mal. OK :schief: NV FAN lol
 
:lol: genau anders rum. NV muss selektiren um überhaupt was zu stande zu bringen :lol:Na wenn man nur so mithalten kann, ist das schon traurig. :daumen2:
Aber im ernsz. Irgend was hast du nicht verstanden, von wegen OC. Lies noch mal, warum man selektiert und Poste dann noch mal. OK :schief: NV FAN lol


und du meinst, bei amd wird das soviel besser?
 
Wie bisher alle Dual-GPUs, ist auch diese komplett sinnfrei, da viel zu teuer, viel zu laut, viel zu stromhungrig und mit Mikrorucklern. Dürfte wohl nur für Leute interessant, die maximale 3DMark Ergebnisse brauchen, weshalb auch immer, am besten noch im Triple-Sli^^. Oder für Leute, die auf mehreren Monitoren zocken. Also Leuten, denen Preis-Leistung egal ist^^. Dass das Teil nun auch schon am maximalen PCI-E-Spezifkations Limit läuft machts net besser.

Naja immerhin schafft Nvidia es, die Mikroruckler ziemlich einzudämmen, hatte mal mit ner 9800GX2 Crysis gezockt und das ging schon ohne, dass mir große Störungen aufgefallen wären.

In gängigen Auflösungen (bis Full HD) braucht so ein Teil heutzutage aber wirklich niemand. Wenn es mal Spiele gibt, die das wirklich brauchen, wirds auch schon Single-GPUs geben mit der Leistung (s. 7950GX2, 9800GX2, GTX 295).
 
Zuletzt bearbeitet:
HAHA AMD Fanboy
FAIL

da kann sich AMD noch so weit strecken, NV wird klar die schnellste und OC freundlichste Karte haben


ich bezweifel das wirklich, hawx würde 2 volle 6970 bei ca 410w sehen, 2 580 vor fast 500w.
wenn nv es schafft die 130w allein durch spannung einzusparen, hättest du recht, was die fps angeht, aber oc potenzial = 0. dann gibts da noch furmark und ähnliches, für den eine drosselung eingeführt werden müsste.

amd muss ebenfalls sein powertune bemühen um bei den 375w zu bleiben, oc-potenzial ebenfalls 0. besser gesagt, wird verpuffen.


am ende werden die beiden karten ungefähr gleichschnell, gebremst durch 2*8-pin stecker.

es beiben also nur hersteller, die wahnsinns platinenlayouts entwickeln um die 375w grenze zu sprengen.
und davon wirds, ich schätze mal, 2 geben.

edit:
total vergessen, die asus ares lag ja schon knapp vor 500w. aber davn gabs ja nun auch nicht gerade viele ;)
 
Zuletzt bearbeitet:
Wie bisher alle Dual-GPUs, ist auch diese komplett sinnfrei, da viel zu teuer, viel zu laut, viel zu stromhungrig und mit Mikrorucklern. Dürfte wohl nur für Leute interessant, die maximale 3DMark Ergebnisse brauchen, weshalb auch immer, am besten noch im Triple-Sli^^. Oder für Leute, die auf mehreren Monitoren zocken. Also Leuten, denen Preis-Leistung egal ist^^. Dass das Teil nun auch schon am maximalen PCI-E-Spezifkations Limit läuft machts net besser.

Naja immerhin schafft Nvidia es, die Mikroruckler ziemlich einzudämmen, hatte mal mit ner 9800GX2 Crysis gezockt und das ging schon ohne, dass mir große Störungen aufgefallen wären.

In gängigen Auflösungen (bis Full HD) braucht so ein Teil heutzutage aber wirklich niemand. Wenn es mal Spiele gibt, die das wirklich brauchen, wirds auch schon Single-GPUs geben mit der Leistung (s. 7950GX2, 9800GX2, GTX 295).

Das kommt drauf an welche Einstellungen man neben der Auflösung noch hat.
Wenn man heutige Spiele auf maximalen Settings spielen will dann kommt man mit ner einzelnen GTX 580 nicht aus (siehe z.B. Palit Geforce GTX 580 im Hands-on-Test: Was bringen 3 GiByte RAM? - fermi, geforce, nvidia)

In dem Test erreicht ne GTX 580 knappe 37 FPS in Crysis Warhead, DX9 @ 1920x1080 4xMSAA, 16xAF was ja 'mäßig' spielbar ist.

Unter maximal verstehe ich aber DX10/11, 32xMSAA, 16xAF ggf. DoF, Tesselation und PhysX noch dazu (z.B. Metro 2033).
Da bricht ne 580 gnadenlos ein :P.

Mein GTX 460 SLI System (was ja in etwa der Leistung einer GTX 580 entspricht) konnte Metro mit den o.g. Settings bei ner kleinen Auflösung von 1280 grade mal mit 20 FPS handlen (und da war MSAA 'nur' auf 16fach gestellt).
 
Zuletzt bearbeitet:
bulldozer schrieb:
In dem Test erreicht ne GTX 580 knappe 37 FPS in Crysis Warhead, DX9 @ 1920x1080 4xMSAA, 16xAF was ja 'mäßig' spielbar ist.

Unter maximal verstehe ich aber DX10/11, 32xMSAA, 16xAF ggf. DoF, Tesselation und PhysX noch dazu (z.B. Metro 2033).
Da bricht ne 580 gnadenlos ein.
Die Performance bricht bei Crysis afaik im DX10 kaum ein gegenüber DX9, aber ich hab diesbezüglich keine aktuellen Vergleiche gesehen.

Klar gibts Szenarien, die eine GTX 590 "rechtfertigen". Aber es ist halt die Frage, wer bereit ist dafür die Kohle hinzublättern, oder wem es "schon" reicht, Crysis und Co. auf hohen Einstellungen mit 4xAA und 16XAF zu zocken.

Die vllt 2-4 Spiele, die auch eine GTX 580 leicht überfordern in maximal Settings, würden für mich den Preis nicht rechtfertigen.

Natürlich ist auch die GTX 580 ziemlich überteuert für ihre Leistung: 30% schneller als ne GTX 560, aber 110% Aufrpeis. Die GTX 590 wird zwar sicher nicht doppelt so viel kosten wie die GTX 580 (eher im oberen 500€-Bereich), aber immer noch viel zu teuer sein.

Wie ich schon sagte ist so eine Dual-GPU Karte nur für Benchmark-Fetischisten oder Leute, denen Geld egal ist interessant. Das Spielerlebnis verbessert sich für mich(!) mit 32XAA und was weiß ich für Features jedenfalls nicht merklich. Wenn dann noch Mikroruckler hinzukommen, wäre es für mich sogar eher noch schlechter... Es mag Leute (wie dich) geben, die das anders sehen, aber ich denke das ist eine Minderheit (Extrem-Enthusiasten halt).
 
Zuletzt bearbeitet:
Handselektiert? Wenn das stimmt und Nvidia so ein Monster nicht nur alle 3 Monate herstellen will, dann müssten die Karten doch unterschiedlich (niedrige) Spannungen haben um tatsächlich marktfähig zu sein oder? Es wird ja vielleicht unter 1000 Karten eine geben die mit 20 % weniger SPannung läuft, aber jede 20ste wird sich mit 15% weniger zufrieden geben müssen. Wird es wohl so sein? Wird aber bestimmt lustig mit so einem Ding zu benchen :D
 
Das wird den Presi noch weiter in die Höhe treiben :D, eben wegen dem Handselektiert.
Abe rich muss sagen, ich bin sehr gespannt was das für ein "Monster" wird :ugly:
 
Wie kommt ihr drauf, dass die Gtx 590 nicht mehr als 300watt verbraten soll?
Asus hat doch mit der Ares gezeigt was im Rahmen des Möglichen ist.
Ich glaub zwar nicht, dass es über 400watt werden, aber warum man die PCI e-Spezifikationen einhalten soll, ergibt für mich keinen Sinn. Eine Gtx 590 ist für Enthusiasten und da wird ein starkes Netzteil vorausgesetzt, dass über die 2 8Pin genug watt liefern kann.
Von daher wird das Teil bestimmt gut, alleine die Rohleistung ist ja beeindruckend. -ist zwar jetzt auch bisl Vermutung, aber warum ihr oben rumflamed wegen den 300watt :lol:
 
Noch länger wie die GTX 295, na dann prost mahlzeit des wird auch wenn das Geschriebenen stimmt ein Kampf um jede einzelne dieser Karten werden.
 
Wie kommt ihr drauf, dass die Gtx 590 nicht mehr als 300watt verbraten soll?
Asus hat doch mit der Ares gezeigt was im Rahmen des Möglichen ist.
Ich glaub zwar nicht, dass es über 400watt werden, aber warum man die PCI e-Spezifikationen einhalten soll, ergibt für mich keinen Sinn. Eine Gtx 590 ist für Enthusiasten und da wird ein starkes Netzteil vorausgesetzt, dass über die 2 8Pin genug watt liefern kann.
Von daher wird das Teil bestimmt gut, alleine die Rohleistung ist ja beeindruckend. -ist zwar jetzt auch bisl Vermutung, aber warum ihr oben rumflamed wegen den 300watt :lol:

weil die asus ares keine 5970 ist und wir von der gtx590 reden und diese nunmal von nvidia mit einer grenze von 375w gesegnet werden wird.
 
Zurück