PCGH.de: Geforce GTX 295: Neue Bilder der Dual-GPU-Karte

Hab ne HD4870.Brauche so ein experimentellen Schrott (N.Vidia GTX295) nicht.:lol:
Wenn eine Neue dann nur ein Single GPU. HD5870 oder so nächstes Jahr. Zwei getrennte GPU kommen mir nicht in die Tüte.Wenn dann sollen die einen Duo core Gpu rausbringen,da kann man vieleicht mal drüber reden.:devil:

Also wirklich Sinvoll ist dein Post nicht gerade da sowieso alle GPU's hoch parallelisiert sind und eine sogenannte DuoCorelGPU daher sowas von Sinnlos ist. Aber ruhig weiter nen bisschen auf NV rumhacken, macht ja Spaß. :D
 
Also wirklich Sinvoll ist dein Post nicht gerade da sowieso alle GPU's hoch parallelisiert sind und eine sogenannte DuoCorelGPU daher sowas von Sinnlos ist. Aber ruhig weiter nen bisschen auf NV rumhacken, macht ja Spaß. :D

Duo core lässt sich feiner Synchronisieren.Mikroruckler werden theoretisch minimiert im gegensatz zu 2 Gpu.

P.S:Auf N.Vidia rumhacken.....na gut war schon ein bissel unfair von mir,Tschuldigung.
 
Duo core lässt sich feiner Synchronisieren.Mikroruckler werden theoretisch minimiert im gegensatz zu 2 Gpu.

Dual Core*.. bei 480 Shadern wären es sowieso viel mehr xD. wenn du nur 2 Kerne haben wilst, viel Spass bei der Diashow:P

BTT:

Wenn der Preis stimmt, dann passt doch, sonst ist halt wieder nice to have.. Prestige Objekt. Wäre eigentlich auch für eine Starke Single GPU Karte, aber mal schaun

mfg
 
muss ich AcEswiss Recht geben,

jede Shaderunit ist quasi ein "Kern", wobei man das nicht wirklich als Kern verstehen kann

GPUs sind halt völlig anders aufgebaut als CPUs
 
endlich ein würdiger nachfolger für die 9800GX2 :D

ich weiß net was dieses ständige herumgehackt auf der anzahl der PCBs soll - wen interessierts? zwei highend-grafikchips in EINEM pci-slot - DAS ist das entscheidende und ob die auf zwei PCBs gepackt werden oder auf eine ellenlange karte, wen juckts?

zumal die 9800GX2 nicht laut ist - und ja, ich habe eine, auch wenn ich sie mir nie kaufen würd und eher single-gpu bevorzugen würde (und daher die nvidia-philosophie was das angeht besser finde).
 
subba, brauch kein Mensch das Teil, wieso bringt man jetzt auch ach und krach noch so eine wahrscheinlich viel zu teure Karte? Will man so krampfhaft die Leistungskrone wieder?
Naja irgendwann muss so eine Karte auch mal ausgereift sein, besonders vom treiber natürlich, sowohl NV als auc ATI müssen da noch ein wenig arbeiten.
Ich finde es immer so "schnell-auf-den-Markt-damit" aus, wenn das so eine Burger GraKa mit 2 PCBs ist, da finde ich die Variante von ATi mit einem PCB irgendwie professioneller.
 
wo ist der unterschied, wenn BMW 200PS aus nem 6-Zylinder Saugmotor und Audi aus nem 4-Zylinder Turbomotor holt?

da sind die Unterschiede doch noch größer (leistungskurve turboloch ect)
wärend die anordnung der gpus wie überhaupt keinen unterschied macht außervlt eine koplizierentren kühlung beim sandwichdesigne :ugly:

Ich find man sollte nv net verteufeln die machen das gleiche wie ATI bzw wie in der Vorgängergeneration. Ob MGPU karten sinnvoll sind ist frgalich, doch denke ich das SLI bzw CF systeme so schlimm nicht sein können, wenn man in betracht zieht, dass sie unter high end anwendern doch keine seltenheit sind
 
subba, brauch kein Mensch das Teil, (..)
Ich finde es immer so "schnell-auf-den-Markt-damit" aus, wenn das so eine Burger GraKa mit 2 PCBs ist, da finde ich die Variante von ATi mit einem PCB irgendwie professioneller.

Wieso findet man es Quatsch wenn NVidia eine GTX x2 rausbringt, aber AMD darf seine 4870X2 haben?

Wenn man bedenkt, das ein NV GTX Chip so schnell wie 2 AMD-Chips ist, dann würde ich als Ati-Fanboy natürlich auch sagen, das NVidias 2 Chip-Variante mist ist... :devil:
 
wärend die anordnung der gpus wie überhaupt keinen unterschied macht außervlt eine koplizierentren kühlung beim sandwichdesigne
das problem hat ATI allerdings auch bei ihrer X2, ist halt nicht so einfach gut 300W bei so einer kleinen anordnung abzuführen. da graut es mir ja schon vor larrabee, der angeblich über 300W schlucken soll....

uhh da hat jemand noch nie beides gefahren.
Das ist ein himmel weiter unterschied.
Wenn man mal von so belanglosen sachen wie der soundkulisse absieht...
von 10 leuten die beide autos im vergleich fahren werden 5 das eine bevorzugen und 5 das andere - ist jetzt also eines von beiden "besser"? ich denke nicht...
 
von 10 leuten die beide autos im vergleich fahren werden 5 das eine bevorzugen und 5 das andere - ist jetzt also eines von beiden "besser"? ich denke nicht...
Hast du nicht oben noch (rhetorisch) gefragt wo der Unterschied sei und nicht welcher Fahrer was bevorzugen würde? Also es war doch zu erwarten, dass ein Aufschrei losgeht, wenn man schreibt zwischen einem Turbo- und Saugmotor gäbe es keine Unterschiede, solange beide 200 PS haben. ;)

Um noch was OnTopic zu sagen:
Wieso sollte das ein Fake sein? Das Ding sieht doch genauso aus wie alle Multi GPUs von Nvidia vorher. Der Stromverbrauch ist erwartet hoch (kratzt an der 300Watt Grenze der PCIe Spezis) und ich hätte mich eher gewundert, wenn's ein Single PCB Design gewesen wäre. Es fehlt natürlich noch die Slotblende und die Nvidia typische Plastikvollverpackung der Karte. :P
 
ikk bin zwar kein fan-boy(und wenn dann, von nvidia) aber datt ding sieht echt aus, wie : Isch kleb mal 2 karden zusammen und verkoov datt für 3 mal so deuer:lol::lol:
 
Zurück