Galaxy zeigt Geforce GTX 680 mit 4 GiByte im Custom-Design und 1,1 GHz

Die Frage ist nicht, warum NVIDIA nicht 512bit Speicherinterface genommen hat, viel mehr ist die Frage, woran es lag, dass das wohl nicht ging. Denke die hätten bestimmt 512bit geplant aber womöglich spielte da was nicht so mit. :)

Der GF 104 und 114 hatten auch nur 256 bit.
Das es immernoch keiner versteht.

Der GK 110 wird 512 bit haben.
 
GoldenMic schrieb:
Der GF 104 und 114 hatten auch nur 256 bit.
Das es immernoch keiner versteht.
Der GK 110 wird 512 bit haben.

Tja, irgendwie hat es die Leute aus der Bahn geworfen, dass Nvidia das Release Schema geändert hat und auch noch dem Performance Chip die 80 als Bezeichnung gegeben hat :D
 
GoldenMic schrieb:
Man merkt einfach das sich selbst in einem Forum wie diesem die wenigsten wirklich tiefgründig informieren.

Bin eigentlich mehr der stille Leser aufgrund mangelnder Kenntnis/Erfahrung aber als kann sogar ich nur den Kopf schütteln :D
 
Das Design finde ich jetzt nicht so ansprechend :-) Die Specs dafür sind wirklich toll.
Das Plastik in möchtegern futuristischer Form ist nicht so mein Geschmack. Mal eine Abdeckung aus schwarzem oder in irgend einer Farbe eloxiertem gebürstetem Aluminium würde eher meinem Geschmack entsprechen(und auch gut in ein Lian-Li passen:P). Oder wenn Plastik, dann mal transparentes Plexi (könnte ja auch farbig und beleuchtet sein mit SMD-LEDs oder so)
 
Zurück