Diese Karte soll die Nachfolgerin für die 9600GT sein?
Die "Alte" 9600GT hatte wenigstens noch 256 Bit Speicheranbindung und war ihr Geld deshalb auch Wert.
Damit war sie aber hoffnungslos überversorgt. Die 8800GS war, trotz schmalerem Interface, oft sogar schneller, weil Bandbreite eben auch Recheneinheiten braucht, die sie nutzt. Die GT240 kommt auch zufällig ziemlich genau auf die Bandbreite und Rechenleistung der 8800GS...
Hat Nvidia etwa Angst das die 240er schneller ist als die Preislich höher angesiedelte 250 wenn man der 240 ne vernünftige 256 Bit Speicheranbindung spendiert hätte?
Sicherlich nicht dafür fehlt es ihr an Recheneinheiten und ganz deutlich am Takt, das wird ein mehr an Speicherbandbreite nie wett machen.
Sie würde aber der GTS240 so nahe kommen, dass es sich nicht mehr lohnen würde, einen extra Chip für sie zu fertigen. Da könnte man stattdessen auch einfach eine z.B. GTS230 mit leicht niedrigerem Takt rausbringen.
Es würde mehr Sinn machen der 240 die volle Speicheranbindung zu geben und sich von der 250 zu trennen,so könnte man sich wieder die User ins Boot holen die man mit den ganzen Namensänderungen früherer Modelle verprellt hat.
Abgesehen davon, dass das Ding nicht annähernd die Leistung einer GTS250 hat, macht es keinen Sinn, die GTS250 auszumustern, solange man den G92b noch für die GTS240 weiterfertigen muss. Und man verliert sicherlich wesentlich mehr Käufer, wenn man die riesige Lücke zur GT220 weiterhin offen stehen lässt.
na gpu ohne große leistung mit so hohem speicher ausstatten ? na b das ne gute entscheidung is
...
Hmm - die GPU ist stark genug, um in Szenarien mit vielen verschiedenen Texturen an die Grenzen von 512Mb zu kommen.
Dazu kommt natürlich der Marketingaspekt
Für die HD5350 sieht sogar ATI selbst ein Gigabyte vor (bei der HD55x0 sogar 2 Gigabyte
)
Ah, wieder eine neue GT240-Grafikkarte zum umlabeln, da ist doch die, die nVIDIA über HP als GT3XX verkauft
!
Die Gf310 entspricht der GT210 und spielt somit ne ganze Klasse tiefer als die GT240
Ich finde durchaus, dass sie beides ist. zu langsam und zu teuer. und natürlich kein dx11...
Wenns schon "zu langsam" ist, dann stört doch "kein DX11" nun wirklich nicht mehr