GeForce GTX 280+ und GTX 350 gesichtet

Aradisa

PC-Selbstbauer(in)
Bei dem australischen online Händler Product List
sind die ersten GTX 280+ und GTX 350 im Online Shop aufgetaucht.
Es handelt sich dabei um eine GeForce GTX 280+, die mit einem 55nm-GT200 ausgestattet sein soll und anscheinend noch in diesem Monat erwartet wird. Eine GeForce GTX 350 mit GT300-Grafikchip soll laut dem Webshop noch in diesem Jahr veröffentlicht werden, diese Karte soll 2 GB GDDR5 besitzen.

MFG
 
Heftig, der GTX 350 soll noch dieses Jahr erscheinen? Ich glaub eher nicht und was soll das den wieder für eine Bezeichnung sein?

Die 300er Reihe soll doch erst im 2Q 2009 erscheinen...
 
Wurde nicht vor kurzem erst die GTX270/290 angekündigt? Und jetzt auf einmal GTX280+/350? Langsam Blick ich noch weniger durch, was treibt Nvidia da bloß:devil::ugly:. Aber das mit der 350er glaub ich kaum, es kam doch erst die 200er Reihe raus...

Ps: Na gut die 9er Reihe lief auch nicht länger:D.

grüße, Railroads
 
Das ist eben nVidia, die versuchen einen immer zu verwirren, aber trotzdem kann man auf die Karten der nVidia freuen, denn die machen immer geile Karten :)
 
Das ist eben nVidia, die versuchen einen immer zu verwirren, aber trotzdem kann man auf die Karten der nVidia freuen, denn die machen immer geile Karten :)

Nicht immer, die 8800GTS/320 und der G92 sind Fehlkonstruktionenen wie sie im Buche stehen, genau wie die HD3870 X2, alle diese Karten hatten nicht nur eindeutig zu wenig Grafikspeicher für die Rechenleistung deren GPU, der G92 und die HD3870 X2 hatten auch noch eine viel zu geringe Speicherbandbreite für die vorhandene Rechenleistung ;)

Der G92 war eigentlich ein guter Chip nur hatte er zwei extreme Flaschenhälse, mit 1024 MB und der selben Speicherbandbreite wie eine 8800GTX hatte, wäre der G92 noch etwas schneller gewesen und hätte sich nicht von der HD4850 besiegen lassen müssen ;)
 
Naja die 8800GTS war auch eine gute Karte für den Middle-Bereich ;)
Die G9x-Serie finde ich generell als überflüssig gemacht, aber die mussten ja etwas auf den Markt bringen, also dachten die, dass sie das einfach hintun. Aber die neuen sind wieder etwas besser, aber es muss aufjedenfall sowas wie G80, also die 8800GTX rauskommen, denn die war echt der Hammer ;) :)
 
Naja die 8800GTS war auch eine gute Karte für den Middle-Bereich ;)
Die G9x-Serie finde ich generell als überflüssig gemacht, aber die mussten ja etwas auf den Markt bringen, also dachten die, dass sie das einfach hintun. Aber die neuen sind wieder etwas besser, aber es muss aufjedenfall sowas wie G80, also die 8800GTX rauskommen, denn die war echt der Hammer ;) :)

Jep, das war eine echt gute Karte, da hat alles gepasst, ich bereue es bis heute nicht einen Monat auf die 8800GTX gewartet zu haben. Ich habe damals eine Geforce 7900GTX gekauft und vom Rest des Geldes ein Teufel Concept G gekauft. Hätte ich damals die 8800GTX gekauft, dann hätte ich 2 Jahre ruhe gehabt, naja vielleicht habe ich mit der HD4870/1024 erst einmal 2 Jahre ruhe ;)
 
Eingentlich hat die GTX280 genau den Soll der 8800GTX erfüllt. Der Performanceunterschied zur 4870 ist so groß wie damals der 8800GTX zur 2900XT. Genauso der Performancezuwachs von alter- zur neuer Generation.
 
Eingentlich hat die GTX280 genau den Soll der 8800GTX erfüllt. Der Performanceunterschied zur 4870 ist so groß wie damals der 8800GTX zur 2900XT. Genauso der Performancezuwachs von alter- zur neuer Generation.


Also eigentlich hat die HD2900XT zu Anfang zum Teil über 30% hinter einer 8800GTX gelegen und die Performance hat ziemlich stark geschwangt, gerade mit AA und AF hatte die HD2900Xt nichts zu lachen, was aber den Performanceunterschied zur 8800GTX angeht muss ich dir recht geben ;)


http://www.computerbase.de/artikel/..._ati_radeon_hd_2900_xt/20/#abschnitt_gothic_3

http://www.computerbase.de/artikel/...t_ati_radeon_hd_2900_xt/29/#abschnitt_stalker

Es gab zwar auch Spiele in der die HD2900XT gut aufholen konnte, allerdings war die Performance sehr durchwachsen, in der PCGH hat die HD2900XT damals noch viel schlechter abgeschnitten ;)
 
Zuletzt bearbeitet:
Jep, das war eine echt gute Karte, da hat alles gepasst, ich bereue es bis heute nicht einen Monat auf die 8800GTX gewartet zu haben. Ich habe damals eine Geforce 7900GTX gekauft und vom Rest des Geldes ein Teufel Concept G gekauft. Hätte ich damals die 8800GTX gekauft, dann hätte ich 2 Jahre ruhe gehabt, naja vielleicht habe ich mit der HD4870/1024 erst einmal 2 Jahre ruhe ;)

Ich habe ihn mir geholt, als es noch sage und schreibe 700€ gekostet hat, also 700€ für die Karte, aber es hat sich echt gelohnt. Ich habe sogar davon geträumt es im Triple-SLI zu betreiben, aber dafür war ich doch zu arm :D:ugly::daumen::lol::(
 
Zuletzt bearbeitet:
Also eigentlich hat die HD2900XT zu Anfang zum Teil über 30% hinter einer 8800GTX gelegen und die Performance hat ziemlich stark geschwangt, gerade mit AA und AF hatte die HD2900Xt nichts zu lachen, was aber den Performanceunterschied zur 8800GTX angeht muss ich dir recht geben ;)


ComputerBase - ATi Radeon HD 2900 XT (Seite 20)

ComputerBase - ATi Radeon HD 2900 XT (Seite 29)

Es gab zwar auch Spiele in der die HD2900XT gut aufholen konnte, allerdings war die Performance sehr durchwachsen, in der PCGH hat die HD2900XT damals noch viel schlechter abgeschnitten ;)
Die 8800 GTX war aber die einzige anständige Karte der 8er Reihe, die 8400/500/600 war genauso ein Mist wie die HD2900XT. Lahmer als die alte Mittelklasse (X1950 Pro) und Teurer.
 
Korn86 schrieb:
Der G92 war eigentlich ein guter Chip nur hatte er zwei extreme Flaschenhälse, mit 1024 MB und der selben Speicherbandbreite wie eine 8800GTX hatte, wäre der G92 noch etwas schneller gewesen und hätte sich nicht von der HD4850 besiegen lassen müssen ;)
Stell dir doch mal die Frage, warum die beiden Features im Vergleich zum G80 gestrichen wurden.;)
Genau....sie waren zu teuer. Preislich kann die 9800GTX ja so schon kaum mit der 4850 mithalten. Mit mehr Ram und größerem Speicherinterface wäre sie restlos überteuert. Vor allem wenn man sich das Performancerating bei CB ansieht, schlägt die HD auch die G80 GPUs in hohen AA Einstellungen oder ist zumindest mit der Ultra gleichauf. Die 9800GTX würde also nur den teilweise hohen Rückstand mit 8xAA wegmachen und wäre aber preislich noch uninteressanter.

Nvidia sollte lieber mal etwas am Speichermanagement der nächsten Generation tun, dann braucht's auch nicht soviel Bandbreite.

Die 8800 GTX war aber die einzige anständige Karte der 8er Reihe, die 8400/500/600 war genauso ein Mist wie die HD2900XT. Lahmer als die alte Mittelklasse (X1950 Pro) und Teurer.
Eine hast du vergessen. Die 8800 GTS 640 (nicht die verkrüppelte 320er) konnte man damals da einordnen wo heute die GTX260 ist. Immernoch deutlich schneller als die Vorgängergeneration und ein super Übertaktungspotential. Und sie hat mit der schnellsten ATI Karte (damals 2900XT, heute HD4870) konkurriert. Alles wie gehabt.
 
GTX 350 dieses Jahr?
also wen sich die Gerüchte bewarheiten sollten (ich denke unwahrscheinlich) wär diese Karte ja echt der Hammer.
2GB superschnellen GDDR5 Speicher, auf ner 512Bit Anbindung - das rockt, da muss natürlich auch die GPU stärker werden um da genug Daten drüber zu lassen.
Zur Zeit rechtfertigen die ja noch den (älteren) GDDR3 Speicher damit, das sie bei der GTX280 ne 512 Bit anbindung ham, un die das Deffiziet zu ATI's GDDR5 ausgleichen soll.
Naja sollte nVidia das wirklich durchsetzen wär das eigentlich nichts neues seit dem G92 bringen sie ja so Sachen. :ugly:
Was natürlich dagegen spricht, ist das auch das Gerücht umgegangen ist das die GT300 Serie schon in 40nM gefertigt werden soll - hier noch in 55.
 
Zuletzt bearbeitet:
GTX 350 dieses Jahr?
also wen sich die Gerüchte bewarheiten sollten (ich denke unwahrscheinlich) wär diese Karte ja echt der Hammer.
2GB superschnellen GDDR5 Speicher, auf ner 512Bit Anbindung - das rockt, da muss natürlich auch die GPU stärker werden um da genug Daten drüber zu lassen.
Zur Zeit rechtfertigen die ja noch den (älteren) GDDR3 Speicher damit, das sie bei der GTX280 ne 512 Bit anbindung ham, un die das Deffiziet zu ATI's GDDR5 ausgleichen soll.
Naja sollte nVidia das wirklich durchsetzen wär das eigentlich nichts neues seit dem G92 bringen sie ja so Sachen. :ugly:
Was natürlich dagegen spricht, ist das auch das Gerücht umgegangen ist das die GT300 Serie schon in 40nM gefertigt werden soll - hier noch in 55.

Ach und die kost denn auch nur 1500€, GDDR5 is ja ´n Schnäppchen:ugly:
 
Und wenn die GPU noch größer wird wie der GT200 + der GDDR5 RAM (2GB), dann wäre sie echt bald 1000€ teuer! (Späßle) ;-)
 
Zurück