PCGH.de: Die 20 wichtigsten Nvidia-Grafikkarten: Von NV1 bis Geforce 8800 GTX

Super Artikel :daumen:
Viele Bilder und viele Informationen unter den Bildern.
Hoffentlich wird es so einen ausführlichen Artikel auch für ATI geben
und später auch für andere Grafikchips.
Weiter so PCGH :hail: :pcghrockt:
 
hab mit der 6600gt für agp angefangen , dann die 7800bliss+ (gainward) agp welche mit 575/745 gpu-vram läuft. dann die 7900 pci-e und letztlich die 8800gtx. welche immer noch rumwerkelt. und vielleicht die 260 als nachfolger bekommt. ganz am anfang stand jedoch ne 9800pro von ati. ist alles noch gar nich solang her. der fetteste leistungssprung war dennoch von der 7900 gt zur 8800 gtx. der rest hielt sich in grenzen.
:daumen: guter artikel
 
Schöne Sache! Das ganze noch mit Ati und die Sache ist perfekt.(Wow, welch kreatives Kommentar, hat noch keiner vor mir geschrieben)
Gibbets nichts zu nörgeln, außer dass ihr auch villeicht nochmal die 7800GT-Dual von Asus als erste(?) Karte mit zwei Gpus auf einer Platine zeigen könntet. Falls jemand die hat, er kann sie gern an mich verkaufen.;)


mfg Hähnchenkeule
doch, ich war vor dir... :D
 
die dual 6800gt war (vor allem von nvidia) keine wichtige karte. wollt nur sagen das es vor der 7800gt schon ne dual (onboard) sli karte gab :)

aber dual karten sind eh zum :wall:
 
Die erste Karte mit 2 Chips auf der Platine könnte evtl. die ATi Rage Fury MaXX gewesen sein?
Sonst die Voodoo 5 5500.
Nvidia kam erst danach...
(Verzeiht mir eventuelle Fehler - bin erst 15^^)
 
Die erste Karte mit 2 Chips auf der Platine könnte evtl. die ATi Rage Fury MaXX gewesen sein?
Sonst die Voodoo 5 5500.
Nvidia kam erst danach...
(Verzeiht mir eventuelle Fehler - bin erst 15^^)

Die ersten Grafikkarten mit 2 Chips sind uralt, schon meine MACH32 hatte 2 Chips, gleiches beim ET4000 und diversen Trident Teilen.

Hier war der RAMDAC (das Teil zum umwandeln der digitalen Infos des Grafikchips in für den Monitor verständliche analoge) extern....
Oder eben der genannte Voodoo Graphics, das ist nun wirklich 'nen alter Hut...
 
@all

naja im prinzip haben ja allen aktuellen grakas mehrere hundert kerne zb ati mit 800 unified shader bzw. streaming einheiten....

wer jetzt sagt das sind keine lügt >nach meinem wissen< denn die ps3 hat auch mehrere kerne ,
ein kern der wirklich rechnen kann und die übrigen die nur "streaming prozessoren" sind mit eingeschränkter funktionalität ähnlich einen HT kern

so jetzt hab ich mein halbwissen kund getan,
aber genau weiss ich das auch nich deswegen lass ich mich gern von wissenden berichtigen ^^
 
Schöner Artikel...

Bei mir sah die Entwicklung so aus: erster eigener Rechner war nen Pentium mit ner TNT drin. Darauf folgte nen Athlon 1800 mit ner GF4, die gegen Ende einer ATI 9800 Pro weichen mußte. Das System ging dann irgendwann in Rente, die Ati hab ich damals an nen Kumpel verkauft und der Rechner steht zusammen mit der GF hier noch rum. Muß ihn die Tage mal testen und wenn er noch funzt, wandert er in die Bibliothek des Studentendorfs.

In meinem letzten PC steckte dann eine GF6600 GT OC (PIC-E auf nem S939 MoBo mit Amd 3500+), die dann vor etwas mehr als einem Jahr einer 8800GTS 640MB Platz gemacht hat. Das System ohne GTS (aber mit GT) hab ich dann Ende 2007 an nen Freund verkauft und nachdem sich die Neuanschaffung um bald fast ein Jahr verzögert hatte, ist die GTS letztens an nen Arbeitskollegen gegangen und in die neue Kiste kommt wohl nach Jahren wieder ne ATI. Ob es nur ne 4850 oder doch ne 4870 wird, daß hängt am Ende von meinem Nebenjob und der Marktlage Anfang 2009 ab. :D
 
KLasse Artikel nutze heute noch ne nV5,damals hatten die noch richtig Qualität.

Allerdings sind mir zu viele Geforce FX Chips aufgelistet,auch wenn sie bei der Speicherbestückung vor ATI lagen,war die komplette Serie Schrott.
und die FX 5200 war nicht nur bei DX 8 games ultra langsam.
Selbst nFS Porsche hat schon in der Auflösung 1280x1024 geruckelt:lol::ugly:
 
Zuletzt bearbeitet:
Mein ersten PC habe ich 2000 gekauft. Hatte eine TNT2 M64 und einen AMD k6/2 mit 500Mhz. 2001 folge eine Geforce 2MX mit einem Athlon 1,0 Ghz. Danach ein Athlon XP 1800+. Dann kamm ein Athlon XP 2500+ @ 3200+ mit einer Geforce 4 Ti 4200 @ Ti 4600. Habe sie dann gegen eine Geforce FX 5900 XT glaube ich getauscht. Habe mir vor 2 Wochen eine Geforce GTX 280 Super OC von MSI mit einem Phenom II X4 940 @3,6 Ghz mit 8Gb Ram und einem Gigabyte MA-790GP-DS4H zugelegt. Lol!!!! Geiles Sytem
 
Ach ja.. ich persönlich finde die 8-serie von nvdia immer noch die beste!
ich hab bis jetzt noch eine 8800ultra im rechner und die tut's trotz ihrer fast 3 jahren auf dem Buckel immer noch richtig gut! Bin mal gespannt was es sich so mit der GTX 400 serie auf sich hat.. ich wollte mir auch eine zulegen wenn das was sich nvdia von der karte verspricht auch stimmt ;)
 
Ich habe zum Artikel auch noch eine Frage:
Nvidias Tick Tock Modell war eben immer darauf ausgelegt, dass nach einer neuen Generation ca 2-3 Jahre lang Refreshes kommen.
So sind auch die Designteams ausgelegt. (TNT1-2, GF1-2,3-4,6-7,8-2xx)
Doch nicht so bei Geforce FX. Da kam als nächstes gleich wieder ein neues Grafikdesign. Zwar hielt sich die FX eine Weile und durch Taktratenerhöhung, doch so kurz danach kam noch nie eine völlig veränderte Architektur. Und wenn die Designteams bei Nvidia nicht von vornherein vorhatten innerhalb kürzester Zeit 2 völlig verschiedne Architekturen aufm Markt zu werfen (wovon die erste mal ÜBERHAUPT nicht zu den anderen Architekturen von NV passen), woher kam also die andere Architektur. Steckt hinter dem Kürzel FX etwas mehr als nur eine "Hommage an die Designer von 3dfx", wie es damals hieß? Ist die Grundarchitektur ein auf dem Rampage basierender Chip? (Mit einigen Kastrationen, der Rampage bzw die Nachfolger als 1-Chipvariante waren doch leistungsfähiger und mit mehr Features ausgelegt).
Würde mich als 3dfx Fan schon interessieren. Überhaupt würde mich mal interessieren, was aus den 3dfx PAtenten, Leuten und Ideen bei NV geworden ist. Kann man diese Frage nicht mal bei nem Interview einbauen?
Vorallem was aus dem Rampage/Sage und dessen Nachfolgeideen wurde, was man von 3dfx weiterverwendet hat und warum man den Geforces nicht einfach Glidesupport genehmigt hat (nicht die Weiterentwicklung, einfach Abwärtskompatibilität, wie bei PhysX)
 
Zurück