PCGH.de: Die 20 wichtigsten Nvidia-Grafikkarten: Von NV1 bis Geforce 8800 GTX

echt super Bericht:daumen:
meine Zeit mit dem Computer fängt leider erst richtig mit der 8600GT an:devil:
Davor hatte ich aber sogar noch eine GF 5200 FX, mit der ich sogar noch grad so NFS ProStreet gezockt hat:lol:
ich bin irgendwie glücklich, dass ich erst jetzt mich dafür interessiere,:D
 
Ich finde es auch interessant, wie sich das Design der Kühler geändert hat - erst passiv und jetzt ware Monster, die zudem auch noch richtig fett aussehen:daumen:
 
netter beitrag.. weckt wieder erinnerungen, habe den markt zwar erst seit geforce 2/4 verfolgt, aber es ist trotzdem laaaange her:D
 
Solange der Speicher bei der 9800 GX2 (2x 512 MiB) nicht überläuft, kann sie der GTX 280 gut Paroli bieten. Spätestens in 1.920 x 1.200 inkl. 4x+ AA sieht die GX2 in aktuellen Spielen dann kaum noch Land. Zumal das Teil bekanntermaßen unter den Multi-GPU-Problemen Mikroruckeln und Inputlag leidet, womit die gefühlte Framerate unter der GTX 280 liegt.

MfG,
Raff
 
Ich habe zum Artikel auch noch eine Frage:
Nvidias Tick Tock Modell war eben immer darauf ausgelegt, dass nach einer neuen Generation ca 2-3 Jahre lang Refreshes kommen.
So sind auch die Designteams ausgelegt. (TNT1-2, GF1-2,3-4,6-7,8-2xx)
Doch nicht so bei Geforce FX. Da kam als nächstes gleich wieder ein neues Grafikdesign. Zwar hielt sich die FX eine Weile und durch Taktratenerhöhung, doch so kurz danach kam noch nie eine völlig veränderte Architektur. Und wenn die Designteams bei Nvidia nicht von vornherein vorhatten innerhalb kürzester Zeit 2 völlig verschiedne Architekturen aufm Markt zu werfen (wovon die erste mal ÜBERHAUPT nicht zu den anderen Architekturen von NV passen), woher kam also die andere Architektur. Steckt hinter dem Kürzel FX etwas mehr als nur eine "Hommage an die Designer von 3dfx", wie es damals hieß? Ist die Grundarchitektur ein auf dem Rampage basierender Chip? (Mit einigen Kastrationen, der Rampage bzw die Nachfolger als 1-Chipvariante waren doch leistungsfähiger und mit mehr Features ausgelegt).
Würde mich als 3dfx Fan schon interessieren. Überhaupt würde mich mal interessieren, was aus den 3dfx PAtenten, Leuten und Ideen bei NV geworden ist. Kann man diese Frage nicht mal bei nem Interview einbauen?
Vorallem was aus dem Rampage/Sage und dessen Nachfolgeideen wurde, was man von 3dfx weiterverwendet hat und warum man den Geforces nicht einfach Glidesupport genehmigt hat (nicht die Weiterentwicklung, einfach Abwärtskompatibilität, wie bei PhysX)

Die Geforce FX-Reihe umfasst 2-3 Generationen (5200/5600/5800, (5300)/5700/5900, 5950. Ggf. könnte man die PCX-Familie auch noch extra zählen) - es fehlt also nur die Umbenennung beim Refresh. Auch hatte Nvidia nie ein festes Schema und afaik haben sie auch keine zwei unabhängigen Designteams. Das es einen Grundrythmus gab, ist vermutlich eher dem Zufall und der DirectX-Entwicklung zuzuschreiben.
Der rivaTNT z.B. sollte ursprünglich fast die Taktraten des TNT2 erreichen, schaffte das nicht. Hätte er es geschafft, hätte es den TNT2 (der ohnehin nur eine DIE-shrink war) vielleicht nie gegeben.
Bei der Geforce2 und 4ti wurden solche Taktänderungen dann wieder innerhalb der Serie durch neue Modelle realisiert. (beide unterscheiden sich übrigens leicht von Gf256 bzw. Gf3) Zwischen der ersten Gf6 und der Gf8 wurden die meisten Marktbereiche auch zweimal mit einem neuen Chip versorgt. (und danach ging das Chaos los, bei dem ich mich weigere, überhaupt noch von Generationen zu sprechen, da nahezu jeder einzelne Chip sein eigenes Namensschema mitbrachte)

Bezüglich des Namens "FX": Es gibt Vermutungen, dass das eine Anspielung auf 3Dfx war, aber in Anbetracht der Zeit zwischen dem 3Dfx-Aufkauf und dem Erscheinen sowie dem technologischen Rückstand von 3Dfx wage ich zu bezweifeln, dass da nenneswert etwas integriert wurde. Die Gf FX war übrigens ähnlich lange am Markt, wie die Geforce6 und vom Funktionsprinzip her halten sich die Unterschiede auch in Grenzen (die zwischen 4ti und FX dürften größer sein) - von zwei völlig verschiedenen Architekturen in kürzester Zeit kann nicht die Rede sein.

GLide-Wrapper, die die Berechnung auf Nvidia-Karten (und anderen mit brauchbaren OpenGL-Treibern) ermöglichen, gabs zum erscheinen der FX bereits, da bestand kein großer Handlungsbedarf. Umgekehrt hatte GLide quasi keine Bedeutung mehr als Spieleschnittstelle (war nunmal schon seit 4-5 Jahren überholt). Unter den Bedingungen dürfte es für Nvidia wenig attraktiv gewesen sein, die nötigen Ressourcen für einen bugfreien, etc. offiziellen GLide-Support zu investieren.


Was aus der Technik der 3Dfx-Projekte geworden ist, würde mich aber auch mal interessieren. Ich glaube zwar nicht, dass sie direkt in die bestehenden Nvidia-Strukturen gepasst hätten, aber die vielzahl an hochkarätigen Entwicklern dürfte sicherlich auf ein paar ihrer alten Ideen zurückgegriffen haben.
 
Solange der Speicher bei der 9800 GX2 (2x 512 MiB) nicht überläuft, kann sie der GTX 280 gut Paroli bieten. Spätestens in 1.920 x 1.200 inkl. 4x+ AA sieht die GX2 in aktuellen Spielen dann kaum noch Land. Zumal das Teil bekanntermaßen unter den Multi-GPU-Problemen Mikroruckeln und Inputlag leidet, womit die gefühlte Framerate unter der GTX 280 liegt.

MfG,
Raff
gut erkannt, gut bei 4x aa und 1920 x xxxx gehts immer noch nur das dann zuschaltbare AF lässt die frames einbrechen wegen des "geringen speichers"

ich spiel auch alle spiele immer nur auf 1600 x 1200 CRT =) und da kenn ich kein spiel wo es die karte nicht schafft.....man muss nur achten den staub ab und an mal rauszupusten sonst hat man schnell mal so 120°C Temps auf dem 1. GPU und das führt ab und an mal zu instabilität (selbst erprobt)
 
Finde es durchaus richtig die Fermis dazuzuschreiben, allein schon weil das der Chip ist um den der meiste Hype gemacht wurde.
 
Davor hatte ich aber sogar noch eine GF 5200 FX, mit der ich sogar noch grad so NFS ProStreet gezockt hat:lol:
Willkommen im Club! ich habs auch erst mit ner FX5200 versucht... :lol:
Ja bei mir hat das NV-Graka Leben eben mit der FX5200 angefangen... damit konnte ich DTM Race Driver 3 auf 1024x768 flüssig spielen auf mittlerer Grafik.
Dann eine 8500GT (woraus kurioserweise ein SLI!!! System wurde), wo ich dann Prostreet i-wie zocken konnte. Dann noch eine 9800GT die sehr schnell hinüber war. Dann noch eine GTS250 aber die gab auch auf nach gut 1 Jahr. Jetzt nutz ich die GF8200 onboard vom CIIF. Einfach Tee trinken und warten, wer nun die bessere Graka für wenig Geld in Angebot hat.
 
Danke - aber was an der 7900 GTX war so wichtig? IMO hat sie nichts "besonderes" gemacht/geleistet.

Nun, die 7900 GTX ist bisher die Grafikkarte mit dem leisesten und bestem Referenzkühler. Wenn das nicht erwähnenswert ist - gerade in Zeiten von Flugzeugturbinen wie man sie auf den aktuellen High-End-Karten finden kann - dann wundere ich mich inzwischen nicht mehr darüber, weshalb die Grafikkarten immer lauter werden... :(
 
Es gibt tonnenweise Grafikkarten, deren Referenzkühler ganz ohne Lüfter auskam. Dass Grafikkarten heute deutlich lauter werden, sollte niemanden wundern, bei den Verlustleistungen, die sie produzieren. Ne GTX280 verbraucht eben das 2,5 fache einer 7900GTX - ohne dass der Kühler nennenswert mehr Platz einnehmen darf. Natürlich wird sowas lauter. Solange die Leute auf das Erscheinen einer 360W Karte mit "goil! Zwei davon im Crossfire" und auf das erscheinen eines Boards mit 4 PEGs mit "goil! Da 4 von besagten Karten drauf" reagieren und die nächstbeste OC-Version anbeten, wird dieser Watt-Wahn aber auch nicht enden.
 
Naja, die Fermis hätten sie sich sparen können, sind noch nichteinmal auf dem Markt und keiner weiß wie gut die werden, aber OK.

Zur 7900GTX, ich hatte eine und hab jetzt eine HD5870 und muss einfach sagen, dass die HD5870 den besseren Kühler und die bessere Lautstärke hat. Gerade im Idle ist die Karte nicht zu hören, unter Last wird sie minimal lauter sein, da stört es aber eigentlich niemanden, denn man ja meist eh Kopfhörer auf.
Aber es war auf jeden Fall eine sehr gute Karte, die 7900GTX.

Auch ist klar, dass alle heutigen Karten viel mehr Verlustwärme abgeben und die Kühler irgendwann einfach nur noch über Drehzahl der Lüfter diese abgeben können, nicht umsonst haben auch die neuen Karten einen 1Ampere Lüfter, der kann ganz schön wirbeln wenn er darf.

Die ersten und zweiten 3D Karten hatten gar keinen Lüfter, das war noch was, als in einem PC die Festplatte oder das aktive ROM Laufwerk das lauteste waren und alles andere problemlos passiv gekühlt war.
 
Solang es einen funktionierenden 2D Stromsparmodus gibt, und die Firmen bei den Reverenzkühlern auch mal 5€ mehr investieren, solang kann man die Karten durchaus unaufdringlich kühlen.

Bei meiner alten 8800 GTS 512 und der jetztigen GTX 285, arbeiteten die Reverenzkühler leise und da mein Gehäuse kein schweizer Käse und gut gedämmt ist, in meinem Fall auch beinah unhörbar.
Nach dem Umbau auf den GTX Pro Kühler von Artic Cooling ist die 285 jetzt sogar unhörbar.
Nach ner Stunde BF:BC2 zb. steigt die Temperatur grad mal auf 48°C, bei konstanten 1000rpm Lüftergeschwindigkeit.
Im Idle sind grad mal 35°C.
 
Nun, die 7900 GTX ist bisher die Grafikkarte mit dem leisesten und bestem Referenzkühler. Wenn das nicht erwähnenswert ist - gerade in Zeiten von Flugzeugturbinen wie man sie auf den aktuellen High-End-Karten finden kann - dann wundere ich mich inzwischen nicht mehr darüber, weshalb die Grafikkarten immer lauter werden... :(
Denselben Kühler gab es vorher schon auf Quadros und einer Edition von Leadtek. Danach auf der 7800 GTX/512. Ansonsten war die Karte nicht mehr als ein Takt-Upgrade, welches gegen die X1900er auch nicht geholfen hat. Die Zeit der Cine-FX-Architektur war einfach abgelaufen. Ati hat da früher den Schritt/Schnitt in die richtige Richtung gemacht.
 
8800 ftw! m.M.n. das Beste was nVidia auf den Markt gebracht hat. Die Karten waren einfach der Überflieger. Meine 8800GT wird immer einen Ehrenplatz bei mir haben :)
 
Meines Wissens haben die zwei Teams, aber auch nur iirc.
Öhm mindestens 2 ja, sonst würde da was nicht funktionieren.
Bei AMD ists ja auch so, dass es mehr als 3 gibt für die Desktopgrafikchips (die Unterkategorien eben noch nicht mitgerechnet).
Ein Team arbeitet immer an einer neuen Generation, 2 an der Überarbeitung dieser bzw an der Weiterentwicklung.
Bei Anandtech gabs dazu mal ein interessantes Interview, wo halt der Designer das durchblicken ließ...

Die Geforce FX-Reihe umfasst 2-3 Generationen (5200/5600/5800, (5300)/5700/5900, 5950. Ggf. könnte man die PCX-Familie auch noch extra zählen) - es fehlt also nur die Umbenennung beim Refresh. Auch hatte Nvidia nie ein festes Schema und afaik haben sie auch keine zwei unabhängigen Designteams. Das es einen Grundrythmus gab, ist vermutlich eher dem Zufall und der DirectX-Entwicklung zuzuschreiben.
Der rivaTNT z.B. sollte ursprünglich fast die Taktraten des TNT2 erreichen, schaffte das nicht. Hätte er es geschafft, hätte es den TNT2 (der ohnehin nur eine DIE-shrink war) vielleicht nie gegeben.
naja wohl schon, nur in halt nochmal erhöhten Taktraten, weil man einfach mehr Geld bekommt wenn man ein Update einer Architektur nochmal verkauft als jedesmal von Grund auf ne neue Architektur zu entwickeln
Bei der Geforce2 und 4ti wurden solche Taktänderungen dann wieder innerhalb der Serie durch neue Modelle realisiert. (beide unterscheiden sich übrigens leicht von Gf256 bzw. Gf3)
was im Prinzip das darstellt, was ich gemeint habe: Wenn kaum Architekturielle Veränderungen statt fanden, gabs eben Speedupdates/Refreshes mit einfach ner höheren Nummer, um ne neue "Generation" auszurufen, hat man sich meist doch bemüht Architekturiell etwas zu ändern. bei GF3zu 4 hat sich ein bisschen was geändert, bei der 5er wieder viel bei der 6er auch wieder, wobei NV eigentlich es immer so gemacht hat, dass auf ne völlig neue Architektur dann ein Architekturupdate kam und nicht wieder völlig was neues. Es passt einfach nicht ins Muster...


Bezüglich des Namens "FX": Es gibt Vermutungen, dass das eine Anspielung auf 3Dfx war, aber in Anbetracht der Zeit zwischen dem 3Dfx-Aufkauf und dem Erscheinen sowie dem technologischen Rückstand von 3Dfx wage ich zu bezweifeln, dass da nenneswert etwas integriert wurde. Die Gf FX war übrigens ähnlich lange am Markt, wie die Geforce6 und vom Funktionsprinzip her halten sich die Unterschiede auch in Grenzen (die zwischen 4ti und FX dürften größer sein) - von zwei völlig verschiedenen Architekturen in kürzester Zeit kann nicht die Rede sein.
es gibt dazu keine Vermutungen, sondern ein offizielles Video, welches bei der Präsentation der FX Serie gezeigt wurde. Da sah man ganz schön, dass der 3dfx schriftzug verblasste, das FX stehenblieb und man Geforce davor schrieb und dazu gabs irgend eine Pressemitteilung die was von der Intenieurskunst der ehemaligen 3dfx Leute redete und der Chip sei sowas wie die Hommage an eben jene...
Außerdem der Zeitfaktor ist eben das für mich interessante, immerhin kamen einige Dinge dir für Rampage bzw dessen Nachfolgerchip gedacht waren in der FX vor, wer sagt, dass man nicht eben einfach diesen genommen hat ? Man wird nicht einfach ein fast fertiges Design in die Tonne gehaun haben.
Eben die FX Serie war nicht lange aufm Markt, wurde dann aber recht schnell von einer völlig überarbeiteten Version abgelöst.
Das meine ich ja, der Zeitliche Abstand war in Anbetracht dessen was "üblich" war mit zu vielen Veränderungen verknüpft. Das ineffiziente Shaderdesign passte auch nicht so wirklich zu Nvidia, die mit GF3/4 und 6/7/8... dann doch ordentlich hingelegt haben...
GLide-Wrapper, die die Berechnung auf Nvidia-Karten (und anderen mit brauchbaren OpenGL-Treibern) ermöglichen, gabs zum erscheinen der FX bereits, da bestand kein großer Handlungsbedarf. Umgekehrt hatte GLide quasi keine Bedeutung mehr als Spieleschnittstelle (war nunmal schon seit 4-5 Jahren überholt). Unter den Bedingungen dürfte es für Nvidia wenig attraktiv gewesen sein, die nötigen Ressourcen für einen bugfreien, etc. offiziellen GLide-Support zu investieren.
ich rede aber eben nicht von Wrappern. diese funktionieren mir einfach viel zu wenig, ich benutze die besten bis heute, aber es ist einfach kein befriedigendes Ergebnis.
Klar war Glide veraltet, aber es hätte einfach eine gute Abwärtskompatiblität gebracht für die Nvidiakarten zu diversen Klassikern in Glide. Letzteres war nämlich immer noch um einiges schneller.
Außerdem hätte man nur auf bestehendes Softwaredesign zurückgreifen müssen, also den Glidesupport für Nvidiakarten einfach umschreiben müssen. Gut sicher wär das nicht ganz so einfach gewesen, weil die chips eben unterschiedlicher nicht sein könnten, aber trotzdem wäre es möglich gewesen...


wie weiter oben beschrieben, zumindest ATI/AMD hat mehrere Designteams. Würde mich schwer wundern wenn NV nur eines hätte, da es mehrere Jahre dauert von der Planung bis zur Fertigstellung eines Chips (was ja eben der Grund war, warum es mich wunderte, dass nach der GF5 ein so großer Architekturieller Sprung da war, man hat also 2 neue Generationen geplant, statt 1 und mehrere Refreshes DANN eine neue Generation wie es bei sonst absolut jeder Nvidiakarte war...
 
Zuletzt bearbeitet:
Zurück