Modding-Projekt: Voodoo 5 6000 soll als Remaster erscheinen

Gab eine Reihe von Fehlern. Fehlendes TnL, fehlendes 32 Bit, fehlendes Bumpmapping (jeweils Voodoo 3 und später das fehlende TnL in der V5), STB, Gigapixelübernahme, falscher FOkus, abgeworbene Entwickler und mit zu wenigen Ejntwicklern zu viele Projekte (Voodoo TV, Dreamcast) somit verspätungen und die daraus resultierende Wettbewerbsfähigkeit, Rückstand in den Features usw usf.

Ausgehend war das ganze aber auch, weil man finaniell von Anfang an schlechter aufgestellt war als Nvidia und die dadurch Entwickler abwerben konnten.

Die einzige Möglichkeit wie 3dfx hätte überleben können, wär ohne dieses Abwerben gewesen (womit man gezwungen war Talente wie GigaPixel einzukaufen). Dann wäre Rampage schon 1999 fertig gewesen
TNL sollte doch mit Specter kommen, oder?
32Bit kam ja schon mit dem VSA-100 Chip und gerade in dem 3D Center Review sieht man, dass die Karte dort ihre große Stärke hatte.

Aber natürlich hast du recht, es gab viele Fehlentscheidungen, gerade im Nachgang kann man wohl dutzende kleinerer und größerer Entscheidungen anzweifeln. Auch wenn man bei einigen dieser Entscheidungen aus heutiger Sicht sogar behaupten könnte, dass 3dfx ihrer Zeit voraus war. Denn heute zählt Qualität oft mehr als Quantität und gerade da hatte 3dfx vieles zum Positiven gewendet. 32Bit war nett, aber grafisch quasi irrelevant, dennoch hat man dadurch vorgegaukelt bekommen, dass die GeForce Karten besser sind. Dazu kamen dann ja noch die fehlerhaften Screenshots, die auch ihren Teil dazu beigetragen haben und vor allem die DX Schnittstelle. Wenn Rampage wie geplant 1999 gekommen wäre, gäbe es heute Nvidia und auch ATI wohl nicht mehr, denn Rampage war selbst den GeForce 3 Karten derartig weit überlegen (zumindest von den Daten), dann Nvidia vermutlich nicht einmal mit der 4ten Generation wirklich hätte kontern können. Selbst der VSA-101 in 150µm gefertigt wäre wohl ziemlich locker mit den GeForce 3 Karten klar gekommen, immerhin ging man hier davon aus, dass 250Mhz Takt möglich gewesen wären, dass wären dann immerhin 50% mehr Takt gewesen, dazu wäre vermutlich ein neuer Brückenchip und voller AGP Support gekommen, was abermals Leistung gebracht hätte.

Wenn man die Geschichte betrachtet, ist es echt traurig um den Laden, so geile Ideen und Techniken, die teils Jahre später erst ihren Einzug in die NV Karten erhalten hat und dort für Furore sorgten.
 
Das Problem bei 3dfx war, dass sie den Sprung vom Nerdspielzeug in den Mainstream nicht geschafft haben. Was Treiber und praktische Anwendung anging, war NV spätestens mit der GeForce 2 vorne, dazu fehlte 3dfx auch ein Gegner zur Geforce 2 MX, also ein Produkt für den Volumenmarkt.
 
Die Voodoo Graphics war wirklich eine Revolution für Gamer. Der Einzug der 3D-Grafik hat ja andere Player, wie S3 und Trident nachhaltig gestört oder vernichtet. Aber letzten Endes war 3dfx selbst nicht bereit für diesen Markt.

Schon mit der Voodoo2 zeigten sich erste Schwächen. Man muss sich ja nur eine Riva TNT anschauen und dann die V2. Wo bei der V2 drei Chips notwendig waren, hat NV einen Chip verbaut. Sowas geht richtig ins Geld. 3dfx ist nicht wegen schlechter Leistung insolvent gegangen sondern wegen mangelhafter Geschäftsführung. Das ist etwas, was die Fans nicht gerne hören, weil das eine Sicht ist, die sie nicht betrachten.

Trotzdem liebe ich jede Voodoo aus meiner Sammlung: http://galerie.lanhost.de/v/User/mettlock/grakas/3dfx/

Konnte mich auch bisher nicht dazu durchringen, auch nur eine davon zu verkaufen, obwohl ich mit nur einem Verkauf diese Sammlung refinanzieren könnte. :D
 
TNL sollte doch mit Specter kommen, oder?
32Bit kam ja schon mit dem VSA-100 Chip und gerade in dem 3D Center Review sieht man, dass die Karte dort ihre große Stärke hatte.
ha, aber das war ja beides viel zu spät. Die V4 und 5 kamen Ende 2020.
Die Nvidiakarten mit 32 Bit Support gabs schon Anfang 1999
Aber natürlich hast du recht, es gab viele Fehlentscheidungen, gerade im Nachgang kann man wohl dutzende kleinerer und größerer Entscheidungen anzweifeln. Auch wenn man bei einigen dieser Entscheidungen aus heutiger Sicht sogar behaupten könnte, dass 3dfx ihrer Zeit voraus war. Denn heute zählt Qualität oft mehr als Quantität und gerade da hatte 3dfx vieles zum Positiven gewendet. 32Bit war nett, aber grafisch quasi irrelevant, dennoch hat man dadurch vorgegaukelt bekommen, dass die GeForce Karten besser sind.

Nvidias Marketing war halt schon damals besser, sie hatten massiv mehr Geld.
3dfx hat ja nie viel Geld verdient: in den 90ern war man zwar führend, der Absatz waren aber nur jeweils einige zehntausend Karten pro Quartal, entgegen heute einiger Millionen (zu viel höheren Preisen). Deshalb hätte sich 3dfx unbedingt bis 2002 retten müssen um such heute noch existieren zu können, erst seit dann klingeln mit GPUs die Kassen

Dazu kamen dann ja noch die fehlerhaften Screenshots, die auch ihren Teil dazu beigetragen haben und vor allem die DX Schnittstelle. Wenn Rampage wie geplant 1999 gekommen wäre, gäbe es heute Nvidia und auch ATI wohl nicht mehr, denn Rampage war selbst den GeForce 3 Karten derartig weit überlegen (zumindest von den Daten), dann Nvidia vermutlich nicht einmal mit der 4ten Generation wirklich hätte kontern können.
Geben würde es Nvidia auf jeden Fall noch, alle GPU Hersteller kochen nur mit Wasser, ed hätte wohl jährlich einen Schlagabtausch gegeben. 3dfx sehr teurer Multi-GPU Ansatz wurde ja auch aufgegeben, spätestens "Mojo" wäre ein monolithischer DX9 Chip geworden

Selbst der VSA-101 in 150µm gefertigt wäre wohl ziemlich locker mit den GeForce 3 Karten klar gekommen, immerhin ging man hier davon aus, dass 250Mhz Takt möglich gewesen wären, dass wären dann immerhin 50% mehr Takt gewesen, dazu wäre vermutlich ein neuer Brückenchip und voller AGP Support gekommen, was abermals Leistung gebracht hätte.
Wie gesagt: man hätte mit mehr Entwucklern alles früher abgeliefert.
Ein VSA 100 oder gar 101 zu Beginn 1999 (statt der Voodoo 3) inkl TnL und die Geschichte wäre eine andere gewesen. Schon zu Voodoo 2 Zeiten hat man mit TnL Experimentet (es gab Kartenvarianten mit TnL Chip draufgelötet). HÄTTE HÄTTE: als 3dfx Fan- der ich nunmal bin- kann man im Nachhinein viel spekulieren was möglich gewesen wäre.
Eine Voodoo 2, die gleich mit dem hervireagenden 2D Support der Voodoo 3 gekommen wäre, inkl 32 Bit und TnL wie die Konkurrenz und alles wäre anders gelaufen. Oder der VSA 100 (der aus der Not heraus geboren wurde, wenn Rampage sich nicht so sehr verzögert hätte) schon anfang 1999 und die Umstellung auf 1 Jahres Releasezyklus. Oder direkt Rampage.
Aber es mangelte halt am Geld.
3dfx hatte halt such ein großes Problem: sie waren die ersten in einem unbekannten Markt. Niemand wusste wie sich das entwickelt.
Glide war eigentlich super, hätte aber auch schneller entwickelt gehört.
Man ist ja dann eh auf DX umgestiegen, aber mit aggressiverer Glide-Entwicklung hätte man es parallel als Zusatzfeature snbieten können: schneller Low Level Support inkl Zusätzlicher Features

Wenn man die Geschichte betrachtet, ist es echt traurig um den Laden, so geile Ideen und Techniken, die teils Jahre später erst ihren Einzug in die NV Karten erhalten hat und dort für Furore sorgten.
Es gibt sogar Ideen, die gibts bis heute nicht in diversen Nvidiakarten.
3dfx ist die traurige Geschichte, von einem geilen kleinen Team, die Gamer sind und Karten für Gamer gemscht haben, die von einem größeren, gewinnorientiertem "Goliath" überrollt wurden.
 
Wieso macht man sich soviel Arbeit und lässt dann eine simple PCI-E<->PCI-Bridge weg? Das würde die Kosten auch nicht mehr steigern, das Projekt zu weitaus mehr Mainboards kompatibel machen und mit entsprechenden Chips die verfügbare Datentransferrate verdoppeln. Noch cooler: Vier PCI-E-PCI-Bridges und statt einer Verschaltung untereinander auf der Karte einfach PCI-E-Bifurcation über das Mainboard. Dann wäre jeder VSA100 einzeln mit 266 MB/s angebunden und die Karte sogar besser als die originale V5 6000.

Vielleicht kann mit PCI-X-Technik sogar noch mehr rausholen. Auf physischer Ebene nutzt die Schnittstelle viele der AGP-Techniken und da der VSA100 die AGP-exklusiven Features (sideband-adressing, etc.) im SLI-Modus sowieso links liegen lässt, würde ich eigentlich erwarten, dass er auch mit einem 512-MB/s-PCI-Modus fertig werden müsste.


Halt nur die halbe Wahrheit.

Man muss überlegen wieviel Verspätung der VSA 100 gehabt hat, selbst dann hat sie (wenn sie denn gelaufen hätte) die GeForce ziemlich eingestampft. Das es vier Chips brauchte finde ich nicht als Nachteil, durch das echte Sli gab es dadurch kaum Nachteile, außer eben einer großen und langen Karte. Dazu kommt eben, dass die 6000er selbst die GeForce 2 Ultra einstampfte und sogar die GeForce 3 konnte geschlagen werden (wenn auch nur vereinzelt). Wäre Rampage alias Specter pünktlich erschienen, das wäre damals zeitgleich mit der GeForce 3 gewesen, so hätte ein einzelner Specter mithalten können, aber mit der Möglichkeit bis zu 4 Chips zu verbinden. Man hätte die gesamte GeForce 3 Garde vor Neid erblassen lassen können. Leider ist es nie soweit gekommen.

Für mich war das große Problem bei 3dfx aber nicht die Verspätungen in der Hardware, sondern der Glide Standard. Man wollte, bzw. musste das so machen, Sli unter DX war meines Wissens nach nicht sinnvoll möglich, aber durch den geschlossenen Standard hat man sich zusehends Marktanteile beraubt. Ein weiteres Problem war sicherlich, dass man sich mit dem STB auf die Produktion und den Vertrieb der eigenen Chips übernahm und Probleme bekam. Hier wäre es ebenfalls sinnvoller gewesen, weiter auf die geballte Macht aller Hersteller zu setzen.

GLide war der bei der V4/5 nur noch Nebensache, die lief vollständig und inklusive SLI unter DirectX. Allerdings halt maximal 6.0, also Stand 1998, während die Konkurrenz mit 99er 7.0 und entsprechendem OpenGL-Niveau aufwarten konnte. Auch wenn die V5 in Kombination mit einer starken CPU (die man erstmal haben musste) mithalten konnte, war es schwer, sie als "überlegenes High-End-Produkt" zu vermarkten. Ein weiteres Hindernis wäre der aus damaliger Sicht astronomische Stromverbrauch der 6000 gewesen. (Die Länge der Karte dagegen weniger. Um die Jahrtausendwende berücksichtigen noch viele Gehäuse die Spezifikationen für Full-Length-Karten. Nur fehlende Halterungen für die oberen Slots hätten im Alter vielleicht mechanische Probleme/hohe Ausfallraten bedingt.)

Aber: All das steht unter der Prämisse "wenn sie rechtzeitig fertig geworden wäre". Und während es bei der 6000er tatsächlich viel Pech war, dass der Bug im PCI-Routing ewig nicht gefunden wurde, war der VSA-100 insgesamt eben erst auf halber Strecke zwischen Geforce 2 und 3 am Markt. Dafür war er als Einzelchip aber zu langsam, als SLI-Konfiguration zu teuer. Dass 3dfx mal hoffnungsvollere Zahlen in Roadmaps geschrieben hat, spielte leider nicht deren reale Möglichkeiten wieder.
 
GLide war der bei der V4/5 nur noch Nebensache, die lief vollständig und inklusive SLI unter DirectX. Allerdings halt maximal 6.0, also Stand 1998, während die Konkurrenz mit 99er 7.0 und entsprechendem OpenGL-Niveau aufwarten konnte. Auch wenn die V5 in Kombination mit einer starken CPU (die man erstmal haben musste) mithalten konnte, war es schwer, sie als "überlegenes High-End-Produkt" zu vermarkten. Ein weiteres Hindernis wäre der aus damaliger Sicht astronomische Stromverbrauch der 6000 gewesen. (Die Länge der Karte dagegen weniger. Um die Jahrtausendwende berücksichtigen noch viele Gehäuse die Spezifikationen für Full-Length-Karten. Nur fehlende Halterungen für die oberen Slots hätten im Alter vielleicht mechanische Probleme/hohe Ausfallraten bedingt.)

Aber: All das steht unter der Prämisse "wenn sie rechtzeitig fertig geworden wäre". Und während es bei der 6000er tatsächlich viel Pech war, dass der Bug im PCI-Routing ewig nicht gefunden wurde, war der VSA-100 insgesamt eben erst auf halber Strecke zwischen Geforce 2 und 3 am Markt. Dafür war er als Einzelchip aber zu langsam, als SLI-Konfiguration zu teuer. Dass 3dfx mal hoffnungsvollere Zahlen in Roadmaps geschrieben hat, spielte leider nicht deren reale Möglichkeiten wieder.
Man darf auch nicht außer Acht lassen, was DirectX 7 damals bedeutete. Hardware TnL war recht schnell wichtig, weil viele Spiele damals mit der Quake III-Engine kamen. Das hat ja nicht nur 3dfx verschlafen.

S3 Savage2000: Verbuggte TnL-Einheit wurde im Treiber deaktiviert
Matrox G550: Verbuggte TnL-Einheit funktionierte nur mit einer Anwendung von Matrox
STM Kyro(II): Hw-TnL war offenbar bei dieser preisgünstigen Lösung überhaupt nicht vorgesehen 2000/2001

Wenn eine High-End-Karte dieses Feature nicht hat, ist das sicher nicht gut. Da hätte auch das beste FSAA nicht geholfen.

An Pech glaube ich da auch nicht. Fehler wurden bei 3dfx ja systematisch gemacht. Dann kann man bei solchen Bugs auch nicht wirklich von Pech reden.
 
GLide war der bei der V4/5 nur noch Nebensache, die lief vollständig und inklusive SLI unter DirectX. Allerdings halt maximal 6.0, also Stand 1998, während die Konkurrenz mit 99er 7.0 und entsprechendem OpenGL-Niveau aufwarten konnte. Auch wenn die V5 in Kombination mit einer starken CPU (die man erstmal haben musste) mithalten konnte, war es schwer, sie als "überlegenes High-End-Produkt" zu vermarkten. Ein weiteres Hindernis wäre der aus damaliger Sicht astronomische Stromverbrauch der 6000 gewesen. (Die Länge der Karte dagegen weniger. Um die Jahrtausendwende berücksichtigen noch viele Gehäuse die Spezifikationen für Full-Length-Karten. Nur fehlende Halterungen für die oberen Slots hätten im Alter vielleicht mechanische Probleme/hohe Ausfallraten bedingt.)

Aber: All das steht unter der Prämisse "wenn sie rechtzeitig fertig geworden wäre". Und während es bei der 6000er tatsächlich viel Pech war, dass der Bug im PCI-Routing ewig nicht gefunden wurde, war der VSA-100 insgesamt eben erst auf halber Strecke zwischen Geforce 2 und 3 am Markt. Dafür war er als Einzelchip aber zu langsam, als SLI-Konfiguration zu teuer. Dass 3dfx mal hoffnungsvollere Zahlen in Roadmaps geschrieben hat, spielte leider nicht deren reale Möglichkeiten wieder.
?

Glide und OpenGL waren doch der Standard für 3dfx, unter DX konnte man eben nie wirklich mithalten, während die Spiele aus der Zeit mit GlideUnterstützung die wahren Stärken offenbart. Hardware TnL war doch zu Beginn auch noch nicht wirklich sinnvoll nutzbar, ebenso wie 32bit keinen wirklichen Vorteil brachte. Da habe ich es so wie rollora in Erinnerung, dass das Marketing von NV gewonnen hat und nicht der Chip als solches.

Wenn man sich den oben verlinkten Test mal durchliest, kann man eigentlich zum Schluss kommen, dass der VSA ein echtes Monster war, eben durch die perfekte Skalierung mit MultiGPU. Sobald man Spiele mit Glide hernahm kam die Grafikqualität und die Geschwindigkeit sogar an den Nachnachfolger des eigentlichen Konkurenten heran.

Ob es NV noch geben würde? Ich weiß nicht, in meiner Aussage ging es ja um die Hypothese, dass Rampage pünktlich 99 erschienen wäre. Damals hätte man gegen die GeForce 2 gekämpft und da wäre die NV gnadenlos untergegangen, denn einen Großteil der Fehler aus dem VSA hatte man verbessert. Man wäre mit einer Karte ausgestattet gewesen, die in einer Single Chip Variante bereits die GF3 hätte Paroli bieten können (1000 MP/s zu 860MP/s), in der Dual oder gar Quadvariante wäre das Ding Kreise um die Konkurenz gefahren. Vor allem auch, weil TnL vernünftig integriert war und voller AGP Support.

Aber du hast natürlich Recht, hätte hätte Fahradkette!
Das hat ja nicht nur 3dfx verschlafen.
Verschlafen würde ich es nicht nennen, 1999 sollte ja ursprünglich Rampage erscheinen mit Hardware TnL Einheit. Also zeitgleich zur GF2.
 
Verschlafen würde ich es nicht nennen, 1999 sollte ja ursprünglich Rampage erscheinen mit Hardware TnL Einheit. Also zeitgleich zur GF2.
Ok, dann hatten sie ihre Entwicklung einfach nicht im Griff. Aber wie sollte das denn bitte aussehen?

Diese Zeitachse habe ich im Kopf:
1996: SST-1
1997: SST-96
1998: SST-2, Banshee
1999: Avenger
2000: Napalm

Die Voodoo3 und Voodoo4/5 erschienen ja 1999/2000. Wie hätte da den Rampage überhaupt reinpassen sollen? Ich glaube spätestens mit dem Strategiewechsel und dem Vergraulen der Boardpartner 1999 war der Anfang vom Ende eingeleitet.
 
Daten vor 01 zu Rampage habe ich auch noch nie gehört. Und 99/00 wurde ja schon die VSA101-Zwischengeneration mitgeplant, also war selbst 01 eine recht alte Angabe. "99" hätten sie dann vor dem Durchbruch der V1 planen müssen.

Anfang vom Ende war aber definitiv das Vergraulen der Vertriebspartner. Vielleicht hätte es schon gereicht, wenn die V3 wie geplant Anfang 99 weltweit in den Regalen gestanden hätte. Stattdessen war sie meiner Erinnerung nach teilweise erst im Weihnachtsgeschäft lieferbar und dann auch nicht alle Modelle. So trat der Chip, der eigentlich die TnT2 Ultra unterbauern sollte auf einmal gegen die 256 DDR an, was sich bestimmt nicht positiv auf die Einnahmen und damit das Budget für folgende Projekte ausgewirkt hat. Die lächerlichen Versuche, Produktionskapazitäten mit nicht-Grafikkarten auszulasten sprachen Bände.

Man darf auch nicht außer Acht lassen, was DirectX 7 damals bedeutete. Hardware TnL war recht schnell wichtig, weil viele Spiele damals mit der Quake III-Engine kamen. Das hat ja nicht nur 3dfx verschlafen.

S3 Savage2000: Verbuggte TnL-Einheit wurde im Treiber deaktiviert
Matrox G550: Verbuggte TnL-Einheit funktionierte nur mit einer Anwendung von Matrox
STM Kyro(II): Hw-TnL war offenbar bei dieser preisgünstigen Lösung überhaupt nicht vorgesehen 2000/2001

Wenn eine High-End-Karte dieses Feature nicht hat, ist das sicher nicht gut. Da hätte auch das beste FSAA nicht geholfen.

An Pech glaube ich da auch nicht. Fehler wurden bei 3dfx ja systematisch gemacht. Dann kann man bei solchen Bugs auch nicht wirklich von Pech reden.

PowerVR/STB hatten erst für die Kyro III mit TnL geplant (die Kyro II SE sollte in Software Kompatibilität herstellen), allerdings war das nicht wirklich ein Problem. Die Karte stand preislich in Konkurrenz zur Geforce 2 MX, rannte aber oft der 2 GTS davon. Mit einem derartigen Performancevorsprung konnte man sich konzeptionelle Schwächen leisten beziehungsweise der Käufer konnte sich vom gesparten Geld eine entsprechend stärke CPU gönnen. Fehlende TnL war in diesem Marktbereich also kein Beinbruch, die Voodoo 4 lief ja auch ganz gut. Nur war die Kyro II halt auch von Fertigungs- und Entwicklungskosten für dieses Segment designt, während 3dfx mit den real erzielbaren Preisen die eigenen Rechnungen nicht mehr bezahlen konnte.


?

Glide und OpenGL waren doch der Standard für 3dfx, unter DX konnte man eben nie wirklich mithalten, während die Spiele aus der Zeit mit GlideUnterstützung die wahren Stärken offenbart. Hardware TnL war doch zu Beginn auch noch nicht wirklich sinnvoll nutzbar, ebenso wie 32bit keinen wirklichen Vorteil brachte. Da habe ich es so wie rollora in Erinnerung, dass das Marketing von NV gewonnen hat und nicht der Chip als solches.

Das war 1-2 Generationen vorher. Systematische GLide-Unterstützung durch die Spiele-Hersteller endete bereits zum Ende der Voodoo-2-Ära, als DirectX-Karten mit RivaTNT und höher brauchbar wurden. Die Marktmacht Microsofts und die Präsenz von zumindest kompatiblen ATI-3D-Entschleunigern in sämtlichen Komplettsytemen hat sich da einfach durchgesetzt. GLide hatten Entwickler zuvor nur genommen, weil es halt die einzige Schnittstelle war, für die überhaupt gute Hardware verfügbar war. Während der Voodoo-3-Generation konnte 3dfx diese Welle noch ausreiten, die meisten Spiele hatten weiterhin guten GLide-Support. Das war der Chip, der wegen fehlenden 32-Bit-Supports zu Unrecht/via Marketing klein gehalten wurde (zu spät am Markt war er aber ebenfalls), da auch ATI-/Nvidia-/Matrox-Nutzer mangels Leistung noch oft in 16 Bit spielten. Aber gut ein weiteres Jahr später zu Voodoo4/5 vs. Gf2/3-Zeiten waren 32 Bit sowie DirectX bzw. über das Niveau von GLide hinausgehende OpenGL-Niveaus fest etabliert und auch der VSA100 wurde dafür designt. GLide-Support war nur noch ein nettes Retro-Feature, denn viele Spiele aus Mitte der 90er Jahre hatten einfach keinen nicht-GLide-Renderpfad für viele Effekte und sahen dann auch auf moderner DirectX-Hardware schlecht aus. Aber niemand hat GLide noch weiterentwickelt (auch 3dfx nicht), kein Toptitel konnte damit sein Niveau ausfahren. Teilweise wurde es gar nicht unterstützt.

Zur Leistungseinschätzung mehrerer VSA100 gegen einen Geforce2/3: Ja, wenn man die aufaddierte Leistung nimmt, war 3dfx' Generation der Oberhammer. Aber leider wirkt sich derartige Komplexität nicht nur auf die Performance, sondern auch auf Entwicklungsaufwand und Produktionskosten aus. 3dfx hat eindrücklich bewiesen, dass einem sowas das Genick bricht und Potenzial, dass niemand nutzen kann, wenig nützt. Itanium war auf dem Papier ja auch genial, hinkte aber immer 1-2 Jahre hinterher und wurde nie vernünftig unterstützt.
 
Zuletzt bearbeitet:
Das war 1-2 Generationen vorher. Systematische GLide-Unterstützung durch die Spiele-Hersteller endete bereits zum Ende der Voodoo-2-Ära, als DirectX-Karten mit RivaTNT und höher brauchbar wurden.
Ist -gefühlt!- immer noch einer der Mythen um 3dfx das Glide OpenGL und DX immer haushoch überlegen war.
Hatte mit meinen TNT 1 bzw. 2 Karten deutlich mehr Fun als die Freunde mit ihren "nur" V1 bzw. V2.
 
Ist -gefühlt!- immer noch einer der Mythen um 3dfx das Glide OpenGL und DX immer haushoch überlegen war.
Hatte mit meinen TNT 1 bzw. 2 Karten deutlich mehr Fun als die Freunde mit ihren "nur" V1 bzw. V2.
Immer nicht, aber doch sehr oft.

Die TNT kam 1998, also zwei Jahre nach der V1. Selbst die V2 kam zeitgleich und war meines Wissens nach in vielen Spielen haushoch überlegen, allerdings brauchte man eine gute CPU.
 
Oh, hier geht's ja weiter. :-) Viel zu tun, daher nur kurz:

Anfang vom Ende war aber definitiv das Vergraulen der Vertriebspartner. Vielleicht hätte es schon gereicht, wenn die V3 wie geplant Anfang 99 weltweit in den Regalen gestanden hätte. Stattdessen war sie meiner Erinnerung nach teilweise erst im Weihnachtsgeschäft lieferbar und dann auch nicht alle Modelle. So trat der Chip, der eigentlich die TnT2 Ultra unterbauern sollte auf einmal gegen die 256 DDR an, was sich bestimmt nicht positiv auf die Einnahmen und damit das Budget für folgende Projekte ausgewirkt hat. Die lächerlichen Versuche, Produktionskapazitäten mit nicht-Grafikkarten auszulasten sprachen Bände.

Nee, die Voodoo 3 kam schon in der ersten Jahreshälfte, also die 2000 und 3000. Ende '99 und damit quasi-parallel zur ersten Geforce erschien lediglich die V3 3500.

MfG
Raff
 
Ist -gefühlt!- immer noch einer der Mythen um 3dfx das Glide OpenGL und DX immer haushoch überlegen war.
Hatte mit meinen TNT 1 bzw. 2 Karten deutlich mehr Fun als die Freunde mit ihren "nur" V1 bzw. V2.

GLide war OpenGL nie überlegen. Das ergibt sich schon allein daraus, dass GLide ein vereinfachtes Subset von OpenGL war. Gegenüber DirextX müsste es bis 4.0 im Vorteil, ab 6.0 technisch unterlegen gewesen sein. Aber jede Schnittstelle ist nur soviel Wert, wie die passende Hardware. Da war die V1 allein auf weiter Flut, es gab gar keine anderen 3D-Beschleuniger. Und auch die V2 schwebte ein halbes Jahr meilenweit über dem restlichen Markt, ehe die RivaTNT in single-texturing-Situationen gleich ziehen konnte. Ein (sündhaft teures) 2×-12-MB-Gespann hat meiner Erinnerung nach auch gut ein Jahr nach Erscheinen (und das war damals sehr viel Zeit) noch eine TNT 2 Ultra geschlagen und dabei war das eingeschränkte Feature-Set kaum ein Problem, weil keine der Karten genug Power für 32 Bit hatte und nur wenige Spieler mehr als 1.024 × 768 ausgeben konnten/wollten/mussten. (Ich habe zugegebenermaßen viel in 1.152 × 864 gespielt, da 19 Zoll, aber XGA sah wirklich nur minimal schlechter aus.)

Aber: GLide war hier nur noch Mittel zum Zweck, 99er Spiele setzten längst alle Effekte auch über andere Schnittstellen um, da entsprechende Fähigkeiten schon seit dem Riva128 auch für D3D verfügbar waren. Je nach Engine mögen die GLide-Pfade noch etwas effizienter gewesen sein und die Voodoo 3 lieferte dann mit 22-Bit eine exklusive Qualitätsverbesserung, die kaum Leistung kostete, aber sowohl Soft- wie (3dfx-)Hardware wurden längst für anderes entwickelt.


Oh, hier geht's ja weiter. :-) Viel zu tun, daher nur kurz:



Nee, die Voodoo 3 kam schon in der ersten Jahreshälfte, also die 2000 und 3000. Ende '99 und damit quasi-parallel zur ersten Geforce erschien lediglich die V3 3500.

MfG
Raff

Die Gf256 kam im Herbst, nicht Ende 99 und zumindest bei den Händlern in meiner Umgebung waren die 3000er und 2000er bis dahin meist gar nicht oder nur zu hohen Preisen verfügbar. Im Gegensatz zur Konkurrenz oder V2- und Banshee-Partnerkarten. Vorgestellt hatte 3dfx die V3 schon früher, klar, aber zumindest ich bin aufgrund der Marktlage bis 2000 bei meiner TNT geblieben und habe dann eine Kyro II gekauft. Wenn das anderen ähnlich ging, hat 3dfx einiges an Einnahmen auf der Straße liegen gelassen, die sie auf dem gedehnten Weg zur V4/V5 hätten gut gebrauchen können. (Ganz abgesehen davon, dass jeder kurz-vor-Geforce-Aufrüster die Verbreitung von hTnL verlangsamt hätte. :-))
 
"Etwas effizienter" ist gut. :D Ein ordentlicher Gleitpfad, wie in der Unreal Engine, leistet gerade auf schwachen CPUs Dinge, für die die erste Geforce (IMHO relativ grundlos) gefeiert wurde: gute Bildraten in niedrigen Auflösungen. Feature-mäßig ist Glide zwar irgendwann stehengeblieben, auch bei der maximalen Texturauflösung, aber 32 Bit lässt sich mit VSA-100 zumindest treiberseitig forcieren (dito SSAA). Die Leistungsvorteile dank Lower-Level-Zugriff auf Voodoo-Karten lassen sich erst mit wesentlich stärkeren Prozessoren egalisieren - wie T&L auch, nebenbei bemerkt.

MfG
Raff
 
GLide war OpenGL nie überlegen. Das ergibt sich schon allein daraus, dass GLide ein vereinfachtes Subset von OpenGL war. Gegenüber DirextX müsste es bis 4.0 im Vorteil, ab 6.0 technisch unterlegen gewesen sein. Aber jede Schnittstelle ist nur soviel Wert, wie die passende Hardware. Da war die V1 allein auf weiter Flut, es gab gar keine anderen 3D-Beschleuniger. Und auch die V2 schwebte ein halbes Jahr meilenweit über dem restlichen Markt, ehe die RivaTNT in single-texturing-Situationen gleich ziehen konnte. Ein (sündhaft teures) 2×-12-MB-Gespann hat meiner Erinnerung nach auch gut ein Jahr nach Erscheinen (und das war damals sehr viel Zeit) noch eine TNT 2 Ultra geschlagen und dabei war das eingeschränkte Feature-Set kaum ein Problem, weil keine der Karten genug Power für 32 Bit hatte und nur wenige Spieler mehr als 1.024 × 768 ausgeben konnten/wollten/mussten. (Ich habe zugegebenermaßen viel in 1.152 × 864 gespielt, da 19 Zoll, aber XGA sah wirklich nur minimal schlechter aus.)
Das hatte sich aber eben nicht wirklich rumgesprochen.
Meine Vermutung ist das es unter Glide und der V1 / V2 es einfach "einfach klappte" und der
WOW Effekt sovort einsetzte.
=> Aber jede Schnittstelle ist nur soviel Wert, wie die passende Hardware.
Hatte zu der Zeit die Voodoo2 SLI ("fest verbaut") und praktisch alle NV Grafikkarten (im "fliegenden Wechsel").
 
V1/V2 war definitiv WOW und hat das Bild von 3Dfx nachhaltig geprägt. Aber diesen Glanz darf man nicht auf die letzten Voodoos übertragen. Die hatten zwar auch noch ein paar nette Eigenschaften, aber die Konkurrenz hatte in der Absolutleistung massiv auf- und teilweise überholt; niemand hat mehr exklusiv für Voodoo entwickelt. Sah man ja auch an den Special-Features des VSA100. Die damit möglichen Features hatten gefühlt die gleiche Uptakte-Rate wie Matrox' letzte Gaming Vorstöße (d.h. Null), 3dfx-Käufer konnten allenfalls SSAA nutzen, weil das rein treiberseitig funktionierte. Hat in meinem Umfeld aber auch niemand für aktuelle Spiele gemacht – so wirklich billig war die Voodoo 5 auch nicht, in der Preisklasse hatten die meisten Käufer einen guten 19- oder gar 21-Zöller und konnten in 1.280 × 960 oder höher zocken. Da reichte die Leistung dann nicht mehr für eine doppelte Sample-Zahl. Kann man sich heute in Zeiten von "native Auflösung erreicht, wo kann ich die Power noch investieren?" gar nicht mehr vorstellen, wie Leistungsanpassungen zu Zeiten von "in Monitor DSR" abliefen. :-)

(@PCGH_Raff: Ist es heute eigentlich möglich, einen VSA100 rechteckige Pixel berechnen zu lassen? Also z.B. einen 4:3-Inhalt in 2.048 × 768 ausgeben zu lassen und so die 2× OGSSAA-Pixel direkt zu sehen? CRTs bieten ja prinzipiell eine unbegrenzte horizontale Auflösung.)

"Etwas effizienter" ist gut. :D Ein rordentlicher Gleitpfad, wie in der Unreal Engine, leistet gerade auf schwachen CPUs Dinge, für die die erste Geforce (IMHO relativ grundlos) gefeiert wurde: gute Bildraten in niedrigen Auflösungen. Feature-mäßig ist Glide zwar irgendwann stehengeblieben, auch bei der maximalen Texturauflösung, aber 32 Bit lässt sich mit VSA-100 zumindest treiberseitig forcieren (dito SSAA). Die Leistungsvorteile dank Lower-Level-Zugriff auf Voodoo-Karten lassen sich erst mit wesentlich stärkeren Prozessoren egalisieren - wie T&L auch, nebenbei bemerkt.

MfG
Raff

Jetzt vermischst du aber zwei Sachen: Die erste Geforce trat nicht gegen den VSA100 an, wohl aber zu einer Zeit als Unreal-Engine-Spiele noch eine Rolle spielten. Da habe ich ja schon geschrieben, dass die konkurrierende Voodoo 3 stärker gedisst wurde als angemessen. Zwar hatte sie ein altbackenes Feature-Set, aber genauso wie die wenigsten RTX 2060 im Praxiseinsatz wegen mangelndem Speicher ausrangiert werden, dürften die meisten V3500 ihren Besitzern schlicht von der Rohleistung her zu lahm gewesen sein, ehe die Schnittstellenbeschränkungen zu schmerzhaft wurden. Sobald sie in großen Stückzahlen verfügbar war, war die Maximalleistung jedenfalls angemessen für den Preis und das nicht nur unter GLide.

Aber bis die Voodoo 5 gegen die Geforce 2 Ultra (nicht) antrat, hatte sich das Rad weiter gedreht – und GLide lag drunter. Mit Ausnahme von Undying setzte kein relevantes Spiel der Ära mehr auf Unreal 1 (und in Undying hat die Kyro II alles weggefegt). Der erste Unreal-2-Titel kam nur gut ein Jahr nach dem Voodoo-Ende, Q3 war die Gunst der Stunde und 1.024 × 768 in 32-Bit Standard für eine neugekaufte Grafikkarte. Dass GLide da noch punkten konnte oder entsprechende Spiele überhaupt aktiven Support/alle Optionen bieten oder mittels Treiber dazu gezwungen werden konnten, habe ich bis heute noch nirgendwo gelesen. Spätere Treiber-Hacks von 3dfx-Fans spielten in der damaligen Marktsiuation halt keine Rolle.
 
Zuletzt bearbeitet:
Zurück