• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Modding-Projekt: Voodoo 5 6000 soll als Remaster erscheinen

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu Modding-Projekt: Voodoo 5 6000 soll als Remaster erscheinen

In einem russischen Modding-Forum sind Pläne eines bekannten Modders aufgetaucht, die Voodoo 5 6000 mit vier VSA-100-CPUs neu aufleben zu lassen. Neben Fotos eines ersten Samples gibt es zumindest die Spezifikationen zum Retro-Projekt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Modding-Projekt: Voodoo 5 6000 soll als Remaster erscheinen
 

BigBoymann

Software-Overclocker(in)
Nett, aber eigentlich würde mich viel eher und mehr interessieren, was ein Rampage zu leisten im Stande gewesen wäre. So ein Projekt würde mich viel eher interessieren. Die 6000er gab es ja schon durchaus lauffähig, wenn auch mit Problemen behaftet. Zu den Karten weiß man ja in etwa, was sie hätten leisten können, aber Rampage ist ja nie wirklich wettbewerbsfähig getestet worden. Gerade ein QuadSli mit dem Chip wäre wohl performancetechnisch durch die Decke gegangen, ich meine hier was von ziemlich unfassbaren 4000MP/s gelesen zu haben, eine GeForce 3 Ultra
 

kampfschaaaf

PCGHX-HWbot-Member (m/w)
Die Voodoo waren ab der Generation 3 Standalonekarten. Warum hat hier das Bild der 5 6000 Remaster eine Loopkabelmöglichkeit per VGA? Das hatte das Original doch nicht, oder sehe ich das falsch?
3dfxloop.jpg
 

restX3

Software-Overclocker(in)
Leider kam die Rampage nie auf den Markt, hätten die Banken den Geldhahn nicht zugedreht, gäbe es 3dfx heute vielleicht noch:\
Bin ich mir nicht so sicher. 3dfx hat sich selbst gebumst mit fragwürdigen internen Entscheidungen. Zudem war Nvidia so stark, das ein Grafikchip gereicht hat, um Voodoo zu klatschen, die mehr als eine GPU auf der Platine gebraucht haben um überhaupt noch dagegenzuhalten.
3dfx waren die Pioniere, andere haben es dann besser gemacht.
 

BigBoymann

Software-Overclocker(in)
Bin ich mir nicht so sicher. 3dfx hat sich selbst gebumst mit fragwürdigen internen Entscheidungen. Zudem war Nvidia so stark, das ein Grafikchip gereicht hat, um Voodoo zu klatschen, die mehr als eine GPU auf der Platine gebraucht haben um überhaupt noch dagegenzuhalten.
3dfx waren die Pioniere, andere haben es dann besser gemacht.
Halt nur die halbe Wahrheit.

Man muss überlegen wieviel Verspätung der VSA 100 gehabt hat, selbst dann hat sie (wenn sie denn gelaufen hätte) die GeForce ziemlich eingestampft. Das es vier Chips brauchte finde ich nicht als Nachteil, durch das echte Sli gab es dadurch kaum Nachteile, außer eben einer großen und langen Karte. Dazu kommt eben, dass die 6000er selbst die GeForce 2 Ultra einstampfte und sogar die GeForce 3 konnte geschlagen werden (wenn auch nur vereinzelt). Wäre Rampage alias Specter pünktlich erschienen, das wäre damals zeitgleich mit der GeForce 3 gewesen, so hätte ein einzelner Specter mithalten können, aber mit der Möglichkeit bis zu 4 Chips zu verbinden. Man hätte die gesamte GeForce 3 Garde vor Neid erblassen lassen können. Leider ist es nie soweit gekommen.

Für mich war das große Problem bei 3dfx aber nicht die Verspätungen in der Hardware, sondern der Glide Standard. Man wollte, bzw. musste das so machen, Sli unter DX war meines Wissens nach nicht sinnvoll möglich, aber durch den geschlossenen Standard hat man sich zusehends Marktanteile beraubt. Ein weiteres Problem war sicherlich, dass man sich mit dem STB auf die Produktion und den Vertrieb der eigenen Chips übernahm und Probleme bekam. Hier wäre es ebenfalls sinnvoller gewesen, weiter auf die geballte Macht aller Hersteller zu setzen.
 

JTRch

Software-Overclocker(in)
Hat nicht dank den Entwicklungen von 3Dfx dann die Entwicklung von Antialiasing Technik bei Nvidia ein Sprung gemacht, oder habe ich das falsch in Erinnerung?
 

BxBender

BIOS-Overclocker(in)
Sieh mal einer an, damals hatte Raff auch schon diese Corona-Gedächtnis-Mähne? ^^ ;-)

Hatten wir in den 90ern aber auch irgendwie. Heute einfach alles enger und kürzer, fertig. So einfach geht Modeanpassung bei Männern. ^^
 

CD LABS: Radon Project

Volt-Modder(in)
Hat nicht dank den Entwicklungen von 3Dfx dann die Entwicklung von Antialiasing Technik bei Nvidia ein Sprung gemacht, oder habe ich das falsch in Erinnerung?
Das hast du falsch in Erinnerung, Nvidia hat bzgl. SGSSAA ewig und drei Tage lang den Kopf in den Sand gesteckt. Erst als Ati/ AMD mit der Evergreen-Archtektur (HD 5870) SGSSAA gebracht hat, wurde SGSSAA von Nvidia zur Verfügung gestellt. Wobei zur Verfügung gestellt auch schon beschönigend ist, schließlich handelt es sich ja nach wie vor um ein semi-offizielles Feature. (der Nvidia Profile Inspector ist ja kein von Nvidia herausgegebenes Tool)
 

T-MAXX

Software-Overclocker(in)
Mein Mainboard hat noch PCI Slots, aber die nutze ich heute gar nicht mehr.
Schönes Projekt, aber Jahre zu spät.
Respekt gibt es trotzdem von mir.:daumen:
 

Acgira

Freizeitschrauber(in)
Eine Karte wo drauf 4x Ampere RTX 3090 oder 4x RDNA 2 6900XT verbaut sind und laufig ist, würd mich mehr begeistern. Für Technik hege ich keinerlei nostaligsche Gefühle.
 

Rollora

Kokü-Junkie (m/w)
Halt nur die halbe Wahrheit.

Man muss überlegen wieviel Verspätung der VSA 100 gehabt hat, selbst dann hat sie (wenn sie denn gelaufen hätte) die GeForce ziemlich eingestampft. Das es vier Chips brauchte finde ich nicht als Nachteil, durch das echte Sli gab es dadurch kaum Nachteile, außer eben einer großen und langen Karte. Dazu kommt eben, dass die 6000er selbst die GeForce 2 Ultra einstampfte und sogar die GeForce 3 konnte geschlagen werden (wenn auch nur vereinzelt). Wäre Rampage alias Specter pünktlich erschienen, das wäre damals zeitgleich mit der GeForce 3 gewesen, so hätte ein einzelner Specter mithalten können, aber mit der Möglichkeit bis zu 4 Chips zu verbinden. Man hätte die gesamte GeForce 3 Garde vor Neid erblassen lassen können. Leider ist es nie soweit gekommen.

Für mich war das große Problem bei 3dfx aber nicht die Verspätungen in der Hardware, sondern der Glide Standard. Man wollte, bzw. musste das so machen, Sli unter DX war meines Wissens nach nicht sinnvoll möglich, aber durch den geschlossenen Standard hat man sich zusehends Marktanteile beraubt. Ein weiteres Problem war sicherlich, dass man sich mit dem STB auf die Produktion und den Vertrieb der eigenen Chips übernahm und Probleme bekam. Hier wäre es ebenfalls sinnvoller gewesen, weiter auf die geballte Macht aller Hersteller zu setzen.
Gab eine Reihe von Fehlern. Fehlendes TnL, fehlendes 32 Bit, fehlendes Bumpmapping (jeweils Voodoo 3 und später das fehlende TnL in der V5), STB, Gigapixelübernahme, falscher FOkus, abgeworbene Entwickler und mit zu wenigen Ejntwicklern zu viele Projekte (Voodoo TV, Dreamcast) somit verspätungen und die daraus resultierende Wettbewerbsfähigkeit, Rückstand in den Features usw usf.

Ausgehend war das ganze aber auch, weil man finaniell von Anfang an schlechter aufgestellt war als Nvidia und die dadurch Entwickler abwerben konnten.

Die einzige Möglichkeit wie 3dfx hätte überleben können, wär ohne dieses Abwerben gewesen (womit man gezwungen war Talente wie GigaPixel einzukaufen). Dann wäre Rampage schon 1999 fertig gewesen
 

Bluebird

Software-Overclocker(in)
Voodoo war eben Grafik Qualität und Geforce waren FPS und die dummen Spieler damals hatten lieber 300 FPS in UT als eine geile Optik , dazu brauchte es keine Voodoo 5 6000 , das war schon mit der Voodoo 5 abzusehen ...
 

Mazrim_Taim

BIOS-Overclocker(in)
Ich habe selber noch ~6+ 3dfx Karten aber wenn ich ehrlich bin hatte ich ab der Voodoo2 das Gefühl das das nichts mehr wird.
(in meinem Retro Rechner sind zwei Voodoo 2 im SLI; wird aber dank guter ~Emulatoren heute nicht mehr gebraucht).
Hatte nach den V1 und V2 die Rush ausgelassen und war dann direkt zur Banshee übergegangen aber auch die war nicht so das Gelbe vom Ei. Kann mich an Probleme mit Glide erinnern das einige Spiele ziemlich wählerisch waren welche Treiberversion man installiert hatte. Auch "lustig" war das eininige Spiele die erst beste 3D Karte nahmen was idR. eben nicht die Voodoo 1 bzw. 2 war. Gab dann ein Tool welches dann die Voodoo Karte als einzige makierte.
----------
*Seufts* Denoch war das ne coole Zeit; nicht nur alleine wegen 3dfx sondern ua. auch weil man noch deutlich mehr Auswahl zum experimentieren hatte (X Hersteller für CPUs, GPUs und MoBos)
POD, i-War, Schleichfahrt, Quake, Longbow, Wing Commander und Unreal waren da (min. als die Spiele rauskamen)
meine Lieblingsspiele an einem meiner PCs mit Voodoo Karte.

@ Voodoo 5 6000
irgendwie ein Zwiespalt. Würde gerne wissen was die leisten könnte wenn Treiber usw. richtig klappten.
Aber anderseits nach 20+ Jahren kann man langsamm aber sicher sie in Frieden gehen lassen.
Die Voodoo 1 steht bei mir für immer auf Platz 1; dann kommt Kyro2 und die ATI 8500
 

Rollora

Kokü-Junkie (m/w)
Ich habe selber noch ~6+ 3dfx Karten aber wenn ich ehrlich bin hatte ich ab der Voodoo2 das Gefühl das das nichts mehr wird.
(in meinem Retro Rechner sind zwei Voodoo 2 im SLI; wird aber dank guter ~Emulatoren heute nicht mehr gebraucht).
Hatte nach den V1 und V2 die Rush ausgelassen und war dann direkt zur Banshee übergegangen aber auch die war nicht so das Gelbe vom Ei. Kann mich an Probleme mit Glide erinnern das einige Spiele ziemlich wählerisch waren welche Treiberversion man installiert hatte. Auch "lustig" war das eininige Spiele die erst beste 3D Karte nahmen was idR. eben nicht die Voodoo 1 bzw. 2 war. Gab dann ein Tool welches dann die Voodoo Karte als einzige makierte.
----------
*Seufts* Denoch war das ne coole Zeit; nicht nur alleine wegen 3dfx sondern ua. auch weil man noch deutlich mehr Auswahl zum experimentieren hatte (X Hersteller für CPUs, GPUs und MoBos)
POD, i-War, Schleichfahrt, Quake, Longbow, Wing Commander und Unreal waren da (min. als die Spiele rauskamen)
meine Lieblingsspiele an einem meiner PCs mit Voodoo Karte.

@ Voodoo 5 6000
irgendwie ein Zwiespalt. Würde gerne wissen was die leisten könnte wenn Treiber usw. richtig klappten.
Aber anderseits nach 20+ Jahren kann man langsamm aber sicher sie in Frieden gehen lassen.
Die Voodoo 1 steht bei mir für immer auf Platz 1; dann kommt Kyro2 und die ATI 8500
Was eine V5 6000 leisten könnte, kann man sehr gut abschätzen, wenn man das 3dcenter Review liest.
Wenn HSR auch noch funktioniert hätte... tjo.
 

JTRch

Software-Overclocker(in)
Also was bei 3Dfx geil war, waren die modifizierten GlideGL Treiber für Quake 3 zum Beispiel. Hier bekam ich damals wirklich die doppelte FPS mit dem modifzierten Treiber, so etwas erlebst du heute nicht mehr. Keine Ahnung was er anpasste, ich nehme an es ging auf Kosten von LOD, aber das haben wir damals gar nicht realisiert. Später haben wir ja im Multiplayer eh Mipmapping etc. voll runtergeschraubt um einfach maximal FPS und weniger grafische Ablenkung zu haben.
 

BigBoymann

Software-Overclocker(in)
Gab eine Reihe von Fehlern. Fehlendes TnL, fehlendes 32 Bit, fehlendes Bumpmapping (jeweils Voodoo 3 und später das fehlende TnL in der V5), STB, Gigapixelübernahme, falscher FOkus, abgeworbene Entwickler und mit zu wenigen Ejntwicklern zu viele Projekte (Voodoo TV, Dreamcast) somit verspätungen und die daraus resultierende Wettbewerbsfähigkeit, Rückstand in den Features usw usf.

Ausgehend war das ganze aber auch, weil man finaniell von Anfang an schlechter aufgestellt war als Nvidia und die dadurch Entwickler abwerben konnten.

Die einzige Möglichkeit wie 3dfx hätte überleben können, wär ohne dieses Abwerben gewesen (womit man gezwungen war Talente wie GigaPixel einzukaufen). Dann wäre Rampage schon 1999 fertig gewesen
TNL sollte doch mit Specter kommen, oder?
32Bit kam ja schon mit dem VSA-100 Chip und gerade in dem 3D Center Review sieht man, dass die Karte dort ihre große Stärke hatte.

Aber natürlich hast du recht, es gab viele Fehlentscheidungen, gerade im Nachgang kann man wohl dutzende kleinerer und größerer Entscheidungen anzweifeln. Auch wenn man bei einigen dieser Entscheidungen aus heutiger Sicht sogar behaupten könnte, dass 3dfx ihrer Zeit voraus war. Denn heute zählt Qualität oft mehr als Quantität und gerade da hatte 3dfx vieles zum Positiven gewendet. 32Bit war nett, aber grafisch quasi irrelevant, dennoch hat man dadurch vorgegaukelt bekommen, dass die GeForce Karten besser sind. Dazu kamen dann ja noch die fehlerhaften Screenshots, die auch ihren Teil dazu beigetragen haben und vor allem die DX Schnittstelle. Wenn Rampage wie geplant 1999 gekommen wäre, gäbe es heute Nvidia und auch ATI wohl nicht mehr, denn Rampage war selbst den GeForce 3 Karten derartig weit überlegen (zumindest von den Daten), dann Nvidia vermutlich nicht einmal mit der 4ten Generation wirklich hätte kontern können. Selbst der VSA-101 in 150µm gefertigt wäre wohl ziemlich locker mit den GeForce 3 Karten klar gekommen, immerhin ging man hier davon aus, dass 250Mhz Takt möglich gewesen wären, dass wären dann immerhin 50% mehr Takt gewesen, dazu wäre vermutlich ein neuer Brückenchip und voller AGP Support gekommen, was abermals Leistung gebracht hätte.

Wenn man die Geschichte betrachtet, ist es echt traurig um den Laden, so geile Ideen und Techniken, die teils Jahre später erst ihren Einzug in die NV Karten erhalten hat und dort für Furore sorgten.
 

seahawk

Volt-Modder(in)
Das Problem bei 3dfx war, dass sie den Sprung vom Nerdspielzeug in den Mainstream nicht geschafft haben. Was Treiber und praktische Anwendung anging, war NV spätestens mit der GeForce 2 vorne, dazu fehlte 3dfx auch ein Gegner zur Geforce 2 MX, also ein Produkt für den Volumenmarkt.
 

Mega-Zord

Komplett-PC-Aufrüster(in)
Die Voodoo Graphics war wirklich eine Revolution für Gamer. Der Einzug der 3D-Grafik hat ja andere Player, wie S3 und Trident nachhaltig gestört oder vernichtet. Aber letzten Endes war 3dfx selbst nicht bereit für diesen Markt.

Schon mit der Voodoo2 zeigten sich erste Schwächen. Man muss sich ja nur eine Riva TNT anschauen und dann die V2. Wo bei der V2 drei Chips notwendig waren, hat NV einen Chip verbaut. Sowas geht richtig ins Geld. 3dfx ist nicht wegen schlechter Leistung insolvent gegangen sondern wegen mangelhafter Geschäftsführung. Das ist etwas, was die Fans nicht gerne hören, weil das eine Sicht ist, die sie nicht betrachten.

Trotzdem liebe ich jede Voodoo aus meiner Sammlung: http://galerie.lanhost.de/v/User/mettlock/grakas/3dfx/

Konnte mich auch bisher nicht dazu durchringen, auch nur eine davon zu verkaufen, obwohl ich mit nur einem Verkauf diese Sammlung refinanzieren könnte. :D
 

Rollora

Kokü-Junkie (m/w)
TNL sollte doch mit Specter kommen, oder?
32Bit kam ja schon mit dem VSA-100 Chip und gerade in dem 3D Center Review sieht man, dass die Karte dort ihre große Stärke hatte.
ha, aber das war ja beides viel zu spät. Die V4 und 5 kamen Ende 2020.
Die Nvidiakarten mit 32 Bit Support gabs schon Anfang 1999
Aber natürlich hast du recht, es gab viele Fehlentscheidungen, gerade im Nachgang kann man wohl dutzende kleinerer und größerer Entscheidungen anzweifeln. Auch wenn man bei einigen dieser Entscheidungen aus heutiger Sicht sogar behaupten könnte, dass 3dfx ihrer Zeit voraus war. Denn heute zählt Qualität oft mehr als Quantität und gerade da hatte 3dfx vieles zum Positiven gewendet. 32Bit war nett, aber grafisch quasi irrelevant, dennoch hat man dadurch vorgegaukelt bekommen, dass die GeForce Karten besser sind.

Nvidias Marketing war halt schon damals besser, sie hatten massiv mehr Geld.
3dfx hat ja nie viel Geld verdient: in den 90ern war man zwar führend, der Absatz waren aber nur jeweils einige zehntausend Karten pro Quartal, entgegen heute einiger Millionen (zu viel höheren Preisen). Deshalb hätte sich 3dfx unbedingt bis 2002 retten müssen um such heute noch existieren zu können, erst seit dann klingeln mit GPUs die Kassen

Dazu kamen dann ja noch die fehlerhaften Screenshots, die auch ihren Teil dazu beigetragen haben und vor allem die DX Schnittstelle. Wenn Rampage wie geplant 1999 gekommen wäre, gäbe es heute Nvidia und auch ATI wohl nicht mehr, denn Rampage war selbst den GeForce 3 Karten derartig weit überlegen (zumindest von den Daten), dann Nvidia vermutlich nicht einmal mit der 4ten Generation wirklich hätte kontern können.
Geben würde es Nvidia auf jeden Fall noch, alle GPU Hersteller kochen nur mit Wasser, ed hätte wohl jährlich einen Schlagabtausch gegeben. 3dfx sehr teurer Multi-GPU Ansatz wurde ja auch aufgegeben, spätestens "Mojo" wäre ein monolithischer DX9 Chip geworden

Selbst der VSA-101 in 150µm gefertigt wäre wohl ziemlich locker mit den GeForce 3 Karten klar gekommen, immerhin ging man hier davon aus, dass 250Mhz Takt möglich gewesen wären, dass wären dann immerhin 50% mehr Takt gewesen, dazu wäre vermutlich ein neuer Brückenchip und voller AGP Support gekommen, was abermals Leistung gebracht hätte.
Wie gesagt: man hätte mit mehr Entwucklern alles früher abgeliefert.
Ein VSA 100 oder gar 101 zu Beginn 1999 (statt der Voodoo 3) inkl TnL und die Geschichte wäre eine andere gewesen. Schon zu Voodoo 2 Zeiten hat man mit TnL Experimentet (es gab Kartenvarianten mit TnL Chip draufgelötet). HÄTTE HÄTTE: als 3dfx Fan- der ich nunmal bin- kann man im Nachhinein viel spekulieren was möglich gewesen wäre.
Eine Voodoo 2, die gleich mit dem hervireagenden 2D Support der Voodoo 3 gekommen wäre, inkl 32 Bit und TnL wie die Konkurrenz und alles wäre anders gelaufen. Oder der VSA 100 (der aus der Not heraus geboren wurde, wenn Rampage sich nicht so sehr verzögert hätte) schon anfang 1999 und die Umstellung auf 1 Jahres Releasezyklus. Oder direkt Rampage.
Aber es mangelte halt am Geld.
3dfx hatte halt such ein großes Problem: sie waren die ersten in einem unbekannten Markt. Niemand wusste wie sich das entwickelt.
Glide war eigentlich super, hätte aber auch schneller entwickelt gehört.
Man ist ja dann eh auf DX umgestiegen, aber mit aggressiverer Glide-Entwicklung hätte man es parallel als Zusatzfeature snbieten können: schneller Low Level Support inkl Zusätzlicher Features

Wenn man die Geschichte betrachtet, ist es echt traurig um den Laden, so geile Ideen und Techniken, die teils Jahre später erst ihren Einzug in die NV Karten erhalten hat und dort für Furore sorgten.
Es gibt sogar Ideen, die gibts bis heute nicht in diversen Nvidiakarten.
3dfx ist die traurige Geschichte, von einem geilen kleinen Team, die Gamer sind und Karten für Gamer gemscht haben, die von einem größeren, gewinnorientiertem "Goliath" überrollt wurden.
 

PCGH_Torsten

Redaktion
Teammitglied
Wieso macht man sich soviel Arbeit und lässt dann eine simple PCI-E<->PCI-Bridge weg? Das würde die Kosten auch nicht mehr steigern, das Projekt zu weitaus mehr Mainboards kompatibel machen und mit entsprechenden Chips die verfügbare Datentransferrate verdoppeln. Noch cooler: Vier PCI-E-PCI-Bridges und statt einer Verschaltung untereinander auf der Karte einfach PCI-E-Bifurcation über das Mainboard. Dann wäre jeder VSA100 einzeln mit 266 MB/s angebunden und die Karte sogar besser als die originale V5 6000.

Vielleicht kann mit PCI-X-Technik sogar noch mehr rausholen. Auf physischer Ebene nutzt die Schnittstelle viele der AGP-Techniken und da der VSA100 die AGP-exklusiven Features (sideband-adressing, etc.) im SLI-Modus sowieso links liegen lässt, würde ich eigentlich erwarten, dass er auch mit einem 512-MB/s-PCI-Modus fertig werden müsste.


Halt nur die halbe Wahrheit.

Man muss überlegen wieviel Verspätung der VSA 100 gehabt hat, selbst dann hat sie (wenn sie denn gelaufen hätte) die GeForce ziemlich eingestampft. Das es vier Chips brauchte finde ich nicht als Nachteil, durch das echte Sli gab es dadurch kaum Nachteile, außer eben einer großen und langen Karte. Dazu kommt eben, dass die 6000er selbst die GeForce 2 Ultra einstampfte und sogar die GeForce 3 konnte geschlagen werden (wenn auch nur vereinzelt). Wäre Rampage alias Specter pünktlich erschienen, das wäre damals zeitgleich mit der GeForce 3 gewesen, so hätte ein einzelner Specter mithalten können, aber mit der Möglichkeit bis zu 4 Chips zu verbinden. Man hätte die gesamte GeForce 3 Garde vor Neid erblassen lassen können. Leider ist es nie soweit gekommen.

Für mich war das große Problem bei 3dfx aber nicht die Verspätungen in der Hardware, sondern der Glide Standard. Man wollte, bzw. musste das so machen, Sli unter DX war meines Wissens nach nicht sinnvoll möglich, aber durch den geschlossenen Standard hat man sich zusehends Marktanteile beraubt. Ein weiteres Problem war sicherlich, dass man sich mit dem STB auf die Produktion und den Vertrieb der eigenen Chips übernahm und Probleme bekam. Hier wäre es ebenfalls sinnvoller gewesen, weiter auf die geballte Macht aller Hersteller zu setzen.

GLide war der bei der V4/5 nur noch Nebensache, die lief vollständig und inklusive SLI unter DirectX. Allerdings halt maximal 6.0, also Stand 1998, während die Konkurrenz mit 99er 7.0 und entsprechendem OpenGL-Niveau aufwarten konnte. Auch wenn die V5 in Kombination mit einer starken CPU (die man erstmal haben musste) mithalten konnte, war es schwer, sie als "überlegenes High-End-Produkt" zu vermarkten. Ein weiteres Hindernis wäre der aus damaliger Sicht astronomische Stromverbrauch der 6000 gewesen. (Die Länge der Karte dagegen weniger. Um die Jahrtausendwende berücksichtigen noch viele Gehäuse die Spezifikationen für Full-Length-Karten. Nur fehlende Halterungen für die oberen Slots hätten im Alter vielleicht mechanische Probleme/hohe Ausfallraten bedingt.)

Aber: All das steht unter der Prämisse "wenn sie rechtzeitig fertig geworden wäre". Und während es bei der 6000er tatsächlich viel Pech war, dass der Bug im PCI-Routing ewig nicht gefunden wurde, war der VSA-100 insgesamt eben erst auf halber Strecke zwischen Geforce 2 und 3 am Markt. Dafür war er als Einzelchip aber zu langsam, als SLI-Konfiguration zu teuer. Dass 3dfx mal hoffnungsvollere Zahlen in Roadmaps geschrieben hat, spielte leider nicht deren reale Möglichkeiten wieder.
 

Mega-Zord

Komplett-PC-Aufrüster(in)
GLide war der bei der V4/5 nur noch Nebensache, die lief vollständig und inklusive SLI unter DirectX. Allerdings halt maximal 6.0, also Stand 1998, während die Konkurrenz mit 99er 7.0 und entsprechendem OpenGL-Niveau aufwarten konnte. Auch wenn die V5 in Kombination mit einer starken CPU (die man erstmal haben musste) mithalten konnte, war es schwer, sie als "überlegenes High-End-Produkt" zu vermarkten. Ein weiteres Hindernis wäre der aus damaliger Sicht astronomische Stromverbrauch der 6000 gewesen. (Die Länge der Karte dagegen weniger. Um die Jahrtausendwende berücksichtigen noch viele Gehäuse die Spezifikationen für Full-Length-Karten. Nur fehlende Halterungen für die oberen Slots hätten im Alter vielleicht mechanische Probleme/hohe Ausfallraten bedingt.)

Aber: All das steht unter der Prämisse "wenn sie rechtzeitig fertig geworden wäre". Und während es bei der 6000er tatsächlich viel Pech war, dass der Bug im PCI-Routing ewig nicht gefunden wurde, war der VSA-100 insgesamt eben erst auf halber Strecke zwischen Geforce 2 und 3 am Markt. Dafür war er als Einzelchip aber zu langsam, als SLI-Konfiguration zu teuer. Dass 3dfx mal hoffnungsvollere Zahlen in Roadmaps geschrieben hat, spielte leider nicht deren reale Möglichkeiten wieder.
Man darf auch nicht außer Acht lassen, was DirectX 7 damals bedeutete. Hardware TnL war recht schnell wichtig, weil viele Spiele damals mit der Quake III-Engine kamen. Das hat ja nicht nur 3dfx verschlafen.

S3 Savage2000: Verbuggte TnL-Einheit wurde im Treiber deaktiviert
Matrox G550: Verbuggte TnL-Einheit funktionierte nur mit einer Anwendung von Matrox
STM Kyro(II): Hw-TnL war offenbar bei dieser preisgünstigen Lösung überhaupt nicht vorgesehen 2000/2001

Wenn eine High-End-Karte dieses Feature nicht hat, ist das sicher nicht gut. Da hätte auch das beste FSAA nicht geholfen.

An Pech glaube ich da auch nicht. Fehler wurden bei 3dfx ja systematisch gemacht. Dann kann man bei solchen Bugs auch nicht wirklich von Pech reden.
 

BigBoymann

Software-Overclocker(in)
GLide war der bei der V4/5 nur noch Nebensache, die lief vollständig und inklusive SLI unter DirectX. Allerdings halt maximal 6.0, also Stand 1998, während die Konkurrenz mit 99er 7.0 und entsprechendem OpenGL-Niveau aufwarten konnte. Auch wenn die V5 in Kombination mit einer starken CPU (die man erstmal haben musste) mithalten konnte, war es schwer, sie als "überlegenes High-End-Produkt" zu vermarkten. Ein weiteres Hindernis wäre der aus damaliger Sicht astronomische Stromverbrauch der 6000 gewesen. (Die Länge der Karte dagegen weniger. Um die Jahrtausendwende berücksichtigen noch viele Gehäuse die Spezifikationen für Full-Length-Karten. Nur fehlende Halterungen für die oberen Slots hätten im Alter vielleicht mechanische Probleme/hohe Ausfallraten bedingt.)

Aber: All das steht unter der Prämisse "wenn sie rechtzeitig fertig geworden wäre". Und während es bei der 6000er tatsächlich viel Pech war, dass der Bug im PCI-Routing ewig nicht gefunden wurde, war der VSA-100 insgesamt eben erst auf halber Strecke zwischen Geforce 2 und 3 am Markt. Dafür war er als Einzelchip aber zu langsam, als SLI-Konfiguration zu teuer. Dass 3dfx mal hoffnungsvollere Zahlen in Roadmaps geschrieben hat, spielte leider nicht deren reale Möglichkeiten wieder.
?

Glide und OpenGL waren doch der Standard für 3dfx, unter DX konnte man eben nie wirklich mithalten, während die Spiele aus der Zeit mit GlideUnterstützung die wahren Stärken offenbart. Hardware TnL war doch zu Beginn auch noch nicht wirklich sinnvoll nutzbar, ebenso wie 32bit keinen wirklichen Vorteil brachte. Da habe ich es so wie rollora in Erinnerung, dass das Marketing von NV gewonnen hat und nicht der Chip als solches.

Wenn man sich den oben verlinkten Test mal durchliest, kann man eigentlich zum Schluss kommen, dass der VSA ein echtes Monster war, eben durch die perfekte Skalierung mit MultiGPU. Sobald man Spiele mit Glide hernahm kam die Grafikqualität und die Geschwindigkeit sogar an den Nachnachfolger des eigentlichen Konkurenten heran.

Ob es NV noch geben würde? Ich weiß nicht, in meiner Aussage ging es ja um die Hypothese, dass Rampage pünktlich 99 erschienen wäre. Damals hätte man gegen die GeForce 2 gekämpft und da wäre die NV gnadenlos untergegangen, denn einen Großteil der Fehler aus dem VSA hatte man verbessert. Man wäre mit einer Karte ausgestattet gewesen, die in einer Single Chip Variante bereits die GF3 hätte Paroli bieten können (1000 MP/s zu 860MP/s), in der Dual oder gar Quadvariante wäre das Ding Kreise um die Konkurenz gefahren. Vor allem auch, weil TnL vernünftig integriert war und voller AGP Support.

Aber du hast natürlich Recht, hätte hätte Fahradkette!
Das hat ja nicht nur 3dfx verschlafen.
Verschlafen würde ich es nicht nennen, 1999 sollte ja ursprünglich Rampage erscheinen mit Hardware TnL Einheit. Also zeitgleich zur GF2.
 

Mega-Zord

Komplett-PC-Aufrüster(in)
Verschlafen würde ich es nicht nennen, 1999 sollte ja ursprünglich Rampage erscheinen mit Hardware TnL Einheit. Also zeitgleich zur GF2.
Ok, dann hatten sie ihre Entwicklung einfach nicht im Griff. Aber wie sollte das denn bitte aussehen?

Diese Zeitachse habe ich im Kopf:
1996: SST-1
1997: SST-96
1998: SST-2, Banshee
1999: Avenger
2000: Napalm

Die Voodoo3 und Voodoo4/5 erschienen ja 1999/2000. Wie hätte da den Rampage überhaupt reinpassen sollen? Ich glaube spätestens mit dem Strategiewechsel und dem Vergraulen der Boardpartner 1999 war der Anfang vom Ende eingeleitet.
 

PCGH_Torsten

Redaktion
Teammitglied
Daten vor 01 zu Rampage habe ich auch noch nie gehört. Und 99/00 wurde ja schon die VSA101-Zwischengeneration mitgeplant, also war selbst 01 eine recht alte Angabe. "99" hätten sie dann vor dem Durchbruch der V1 planen müssen.

Anfang vom Ende war aber definitiv das Vergraulen der Vertriebspartner. Vielleicht hätte es schon gereicht, wenn die V3 wie geplant Anfang 99 weltweit in den Regalen gestanden hätte. Stattdessen war sie meiner Erinnerung nach teilweise erst im Weihnachtsgeschäft lieferbar und dann auch nicht alle Modelle. So trat der Chip, der eigentlich die TnT2 Ultra unterbauern sollte auf einmal gegen die 256 DDR an, was sich bestimmt nicht positiv auf die Einnahmen und damit das Budget für folgende Projekte ausgewirkt hat. Die lächerlichen Versuche, Produktionskapazitäten mit nicht-Grafikkarten auszulasten sprachen Bände.

Man darf auch nicht außer Acht lassen, was DirectX 7 damals bedeutete. Hardware TnL war recht schnell wichtig, weil viele Spiele damals mit der Quake III-Engine kamen. Das hat ja nicht nur 3dfx verschlafen.

S3 Savage2000: Verbuggte TnL-Einheit wurde im Treiber deaktiviert
Matrox G550: Verbuggte TnL-Einheit funktionierte nur mit einer Anwendung von Matrox
STM Kyro(II): Hw-TnL war offenbar bei dieser preisgünstigen Lösung überhaupt nicht vorgesehen 2000/2001

Wenn eine High-End-Karte dieses Feature nicht hat, ist das sicher nicht gut. Da hätte auch das beste FSAA nicht geholfen.

An Pech glaube ich da auch nicht. Fehler wurden bei 3dfx ja systematisch gemacht. Dann kann man bei solchen Bugs auch nicht wirklich von Pech reden.

PowerVR/STB hatten erst für die Kyro III mit TnL geplant (die Kyro II SE sollte in Software Kompatibilität herstellen), allerdings war das nicht wirklich ein Problem. Die Karte stand preislich in Konkurrenz zur Geforce 2 MX, rannte aber oft der 2 GTS davon. Mit einem derartigen Performancevorsprung konnte man sich konzeptionelle Schwächen leisten beziehungsweise der Käufer konnte sich vom gesparten Geld eine entsprechend stärke CPU gönnen. Fehlende TnL war in diesem Marktbereich also kein Beinbruch, die Voodoo 4 lief ja auch ganz gut. Nur war die Kyro II halt auch von Fertigungs- und Entwicklungskosten für dieses Segment designt, während 3dfx mit den real erzielbaren Preisen die eigenen Rechnungen nicht mehr bezahlen konnte.


?

Glide und OpenGL waren doch der Standard für 3dfx, unter DX konnte man eben nie wirklich mithalten, während die Spiele aus der Zeit mit GlideUnterstützung die wahren Stärken offenbart. Hardware TnL war doch zu Beginn auch noch nicht wirklich sinnvoll nutzbar, ebenso wie 32bit keinen wirklichen Vorteil brachte. Da habe ich es so wie rollora in Erinnerung, dass das Marketing von NV gewonnen hat und nicht der Chip als solches.

Das war 1-2 Generationen vorher. Systematische GLide-Unterstützung durch die Spiele-Hersteller endete bereits zum Ende der Voodoo-2-Ära, als DirectX-Karten mit RivaTNT und höher brauchbar wurden. Die Marktmacht Microsofts und die Präsenz von zumindest kompatiblen ATI-3D-Entschleunigern in sämtlichen Komplettsytemen hat sich da einfach durchgesetzt. GLide hatten Entwickler zuvor nur genommen, weil es halt die einzige Schnittstelle war, für die überhaupt gute Hardware verfügbar war. Während der Voodoo-3-Generation konnte 3dfx diese Welle noch ausreiten, die meisten Spiele hatten weiterhin guten GLide-Support. Das war der Chip, der wegen fehlenden 32-Bit-Supports zu Unrecht/via Marketing klein gehalten wurde (zu spät am Markt war er aber ebenfalls), da auch ATI-/Nvidia-/Matrox-Nutzer mangels Leistung noch oft in 16 Bit spielten. Aber gut ein weiteres Jahr später zu Voodoo4/5 vs. Gf2/3-Zeiten waren 32 Bit sowie DirectX bzw. über das Niveau von GLide hinausgehende OpenGL-Niveaus fest etabliert und auch der VSA100 wurde dafür designt. GLide-Support war nur noch ein nettes Retro-Feature, denn viele Spiele aus Mitte der 90er Jahre hatten einfach keinen nicht-GLide-Renderpfad für viele Effekte und sahen dann auch auf moderner DirectX-Hardware schlecht aus. Aber niemand hat GLide noch weiterentwickelt (auch 3dfx nicht), kein Toptitel konnte damit sein Niveau ausfahren. Teilweise wurde es gar nicht unterstützt.

Zur Leistungseinschätzung mehrerer VSA100 gegen einen Geforce2/3: Ja, wenn man die aufaddierte Leistung nimmt, war 3dfx' Generation der Oberhammer. Aber leider wirkt sich derartige Komplexität nicht nur auf die Performance, sondern auch auf Entwicklungsaufwand und Produktionskosten aus. 3dfx hat eindrücklich bewiesen, dass einem sowas das Genick bricht und Potenzial, dass niemand nutzen kann, wenig nützt. Itanium war auf dem Papier ja auch genial, hinkte aber immer 1-2 Jahre hinterher und wurde nie vernünftig unterstützt.
 
Zuletzt bearbeitet:

Mazrim_Taim

BIOS-Overclocker(in)
Das war 1-2 Generationen vorher. Systematische GLide-Unterstützung durch die Spiele-Hersteller endete bereits zum Ende der Voodoo-2-Ära, als DirectX-Karten mit RivaTNT und höher brauchbar wurden.
Ist -gefühlt!- immer noch einer der Mythen um 3dfx das Glide OpenGL und DX immer haushoch überlegen war.
Hatte mit meinen TNT 1 bzw. 2 Karten deutlich mehr Fun als die Freunde mit ihren "nur" V1 bzw. V2.
 

BigBoymann

Software-Overclocker(in)
Ist -gefühlt!- immer noch einer der Mythen um 3dfx das Glide OpenGL und DX immer haushoch überlegen war.
Hatte mit meinen TNT 1 bzw. 2 Karten deutlich mehr Fun als die Freunde mit ihren "nur" V1 bzw. V2.
Immer nicht, aber doch sehr oft.

Die TNT kam 1998, also zwei Jahre nach der V1. Selbst die V2 kam zeitgleich und war meines Wissens nach in vielen Spielen haushoch überlegen, allerdings brauchte man eine gute CPU.
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Oh, hier geht's ja weiter. :-) Viel zu tun, daher nur kurz:

Anfang vom Ende war aber definitiv das Vergraulen der Vertriebspartner. Vielleicht hätte es schon gereicht, wenn die V3 wie geplant Anfang 99 weltweit in den Regalen gestanden hätte. Stattdessen war sie meiner Erinnerung nach teilweise erst im Weihnachtsgeschäft lieferbar und dann auch nicht alle Modelle. So trat der Chip, der eigentlich die TnT2 Ultra unterbauern sollte auf einmal gegen die 256 DDR an, was sich bestimmt nicht positiv auf die Einnahmen und damit das Budget für folgende Projekte ausgewirkt hat. Die lächerlichen Versuche, Produktionskapazitäten mit nicht-Grafikkarten auszulasten sprachen Bände.

Nee, die Voodoo 3 kam schon in der ersten Jahreshälfte, also die 2000 und 3000. Ende '99 und damit quasi-parallel zur ersten Geforce erschien lediglich die V3 3500.

MfG
Raff
 

PCGH_Torsten

Redaktion
Teammitglied
Ist -gefühlt!- immer noch einer der Mythen um 3dfx das Glide OpenGL und DX immer haushoch überlegen war.
Hatte mit meinen TNT 1 bzw. 2 Karten deutlich mehr Fun als die Freunde mit ihren "nur" V1 bzw. V2.

GLide war OpenGL nie überlegen. Das ergibt sich schon allein daraus, dass GLide ein vereinfachtes Subset von OpenGL war. Gegenüber DirextX müsste es bis 4.0 im Vorteil, ab 6.0 technisch unterlegen gewesen sein. Aber jede Schnittstelle ist nur soviel Wert, wie die passende Hardware. Da war die V1 allein auf weiter Flut, es gab gar keine anderen 3D-Beschleuniger. Und auch die V2 schwebte ein halbes Jahr meilenweit über dem restlichen Markt, ehe die RivaTNT in single-texturing-Situationen gleich ziehen konnte. Ein (sündhaft teures) 2×-12-MB-Gespann hat meiner Erinnerung nach auch gut ein Jahr nach Erscheinen (und das war damals sehr viel Zeit) noch eine TNT 2 Ultra geschlagen und dabei war das eingeschränkte Feature-Set kaum ein Problem, weil keine der Karten genug Power für 32 Bit hatte und nur wenige Spieler mehr als 1.024 × 768 ausgeben konnten/wollten/mussten. (Ich habe zugegebenermaßen viel in 1.152 × 864 gespielt, da 19 Zoll, aber XGA sah wirklich nur minimal schlechter aus.)

Aber: GLide war hier nur noch Mittel zum Zweck, 99er Spiele setzten längst alle Effekte auch über andere Schnittstellen um, da entsprechende Fähigkeiten schon seit dem Riva128 auch für D3D verfügbar waren. Je nach Engine mögen die GLide-Pfade noch etwas effizienter gewesen sein und die Voodoo 3 lieferte dann mit 22-Bit eine exklusive Qualitätsverbesserung, die kaum Leistung kostete, aber sowohl Soft- wie (3dfx-)Hardware wurden längst für anderes entwickelt.


Oh, hier geht's ja weiter. :-) Viel zu tun, daher nur kurz:



Nee, die Voodoo 3 kam schon in der ersten Jahreshälfte, also die 2000 und 3000. Ende '99 und damit quasi-parallel zur ersten Geforce erschien lediglich die V3 3500.

MfG
Raff

Die Gf256 kam im Herbst, nicht Ende 99 und zumindest bei den Händlern in meiner Umgebung waren die 3000er und 2000er bis dahin meist gar nicht oder nur zu hohen Preisen verfügbar. Im Gegensatz zur Konkurrenz oder V2- und Banshee-Partnerkarten. Vorgestellt hatte 3dfx die V3 schon früher, klar, aber zumindest ich bin aufgrund der Marktlage bis 2000 bei meiner TNT geblieben und habe dann eine Kyro II gekauft. Wenn das anderen ähnlich ging, hat 3dfx einiges an Einnahmen auf der Straße liegen gelassen, die sie auf dem gedehnten Weg zur V4/V5 hätten gut gebrauchen können. (Ganz abgesehen davon, dass jeder kurz-vor-Geforce-Aufrüster die Verbreitung von hTnL verlangsamt hätte. :-))
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
"Etwas effizienter" ist gut. :D Ein ordentlicher Gleitpfad, wie in der Unreal Engine, leistet gerade auf schwachen CPUs Dinge, für die die erste Geforce (IMHO relativ grundlos) gefeiert wurde: gute Bildraten in niedrigen Auflösungen. Feature-mäßig ist Glide zwar irgendwann stehengeblieben, auch bei der maximalen Texturauflösung, aber 32 Bit lässt sich mit VSA-100 zumindest treiberseitig forcieren (dito SSAA). Die Leistungsvorteile dank Lower-Level-Zugriff auf Voodoo-Karten lassen sich erst mit wesentlich stärkeren Prozessoren egalisieren - wie T&L auch, nebenbei bemerkt.

MfG
Raff
 

Mazrim_Taim

BIOS-Overclocker(in)
GLide war OpenGL nie überlegen. Das ergibt sich schon allein daraus, dass GLide ein vereinfachtes Subset von OpenGL war. Gegenüber DirextX müsste es bis 4.0 im Vorteil, ab 6.0 technisch unterlegen gewesen sein. Aber jede Schnittstelle ist nur soviel Wert, wie die passende Hardware. Da war die V1 allein auf weiter Flut, es gab gar keine anderen 3D-Beschleuniger. Und auch die V2 schwebte ein halbes Jahr meilenweit über dem restlichen Markt, ehe die RivaTNT in single-texturing-Situationen gleich ziehen konnte. Ein (sündhaft teures) 2×-12-MB-Gespann hat meiner Erinnerung nach auch gut ein Jahr nach Erscheinen (und das war damals sehr viel Zeit) noch eine TNT 2 Ultra geschlagen und dabei war das eingeschränkte Feature-Set kaum ein Problem, weil keine der Karten genug Power für 32 Bit hatte und nur wenige Spieler mehr als 1.024 × 768 ausgeben konnten/wollten/mussten. (Ich habe zugegebenermaßen viel in 1.152 × 864 gespielt, da 19 Zoll, aber XGA sah wirklich nur minimal schlechter aus.)
Das hatte sich aber eben nicht wirklich rumgesprochen.
Meine Vermutung ist das es unter Glide und der V1 / V2 es einfach "einfach klappte" und der
WOW Effekt sovort einsetzte.
=> Aber jede Schnittstelle ist nur soviel Wert, wie die passende Hardware.
Hatte zu der Zeit die Voodoo2 SLI ("fest verbaut") und praktisch alle NV Grafikkarten (im "fliegenden Wechsel").
 

PCGH_Torsten

Redaktion
Teammitglied
V1/V2 war definitiv WOW und hat das Bild von 3Dfx nachhaltig geprägt. Aber diesen Glanz darf man nicht auf die letzten Voodoos übertragen. Die hatten zwar auch noch ein paar nette Eigenschaften, aber die Konkurrenz hatte in der Absolutleistung massiv auf- und teilweise überholt; niemand hat mehr exklusiv für Voodoo entwickelt. Sah man ja auch an den Special-Features des VSA100. Die damit möglichen Features hatten gefühlt die gleiche Uptakte-Rate wie Matrox' letzte Gaming Vorstöße (d.h. Null), 3dfx-Käufer konnten allenfalls SSAA nutzen, weil das rein treiberseitig funktionierte. Hat in meinem Umfeld aber auch niemand für aktuelle Spiele gemacht – so wirklich billig war die Voodoo 5 auch nicht, in der Preisklasse hatten die meisten Käufer einen guten 19- oder gar 21-Zöller und konnten in 1.280 × 960 oder höher zocken. Da reichte die Leistung dann nicht mehr für eine doppelte Sample-Zahl. Kann man sich heute in Zeiten von "native Auflösung erreicht, wo kann ich die Power noch investieren?" gar nicht mehr vorstellen, wie Leistungsanpassungen zu Zeiten von "in Monitor DSR" abliefen. :-)

(@PCGH_Raff: Ist es heute eigentlich möglich, einen VSA100 rechteckige Pixel berechnen zu lassen? Also z.B. einen 4:3-Inhalt in 2.048 × 768 ausgeben zu lassen und so die 2× OGSSAA-Pixel direkt zu sehen? CRTs bieten ja prinzipiell eine unbegrenzte horizontale Auflösung.)

"Etwas effizienter" ist gut. :D Ein rordentlicher Gleitpfad, wie in der Unreal Engine, leistet gerade auf schwachen CPUs Dinge, für die die erste Geforce (IMHO relativ grundlos) gefeiert wurde: gute Bildraten in niedrigen Auflösungen. Feature-mäßig ist Glide zwar irgendwann stehengeblieben, auch bei der maximalen Texturauflösung, aber 32 Bit lässt sich mit VSA-100 zumindest treiberseitig forcieren (dito SSAA). Die Leistungsvorteile dank Lower-Level-Zugriff auf Voodoo-Karten lassen sich erst mit wesentlich stärkeren Prozessoren egalisieren - wie T&L auch, nebenbei bemerkt.

MfG
Raff

Jetzt vermischst du aber zwei Sachen: Die erste Geforce trat nicht gegen den VSA100 an, wohl aber zu einer Zeit als Unreal-Engine-Spiele noch eine Rolle spielten. Da habe ich ja schon geschrieben, dass die konkurrierende Voodoo 3 stärker gedisst wurde als angemessen. Zwar hatte sie ein altbackenes Feature-Set, aber genauso wie die wenigsten RTX 2060 im Praxiseinsatz wegen mangelndem Speicher ausrangiert werden, dürften die meisten V3500 ihren Besitzern schlicht von der Rohleistung her zu lahm gewesen sein, ehe die Schnittstellenbeschränkungen zu schmerzhaft wurden. Sobald sie in großen Stückzahlen verfügbar war, war die Maximalleistung jedenfalls angemessen für den Preis und das nicht nur unter GLide.

Aber bis die Voodoo 5 gegen die Geforce 2 Ultra (nicht) antrat, hatte sich das Rad weiter gedreht – und GLide lag drunter. Mit Ausnahme von Undying setzte kein relevantes Spiel der Ära mehr auf Unreal 1 (und in Undying hat die Kyro II alles weggefegt). Der erste Unreal-2-Titel kam nur gut ein Jahr nach dem Voodoo-Ende, Q3 war die Gunst der Stunde und 1.024 × 768 in 32-Bit Standard für eine neugekaufte Grafikkarte. Dass GLide da noch punkten konnte oder entsprechende Spiele überhaupt aktiven Support/alle Optionen bieten oder mittels Treiber dazu gezwungen werden konnten, habe ich bis heute noch nirgendwo gelesen. Spätere Treiber-Hacks von 3dfx-Fans spielten in der damaligen Marktsiuation halt keine Rolle.
 
Zuletzt bearbeitet:
Oben Unten