joop das Problem von 3Dfx waren schlicht und ergreifend Management & Marketing Fehler, die Hardware war eigentlich immer gut, die Treiber waren damals abei allen Herstellern eher schlecht und kaum vergleichbar mit der heutigen Qualität. Wenn ich an die damaligen NV TNT/ Riva 128 bzw auch an die ATi treiber denke wird mir übel
Also ich hatte mit meiner TNT nie auch nur einziges Mal Treiberprobleme (ganz im Gegensatz zu ATI-Besitzern in meinem Umfeld
) - von 3dfx habe ich auch nie Gemecker gehört.
NV brauchte ja damals 32Bit weil deren 16Bit so was von erbärmlich schlecht war, das die Leistung unter 32Bit aber einbrach hat die Marketing Abteilung denn Usern vergessen zu sagen XD
Einige Spiele waren damals immer noch @16Bit, dorthatte 3Dfx immer denn Qualitätsvorteil, aber anstatt diesen denn Usern zu verdeutlichen,...
16 Bit sind 16 Bit und sahen überall gleich aus. Als es noch 3Dfx gegen Nvidia war, gab es ja glücklicherweise kaum/keine Treiberbetrügereien. Das einige Spiele der Mitt90er auf Nvidia schlechter Aussahen, lag nicht daran, dass die bei 16 Bit irgendwas falsch gemacht haben, sondern daran, dass einige Entwickler viele Effekte und/oder bessere Texturen nur im GLide-Modus anboten, weil die DX-Version der Engine irgendwo auf dem Stand von D3D 5 oder älter war, dabei konnte ein TNT längst alles (und mehr) darstellen, was eine V2 konnte. Aber zu sehen bekam man das dann höchstens mit einem guten GLide-Wrapper :-/
(Leistung unter 32 Bit und der generell fehlende Nutzen eines 32 Bit Renderers, wenn z.B. Lightmaps alle in 16 Bit sind, ist ein anderes Thema)
Eigentlich hat die NV Markteting Abteilung vs. 3Dfx Marketing gewonnen XD
Was ja auch wirklich nicht schwer war
"Hier sehen sie die neue V3 3000! Super schnell, Super toll, Super überlegen und wenn sie Glück haben, dann schon in 6 Monaten und damit knapp vor der nächsten Konkurrenzgeneration in ihrem Hardwareladen"
oh das stimmt nicht ganz marc, bei der Geforce 4 wurde bei erscheinen der Geforce 5 Tilebased rendering ausgeschaltet ( bzw. war nicht mehr aktivierbar) in einigen Benchmarks/spielen brachte dies immerhin 20-30% Leistungszuwachs, wenn ich mich richtig erinnere.
Seit wann beherscht die Gf4 tilebased? Das erfordert ja doch einige Änderungen im Renderablauf, für die auch die Hardware geeignet sein muss. Beim Kyro II hat es extrem viel gebracht, aber der war auch dafür konzipiert (z.B. großer Cache statt teurem Speicherinterface). Beim Gf4(ti) hätte es imho auch Probleme mit den Vertex-Shadern geben müssen, weil Geometrie nunmal nicht an der Kachelgrenze aufhört. (was beim Kyro noch egal war, weil er eh keine Geometrieeffekte beherrschte - aber schon die Integration von hTnL war bekanntermaßen ein fast unlösbares Problem)
Was sich manchmal rückwirkend in den Treibern ändert, sind "Optimierungen". Deren Wegfall senkt dann natürlich die FPS, aber dafür sieht das Bild endlich wieder so aus, wie es soll. Aber iirc hat Nvidia damit erst richtig (und sehr, sehr stümperhaft) angefangen, nachdem ATI es mit den Radeon9000 vorgemacht und die Gf FX es dringend nötig hatte.