• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

3dfx Rampage: Bilder mit Max Payne, 3DMark und Unreal Tournament

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu 3dfx Rampage: Bilder mit Max Payne, 3DMark und Unreal Tournament

Das Grafikunternehmen 3dfx wurde 2001 wegen finanzieller Probleme geschlossen. Das letzte 3dfx-Produkt mit dem Codenamen Rampage kam deswegen nicht mehr in den Handel, existiert aber noch als Prototyp in wenigen Exemplaren. Neue Bilder zeigen die Grafikkarte lauffähig mit Max Payne, 3DMark 2001 und Unreal Tournament.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: 3dfx Rampage: Bilder mit Max Payne, 3DMark und Unreal Tournament
 

shootme55

BIOS-Overclocker(in)
Wär mein englisch besser würd ich das Buch kaufen.
Weis einer wie 3dfx Vertex und T&L auf mehrere Chips auteilen wollte? So viel ich weis war der Scan Line Interleave nur bis DX6 relativ einfach umzusetzen...
 

Löschzwerg

BIOS-Overclocker(in)
Der komplette Anteil der Geometrieberechnungen wäre auf dem Sage Chip erfolgt, klassisches SLI hätte es lediglich über zwei Rampage Chips gegeben.

LowCost: 1x Rampage
MidRange: 1x Rampage + 1x Sage
HighEnd: 2x Rampage + 1x Sage

So war es geplant.
 

neo27484

PC-Selbstbauer(in)
Ach waren das noch Zeiten als es mehr als NV und AMD (ATI) zum zocken gab. Ich war immer voll angefixt von S3 Savage4 und co. S3 Metal war so genial, zb. in UT.
Oder die Kyro´s, oder XGI mit den Volari karten.....
. Dann war da noch Bitboys mit dem Glaze3D und dem Avalanche- schade das die nie kamen. Ich find es gut das Intel bald mitmischen will, dennoch ist die Auswahl ermüdent und sehr langweilig. Zumal sich Nvidia benimmt King Lui- Kundennähe sieht anders aus.
 

Kell-Conerem

PCGH-Community-Veteran(in)
Ich bin wirklich neugierig ob man es noch schafft die Rampage Prototypen so richig zu Benchen um einen Vergleich zur damaligen Konkurenz ziehen zu können. Wenn die Gerüchte wirklich stimmen dann hätte dieser Chip die Wiederauferstehung von 3dfx sein können wenn sie ein anderer als nvidia übernommen hätte. Evtl hätte es die Grünen sogar ziemlich arg in Bedrängnis gebracht.
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Ich bin wirklich neugierig ob man es noch schafft die Rampage Prototypen so richig zu Benchen um einen Vergleich zur damaligen Konkurenz ziehen zu können. Wenn die Gerüchte wirklich stimmen dann hätte dieser Chip die Wiederauferstehung von 3dfx sein können wenn sie ein anderer als nvidia übernommen hätte. Evtl hätte es die Grünen sogar ziemlich arg in Bedrängnis gebracht.

Ich frage mich ja immer noch, wie schlimm es wohl hinter der Fassade aussah, dass 3dfx direkt nach Nvidias Anruf deren Geld genommen hat und die Firma zusperrte. Ein Investor hätte es doch auch getan. Wollte wirklich niemand einspringen? Ein halbes Jahr später wäre Rampage im Markt gewesen, wenn man mal optimistisch davon ausgeht, dass man nicht zu viele Schleifen hätte fahren müssen. Vermutlich hätte man gegen Nvidia trotzdem einige Jahre später den Kürzeren gezogen - es sei denn, dass man richtig Geld in die Hand genommen und später wieder eingenommen hätte -, aber kurzfristig hätte das mit einem derart "heißen" Produkt in der Pipeline doch klappen müssen. Ähnlich sieht es übrigens gerade beim AMD aus: Man kann nur hoffen, dass da wirklich richtig investiert wird, um den Anschluss wieder zu erreichen, sonst wird das ganz bitter gegen Nvidia und Intel.

MfG,
Raff
 
Zuletzt bearbeitet:

Pu244

Lötkolbengott/-göttin
Die knapp einjährige Verspätung des VSA 100 hat ihnen eben das Genick gebrochen, das war damals mehr als eine Generation. Wäre die Voodoo 5 gegen die SD RAM GeForce angetreten, dann hätte schon ein VSA 100 Chip gewonnen, T&L war damals auch noch nicht so wichtig. Mit zwei Chips hätten sie Nvidia pulverisiert und bei 4 Chips in andere Welten vorgedrungen. So mußten sie zwei Chips verwenden, damit sie der GeForce 2 GTS überhaupt hinterher kamen, das senkte auch den Profit, den man damit erzielen konnte (ein Chip für 600DM oder zwei Chips für ebenfalls 600DM ist ein gigantischer Unterschied). Die Voddoo 6 6000 ließ ewig auf sich warten und so hatte Nvidia die Leistungskrone inne.

Am Ende hat ihnen das das Genick gebrochen, wobei ihre Entscheidung STB zu übernehmen und allen Boardpartnern einen Tritt in den Hintern zu verpassen den Anfang gemacht hat.

hatte mal ne 3dfx Voodoo 5500.... das war ein Monster.
Das ist Unreal 1 geflutscht

Das war auch ein recht altes Spiel, das lief selbst auf meiner Voodoo 3 3000 schnell und das in der (damals) unglaublichen Auflösung von 1024x768.
 

Rollora

Kokü-Junkie (m/w)
@Raff: die Finanzspritze hätte sich 3dfx aber schon Ende 1998 holen müssen. Als man noch an der Spitze war und die meisten Ingenieure noch dort waren - und man das Geld dringend brauchte. VSA100, Rampage, Dreamcast, TV Karten. Außerdem zeichnete sich ein Rückstand im 3D Bereich schon ab (32 Bit, TnL stand vor der Tür, Shader waren im Gespräch) - zu viele Entwicklungen, zu wenige Leute. Vorallem war der Markt damals noch klein aber die Zeichen standen auf massives Wachstum. Gigapixels Tech und Co hätte damit auch schneller integriert werden können.
Damals war mir das nicht bewusst, aber heute ist wohl klar, im Jahr 2000 war 3dfx schon zu sehr im Abwärtstrend. Das sage ich natürlich mit großem Herzschmerz, denn in meiner Idealen Weltträumerei hätte Rampage mit der Konkurrenz den Boden gewischt wie in alten Zeiten und 3dfx wäre zur alten Glorie zurückgekehrt. Aber ist halt nicht sehr wahrscheinlich.
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Ich sehe das wie du. Da wurden die Weichen einfach nicht früh genug gestellt. Zu viele Projekte, zu wenig Fokus. Woran ich aber glaube, ist, dass Rampage bzw. die Specter-Produkte heftig geworden wären. Selbst wenn man das Taktratenziel nicht erreicht hätte (was damals nicht unüblich war). Die Single-Chip-Variante hätte einige Funktionen gebracht, die Ati und Nvidia damals nicht hatten (T&L außen vor): Sparse-Grid Multisampling und 16:1 AF. Das wäre bis zum Herbst 2002, als der R300 erschien, konkurrenzlos gewesen. Nvidia hatte SGMSAA sogar erst Jahre später (NV40)! Interessante Punkte sind natürlich, wie gut der Sage die Geometrie anliefert, inwiefern das einen Flaschenhals darstellt und wie 3dfx-SLI im Jahr 2001+ skaliert hätte. Das wäre so spannend geworden. Es ist einfach bitter, dass man die Firma einfach so beerdigt hat, obwohl das Projekt Rampage anscheinend die Zielgerade eingeschlagen hatte.

MfG,
Raff
 

PCGH_Stephan

Administratives Postpanoptikum
Teammitglied
Was ich mich angesichts von Dingen wie über 200 Mio. US-$ Fan-Finanzierung bei Star Citizen oder unzähligen Mini-NES zum vielfachen Preis bei Ebay frage: Gibt es vielleicht einen Markt für neu produzierte Grafikkarten mit Retro-Architektur, also blöd gesagt einfach Karten wie Rampage mit Original-Design (und wahlweise zeitgemäßer oder einer dem Original ähnelndem und dementsprechen günstigen Asbach-Uralt-Fertigungsverfahren)? Auf die Art und Weise könnte man vielleicht auch mal ein paar Designs der Bitboys auf die Menschheit loslassen und wir hätten spannende Themen für ein paar PCGH-Specials. :devil:
 

Pu244

Lötkolbengott/-göttin
Ich bin der Meinung, dass man die technologischen eichen garnicht soviel anders hätte stellen können, es sei denn man hätte den Blick in die Zukunft gehabt.

Im Nachhinein wissen wir, dass es zu Voodoo 3 Zeiten einen kleinen Hype um 32Bit Farbtiefe gab und sie das besser implementiert hatten. Wobei die meisten damals eher die 16MB VRAM abgeschreckt haben (Matrox [die hatten die richtig geilen Karten], S3 und Nvidia haben damals eben 32MB aufgefahren). Das ist aber nichts, was 3dfx versenkt hat.

Das Unheil begann eben damit, dass man sich entschlossen hatte, alle Boardpartner vor die Tür zu setzen und die Sache selbst in die Hand zu nehmen. Da ist 3dfx ein wenig im Ozean der Grakas untergegangen, wer nicht explizit eine Voodoo wollte, der griff schnell zu etwas anderem. Nvidia macht es da heute mit der Salamitaktik richtig. Erst einmal überhaupt eigene Grakas verkaufen, dann das Premiummodell exklusiv vertreiben und schauen wie das ankommt. Mittlerer Weile sind sie soweit, dass es die Karten erst einmal quasi exklusiv bei ihnen gibt und sie sich die hohen Gewinne am Anfang unter den Nagel reißen können (zusätzlich zur Händlermarge, die sie sich auch einverleiben). Nächster Schritt ist dann die Grakas erstmal 3 Monate exklusiv zu vertreiben, bis man die Karten irgendwann nurnoch bei Nvidia bestellen kann. 3dfx war nicht annähernd so schlau oder Nvidia hat aus der Pleite gelernt, jedenfalls hat ihren das den ersten, richtig schweren Schlag versetzt (zählt man die Tatsache, dass die Konkurrenz zu Zeiten der Voodoo Banshee mithalten konnte nicht mit).

Das zweite war eben die Verspätung der VSA 100 Chips, gegen die GeForce 1 hätten sie absolut gerockt, gegen die GeForce 2 hat man sich dann sehr schwer getan. Zwischen ultimativen Erfolg und gigantischem Flop, lagen damals eben gut 6 Monate, der Markt hat damals einfach nichts vergeben. (die Verspätung von Vega hätte damals gereicht, dass AMD 3 mal pleite gegangen wäre und das fertige Produkt hätte sie noch zusätzlich zweimal in den Abgrund getreten)

Was ich mich angesichts von Dingen wie über 200 Mio. US-$ Fan-Finanzierung bei Star Citizen oder unzähligen Mini-NES zum vielfachen Preis bei Ebay frage: Gibt es vielleicht einen Markt für neu produzierte Grafikkarten mit Retro-Architektur, also blöd gesagt einfach Karten wie Rampage mit Original-Design (und wahlweise zeitgemäßer oder einer dem Original ähnelndem und dementsprechen günstigen Asbach-Uralt-Fertigungsverfahren)? Auf die Art und Weise könnte man vielleicht auch mal ein paar Designs der Bitboys auf die Menschheit loslassen und wir hätten spannende Themen für ein paar PCGH-Specials. :devil:

Vermutlich gibt es einige Leute, die tatsächlich bereit wären eine Stange Geld auf den Tisch zu legen (gerüchteweise gibt es hier irgendwo einen, der sogar eine Voodoo 5 6000 gekauft hat...), die Frage wäre, ob es reicht die Karten Produzieren zu lassen, auch Fabless ist vermutlich nicht so billig, dass man mit ein paar Zehntausend Dollar netto (die Kosten für für die Karten der Backer usw. müssen ja abgezogen werden) viel zerreißen könnte. Endgültig ins Grab bringen wird diese Idee wohl Nvidia, die ja, abseits von Aprilscherzen, möglichst nichtsmehr von 3dfx wissen wollen.

Allerdings wäre so eine kleine PCIe x1 Karte doch eine nette Sache oder am besten gleich etwas in der Art der Classic Konsolen. Voodoo 5 6000, win 98 oder Me, 512-1024MB RAM, 64GB SSD sowie einen Atom oder gleichwertigen AMD Prozessor. Das alles auf einem kleinen Einplatinencomputer (unter 10W Verbrauch) sowie mit den größten 3dfx Hits vorinstalliert, ich denke das hätte etwas.
 
Zuletzt bearbeitet:

Löschzwerg

BIOS-Overclocker(in)
Eine Steckkarte mit FPGA wäre für mich durchaus interessant. Bessere Ausgänge (DVI, HDMI, DP), keine Bandbreitenbeschränkung dank PCIe, schneller VRAM und den Rest (also die Architektur) lädt man nach Bedarf. So ein Projekt wäre vermutlich am ehesten realisierbar und Dank des FPGA auch flexibel einsetzbar.
 

PCGH_Torsten

Redaktion
Teammitglied
Ach waren das noch Zeiten als es mehr als NV und AMD (ATI) zum zocken gab. Ich war immer voll angefixt von S3 Savage4 und co. S3 Metal war so genial, zb. in UT.
Oder die Kyro´s, oder XGI mit den Volari karten.....
. Dann war da noch Bitboys mit dem Glaze3D und dem Avalanche- schade das die nie kamen. Ich find es gut das Intel bald mitmischen will, dennoch ist die Auswahl ermüdent und sehr langweilig. Zumal sich Nvidia benimmt King Lui- Kundennähe sieht anders aus.

Also die Volari war nun wirklich keine Alternative und S3 hat auch Mühe gehabt, hinterherzuhinken - die bessere Wahl waren die Karten meiner Meinung nach nie. Meiner Erinnerung nach gab es diese Phasen:
"Matrox für 2D, vergess 3D"
"vergess alle außer 3Dfx"
"Nvidia oder 3Dfx?"
"Nvidia. Wo bleibt eigentlich 3dfx?"
"Nvidia oder Kyro. Oder 3dfx, wenn man denn mal was kriegt."
"Nvidia. Wo sind die anderen hin?"
"Nvidia oder ATI?"
Aber an einen echten Dreikampf bei Beschleunigerkarten kann ich mich eigentlich nicht erinnern. Vielleicht gab es ein Quartal, in dem die Geforce 2 MX mit der Kyro II und die 2 Pro mit der Voodoo 5 gekämpft haben.


Ich sehe das wie du. Da wurden die Weichen einfach nicht früh genug gestellt. Zu viele Projekte, zu wenig Fokus. Woran ich aber glaube, ist, dass Rampage bzw. die Specter-Produkte heftig geworden wären. Selbst wenn man das Taktratenziel nicht erreicht hätte (was damals nicht unüblich war). Die Single-Chip-Variante hätte einige Funktionen gebracht, die Ati und Nvidia damals nicht hatten (T&L außen vor): Sparse-Grid Multisampling und 16:1 AF. Das wäre bis zum Herbst 2002, als der R300 erschien, konkurrenzlos gewesen. Nvidia hatte SGMSAA sogar erst Jahre später (NV40)! Interessante Punkte sind natürlich, wie gut der Sage die Geometrie anliefert, inwiefern das einen Flaschenhals darstellt und wie 3dfx-SLI im Jahr 2001+ skaliert hätte. Das wäre so spannend geworden. Es ist einfach bitter, dass man die Firma einfach so beerdigt hat, obwohl das Projekt Rampage anscheinend die Zielgerade eingeschlagen hatte.

MfG,
Raff

Ich weiß nicht, wie es damals in deinem Bekanntenkreis war, aber in meinem spielten Features eine untergeordnete Rolle. Flimmerfreies FIltering - gerne. Aber AA? An meiner Röhre hätte ich problemlos 1.280er Auflösungen nutzen können, musste mangels Rechenleistung aber immer wieder auf 1.024 oder gar 800 Spalten runtergehen. Erst mit der Geforce 4 Ti habe ich durchgängig in einer Auflösung gespielt, aber Reserven für die vierfache Pixelmenge respektive Supersampling hatte auch die nicht. Der Qualitätsunterschied zwischen SGSSAA und OGSSAA war mir somit vollkommen egal. Da hätten mich eher noch die Shader von Nvidia gereizt (auch wenn die 8.0er Generation der 4 letztlich wenig genutzt wurde).


Was ich mich angesichts von Dingen wie über 200 Mio. US-$ Fan-Finanzierung bei Star Citizen oder unzähligen Mini-NES zum vielfachen Preis bei Ebay frage: Gibt es vielleicht einen Markt für neu produzierte Grafikkarten mit Retro-Architektur, also blöd gesagt einfach Karten wie Rampage mit Original-Design (und wahlweise zeitgemäßer oder einer dem Original ähnelndem und dementsprechen günstigen Asbach-Uralt-Fertigungsverfahren)? Auf die Art und Weise könnte man vielleicht auch mal ein paar Designs der Bitboys auf die Menschheit loslassen und wir hätten spannende Themen für ein paar PCGH-Specials. :devil:

Als Retro-Hardware-Fan würde ich 50 Euro für eine DX7-AGP-Karte auf den Tisch legen, die uneingeschränkt Win98- und DOS-/VESA-kompatibel ist und via HDMI oder DP mindestens QHD ausgeben kann. 100 Euro für UHD, GLide und DX8.1. Da 95 Prozent der Leute keine passende Rest-Hardware haben und die meisten Titel in akzeptabler Qualität/Kompatibilität bei GoG verfügbar sind, glaube ich aber nicht an einen Kickstarter-Erfolg.
 

Pu244

Lötkolbengott/-göttin
Aber an einen echten Dreikampf bei Beschleunigerkarten kann ich mich eigentlich nicht erinnern. Vielleicht gab es ein Quartal, in dem die Geforce 2 MX mit der Kyro II und die 2 Pro mit der Voodoo 5 gekämpft haben.

Als Matrox die G400 Karten gebracht hat, da gab es einen echten 3 Kampf zwischen TNT2, Voodoo 3 und eben dem G400

Beim Tempo lag die Voodoo 3 vor der TNT2 und die wiederum vor der G400, wobei das keine Welten waren, bei der 3D Qualität lag die G400 vor der TNT2 und die Voodoo 3 war etwas abgeschlagen. Damals hatte man noch richtig Auswahl gehabt.
 

Christoph1717

Freizeitschrauber(in)
mich würde intressieren wie die Karte mit Strom versorgt wird.
Der Stromstecker kann ja nicht benutzt werden weil Bauteile im Weg sind... :huh:

Kann mich noch an den ersten PC erinern den ich gebaut hatte Sockel A mit Duron CPU da gab es isa, pci und agp auf dem Mainbord.
Aus Geldmangel mußte am Anfang eine Tseng Labs karte herhalten, die hatte ich kostenlos irgentwo her. Später gabs dann eine Geforce 2MX, man war das ein Fortschrit ;)
So habe ich irgentwie die 3dfx Zeit verpasst... habe so etwar 2005 durch die PCGH berichte einige gebrauchte Karten noch günstig bekommen. 1,2,3,5500
 

Löschzwerg

BIOS-Overclocker(in)
mich würde intressieren wie die Karte mit Strom versorgt wird.
Der Stromstecker kann ja nicht benutzt werden weil Bauteile im Weg sind... :huh:

Die Karte wird komplett über den AGP Slot versorgt, dieser reicht aus. Der verlötete Molex darf unter keinen Umständen angeschlossen werden, die Karte würde dadurch zerstört werden (Aussage eines ehemaligen 3dfx Mitarbeiters).
 

Rollora

Kokü-Junkie (m/w)
hatte mal ne 3dfx Voodoo 5500.... das war ein Monster.
Das ist Unreal 1 geflutscht

Gerade aufgrund von Glide (low-level, ähnlich heutiger Vulkan und DX12 Schnittstelle, aber Optimiert speziell für einen Hersteller und nicht allgemein gehalten) und einer guten implementierung sind die Voodoos in Unreal Engine Spielen sehr schnell. Das wäre (bei etwas mehr Budget, aber daran fehlte es 3dfx im Vergleich zu Nvidia) ein Weg gewesen auch in Zukunft die Konkurrenz in den Boden zu rechnen: Glide schnell weiterentwickeln und so die Feature-Hoheit zu behalten, die Zusammenarbeit mit Herstellern tiefer zu gestalten als die Konkurrenz. Dann wäre auch gar kein TnL nötig gewesen (das sich bei schnelleren Prozessoren (etwa heutigen) sogar als Bremsklotz erweist im Vergleich einer "puren" 3D Beschleunigung wie 3dfx sie bot. Eine Voodoo 5 läuft auf modernen Prozessoren (sofern das wegen der Boards möglich ist) schneller als eine Geforce 2. Diese hatte vorallem in Prozessorlastigen Szenarien (davon gabs damals genug, die leistung der CPUs war ja noch schwach) einen riesen Vorteil dank TnL. Aber sobald der Vorteil weg war, hieß es "Fillrate is King". Und da brillierten halt Voodoo 5 5500 und vorallem 6000, ganz zu schweigen vom AA

Hier ein kleiner Unreal Test mit Voodoos und der Konkurrenz:
http://www.vgamuseum.info/images/vlask/bench/unrealhw.png
 

farming

Komplett-PC-Aufrüster(in)
Diese "runden" IDE Kabel, die ständig auseinanderfallen und selbst intakt schon nicht wirklich stil haben sind mmn. eine der größten Stilsünden der 0er Jahre im PC Bereich. Jetzt so 15+ Jahre später ist es mir ein Rätsel wie irgendjemand sowas je gekauft hat.

Edit: Ich denke für den Zeitraum 2010-2020 sichert sich der interne USB3.0 Stecker auf jeden Fall einen hohen Platz auf meiner "wtf were they thinking?"-Liste
 

Pu244

Lötkolbengott/-göttin
Diese "runden" IDE Kabel, die ständig auseinanderfallen und selbst intakt schon nicht wirklich stil haben sind mmn. eine der größten Stilsünden der 0er Jahre im PC Bereich. Jetzt so 15+ Jahre später ist es mir ein Rätsel wie irgendjemand sowas je gekauft hat.

Wenn man als Alternative nur die flachen 80 poligen Kabel hatte, dann waren die runden IDE Kabel wesentlich besser, was das Verlegen und die Ästhetik angeht. Wenn man z.B. mehr als 2 HDDs und optische Laufwerke verbaut hat, dann wurde es schnell unübersichtlich. Im wesentlichen ist das ein wenig die Arroganz der Nachgeborenen, etwa so, also würde irgendwann jemand fragen, warum die in den 70ern Monochrommonitore hatten und sich nicht gleich ein gutes 8K Gerät, mit 12 Bit und HDR gekauft haben, kostet doch nicht die Welt.

SATA wurde erst 2002 fertig entwickelt und setzte sich ab etwa 2005 so richtig durch.
 

Aslinger

Freizeitschrauber(in)
Als Matrox die G400 Karten gebracht hat, da gab es einen echten 3 Kampf zwischen TNT2, Voodoo 3 und eben dem G400

Beim Tempo lag die Voodoo 3 vor der TNT2 und die wiederum vor der G400, wobei das keine Welten waren, bei der 3D Qualität lag die G400 vor der TNT2 und die Voodoo 3 war etwas abgeschlagen. Damals hatte man noch richtig Auswahl gehabt.

Dazu habe ich als Laie mal ein passendes Vergleichsvideo gemacht. Die Voodoo 3 3500 AGP ist übrigens von Compaq. Meiner Meinung nach die beste Voodoo 3 Version ohne den Multimediafeatures der originalen STB V3 3500 AGP. Die ersten Teste wurden in 16 Bit Farbtiefe verglichen (22 Bit Postfilter der V3 war auch aus). Incoming wurde dann mit 32 Bit und 22 Bit (siehe Inhaltsverzeichnis) der V3 verglichen. Hier in 32 Bit schlägt die G400 MAX die TNT2 Ultra deutlich. Testsytem war ein unübertakteter Pentium III Tualatin 1400.

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.
 
Zuletzt bearbeitet:

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Ah, gute alte G400 MAX. :-) Ich habe immer noch keine, weil ich's immer wieder vergesse.

Und yep, 1999 war das vor allem eine starke 32-Bit-Karte ("weniger langsam") mit guter 2D-Bildqualität. Insgesamt führte 1999 aber meiner Meinung nach kein Weg an einer Voodoo 3 vorbei, denn 22 Bit und Glide-Support waren vor 19 Jahren einfach sehr gute Argumente.

MfG,
Raff
 

Rollora

Kokü-Junkie (m/w)
Ja hab hier auch immer noch die 3500TV liegen. War dann auch meine letzte TV Karte und wäre theoretisch immer noch ein Grund warum ich Rundfunkgebühren zahlen müsste
 

Aslinger

Freizeitschrauber(in)
Ah, gute alte G400 MAX. :-) Ich habe immer noch keine, weil ich's immer wieder vergesse.

Und yep, 1999 war das vor allem eine starke 32-Bit-Karte ("weniger langsam") mit guter 2D-Bildqualität. Insgesamt führte 1999 aber meiner Meinung nach kein Weg an einer Voodoo 3 vorbei, denn 22 Bit und Glide-Support waren vor 19 Jahren einfach sehr gute Argumente.

MfG,
Raff

Ich hatte von Release weg die 2000 AGP in Verwendung, ca. bis Ende 2000. Machte auch 3000 AGP Taktraten mit. ;) Das Preis/Leistungsverhältnis der V3 2000 AGP war spitze im Vergleich zur 3000er. Hat glaub ich damals 1500 österreichische Schilling gekostet. Die Karte hatte 7 ns Speicher und lief trotzdem bis ca. 170MHz fehlerfrei (natürlich mit Lüfter auf Passivkühler).
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Da kann man nicht meckern. :-) Ich habe meine V3 3000 AGP erst Mitte 2000 günstig gekauft, als schon die V5 im Handel lag. Angesichts der nutzbaren ~192 MHz (ebenfalls Lüfter auf dem "Grill") war das aber ein sehr guter Deal. Damals hat die Leistung noch quasi linear mit den Takt skaliert. Der lief bei den Voodoos ja auch synchron zum RAM.

MfG,
Raff
 

Pu244

Lötkolbengott/-göttin
Da kann man nicht meckern. :-) Ich habe meine V3 3000 AGP erst Mitte 2000 günstig gekauft, als schon die V5 im Handel lag. Angesichts der nutzbaren ~192 MHz (ebenfalls Lüfter auf dem "Grill") war das aber ein sehr guter Deal. Damals hat die Leistung noch quasi linear mit den Takt skaliert. Der lief bei den Voodoos ja auch synchron zum RAM.

Ich habe meine Voodoo 3 3000 für 399DM im Mai 1999 bekommen. Die gute alte Zeit, als die High End Hardware nach knapp einem halben Jahr veraltet war, weil etwas doppelt so schnelles draußen war (GeForce 1 SDR) und ein Jahr später gab es schon etwas 2,5 mal so schnelles (GeForce 2 GTS). Dafür ging es rasend schnell voran, zwischen einem grafiklastigen Spiel von 1998 und 2000 ist meist ein gigantischer Unterschied, heute muß man die Unterschiede mit der Lupe suchen.

PS: als ich deine Signatur kurz überflogen habe, da dachte ich "Penta SLI, mit 5 RTX 2080Ti und nochmal Triple CF, mit 3 RX 590, in einem Kasten? Jetzt übertreibt er".
 

Aslinger

Freizeitschrauber(in)
Da kann man nicht meckern. :-) Ich habe meine V3 3000 AGP erst Mitte 2000 günstig gekauft, als schon die V5 im Handel lag. Angesichts der nutzbaren ~192 MHz (ebenfalls Lüfter auf dem "Grill") war das aber ein sehr guter Deal. Damals hat die Leistung noch quasi linear mit den Takt skaliert. Der lief bei den Voodoos ja auch synchron zum RAM.

MfG,
Raff

Ich hatte damals einen PII 400 und danach einen PIII 500 Katmai, da spürte man den Mehrtakt nur in hohen Auflösungen. Heute im Jahre 2018 besitze ich insgesamt 7 Retro PCs mit 3dfx Karten, von Voodoo Graphics bis Voodoo 5. :D
 

Rollora

Kokü-Junkie (m/w)
Da kann man nicht meckern. :-) Ich habe meine V3 3000 AGP erst Mitte 2000 günstig gekauft, als schon die V5 im Handel lag. Angesichts der nutzbaren ~192 MHz (ebenfalls Lüfter auf dem "Grill") war das aber ein sehr guter Deal. Damals hat die Leistung noch quasi linear mit den Takt skaliert. Der lief bei den Voodoos ja auch synchron zum RAM.

MfG,
Raff
Ich hab meine Karten aus dem Altbestand der Universität. Da werden oft alte PCs ausgemustert, auch oft ES. Ist irgendwie seltsam, zuerst wird lange alles geheimgehalten danach interessiert das keinen mehr. Jedenfalls lagen da so einige Grafikkarten rum, die so nie den Markt betreten haben. Ich hab mich natürlich vorallem auf die 3dfx Karten gestürzt. Ein so seltener Prototyp wie die Rampage ist mir dabei leider nicht untergekommen
 

MN32410

Schraubenverwechsler(in)
Ich frage mich heute immer noch, warum Nvidia nicht die perfektionisierte Glide Schnittstelle weiter genutzt hat. Trotz T and L und andere Features liefen Spiele einfach nicht mehr so gut wie mit der Glide Technik. Ich kann mich noch gut an Unreal oder Unreal Tournament erinnern, aber auch an Grand Prix 3 und sogar noch 4. Die Spiele flutschten einfach nur mit der Glide Schnittstelle. Eines meiner absoluten Favouriten Games mit Glide war aber das erste Need for Speed Hot Pusuit (NFS 3) Es war enttäuschend es hinterher mit einer TNT Karte zu spielen in Direct 3d. Das gleiche gilt auch für das erste Half Life. Genauso habe ich es nie verstanden warum die Open GL Schnittstelle so den Bach runter gegangen ist. Einzig ID und Epic nutzten die Technologie noch.
Ich bin überzeugt davon, dass mit Glide auch heute noch deutlich mehr drin wäre als mit direct 3d. Dieses Spielerlebnis von damals würde ich gerne auch nochmal haben. Monitor 17 Zoll CRT mit Voodoo 3 oder Voodoo 5, dazu ein Glide Klassiker Bundle an Spielen und spielen in einer Auflösung von 800 mal 600 bis 1024x768. Eine der besten Grafikkarten die ich je hatte, ist wohl nach wie vor meine erste 3dfx Karte. Die Diamond Monster. Was war das damals für eine Revolution. Wahnsinn. Tomb Raider war ein absoluter Augenschmaus. Ich weiss es nicht mehr ganz genau, aber war das auch die Zeit in der Prozessoren in Modulen verbaut waren, ähnlich die der damaligen Spielekonsolen? Leider bezahlt man für eine Vooddokarte unglaublich viel Geld in Börsen und das ist es mir dann leider doch nicht wert.
Ein absolutes Voodoohighlight war für mich auch Wing Commander Prophecy. Ich glaube damals mit Beginn der Voodoo 3 begann auch das Overclocking für mich, womit man damals tatsächlich noch einen enormen Performancegewinn erzielen konnte, ohne großen Aufwand. Eine aktive Kühlung hat da schon eineiges bewirkt. Heute empfinde ich übertakten bei GPUS nicht mehr wirklich sinnvoll. An Wasserkühlung habe ich mich leider nie drangetraut, aber ich glaube das ist heute die einzige sinnvolle Möglichkeit GPUS zu übertakten ohne, das sie schnell einen Defekt bekommen.
 
Zuletzt bearbeitet:

Pu244

Lötkolbengott/-göttin
Ich frage mich heute immer noch, warum Nvidia nicht die perfektionisierte Glide Schnittstelle weiter genutzt hat.

Man hätte vermutlich einige Generationen (die kamen damals ja im Abstand von 6 Monaten) gebraucht um das ganze gut in die eigenen Produkte zu integrieren. Rückblicken ist es extrem gut, dass sie es nicht getan haben, man stelle sich nur vor, es würden heute viele Spiele erschienen, die man nur mit einer Nvidiakarte vernünftig spielen kann oder die überhaupt erst damit laufen, dagegen ist die PhysX Sache oder GSync nichts.

Ich glaube damals mit Beginn der Voodoo 3 begann auch das Overclocking für mich, womit man damals tatsächlich noch einen enormen Performancegewinn erzielen konnte, ohne großen Aufwand.

So 20% hat man da, je nach Karte, durchaus rausholen können. Da allerdings nach 6 Monaten schon eine doppelt so schnelle Karte verfügbar war und nach einem Jahr sogar die 5 mal so schnelle GeForce 2 GTS, war das damals recht wenig.
 

Löschzwerg

BIOS-Overclocker(in)
Ich frage mich heute immer noch, warum Nvidia nicht die perfektionisierte Glide Schnittstelle weiter genutzt hat.

Naja, man muss mal schauen woraus Glide denn entstanden ist. 3dfx hat sich OpenGL angeschaut, die notwendigsten Bauteile davon genommen und diese in einen eigenen Container gesteckt (Glide ist quasi ein Subset von OGL). Durch die daraus resultierende schlanke API wurde auch der Treiber für die Karten sehr einfach => Geschwindigkeitsvorteil gegenüber OpenGL und D3D, da weniger CPU Overhead. Eine wirkliche Low-Level API ist Glide deswegen noch nicht, die Abstraktionsebenen sind genauso vorhanden.
Das Problem an der Geschichte sind die fehlenden Weiterentwicklungen. OpenGL war zu der Zeit schon sehr träge (ein Konsortium geführt von vielen Unternehmen) und lieferte keinen nötigen Schub, 3dfx selber investierte auch zu wenig in neue Features (sowohl bei der Hardware und daraus resultierend natürlich in die eigene API). Microsoft hatte dagegen ein offenes Ohr für neuen Entwicklungen... der Rest ist Geschichte.

Was hätte NV also mit der API tun sollen? Glide war veraltet und D3D bot immer mehr Möglichkeiten direkt auf die Hardware zuzugreifen.
 

PCGH_Torsten

Redaktion
Teammitglied
Als Matrox die G400 Karten gebracht hat, da gab es einen echten 3 Kampf zwischen TNT2, Voodoo 3 und eben dem G400

Beim Tempo lag die Voodoo 3 vor der TNT2 und die wiederum vor der G400, wobei das keine Welten waren, bei der 3D Qualität lag die G400 vor der TNT2 und die Voodoo 3 war etwas abgeschlagen. Damals hatte man noch richtig Auswahl gehabt.

"3D Qualität"? 2D war Matrox führend, ja. Aber 3D war das größte Problem damals fehlende Rechenleistung. Problematische Filteroptimierungen kamen erst Jahre später in Mode, 1999 kam höchstens die Frage "16 oder 32 Bit?" als i-Tüpfelchen. Und da lautete zumindest mit meiner TnT1 noch die klare Antwort "16 Bit, wenn es flüssig sein soll". :-)


Naja, man muss mal schauen woraus Glide denn entstanden ist. 3dfx hat sich OpenGL angeschaut, die notwendigsten Bauteile davon genommen und diese in einen eigenen Container gesteckt (Glide ist quasi ein Subset von OGL). Durch die daraus resultierende schlanke API wurde auch der Treiber für die Karten sehr einfach => Geschwindigkeitsvorteil gegenüber OpenGL und D3D, da weniger CPU Overhead. Eine wirkliche Low-Level API ist Glide deswegen noch nicht, die Abstraktionsebenen sind genauso vorhanden.
Das Problem an der Geschichte sind die fehlenden Weiterentwicklungen. OpenGL war zu der Zeit schon sehr träge (ein Konsortium geführt von vielen Unternehmen) und lieferte keinen nötigen Schub, 3dfx selber investierte auch zu wenig in neue Features (sowohl bei der Hardware und daraus resultierend natürlich in die eigene API). Microsoft hatte dagegen ein offenes Ohr für neuen Entwicklungen... der Rest ist Geschichte.

Was hätte NV also mit der API tun sollen? Glide war veraltet und D3D bot immer mehr Möglichkeiten direkt auf die Hardware zuzugreifen.

Man darf auch nicht vergessen, dass die Null-Weiterentwicklung von GLide (großes L, wie in OpenGL ;-)) zwischen ~1996 und 2001 dazu geführt hat, dass niemand mehr Spiele für GLide entwickelte. In den maßgeschneiderten Mitt-90er-Engines waren die Voodoos uneingeschränkte Herrscher; Direct3D-Grafikkarten wurden oft sogar Effekte vorenthalten, die diese hätten berechnen können, weil zum Zeitpunkt der Entwicklung niemand D3D für voll genommen hatte. Aber als 3dfx eingestampft wurde, war hTnL längst etabliert, DX7 verbreitet, 32 Bit Standard und Shader zogen am Horizont auf. Niemand hat mehr neue Grafikwunder für GLide entwickelt, weil GLide in etwa so modern war, wie es Direct3D 9 heute ist. Dementsprechend hätte eine Umstellung auf GLide, samt neu zu entwickelnder GPUs, Nvidia keine Vorteile gebracht. Was ich ihnen aber bis heute übel nehme: Das sie die Möglichkeit nicht genutzt haben, einen GLide-Wrapper in den Detonator zu integrieren und so die alten Titel voll Geforce/TnT-kompatibel zu machen.
 

Pu244

Lötkolbengott/-göttin
"3D Qualität"? 2D war Matrox führend, ja. Aber 3D war das größte Problem damals fehlende Rechenleistung. Problematische Filteroptimierungen kamen erst Jahre später in Mode, 1999 kam höchstens die Frage "16 oder 32 Bit?" als i-Tüpfelchen. Und da lautete zumindest mit meiner TnT1 noch die klare Antwort "16 Bit, wenn es flüssig sein soll". :-)

Die G400 hatte bei einigen Funktionen die Nase vorne, wie z.B. Bump Mapping. Da gab es eben einige Dinge, die selbst die TNT 2 nicht beherrschte. Aufgefallen ist mir das bei einem Durchlauf des 3D Mark 2000, bei dem die G400 (die mit 16MB VRAM) meines Kumpels einige Disziplinen darstellen konnte, die weder bei mir, mit meiner Voodoo 3 3000, noch bei meinem Kumpel, mit TNT 2 (das dicke Elsa Ding, mit Video in und der Kabelpeitsche) liefen. (ja, wir hatten die Grakas von jedem Lager und jeder war der festen Überzeugung, dass seine Karte die beste war). 32 Bit konnte man schon damals bei den beiden anderen Karten darstellen, wobei der Vergleich erst so richtig aufgefallen ist, wenn man Monitor neben Monitor gestellt hat. Heute würde ich sagen, dass die G400 klar die beste Karte war, zumindest die 32MB Version, die Voodoo hatte eben den Vorteil der Exklusivspiele, die auch teilweise nie gepatcht wurden. Auch toll war damals, dass quasi jeder Graka und auch ab und zu Soundkarte, Spiele beilagen, die gezeigt haben, wozu die Dinger fähig waren (bei meiner Voodoo 3 3000 waren es Descent 3, Fifa 99 und Unreal [mit UT Aufdruck], mit Gutschein für UT).


In den maßgeschneiderten Mitt-90er-Engines waren die Voodoos uneingeschränkte Herrscher; Direct3D-Grafikkarten wurden oft sogar Effekte vorenthalten, die diese hätten berechnen können, weil zum Zeitpunkt der Entwicklung niemand D3D für voll genommen hatte

Fairerweise muß man auch dazu sagen, dass es damals eher wenig, bis keine, Auswahl gab, was leistungsfähige 3D Karten anging, zumindest wenn man sein Geld nicht zum Fenster schmeißen wollte. Am Besten war da noch die Riva 128, die allerdings nicht so wirklich überzeugen konnte, die Erzeugnisse von Matrox (allen voran die G200) waren zwar qualitativ sehr gut, nur eben nicht so leistungsfähig, das war es dann auch fast schon, mit Alternativen. Natürlich darf man auch Intels letzte dedizierte Graka nicht vergessen, die i750, zwar wesentlich günstiger, dafür nur ein Drittel so schnell, wie eine Voodoo 1 und damit noch schlechter, als die Voodoo Rush (ja, 3dfx hat schon damals in Klo gegriffen, auch wenn die Voodoo 1 alle Zweifel beseitigte).

Erst die TNT 1 hat das ganze geändert und eine wirkliche Alternative gebracht, womit es dann auch wieder so richtig Sinn ergab, für D3D und Qpen GL zu entwickeln.
 

MN32410

Schraubenverwechsler(in)
Die G400. War das die Matroxkarte mit Environmental Bumpmapping? Die war leider sau teuer. 16 Bit war damals wirklich noch das A und O und mit Deinterlacing sah das auch gar nicht so verkehrt aus. Auch Fakk 2 habe ich damals noch in 16 Bit gespielt. In den Jahren wo 3dfx noch die Vorreiterrolle hatte, kam nichts an Glide ran, wie der Redakteur es sagt, viele Titel wurden in Direct 3d grafisch beschnitten. Gutes Beispiel ist für mich immer noch Need for Speed Hot Pursuit. Ich weiss auch das durch die Lochmaske der CRT Monitore man kaum auf Dinge wie Kantenglättung, oder hohe Filterung geachtet hat. Ein Wahnsinnssprung war damals trilineare Filterung, anisotrope Filterung kam ja erst deutlich später. Allerding rede ich jetzt eher von der Voodoo 3 Ära. Leider hätte das Monster Voodoo 5 nie in mein altes Desktopgehäuse gepasst. Irgendwie war das eine schöne Zeit auch für Menschen die gerne editiert haben, die Unrealengine hat da ja so einiges möglich gemacht. Ich war damals noch der festen Überzeugung, dass es viel besser nicht mehr gehen wird, da der Sprung mit 3d Beschleunigerkarten gigantisch war. Ich glaube so einen enormen Sprung wird es nie mehr geben.

Ich glaube wenn es einb Retrocomputer geben würde, der erschwinglich ist, würde ich mir den sofort holen. Auch Grafikadventures aller Lucas Arts sahen mit CRT einfach deutlich besser aus. Ich habe mal eine Maske für einen Amigaemulator und Dos Emulator gebastelt. Das Script gab es bei reddedit, ich hatte dann nur den Algorythmus für eine Auflösung von 1024x768 angepasst, damit es halbwegs vernünftig auf einem heutigen Full HD Monitor aussah und es ist einfach nicht zu vergleichen. Eine Frage habe ich noch, weil ich Voodoo nach dem VSA 100 Debakel nicht mehr so verfolgt hatte. War die Rampage der Konkurrent für die Geforce 2 GTS?
 
Zuletzt bearbeitet:

PCGH_Torsten

Redaktion
Teammitglied
Von der Planung her hätte Rampage gegen die Geforce 2 antreten sollen, ja. Vielleicht eher die Ultra denn die GTS – zu deren Erscheinen war meiner Erinnerung nach nicht einmal die V5 5500 im Handel. Aber wenn man sich den Zustand der Karten zur 3dfx-Pleite anguckt, dann hätte sich Rampage mindestens mit der Gf 3 Ti, eher sogar mit der 4 Ti anlegen müssen.
 

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Von der Planung her hätte Rampage gegen die Geforce 2 antreten sollen, ja. Vielleicht eher die Ultra denn die GTS – zu deren Erscheinen war meiner Erinnerung nach nicht einmal die V5 5500 im Handel. Aber wenn man sich den Zustand der Karten zur 3dfx-Pleite anguckt, dann hätte sich Rampage mindestens mit der Gf 3 Ti, eher sogar mit der 4 Ti anlegen müssen.

Das kann man alles nicht mehr sagen. Rampage war angeblich seit 1998 in Entwicklung, aber im Hintergrund. Andere Projekte hatten, nach dem, was man so liest, manpowermäßig Vorrang. Daher verschob sich Rampage alias VSA-200 immer weiter, wurde aber auch immer weiter aufgemotzt – DX8-Pixelshading war gewiss noch nicht im 1998er-Entwurf enthalten. Rampage sollte den 1.0-Standard erfüllen. Nachdem klar wurde, dass der Chip niemals erscheinen wird, wurde die DX8-Spezifikation mit dem Standard 1.1 als Minimum festgelegt. Specter 2000 wäre Mittel gewiss ein starker Konkurrent für die Geforce 3 und Radeon 8500 geworden, Specter 3000 gar etwas für die Geforce 4 Ti (die dann vielleicht auch kräftiger geworden wäre). Spätestens der R300 hätte aber auch 3dfx umgehauen – für Ende 2002 hätte man aber wohl auch schon die Mojo-/Fear-Generation am Start gehabt. Hätte, hätte, Fahrradkette Auf jeden Fall ist da viel verloren gegangen, auch wenn Nvidia das Know-how und viele Ingenieure übernommen hat.

Hier ein Auszug aus der PCGH 02/2012, Ausblick auf Specter (in diesem Heft fälschlicherweise noch Spectre genannt). Die Spezifikationen in der Tabelle unten sehen stark aus. Die Quelle sind die an die Öffentlichkeit getragenen Planungen seitens 3dfx plus etwas Rechenarbeit:

3dfx-specter-vorschau_pcgh-02-2012-png.1024090


Man vergisst übrigens gern, dass 1998/1999 sogar 16 Bit für einige Chips ein Problem war. Der Rage 128 produziert beispielsweise ein ganz hässliches Dithering. Hinzu kommen Problemchen wie bei der Riva 128, welche bestimmte Blending-Verfahren nicht beherrscht und daher mal statt Halos nur schwarze Blöcke darstellt. Voodoo-16-Bit war spätestens mit Einführung der Postfilterung ("22 Bit") klar die beste Wahl – wenn man mal von der später erschienenen Kyro absieht, die intern stets mit 32 Bit rechnet und im Falle von 16 Bit einfach das Framebufferformat reduziert.

MfG,
Raff
 

Anhänge

  • 3dfx Specter Vorschau_PCGH 02-2012.png
    3dfx Specter Vorschau_PCGH 02-2012.png
    446,6 KB · Aufrufe: 120
Zuletzt bearbeitet:

PCGH_Torsten

Redaktion
Teammitglied
Wobei der Riva 128 nicht 1999 diese Probleme hatte, sondern 1997. ;-) (wie es beim ZX aussah, weiß ich nicht)
1998 war Nvidia mit dem TnT qualitativ gleich auf (16 Bit bis 800 × 600) beziehungsweise überlegen (alle Einstellungen, die darüber hinaus gingen), wenn ein Spiel die Features auch via Direct3D 6 unterstützte. Den 22-Bit-Modus führte 3dfx meiner Erinnerung nach erst 99 mit der Voodoo3 ein – schön für Retro-Games, aber im Erscheinungsjahr der Geforce 256 konnte man mit "schönerem 16 Bit" bekanntermaßen keinen Blumentopf mehr gewinnen.

Rampage war ein anderer Kaliber und wäre möglicherweise ein Comeback geworden, aber wie du selbst schreibst: Selbst eine 2-Quartals-Prognose auf Basis von 2 Wochen Arbeit mit Prototypen-Hardware verortet Specter 1000 drei Monate nach der Geforce 3. Und der wäre kein 3er-Konkurrent geworden – ohne Vertex-Shader kein DX8-Feature-Level; Füllrate und Speicher lassen eine Mittelklasse-Leistung zwischen Geforce 2 MX400 und Pro erwarten. Um die Gefore 3 anzugreifen, hätte 3dfx nicht nur den 1000er-Prototypen zur Serienreife entwickeln müssen (Worst-Case-Referenz: Coffee-Lake "läuft" seit mindestens 2016.), sondern zusätzlich Sage und ein 2-/3-Chip-PCB. Wir wissen alle, wieviel (vergebliche) Arbeit nötig war, um aus serienreifen 2-Chip- und lauffähigen 4-Chip-VSA-100-Designs (k)ein 4-Chip-Serienmodell zu entwickeln. 2Q01 für Spectre 3000? Marktstart im vierten Quartal würde ich unter den 3dfx-Bedingungen schon optimistisch nenne; das wären weniger als 1 Jahr Entwicklungszeit für die Platine, Fertigstellung von Sage und Serienreifung. Selbst mit einem Investor wäre Specter 3000 nur ein Ti-4200-Konkurrent geworden – mit teurerem Design, mit 1.0-Shadern in einer von 1.1-Konkurrenten definierten Entwicklungsumgebung und möglicherweise mit einer durch Sage limitierten Vertex-Shader-Leistung. (Ich weiß nicht, ob jemals Zahlen dazu veröffentlicht wurden – bei Geforce und Radeon waren die Balance zwischen den Pipelines und etwaige Flaschenhälse lange Zeit ein wichtiges Thema.)
 
Oben Unten