News 3dfx VoodooX: Enthusiasten bringen die Legende mit 64 MiByte und DVI-Schnittstelle zurück

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu 3dfx VoodooX: Enthusiasten bringen die Legende mit 64 MiByte und DVI-Schnittstelle zurück

Der Hardware-Enthusiast Oscar Barea untersucht, repariert und modifiziert die legendären Voodoo-Grafikkarten der nicht minder legendären Grafikkartenschmiede 3dfx und hat mit der VoodooX aktuell ein ganz besonderes Projekt in Arbeit.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: 3dfx VoodooX: Enthusiasten bringen die Legende mit 64 MiByte und DVI-Schnittstelle zurück
 
Dat Dingen is sowas von gekauft ! :-X

p.s. "Der Hardware-Enthusiast Oscar Barea (@oscar_barea), welcher unter anderem auch das spanische 3dfx-Museum ins Leben gerufen hat"

Von dem "Kollege" gab´s doch vor Jahren schon mal ne NEWS ?
Da hab ich von ihm (via Link in der NEWS) einen VSA 100 Chip (für die Vitrine) bestellt.
 
Zuletzt bearbeitet:
Meine Retro Kiste läuft mit zwei 12 Mb 90 MHz Creativ Labs Voodoo 2 im SLI und nem Pentium III 800 MHz.
Die Karte löst natürlich ein will haben aus. :love:
Dem muss ich aber wiederstehen. Zu viele Hobbys und man kann nicht alles immer haben/wollen.
 
Ich besitze auch eine custom 3dfx Karte, jede neue 3dfx Karte ist etwas Tolles :love:

Changeling PCI_0.jpg
 
Sag mal, Raff:

Hast du Ahnung, lebt in NV noch irgendwo da kleinste irgendwas-Know-how
in Hard/Soft von 3Dfx, oder ist das bereits restlos verdaut und ausgeschie.... ?
Nvidia hat 2001 diverse 3dfx-Ingenieure übernommen. Davon haben wohl einige mittlerweile das Rentenalter erreicht, aber du kannst sicher sein, dass in jedem aktuellen Geforce-Chip ein klein wenig 3dfx-Knowhow schlummert. Aber wenn man's genau betrachtet, schlummert wohl in jeder GPU irgendetwas von einer anderen Firma.

MfG
Raff
 
Preisfrage: Warum sollten sie das tun? Dankbarkeit ist keine Eigenschaft, die einen modernen, gewinnorientierten Konzern so besonders auszeichnen wird.

NVIDIA hat es nicht nötig, dankbar zu sein. Oder bringt das zusätzlichen Umsatz und Profit? Eher nicht anzunehmen. ;)
 
Ein tolles Projekt :) Aber ich selbst sollte mal lieber eine Maschine zusammenstellen, in die ich eine der Voodoo 1 oder 2 einbaue, die ich noch im Archiv habe. :D Das wäre mal ein schönes Urlaubsprojekt. Ich glaube in der Return war gerade auch erst ein Artikel über nachgebaute Soundkarten, sowas könnte man da auch reinstecken.
 
Warum (wieder) kein HDMI oder Display-Port, wenn man schon ein neues Layout entwirft?
DVI-D nützt einem mit modernen Monitoren doch genausowenig, wie VGA, weil er @Single Link nicht mal in die Nähe der nativen Auflösung kommt und Dual-Link-Adapter (sofern das überhaupt unterstützt wird) auf aktuelle Schnittstellen ebensor selten wie teuer sind.
 
WUXGA 1920x1200 (damit mehr als der Chip in 3D konnte und schon nah dran an dem was er in 2D maximal konnte) sind damit schon mal möglich, glaube auch gar nicht, dass die Karte für höhere Auflösungen in irgendeiner Art geeignet ist, wenn man bedenkt, dass man damals noch weitesgehend in 1280x720er Auflösung auf Röhrenmonitoren gespielt haben dürfte. Dazu kommt eben die wesentlich bessere Signalqualität, wobei ich mich hier frage, wie das umgesetzt wurde; sprich wurde das ursprünglich analoge Signal in digital umgwandelt, oder digital behalten und nur übersetzt?

Ich fände es ja irgendwie geil, wenn man die VSA-100er in einem einigermaßen modernen Prozess wiederbeleben würde! Wenn man den VSA-100 vieleicht in 32nm oder so belichten würde und dann wirklich eine Platine mit 32 Stück verbaut, würde mich echt interessieren, zu was dieser Chip in der Lage wäre? Wievielfaches SSDSDSSSDA (kann mir die Abkürzungen nicht merken) würde dann eigentlich gehen?
 
Zuletzt bearbeitet:
Jeder VSA-100 kann zwei Samples beisteuern. Im 32-Wege-SLI könnte man also 64× SSAA mit frei wählbarer, gestreuter Maske (sparse grid = SG) nutzen. Das wäre mit einem typischen Box-Downfilter aber kaum hübscher als das 8× SGSSAA der V5 6000. Wie man das fortführt, hat AMD ein gutes Jahrzehnt später mit den Tent-Filtern (CFAA) gezeigt.

MfG
Raff
 
Hat der VSA-100 überhaupt noch eine Begrenzung der maximalen Auflösung? Klar, bei analogem Zwischenstück würde der 350-MHz-RAMDAC auf 95 Fps in QHD, 70 Fps in UWQHD und 42 Fps in UHD begrenzen. Aber selbst das läge Lichtjahre über WUXGA und wäre zumindest für 2D-Inhalte sehr wertvoll. Die Monitore nehmen schließlich umgekehrt nicht alle Eingangsformate an und wenn man zweimal skalieren muss, von der Anwendungs- auf eine Ausgabe- und von da auf die native-Monitorauflösung, dann kommt nur noch Matsch an.

Ich hätte aber eigentlich erwartet, dass der VSA-100 das Gerenderte auch ausgeben kann und schon das 4× SSAA der normalen V5 auf den low-profile-Verwandten von WUXGA angewandt ergibt natives UHD. Octa-SLI, wofür es noch Platinen-Vorlagen gäbe, müsste in 8k samplen können. Wäre doch schade, das auf FHD runterrechnen zu müssen, ehe es zu Monitor wandert. (Zugegeben: Die Zahl der Spiele, in denen die Rechenleistung für diese Auflösung ausreicht und deren Engine diese Auflösung verkraftet, dürfte gegen null gehen. Aber ich wüsste da jemanden, der die eine Ausnahme findet, um glücklich in <15 Fps zu benchen.^^)

Bei einem Chip-Redesign würde ich übrigens keine 32 Stück mehr auf eine Platine packen. Der VSA-100 war ohnehin eher klein, wenn man den 1:1 in 32 nm transferiert, sollten weniger als 2 mm² übrig bleiben. Da kann man sehr bequem 32 auf einen Chip platzieren und damit auch das PCI-Routing zwischen ihnen drastisch vereinfachen; mit etwas Glück deutlich höhere Taktraten auf den limitierenden Interlinks erreichen. Nur mit dem RAM-Interface müsste man sich was einfallen lassen – 4.096 Bit sind ohne HBM-Unterstützung vermutlich nicht praktikabel. Vielleicht sollte man direkt bei einem DRAM-Spezialisten anfragen, ob er etwas Logik zwischen 2 GiB DRAM quetscht?
 
Zurück