PCGH-Retro: 3dfx kauft Gigapixel

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu PCGH-Retro: 3dfx kauft Gigapixel gefragt. Beachten Sie dabei unsere Forenregeln.

arrow_right.gif
Zurück zum Artikel: PCGH-Retro: 3dfx kauft Gigapixel
 
Hätte man den Preis von 186 Millionen für ein solches Unterfangen nicht bezahlt, hätte man die Übernahme durch Nvidia vielleicht verhindern können... :(

Aber naja gut. Meine Erinnerungen kann mir wenigstens keiner nehmen :D
 
heist "übernehmen" das jetzt die Leute von 3Dfx bei nvidia arbeiten oder nur das die Patente...das Wissen^^... übernommen wurde?
 
Hätte man den Preis von 186 Millionen für ein solches Unterfangen nicht bezahlt, hätte man die Übernahme durch Nvidia vielleicht verhindern können... :(

Aber naja gut. Meine Erinnerungen kann mir wenigstens keiner nehmen :D
ja die Erinnerung *schmach*
Ein erfolgreicher "Rampage" launch hätte laut dem damaligen Chef die Situation nochmal wenden können, aber es hätte sich auch an anderen Dingen bei 3dfx einiges Ändern müssen um überlebensfähig bleiben zu können. Die Firma war halt so aufgebaut der absolute Leader zu sein und so wurden auch entwiklungszyklen zu groß. Außerdem waren die Entwicklerteams vergleichsweise klein (für die Voodoo 1 war das so um die 20 Mann... mit Software (Treiber UND eigene API).
Parallelentwicklungen wie der Dreamcastchip oder mobile Chips, Motherboardchips etc kosteten demnach immer enorm viel Zeit und LEute die dann beim Rampage abgingen.
Sie sind auch noch "zur richtigen Zeit" gestorben. Um in diesem Markt erfolgreich zu sein hätte es lowend Produkte gebraucht. Diese verbindet man aber nunmal nicht mit 3dfx (hohe Leistung, tolle Grafik, eigenständige, schnelle API, cooler innovator... und nicht lowendgrafik mit der man nicht zocken kann) und so solls für mich auch für immer bleiben.
die "paar" Millionen warens nicht die für 3dfx der Untergang waren, sondern der Kauf und die falsche Verfaltung von STB, die haben ihnen das Kreuz gebrochen...

@News selbst: eine der von Gigapixel Technology übernommenen Techniken hat es dann doch noch in ein Produkt geschafft: HSR.
3dfx hatte beim VSA 100,101(Voodoo 4, 5) das Problem T&L und HSR noch nicht in der Hardware ausführen zu können, per Software funktionierte es dann aber in späteren treibern doch: Ergebnis war, dass dieses Software T&L (weiß nicht mehr wie sie es nannten, muss ich nachschaun) 30% mehr Performance brachte und man somit die Geforce 2 Serie schlagen hätte können... leider viel zu spät.
Und es gibt soweit ich das gesehen hab auch Treiber die HSR unterstützten, zumindest in Quake 3. Diese brachten in den meisten Szenen nochmal knapp 100%, was tatsächlich revolutionär gewesen wäre. Wo die Technik hinverschwunden ist, keine Ahnung vielleicht ist sie bei heutigen Architekturen nicht mehr möglich (durch die verschiedenen Prozessoren auf einer Graka, die Renderabfolge, Post processing etc). Es gab allerdings durchaus noch einige Probleme mit der Technik (schlimme Artefakte in Q3 in manchen Szenen) die noch etwas Treiberoptimierung gebraucht hätte.
HSR ist eine Technik, wo der Grafikchip einfach wirklich nur Pixel und Polygone berechnet, die der Spieler auch wirklich sieht, während die Konkurrenz damals ALLES berechnet hat. Man denke an eine Figur, die ich von vorne sehe aber da muss ja der "rücken" mit heutzutage tausenden Polygonen/Pixeln nicht mitberechnet werden. und alles was dahinter steht und ich somit nicht sehe auch nicht. Gute Idee eigentlich.
Heutzutage ist das ähnlich über den Z-Buffer abgewickelt.
 
Zuletzt bearbeitet:
ja die Erinnerung *schmach*
Ein erfolgreicher "Rampage" launch hätte laut dem damaligen Chef die Situation nochmal wenden können, aber es hätte sich auch an anderen Dingen bei 3dfx einiges Ändern müssen um überlebensfähig bleiben zu können. Die Firma war halt so aufgebaut der absolute Leader zu sein und so wurden auch entwiklungszyklen zu groß. Außerdem waren die Entwicklerteams vergleichsweise klein (für die Voodoo 1 war das so um die 20 Mann... mit Software (Treiber UND eigene API).
Parallelentwicklungen wie der Dreamcastchip oder mobile Chips, Motherboardchips etc kosteten demnach immer enorm viel Zeit und LEute die dann beim Rampage abgingen.
Sie sind auch noch "zur richtigen Zeit" gestorben. Um in diesem Markt erfolgreich zu sein hätte es lowend Produkte gebraucht. Diese verbindet man aber nunmal nicht mit 3dfx (hohe Leistung, tolle Grafik, eigenständige, schnelle API, cooler innovator... und nicht lowendgrafik mit der man nicht zocken kann) und so solls für mich auch für immer bleiben.
die "paar" Millionen warens nicht die für 3dfx der Untergang waren, sondern der Kauf und die falsche Verfaltung von STB, die haben ihnen das Kreuz gebrochen...

@News selbst: eine der von Gigapixel Technology übernommenen Techniken hat es dann doch noch in ein Produkt geschafft: HSR.
3dfx hatte beim VSA 100,101(Voodoo 4, 5) das Problem T&L und HSR noch nicht in der Hardware ausführen zu können, per Software funktionierte es dann aber in späteren treibern doch: Ergebnis war, dass dieses Software T&L (weiß nicht mehr wie sie es nannten, muss ich nachschaun) 30% mehr Performance brachte und man somit die Geforce 2 Serie schlagen hätte können... leider viel zu spät.
Und es gibt soweit ich das gesehen hab auch Treiber die HSR unterstützten, zumindest in Quake 3. Diese brachten in den meisten Szenen nochmal knapp 100%, was tatsächlich revolutionär gewesen wäre. Wo die Technik hinverschwunden ist, keine Ahnung vielleicht ist sie bei heutigen Architekturen nicht mehr möglich (durch die verschiedenen Prozessoren auf einer Graka, die Renderabfolge, Post processing etc). Es gab allerdings durchaus noch einige Probleme mit der Technik (schlimme Artefakte in Q3 in manchen Szenen) die noch etwas Treiberoptimierung gebraucht hätte.
HSR ist eine Technik, wo der Grafikchip einfach wirklich nur Pixel und Polygone berechnet, die der Spieler auch wirklich sieht, während die Konkurrenz damals ALLES berechnet hat. Man denke an eine Figur, die ich von vorne sehe aber da muss ja der "rücken" mit heutzutage tausenden Polygonen/Pixeln nicht mitberechnet werden. und alles was dahinter steht und ich somit nicht sehe auch nicht. Gute Idee eigentlich.
Heutzutage ist das ähnlich über den Z-Buffer abgewickelt.

Bis auf kleine Ausnahmen ! PowerVR´s karten konnten das nämlich auch, ich kann mich noch gut errinern als die Kyro´s rauskammen die Kyro2 war für mich der beste konkurent der Geforce2.
 
@ Rollora -> Gute Erklärung, danke.

@ Topic -> Und wie immer bei diesem Thema bleibt nur zu sagen: Schade, schade und nochmals schade das nichts mehr draus wurde :-(.
aber gerne doch, schön wenn ich helfen konnte

Bis auf kleine Ausnahmen ! PowerVR´s karten konnten das nämlich auch, ich kann mich noch gut errinern als die Kyro´s rauskammen die Kyro2 war für mich der beste konkurent der Geforce2.
nein, das war Tiling, das ist eine etwas andere Technik. Sie teilt das Bild in kleine Flächen auf statt sie als gesamtes den Speicher zu übergeben. Die Folge daraus ist, dass weniger Speicherbandbreite gebraucht wird was dann zu billigeren und kleineren Geräten/Karten führt.
Da die Intel Onboardchips auch auf dieser Technik basieren würde ich soagen, so groß is der Vorteil der Technik nicht unbedingt
 
heist "übernehmen" das jetzt die Leute von 3Dfx bei nvidia arbeiten oder nur das die Patente...das Wissen^^... übernommen wurde?

Gerüchten zu Folge hatte Nvidia einen nicht unerheblichen Teil der Spitzenkräfte bereits längere Zeit vorher abgeworben, der Rest verließ das sinkende Schiff vor der Übernahme (z.T. zu ATI). Dann gabs noch Transfers von 3dfx zu Quantum3d -> Nvidia hat primär Marke und ne reihe Technologien (von denen aber afaik wenige eingesetzt wurden) gekauft.


nein, das war Tiling, das ist eine etwas andere Technik.

Tiling war das Renderring-Prinzip, aber einen vorgezogenen Tiefentest hatten sie zusätzlich ;)
Der Villagemark ist bis heute ein Kandidat, wenn man ATI vs Nvidia mal mit etwas testen will, was für beide nicht optimiert ist und diente seinerzeit dazu, genauso dieses Feature zu demonstrieren.

Sie teilt das Bild in kleine Flächen auf statt sie als gesamtes den Speicher zu übergeben. Die Folge daraus ist, dass weniger Speicherbandbreite gebraucht wird was dann zu billigeren und kleineren Geräten/Karten führt.
Da die Intel Onboardchips auch auf dieser Technik basieren würde ich soagen, so groß is der Vorteil der Technik nicht unbedingt

Aufgrund bildschirmweiter Effekte macht eine Aufteilung des Bildes heute nur noch wenig Sinn (siehe auch AFR/SFR Problematik bei Multi-GPU), aber die Kyros waren seinerzeit in der Lage, sämtliche Berechnungen für eine Kachel im Cache durchzuführen (!).
Das sparte soviel Bandbreite ein, dass man mit einem billigen Low-End-PCB und schmalem Interface die High-End-Modelle der Konkurrenz in Gefahr brachte. (es gab Benchmarks, wo ne KyroII eine doppelt so teure Geforce3 überholt hat...)
 
Das sparte soviel Bandbreite ein, dass man mit einem billigen Low-End-PCB und schmalem Interface die High-End-Modelle der Konkurrenz in Gefahr brachte. (es gab Benchmarks, wo ne KyroII eine doppelt so teure Geforce3 überholt hat...)

Die gab es? Hast du einen Link? =) Ich weiß nur, dass eine Kyro 2 oft an einer Geforce 2 GTS und (ab und an) auch der Ultra vorbei kam. Die GF2-Serie ging einfach viel zu ineffizient mit ihrer Speicherbandbreite um. Mit der Geforce 3 kam dann der Crossbar Memory Controller inklusive Early-Z-Tests, was der Karte deutliche Vorteile einbrachte und die Ultra in 32 Bit Farbtiefe alt aussah.

MfG,
Raff
 
Nö, damals waren Links noch unüblich ;)
Aus genau diesem Grund war es aber zu 99% ein PCGH-Test, also schau mal ins Archiv ;)
(ich tippe darauf, dass es ein Undying-Benchmark war, in dem die Geforces keinerlei Vorteile durch Shader oder auch nur hT&L hatten, dessen große Texturen aber die hocheffiziente Nutzung des Speicherinterfaces auf den Kyros bis zu einer bestimmten Grenze betonen sollte)

Wenn du noch mehr Tests findest, würden mich die Ergebnisse aber mal interessieren. Ich werde dieses Jahr vermutlich einen RetroRechner zusammenbauen und im Schrank liegen eine Prophet II und eine GF2pro...
 
Als einer der Verantwortlichen für den Voodoo5-6000-Test habe ich in unzähligen Kyro-Geforce-Radeon-Voodoo-Benchmarks keine solche Überlegenheit erlebt. Die Kyro 2 schlägt sich aber oft ganz gut, etwa in Ultima IX. Und bei den Tests gibt's fast kein CPU-Limit. =)

MfG,
Raff
 
Es war keine gnadenlose Überlegenheit - sondern KyroII knapp vor Gf2 und Gf3 abgeschlagen noch hinter der Konkurrenz von ATI, wenn ich mich richtig erinnere.
Möglich, dass diese Reihenfolge auch stark vom verwendeten Treiber oder den Auflösungs/Farbtiefen Einstellungen abhängt und eher ein (un)glücklicher Zufall war.
(letzteres erscheint naheliegend. Wenn der KyroII die Daten für eine Tile nicht mehr im internen Cache untergebracht bekommt, dann hat er verloren)
 
Nun Ja 3dfx .. Das wahren noch zeiten....

Lebt die Kyro 2 nicht noch in Handy weiter.....Also Grafik kernen von Power Vr meine ich???. die nutzen die Selbe Technik wie die Kyro II

Vieleicht lebt ja in jeder geforce auch noch irgendwo ein Teil von 3dfx.... sogesehen. die Firma Hatte ja ein paar mehr patente.
 
PowerVR lizenziert nach wie vor seine Technologien. Neben Handys gibt es im PC Markt noch Intels GMA500/Poulsbo Chipsatz mit dieser Technik. Es wurde oft gemutmaßt dass dieser Chip mit vernünftigen Treibern mit allen seinen GMA Geschwistern den Boden wischt.
 
wäre villeicht alles anders gekommen mit 3dfx als konkurenz von amd/nvidia nach der jahrtausendwende... rampage hätte ev. alles dem boden gleichgemacht... ;) wieder etwas das wir (leider) nie erfahren werden... :(
 
Zurück