• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Der Fall Volari - Aufstieg und Niedergang von XGI (PCGH Retro 15. September)

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung zu Der Fall Volari - Aufstieg und Niedergang von XGI (PCGH Retro 15. September) gefragt. Beachten Sie dabei unsere Forenregeln.

Zurück zum Artikel: Der Fall Volari - Aufstieg und Niedergang von XGI (PCGH Retro 15. September)
 

kenji_91

PCGHX-HWbot-Member (m/w)
Vorallem beim Einsteiger-Segment das alte DX anzubieten ist eine schwache Überlegung gewesen, da ja sehr viele Titel angekündigt wurden z.B. Sacred, Farcry etc...
Man hätte sich auch bei der Entwicklung auf ein Segment konzentrieren solln (am besten das Mittelsegment) und so mehr Leute bei den Treibercodern zu haben.
Es wurde ja erwähnt, die Treiber seien nur mäßig, worauf ich wieder auf den Mangel an Treiberprogrammierer zurückgreife.
Treiber darf man nicht unterschätzen, da man gerne mal 25% Leistung durch bessere Programmierung erhält.

Nichts desto trotz, haben sie sich schon am Anfang in der Grube sich selber gefunden.
Wer sich so protzig anpreist, der rechnet nicht mit dem Igel.
Die Mitarbeiter und Manager wechseln und neue Projekte werden gestartet und wieder abgebrochen, das ist das Ergebnis, wenn man die Leute durch so ein Motto anspannt.

Solche Prognosen haben viele Firmen zu Nichte gebracht oder sind noch glimpflich davon gekommen z.B. Ageia mit Physix, das die CPU enorm entlasten soll.
 

BigBoymann

Software-Overclocker(in)
Treiber machen auch gerne weit mehr als 25% Leistungsunterschied aus.

Installier doch mal die Treiber die bei einer 9700pro dabei waren und die aktuellsten.

Da wirst du gewaltige Unterschiede sehen, weit mehr als 50%.

Letztens haben wir doch noch so einen Test hier gehabt, wo gezeigt wurde, dass die älteren ATI karten von neueren Treibern viel stärker profitieren als die GF Konkurenz. Da hatte ich mir mal fast 100% an Performance Zuwachs ausgerechnet bei dem einen oder anderen Game.

Aber generell ist es schade um Volari, denn ein dritter Hersteller wäre nicht verkehrt gewesen, aber es ist klar. Volari kam zu spät und musste sich in einem festen Markt etablieren, das kann nur mit einer Granate gehen, aber niemals mit Mittelmaß.
 

Rollora

Kokü-Junkie (m/w)
Treiber machen auch gerne weit mehr als 25% Leistungsunterschied aus.

Installier doch mal die Treiber die bei einer 9700pro dabei waren und die aktuellsten.

Da wirst du gewaltige Unterschiede sehen, weit mehr als 50%.

Letztens haben wir doch noch so einen Test hier gehabt, wo gezeigt wurde, dass die älteren ATI karten von neueren Treibern viel stärker profitieren als die GF Konkurenz. Da hatte ich mir mal fast 100% an Performance Zuwachs ausgerechnet bei dem einen oder anderen Game.

Aber generell ist es schade um Volari, denn ein dritter Hersteller wäre nicht verkehrt gewesen, aber es ist klar. Volari kam zu spät und musste sich in einem festen Markt etablieren, das kann nur mit einer Granate gehen, aber niemals mit Mittelmaß.
Probier dasselbe mal mit Geforces: du wirst merken, dass die Performance der Karten durch neuere Treiber zunächst Stieg und dann stark abfiel um die Nachfolgenden Generationen besser dastehen zu lassen. Ehemalige Konkurrenten X800XT gegen Geforce 6800 Ultra: während die früher genau gleichauf lagen liegt die Geforce heute weit zurück. Sogar hinter ihre damals erreichten ergebnisse. Die Treiber wurden mit Absicht verschlechtert. Während mit der Radeon neuere Spiele die nicht zwingend Pixel Shader 3 benötigen noch teilweise gut laufen, ist das mit der Geforce unmöglich (selbst mit erzwungenen Shader 2).

Dabei muss man jedoch beachten, dass der Unterschied bei der Radeon 9700 damals bis heute so groß wurde, weil man mit dieser Karte erstmals wirklich in der Oberklasse mitspielte und in dieser Zeit das Treiberteam komplett umgebaut wurde um konkurrenzfähig zu sein. Also waren vor der 9700 ATIs Treiber eher nicht so das Gelbe vom Ei.
Vorgemacht habens Nvidia (Detonator) mit ihrem 1 Treiber für alle Karten Modell. Fehler wurden so in bei allen Modellen immer gleichzeitig behoben und waren bei zukünftigen meist nicht mehr drin. Daraus hat man bei ATI, später AMD gelernt.
 

Schrumpelratte

Komplett-PC-Käufer(in)
Treiber machen auch gerne weit mehr als 25% Leistungsunterschied aus.

Installier doch mal die Treiber die bei einer 9700pro dabei waren und die aktuellsten.

Da wirst du gewaltige Unterschiede sehen, weit mehr als 50%.

Letztens haben wir doch noch so einen Test hier gehabt, wo gezeigt wurde, dass die älteren ATI karten von neueren Treibern viel stärker profitieren als die GF Konkurenz. Da hatte ich mir mal fast 100% an Performance Zuwachs ausgerechnet bei dem einen oder anderen Game.

Aber generell ist es schade um Volari, denn ein dritter Hersteller wäre nicht verkehrt gewesen, aber es ist klar. Volari kam zu spät und musste sich in einem festen Markt etablieren, das kann nur mit einer Granate gehen, aber niemals mit Mittelmaß.


wenn ich mich nicht ganz täusche, liegt der performance vorteil der ati karten nicht nur an den neueren treibern (die aber bestimmt auch einen teil dazu beitragen) sondern vorallem daran das die ati karten damals eine höhere shader leistung als die nvidia karten hatten! damals hat es ihnen zwar nicht soviel gebracht, aber bei den heutigen shader lastigen spielen haben sie einen ziemlich hohen vorteil gegenüber den gleichaltrigen nvidia karten!
 

bingo88

PCGH-Community-Veteran(in)
Treiber machen auch gerne weit mehr als 25% Leistungsunterschied aus.

Installier doch mal die Treiber die bei einer 9700pro dabei waren und die aktuellsten.

Da wirst du gewaltige Unterschiede sehen, weit mehr als 50%.

Letztens haben wir doch noch so einen Test hier gehabt, wo gezeigt wurde, dass die älteren ATI karten von neueren Treibern viel stärker profitieren als die GF Konkurenz. Da hatte ich mir mal fast 100% an Performance Zuwachs ausgerechnet bei dem einen oder anderen Game.

Aber generell ist es schade um Volari, denn ein dritter Hersteller wäre nicht verkehrt gewesen, aber es ist klar. Volari kam zu spät und musste sich in einem festen Markt etablieren, das kann nur mit einer Granate gehen, aber niemals mit Mittelmaß.
Wenn es denn mal Mittelmaß gewesen wäre... Aber mit Treibern hatten schon einige Teams Probleme, man denke auch an PowerVR mit den Kyro Chips (meine Erfahrung!) oder den alten Ati-Treiber (pre-9x00).
 

Mazrim_Taim

BIOS-Overclocker(in)
Wobei die PowerVR-Treiber zu KyroII-Zeiten nach meiner Erfahrung deutlich besser waren, als ihr Ruf.

Fand die Karte Top.


Ansonsten sollen alle mal überlegen wieviele Hersteller ( CPU & GPU) es damals gab und wieviele Spiele total verbuggt waren.
Anscheind ist es viel komplizierter sich auf zwei Hersteller zu konzentrieren als auf auf knapp zwei Duzend.
 
G

Gelöschter_Account_0001

Guest
Es ist immer traurig das CPU/GPU Hersteller aufgeben müssen.
3DFX/XGI war schon sehr schlecht für alle das sie es nicht geschafft haben letztendlich.
 

Jerec

Kabelverknoter(in)
3DFX/XGI war schon sehr schlecht für alle das sie es nicht geschafft haben letztendlich.

3DFX war sehr schlecht? Das zeigt mir, daß Du keine Ahnung von 3DFX Produkten hast. Die damaligen Modelle - und besonders die verfügbaren Treiber waren unschlagbar.

Einzig allein das Management (Dr. Alex Leup) sowie der fehlende Weitblick für den damaligen Retail Markt brachen dem Unternehmen finanziell das Genick und läuteten so den Untergang ein und nVIDIA mußte nur noch warten, einen geringen Scheck zücken und rien ne va plus 3dfx :(

C ya

JEREC
 

wuselsurfer

Lötkolbengott/-göttin
3DFX/XGI war schon sehr schlecht für alle das sie es nicht geschafft haben letztendlich.
Ich lach mich schlapp.
Zu ihrer Zeit waren die ersten 3dfx-Karten der Konkurrenz um Lichtjahre voraus.
Es waren BESCHLEUNIGER-Karten.
Bei den Pixelbremsen von NV und ATI wurde im 3D-Modus das Spiel bis zur Unspielbarkeit ausgebremst wurde.

Glide wird von vielen Spieleprogrammierern heute noch als am besten programmierbar angesehen.
Wenn man keine Ahnung hat, sollte man nicht solche unqualifizierten Kommentare abgeben.

P.S. Ja, ich habe 3dfx Karten; von 1-3 fast alle.
 
Zuletzt bearbeitet:

Midtear

Schraubenverwechsler(in)
Es ist immer traurig das CPU/GPU Hersteller aufgeben müssen.
3DFX/XGI war schon sehr schlecht für alle das sie es nicht geschafft haben letztendlich.

@ Jerec & wuselsurfer:
Wenn man den vollständigen Post von A.d.j.u.t.a.n.t liest, dann lese ich daraus, dass er meinte, dass es für alle (die Käufer) schlecht war, dass 3Dfx und XGI es am Ende nicht geschafft haben. Damit war nicht gemeint, dass 3Dfx schlecht gewesen sei. Verstehe daher nicht eure Angriffe. Vielleicht war die Formulierung von A.d.j.u.t.a.n.t unglücklich gewählt, aber zusammen mit seinem ersten Satz, dass es immer traurig sei, wenn ein CPU/GRU Hersteller aufgeben muss, wird es eigentlich klar, was gemeint war. Also, ein bisschen weniger Aufregung! ;)
 

belle

PCGH-Community-Veteran(in)
Das Beste an XGI war die Multi-GPU Technik vom Volari Duo und genau das hat sich ATI auch geholt. Zusammen mit der begonnenen Chipsatzentwicklung und den Verträgen in Bezug auf den Grafikchip der XBox360 war ATI 2006 ein guter Griff für AMD.
 

Mazrim_Taim

BIOS-Overclocker(in)
@ Jerec & wuselsurfer:
Wenn man den vollständigen Post von A.d.j.u.t.a.n.t liest, dann lese ich daraus, dass er meinte, dass es für alle (die Käufer) schlecht war, dass 3Dfx und XGI es am Ende nicht geschafft haben. Damit war nicht gemeint, dass 3Dfx schlecht gewesen sei. Verstehe daher nicht eure Angriffe. Vielleicht war die Formulierung von A.d.j.u.t.a.n.t unglücklich gewählt, aber zusammen mit seinem ersten Satz, dass es immer traurig sei, wenn ein CPU/GRU Hersteller aufgeben muss, wird es eigentlich klar, was gemeint war. Also, ein bisschen weniger Aufregung! ;)

...und mal NACHDENKEN und sich erinnern wie es war und nicht wie es hätte laufen sollen / können.

Warum hat 3dfx gegen ende auch reines OpenGL und nicht die abgespeckte Version unterstützt?
Treiber waren auch nicht das ware.
Pod lief top auf der V1 aber auf der V2 lief es am anfang garnicht.
Wärend alle Q2 in 640*480 oder max. 800*600 zocken hatte ich es schon in 1280*1024 gezockt; NV TNT sei dank.
 

cann0nf0dder

PCGHX-HWbot-Member (m/w)
3dfx is an microrucklern gestorben weil sie am damaligen bedarf vorbeientwickelt haben und sie ihrer zeit einfach 10 jahre vorraus waren, damals waren die dinger einfach noch nicht so potent um des so zu kaschieren wie heute ati und nvidia :D
und opengl wurde genutzt weil bessere qualität als des d3d gefrickel das microsoft nach verschwinden von 3dfx mit hilfe von ati und nvidia endgültig durchdrücken konnte.
und ja, ich habe q2 in 800x600 gespielt und muss sagen aufgrund der genial und sofort ersichtlichen qualitätsvorteile der darstellung mit einer 3dfx karte konnt ich über die grausige darstellungsqualität in jeglicher auflösung der nvidia karten in meinem bekanntenkreis nur lachen, pixel waren schon damals nicht alles :D
 
Zuletzt bearbeitet:

Placebo

BIOS-Overclocker(in)
3dfx is an microrucklern gestorben weil sie am damaligen bedarf vorbeientwickelt haben und sie ihrer zeit einfach 10 jahre vorraus waren, damals waren die dinger einfach noch nicht so potent um des so zu kaschieren wie heute ati und nvidia :D
Ich hoffe, dass das ein Witz war - bei den Karten gab es keine Mikroruckler. Ich weiß, etwas späte Antwort...

PCGH Retro beweist täglich, wie wenig ich eigentlich von der Vergangenheit des PCs weiß :(
 

BigBoymann

Software-Overclocker(in)
Naja, schade um einen Hersteller ist es auf jeden Fall, wobei diese Marke es auch nie in den High End Bereich geschafft hätte. Man sieht das ganze ja sehr schön an Intel, die haben ein vielfaches an Kapital und Entwicklungskapazitäten zu bieten und schaffen es trotzdem nicht an die beiden etablierten heranzukommen.

Das Kapitel 3dfx ist da viel ärgerlicher, denn 3dfx ist nicht kaputt gegangen weil sie schlechte Produkte oder Treiber hatten, (auch wenn man mit einer TNT in 1024 spielen konnte, so sahen die 800er der V2 Serie immer noch besser aus), sondern an einer miserablen Firmenpolitik. Hätte 3dfx seinerzeit weiter die Grafikkarten fertigen lassen wäre die Episode anders ausgegangen, nur so fehlte einfach die breite Unterstützung am Ende.
Zum Thema Microruckler und 3dfx, wurde ja schon erwähnt, dass es dies nicht gab. Lag einfach daran, dass ein ganz anderes Verfahren als heute genutzt wurde, welches von vorneherein so etwas wie Microruckler ausschloss. Deshalb war die V6000 auch ein Meisterwerk, wenn auch nie wirklich vollendet.
 

poiu

Lötkolbengott/-göttin
betreff: Voltari

kann mich noch an Giga erinnern wo die Karte damals live gezeigt wurde, wenn ich mich richtig entsinne war die V8 auch sehr laut

@Placebo der ganze Kommentar von cann0nf0dder ist schlicht und ergreifend falsch und klingt derbe nach NV Fan :ugly:

@BigBoymann

joop das Problem von 3Dfx waren schlicht und ergreifend Management & Marketing Fehler, die Hardware war eigentlich immer gut, die Treiber waren damals abei allen Herstellern eher schlecht und kaum vergleichbar mit der heutigen Qualität. Wenn ich an die damaligen NV TNT/ Riva 128 bzw auch an die ATi treiber denke wird mir übel :D

NV brauchte ja damals 32Bit weil deren 16Bit so was von erbärmlich schlecht war, das die Leistung unter 32Bit aber einbrach hat die Marketing Abteilung denn Usern vergessen zu sagen XD
Einige Spiele waren damals immer noch @16Bit, dorthatte 3Dfx immer denn Qualitätsvorteil, aber anstatt diesen denn Usern zu verdeutlichen,...

Eigentlich hat die NV Markteting Abteilung vs. 3Dfx Marketing gewonnen XD
 
Zuletzt bearbeitet:

El Sativa

Freizeitschrauber(in)
3dfx is an microrucklern gestorben weil sie am damaligen bedarf vorbeientwickelt haben und sie ihrer zeit einfach 10 jahre vorraus waren, damals waren die dinger einfach noch nicht so potent um des so zu kaschieren wie heute ati und nvidia :D
und opengl wurde genutzt weil bessere qualität als des d3d gefrickel das microsoft nach verschwinden von 3dfx mit hilfe von ati und nvidia endgültig durchdrücken konnte.
und ja, ich habe q2 in 800x600 gespielt und muss sagen aufgrund der genial und sofort ersichtlichen qualitätsvorteile der darstellung mit einer 3dfx karte konnt ich über die grausige darstellungsqualität in jeglicher auflösung der nvidia karten in meinem bekanntenkreis nur lachen, pixel waren schon damals nicht alles :D
guten morgen. ich lese hier mit halboffenen augen, das jemand der meinung war, das 3dfx am microrucklern verreckt sein soll.
wow, watn ahnunghaber. mehr schreib ich mal noch nicht, da die denke noch pennt.
 

Adam West

Software-Overclocker(in)
guten morgen. ich lese hier mit halboffenen augen, das jemand der meinung war, das 3dfx am microrucklern verreckt sein soll.
wow, watn ahnunghaber. mehr schreib ich mal noch nicht, da die denke noch pennt.

Jo, soweit ich weiß, nutzen die Vodoos doch ScanLineInterleaving, also jede CPU arbeitet zeilenweise an einem Bild (also quasi seriell), also jede CPU in Reihe geschalten, abwechselnd eine Zeile des Bildes, dann kommt das nächste Bild dran.
Da ist Mikroruckeln doch unmöglich...

MfG
 

PCGH_Marc

Lötkolbengott/-göttin
Probier dasselbe mal mit Geforces: du wirst merken, dass die Performance der Karten durch neuere Treiber zunächst Stieg und dann stark abfiel um die Nachfolgenden Generationen besser dastehen zu lassen. Ehemalige Konkurrenten X800XT gegen Geforce 6800 Ultra: während die früher genau gleichauf lagen liegt die Geforce heute weit zurück. Sogar hinter ihre damals erreichten ergebnisse. Die Treiber wurden mit Absicht verschlechtert.
Das stimmt nicht. Dass die 6800 Ultra zurückfällt, liegt an den neueren Spielen, die idR getestet werden. Die Treiber wurden (und werden) NICHT mit Absicht verschlechtert. Weder bei AMD/Ati noch bei NV.
 

poiu

Lötkolbengott/-göttin
oh das stimmt nicht ganz marc, bei der Geforce 4 wurde bei erscheinen der Geforce 5 Tilebased rendering ausgeschaltet ( bzw. war nicht mehr aktivierbar) in einigen Benchmarks/spielen brachte dies immerhin 20-30% Leistungszuwachs, wenn ich mich richtig erinnere.

grüße
 

El Sativa

Freizeitschrauber(in)
Jo, soweit ich weiß, nutzen die Vodoos doch ScanLineInterleaving, also jede CPU arbeitet zeilenweise an einem Bild (also quasi seriell), also jede CPU in Reihe geschalten, abwechselnd eine Zeile des Bildes, dann kommt das nächste Bild dran.
Da ist Mikroruckeln doch unmöglich...

MfG
jupp, wenn du nun bei der cpu das c gegen ein g tauschst ist das, soweit ich nullahnunghaber mich nicht täusche, richtig.
bei crossfire und nvidia-sli werden die bilder abwechselnd von den grakas abgebacken, was für mich einfach humbug ist, da ich kein vermögen ausgeben möchte um dann festzustellen, das das system nicht rund läuft. microruckler sind bei den preisen und bei dem was versprochen wird einfach inakzeptabel.
 

Adam West

Software-Overclocker(in)
jupp, wenn du nun bei der cpu das c gegen ein g tauschst ist das, soweit ich nullahnunghaber mich nicht täusche, richtig.
bei crossfire und nvidia-sli werden die bilder abwechselnd von den grakas abgebacken, was für mich einfach humbug ist, da ich kein vermögen ausgeben möchte um dann festzustellen, das das system nicht rund läuft. microruckler sind bei den preisen und bei dem was versprochen wird einfach inakzeptabel.

Ups, ja ich meine natürlich GPU :-)

da ist was dran, wenn ich was in der Preisregion bezahle, sollte es auch entsprechend rund laufen! Aber CF oder SLI sind für mich eh nie wirklich eine Option.

MfG
 
Zuletzt bearbeitet:

PCGH_Marc

Lötkolbengott/-göttin
oh das stimmt nicht ganz marc, bei der Geforce 4 wurde bei erscheinen der Geforce 5 Tilebased rendering ausgeschaltet ( bzw. war nicht mehr aktivierbar) in einigen Benchmarks/spielen brachte dies immerhin 20-30% Leistungszuwachs, wenn ich mich richtig erinnere.
Hast du einen Link zu? Ich finde nur die Aussage von dir via Google :ugly: Seit ich Treiber etc. teste (GF6/9700 bis heute) wurde iirc nichts verschlechtert.
 

poiu

Lötkolbengott/-göttin
gut :D dann haben wir für etwas Traffic auf der PCGH gesorgt XD

sogar PCGH Hardware hatte drüber mal berichtet, ich kann dir jetzt nicht sagen welche Treiber Version es genau war ( das wäre Zuviel für mein Gedächtnis :P)

aber ich erinnre mich das es zB mit wie Tool Atuner/RIvatuner einschalten konnte, bei denn späteren Dentonator Versionen (~GF 5 launch) war dies nicht mehr möglich (Kästchen grau)

ich hab leider keine GF 4 mehr hier um das zu prüfen, nur noch 2,6 & 7.

Wobei man sagen muss das dieses NV Tile BAsed Rendering nur testweise eingeführt wurde, also wohl nie Final war.
Wurde anscheinend als Antwort auf Kyro II Karten implementiert als die floppten und die Nachfolger da waren wurde das wohl aus dem Treiber gestrichen.

PS und es war etwas Buggy bei einigen spielen musste dies wieder deaktiviert werden, sonst gab es derbe Darstellungsfehler.

PPS bei Geforce hieß das wohl hidden surface removal = HSR (software), TIle BAsed Rendering war nur Kyro

ist ja schon paar Jährchen her so IT steinzeit^^
 
Zuletzt bearbeitet:

Earisu

PC-Selbstbauer(in)
Aufstieg und Niedergang von XGI

Wo ist der Aufstieg? Sie haben ne grosse Klappe gehabt (Aufstieg!?) und haben von den beiden großen gnadenlos auf die Fresse bekommen(Niedergang!?)
 

ruyven_macaran

Trockeneisprofi (m/w)
joop das Problem von 3Dfx waren schlicht und ergreifend Management & Marketing Fehler, die Hardware war eigentlich immer gut, die Treiber waren damals abei allen Herstellern eher schlecht und kaum vergleichbar mit der heutigen Qualität. Wenn ich an die damaligen NV TNT/ Riva 128 bzw auch an die ATi treiber denke wird mir übel :D

:huh:
Also ich hatte mit meiner TNT nie auch nur einziges Mal Treiberprobleme (ganz im Gegensatz zu ATI-Besitzern in meinem Umfeld :P ) - von 3dfx habe ich auch nie Gemecker gehört.

NV brauchte ja damals 32Bit weil deren 16Bit so was von erbärmlich schlecht war, das die Leistung unter 32Bit aber einbrach hat die Marketing Abteilung denn Usern vergessen zu sagen XD
Einige Spiele waren damals immer noch @16Bit, dorthatte 3Dfx immer denn Qualitätsvorteil, aber anstatt diesen denn Usern zu verdeutlichen,...

:huh:
16 Bit sind 16 Bit und sahen überall gleich aus. Als es noch 3Dfx gegen Nvidia war, gab es ja glücklicherweise kaum/keine Treiberbetrügereien. Das einige Spiele der Mitt90er auf Nvidia schlechter Aussahen, lag nicht daran, dass die bei 16 Bit irgendwas falsch gemacht haben, sondern daran, dass einige Entwickler viele Effekte und/oder bessere Texturen nur im GLide-Modus anboten, weil die DX-Version der Engine irgendwo auf dem Stand von D3D 5 oder älter war, dabei konnte ein TNT längst alles (und mehr) darstellen, was eine V2 konnte. Aber zu sehen bekam man das dann höchstens mit einem guten GLide-Wrapper :-/

(Leistung unter 32 Bit und der generell fehlende Nutzen eines 32 Bit Renderers, wenn z.B. Lightmaps alle in 16 Bit sind, ist ein anderes Thema)

Eigentlich hat die NV Markteting Abteilung vs. 3Dfx Marketing gewonnen XD

Was ja auch wirklich nicht schwer war
"Hier sehen sie die neue V3 3000! Super schnell, Super toll, Super überlegen und wenn sie Glück haben, dann schon in 6 Monaten und damit knapp vor der nächsten Konkurrenzgeneration in ihrem Hardwareladen"
:ugly:


oh das stimmt nicht ganz marc, bei der Geforce 4 wurde bei erscheinen der Geforce 5 Tilebased rendering ausgeschaltet ( bzw. war nicht mehr aktivierbar) in einigen Benchmarks/spielen brachte dies immerhin 20-30% Leistungszuwachs, wenn ich mich richtig erinnere.

:huh:
Seit wann beherscht die Gf4 tilebased? Das erfordert ja doch einige Änderungen im Renderablauf, für die auch die Hardware geeignet sein muss. Beim Kyro II hat es extrem viel gebracht, aber der war auch dafür konzipiert (z.B. großer Cache statt teurem Speicherinterface). Beim Gf4(ti) hätte es imho auch Probleme mit den Vertex-Shadern geben müssen, weil Geometrie nunmal nicht an der Kachelgrenze aufhört. (was beim Kyro noch egal war, weil er eh keine Geometrieeffekte beherrschte - aber schon die Integration von hTnL war bekanntermaßen ein fast unlösbares Problem)

Was sich manchmal rückwirkend in den Treibern ändert, sind "Optimierungen". Deren Wegfall senkt dann natürlich die FPS, aber dafür sieht das Bild endlich wieder so aus, wie es soll. Aber iirc hat Nvidia damit erst richtig (und sehr, sehr stümperhaft) angefangen, nachdem ATI es mit den Radeon9000 vorgemacht und die Gf FX es dringend nötig hatte.
 

Voodoo_Freak

Freizeitschrauber(in)
Wobei die PowerVR-Treiber zu KyroII-Zeiten nach meiner Erfahrung deutlich besser waren, als ihr Ruf.

Der Ruf von den Karten bzw. Treiber war schlecht? Irgendwie habe ich davon nichts mitbekommen:D
Gab sehr interessante Karten, allerdings waren eigentlich nur die Karten von Videologic und Hercules in Deutschland wirklich erhältlich. Von der Performance fand ich die Karten auch immer sehr ansprechend. Schade das PowerVR zumindest in diesem Bereich die Segel gestrichen hat.

Bezüglich XGI war eigentlich schon nach dem ersten Test den ich gelesen habe klar: Das wird nix, Karten lahm, Treiber wirklich schlecht. Mal davon abgesehen, dass es die Karten wenn ich mich richtig erinnere, eigentlich nur online gab.

Noch ein Paar Worte bezüglich 3Dfx:
Die Treiber die von dieser Firma damals entwickelt wurden, waren und sind in meinen Augen bis heute ein Paradebespiel dafür, wie man es zu machen hat! Nämlich ohne ständige Updates weil das Spiel XY mit dem Treiber von vor zwei Wochen nicht mehr läuft (was nicht bedeutet, dass es keine Updates gab). Mitlerweile hat sich das wieder nen bisl beruhigt, aber vor fünf oder sechs Jahren konnte man sich eigentlich sicher sein, dass man für das gerade neu gekaufte Spiel erstmal nen neuen Grafiktreiber installieren muss, damit Grafikfehler oder mangelhafte Performance wenigstens ansatzweise behoben werden.
 
Zuletzt bearbeitet:
M

matty2580

Guest
XGI sagt mir gar nichts. Interessant jetzt viele Jahre später darüber zu lesen...^^
Damals gab es für mich auch nur 3dfx. ;)
 

oldsql.Triso

Volt-Modder(in)
Ein dritter Konkurrent wäre toll gewesen, aber es sollte nicht sein. Konnte mich noch an diverse Tests erinnern. Schade dass die nicht länger am Ball geblieben sind. Für die erste Generation war dass doch gar nicht so verkehrt. Natürlich fehlten einige Sachen, aber man hätte sich ruhig etwas Zeit geben können.

PCGH hatte damals glaube auf der letzten Seite geile Übersetzungsfehler gezeigt:

driver = Fahrer
chipclock = blabla-uhrzeit

:D
 
Zuletzt bearbeitet:

Fonce

Komplett-PC-Aufrüster(in)
PPS bei Geforce hieß das wohl hidden surface removal = HSR (software), TIle BAsed Rendering war nur Kyro
Also eine HSR ähnliche Technik nutzen die GPU seit der Kyro II eigentlich alle.

:huh:
:huh:
16 Bit sind 16 Bit und sahen überall gleich aus. Als es noch 3Dfx gegen Nvidia war, gab es ja glücklicherweise kaum/keine Treiberbetrügereien. Das einige Spiele der Mitt90er auf Nvidia schlechter Aussahen, lag nicht daran, dass die bei 16 Bit irgendwas falsch gemacht haben, sondern daran, dass einige Entwickler viele Effekte und/oder bessere Texturen nur im GLide-Modus anboten, weil die DX-Version der Engine irgendwo auf dem Stand von D3D 5 oder älter war, dabei konnte ein TNT längst alles (und mehr) darstellen, was eine V2 konnte. Aber zu sehen bekam man das dann höchstens mit einem guten GLide-Wrapper :-/
Nein 16Bit sahen nicht überall gleich aus. Die Karten von ATi und NV haben bei 16Bit auch intern mit 16Bit gearbeitet wärend die Karten von 3DFX und später die Kyro Chips bei 16Bit intern mit wenn ich mich richtig erinnere 32Bit(Der Kyro II glaube ich sogar mit 48Bit, dem war auch egal ob man 16 oder 32 Bit einstellte was die Performance anging) gerechnet haben was dann schon zu einer leicht höheren Genauigkeit bei der späteren Darstellung in 16Bit führte.
 

ΔΣΛ

PCGH-Community-Veteran(in)
Schade das es XGI nicht mehr gibt, mehr Konkurrenz im Grafikmarkt täte allen gut, wenigstens steigt Intel (zumindest im LowEnd Markt) zu einer neuen dritten Macht auf, in der Verbreitung sind sie ja schon klare Nr1.
 

ruyven_macaran

Trockeneisprofi (m/w)
Nein 16Bit sahen nicht überall gleich aus. Die Karten von ATi und NV haben bei 16Bit auch intern mit 16Bit gearbeitet wärend die Karten von 3DFX und später die Kyro Chips bei 16Bit intern mit wenn ich mich richtig erinnere 32Bit(Der Kyro II glaube ich sogar mit 48Bit, dem war auch egal ob man 16 oder 32 Bit einstellte was die Performance anging) gerechnet haben was dann schon zu einer leicht höheren Genauigkeit bei der späteren Darstellung in 16Bit führte.

Die Kyros haben intern immer mit 32 Bit gerechnet, aber Poiu hat die 16 Bit Qualität der TNTs als unbrauchbar bezeichnet - das war drei Generationen früher. Damals gabs nur reines 16 Bit und reines 32 Bit und das sah auch jeweils identisch aus. Etwas später kam bei der Voodoo3 noch "22 Bit" hinzu, wo ebenfalls intern genauer gerechnet wurde, als ausgegeben - aber normales 16 Bit sah auch da aus, wie normales 16 Bit eben aussieht.
 

gorgeous188

Software-Overclocker(in)
Ich erinnere mich noch daran, wie dieses Thema 2008 in der PCGH Retro von Henner Schröder besprochen wurde. Hach das waren noch Zeiten :P
 
Oben Unten