Der Fall Volari - Aufstieg und Niedergang von XGI (PCGH Retro 15. September)

Probier dasselbe mal mit Geforces: du wirst merken, dass die Performance der Karten durch neuere Treiber zunächst Stieg und dann stark abfiel um die Nachfolgenden Generationen besser dastehen zu lassen. Ehemalige Konkurrenten X800XT gegen Geforce 6800 Ultra: während die früher genau gleichauf lagen liegt die Geforce heute weit zurück. Sogar hinter ihre damals erreichten ergebnisse. Die Treiber wurden mit Absicht verschlechtert.
Das stimmt nicht. Dass die 6800 Ultra zurückfällt, liegt an den neueren Spielen, die idR getestet werden. Die Treiber wurden (und werden) NICHT mit Absicht verschlechtert. Weder bei AMD/Ati noch bei NV.
 
oh das stimmt nicht ganz marc, bei der Geforce 4 wurde bei erscheinen der Geforce 5 Tilebased rendering ausgeschaltet ( bzw. war nicht mehr aktivierbar) in einigen Benchmarks/spielen brachte dies immerhin 20-30% Leistungszuwachs, wenn ich mich richtig erinnere.

grüße
 
Jo, soweit ich weiß, nutzen die Vodoos doch ScanLineInterleaving, also jede CPU arbeitet zeilenweise an einem Bild (also quasi seriell), also jede CPU in Reihe geschalten, abwechselnd eine Zeile des Bildes, dann kommt das nächste Bild dran.
Da ist Mikroruckeln doch unmöglich...

MfG
jupp, wenn du nun bei der cpu das c gegen ein g tauschst ist das, soweit ich nullahnunghaber mich nicht täusche, richtig.
bei crossfire und nvidia-sli werden die bilder abwechselnd von den grakas abgebacken, was für mich einfach humbug ist, da ich kein vermögen ausgeben möchte um dann festzustellen, das das system nicht rund läuft. microruckler sind bei den preisen und bei dem was versprochen wird einfach inakzeptabel.
 
jupp, wenn du nun bei der cpu das c gegen ein g tauschst ist das, soweit ich nullahnunghaber mich nicht täusche, richtig.
bei crossfire und nvidia-sli werden die bilder abwechselnd von den grakas abgebacken, was für mich einfach humbug ist, da ich kein vermögen ausgeben möchte um dann festzustellen, das das system nicht rund läuft. microruckler sind bei den preisen und bei dem was versprochen wird einfach inakzeptabel.

Ups, ja ich meine natürlich GPU :-)

da ist was dran, wenn ich was in der Preisregion bezahle, sollte es auch entsprechend rund laufen! Aber CF oder SLI sind für mich eh nie wirklich eine Option.

MfG
 
Zuletzt bearbeitet:
oh das stimmt nicht ganz marc, bei der Geforce 4 wurde bei erscheinen der Geforce 5 Tilebased rendering ausgeschaltet ( bzw. war nicht mehr aktivierbar) in einigen Benchmarks/spielen brachte dies immerhin 20-30% Leistungszuwachs, wenn ich mich richtig erinnere.
Hast du einen Link zu? Ich finde nur die Aussage von dir via Google :ugly: Seit ich Treiber etc. teste (GF6/9700 bis heute) wurde iirc nichts verschlechtert.
 
gut :D dann haben wir für etwas Traffic auf der PCGH gesorgt XD

sogar PCGH Hardware hatte drüber mal berichtet, ich kann dir jetzt nicht sagen welche Treiber Version es genau war ( das wäre Zuviel für mein Gedächtnis :P)

aber ich erinnre mich das es zB mit wie Tool Atuner/RIvatuner einschalten konnte, bei denn späteren Dentonator Versionen (~GF 5 launch) war dies nicht mehr möglich (Kästchen grau)

ich hab leider keine GF 4 mehr hier um das zu prüfen, nur noch 2,6 & 7.

Wobei man sagen muss das dieses NV Tile BAsed Rendering nur testweise eingeführt wurde, also wohl nie Final war.
Wurde anscheinend als Antwort auf Kyro II Karten implementiert als die floppten und die Nachfolger da waren wurde das wohl aus dem Treiber gestrichen.

PS und es war etwas Buggy bei einigen spielen musste dies wieder deaktiviert werden, sonst gab es derbe Darstellungsfehler.

PPS bei Geforce hieß das wohl hidden surface removal = HSR (software), TIle BAsed Rendering war nur Kyro

ist ja schon paar Jährchen her so IT steinzeit^^
 
Zuletzt bearbeitet:
Aufstieg und Niedergang von XGI

Wo ist der Aufstieg? Sie haben ne grosse Klappe gehabt (Aufstieg!?) und haben von den beiden großen gnadenlos auf die Fresse bekommen(Niedergang!?)
 
joop das Problem von 3Dfx waren schlicht und ergreifend Management & Marketing Fehler, die Hardware war eigentlich immer gut, die Treiber waren damals abei allen Herstellern eher schlecht und kaum vergleichbar mit der heutigen Qualität. Wenn ich an die damaligen NV TNT/ Riva 128 bzw auch an die ATi treiber denke wird mir übel :D

:huh:
Also ich hatte mit meiner TNT nie auch nur einziges Mal Treiberprobleme (ganz im Gegensatz zu ATI-Besitzern in meinem Umfeld :P ) - von 3dfx habe ich auch nie Gemecker gehört.

NV brauchte ja damals 32Bit weil deren 16Bit so was von erbärmlich schlecht war, das die Leistung unter 32Bit aber einbrach hat die Marketing Abteilung denn Usern vergessen zu sagen XD
Einige Spiele waren damals immer noch @16Bit, dorthatte 3Dfx immer denn Qualitätsvorteil, aber anstatt diesen denn Usern zu verdeutlichen,...

:huh:
16 Bit sind 16 Bit und sahen überall gleich aus. Als es noch 3Dfx gegen Nvidia war, gab es ja glücklicherweise kaum/keine Treiberbetrügereien. Das einige Spiele der Mitt90er auf Nvidia schlechter Aussahen, lag nicht daran, dass die bei 16 Bit irgendwas falsch gemacht haben, sondern daran, dass einige Entwickler viele Effekte und/oder bessere Texturen nur im GLide-Modus anboten, weil die DX-Version der Engine irgendwo auf dem Stand von D3D 5 oder älter war, dabei konnte ein TNT längst alles (und mehr) darstellen, was eine V2 konnte. Aber zu sehen bekam man das dann höchstens mit einem guten GLide-Wrapper :-/

(Leistung unter 32 Bit und der generell fehlende Nutzen eines 32 Bit Renderers, wenn z.B. Lightmaps alle in 16 Bit sind, ist ein anderes Thema)

Eigentlich hat die NV Markteting Abteilung vs. 3Dfx Marketing gewonnen XD

Was ja auch wirklich nicht schwer war
"Hier sehen sie die neue V3 3000! Super schnell, Super toll, Super überlegen und wenn sie Glück haben, dann schon in 6 Monaten und damit knapp vor der nächsten Konkurrenzgeneration in ihrem Hardwareladen"
:ugly:


oh das stimmt nicht ganz marc, bei der Geforce 4 wurde bei erscheinen der Geforce 5 Tilebased rendering ausgeschaltet ( bzw. war nicht mehr aktivierbar) in einigen Benchmarks/spielen brachte dies immerhin 20-30% Leistungszuwachs, wenn ich mich richtig erinnere.

:huh:
Seit wann beherscht die Gf4 tilebased? Das erfordert ja doch einige Änderungen im Renderablauf, für die auch die Hardware geeignet sein muss. Beim Kyro II hat es extrem viel gebracht, aber der war auch dafür konzipiert (z.B. großer Cache statt teurem Speicherinterface). Beim Gf4(ti) hätte es imho auch Probleme mit den Vertex-Shadern geben müssen, weil Geometrie nunmal nicht an der Kachelgrenze aufhört. (was beim Kyro noch egal war, weil er eh keine Geometrieeffekte beherrschte - aber schon die Integration von hTnL war bekanntermaßen ein fast unlösbares Problem)

Was sich manchmal rückwirkend in den Treibern ändert, sind "Optimierungen". Deren Wegfall senkt dann natürlich die FPS, aber dafür sieht das Bild endlich wieder so aus, wie es soll. Aber iirc hat Nvidia damit erst richtig (und sehr, sehr stümperhaft) angefangen, nachdem ATI es mit den Radeon9000 vorgemacht und die Gf FX es dringend nötig hatte.
 
Wobei die PowerVR-Treiber zu KyroII-Zeiten nach meiner Erfahrung deutlich besser waren, als ihr Ruf.

Der Ruf von den Karten bzw. Treiber war schlecht? Irgendwie habe ich davon nichts mitbekommen:D
Gab sehr interessante Karten, allerdings waren eigentlich nur die Karten von Videologic und Hercules in Deutschland wirklich erhältlich. Von der Performance fand ich die Karten auch immer sehr ansprechend. Schade das PowerVR zumindest in diesem Bereich die Segel gestrichen hat.

Bezüglich XGI war eigentlich schon nach dem ersten Test den ich gelesen habe klar: Das wird nix, Karten lahm, Treiber wirklich schlecht. Mal davon abgesehen, dass es die Karten wenn ich mich richtig erinnere, eigentlich nur online gab.

Noch ein Paar Worte bezüglich 3Dfx:
Die Treiber die von dieser Firma damals entwickelt wurden, waren und sind in meinen Augen bis heute ein Paradebespiel dafür, wie man es zu machen hat! Nämlich ohne ständige Updates weil das Spiel XY mit dem Treiber von vor zwei Wochen nicht mehr läuft (was nicht bedeutet, dass es keine Updates gab). Mitlerweile hat sich das wieder nen bisl beruhigt, aber vor fünf oder sechs Jahren konnte man sich eigentlich sicher sein, dass man für das gerade neu gekaufte Spiel erstmal nen neuen Grafiktreiber installieren muss, damit Grafikfehler oder mangelhafte Performance wenigstens ansatzweise behoben werden.
 
Zuletzt bearbeitet:
XGI sagt mir gar nichts. Interessant jetzt viele Jahre später darüber zu lesen...^^
Damals gab es für mich auch nur 3dfx. ;)
 
Ein dritter Konkurrent wäre toll gewesen, aber es sollte nicht sein. Konnte mich noch an diverse Tests erinnern. Schade dass die nicht länger am Ball geblieben sind. Für die erste Generation war dass doch gar nicht so verkehrt. Natürlich fehlten einige Sachen, aber man hätte sich ruhig etwas Zeit geben können.

PCGH hatte damals glaube auf der letzten Seite geile Übersetzungsfehler gezeigt:

driver = Fahrer
chipclock = blabla-uhrzeit

:D
 
Zuletzt bearbeitet:
PPS bei Geforce hieß das wohl hidden surface removal = HSR (software), TIle BAsed Rendering war nur Kyro
Also eine HSR ähnliche Technik nutzen die GPU seit der Kyro II eigentlich alle.

:huh:
:huh:
16 Bit sind 16 Bit und sahen überall gleich aus. Als es noch 3Dfx gegen Nvidia war, gab es ja glücklicherweise kaum/keine Treiberbetrügereien. Das einige Spiele der Mitt90er auf Nvidia schlechter Aussahen, lag nicht daran, dass die bei 16 Bit irgendwas falsch gemacht haben, sondern daran, dass einige Entwickler viele Effekte und/oder bessere Texturen nur im GLide-Modus anboten, weil die DX-Version der Engine irgendwo auf dem Stand von D3D 5 oder älter war, dabei konnte ein TNT längst alles (und mehr) darstellen, was eine V2 konnte. Aber zu sehen bekam man das dann höchstens mit einem guten GLide-Wrapper :-/
Nein 16Bit sahen nicht überall gleich aus. Die Karten von ATi und NV haben bei 16Bit auch intern mit 16Bit gearbeitet wärend die Karten von 3DFX und später die Kyro Chips bei 16Bit intern mit wenn ich mich richtig erinnere 32Bit(Der Kyro II glaube ich sogar mit 48Bit, dem war auch egal ob man 16 oder 32 Bit einstellte was die Performance anging) gerechnet haben was dann schon zu einer leicht höheren Genauigkeit bei der späteren Darstellung in 16Bit führte.
 
Schade das es XGI nicht mehr gibt, mehr Konkurrenz im Grafikmarkt täte allen gut, wenigstens steigt Intel (zumindest im LowEnd Markt) zu einer neuen dritten Macht auf, in der Verbreitung sind sie ja schon klare Nr1.
 
Nein 16Bit sahen nicht überall gleich aus. Die Karten von ATi und NV haben bei 16Bit auch intern mit 16Bit gearbeitet wärend die Karten von 3DFX und später die Kyro Chips bei 16Bit intern mit wenn ich mich richtig erinnere 32Bit(Der Kyro II glaube ich sogar mit 48Bit, dem war auch egal ob man 16 oder 32 Bit einstellte was die Performance anging) gerechnet haben was dann schon zu einer leicht höheren Genauigkeit bei der späteren Darstellung in 16Bit führte.

Die Kyros haben intern immer mit 32 Bit gerechnet, aber Poiu hat die 16 Bit Qualität der TNTs als unbrauchbar bezeichnet - das war drei Generationen früher. Damals gabs nur reines 16 Bit und reines 32 Bit und das sah auch jeweils identisch aus. Etwas später kam bei der Voodoo3 noch "22 Bit" hinzu, wo ebenfalls intern genauer gerechnet wurde, als ausgegeben - aber normales 16 Bit sah auch da aus, wie normales 16 Bit eben aussieht.
 
Ich erinnere mich noch daran, wie dieses Thema 2008 in der PCGH Retro von Henner Schröder besprochen wurde. Hach das waren noch Zeiten :P
 
Zurück