Matrox und Nvidia: Historische Zusammenarbeit - das steckt dahinter

Kann sich noch wer drann erinnern, dass Creative mal ein AIB war?
Das war noch zu Zeiten, als die 3D Karten dazu gesteckt wurden.
Ich hatte in meinem PC eine Creative Geforce 256 nachgerüstet... steckte neben meiner Mystique (um den Bogen zum Thema Matrox zu schlagen)
 
Kann sich noch wer drann erinnern, dass Creative mal ein AIB war?
Das war noch zu Zeiten, als die 3D Karten dazu gesteckt wurden.
Ich hatte in meinem PC eine Creative Geforce 256 nachgerüstet... steckte neben meiner Mystique (um den Bogen zum Thema Matrox zu schlagen)


Die Geforce256 war eine eigenständige 2D-3D Grafikkarte. Wenn man die dazu gesteckt hat dann höchstens wegen der Analogen Signalqualität der Matrox, und selbst das hätte bei der alten Mystique mit 4MB keinen Sinn ergeben. Außerdem würd ich gern wissen wie das System gelaufen ist. Windows 98 hat bei 2 verschiedenen 2DGrafiktreibern ärger gezickt als meine rothaarige Exfreundin.
Crestive hatte aber reichlich Grafikkarten und auch Beschleunigerkarten im Sortiment. Ich glaub ende war dann mit der Geforce 2. Aber ich hab noch eine TNT2 und 2 oder 3 Voodoo2 von creative herumliegen. Die hatten den klingenden Namen 3D-Blaster.

Aber wer erinnert sich noch an die Matrox m3d mit PowerVR-Chip erinnern? Das waren schräge Karten. Wenn ich mich nicht täusche kaperten die den Grafikkartenspeicher von der 2D-Karte, deshalb war die Performance von der Hauptkarte und vom PCI-Bus fast mehr entscheidend als die Karte selbst. Ein hoch auf die MiroHighscore3D, die noch originalverpackt bei mir herumliegt. :)
 
Die Geforce256 war eine eigenständige 2D-3D Grafikkarte. Wenn man die dazu gesteckt hat dann höchstens wegen der Analogen Signalqualität der Matrox, und selbst das hätte bei der alten Mystique mit 4MB keinen Sinn ergeben. Außerdem würd ich gern wissen wie das System gelaufen ist. Windows 98 hat bei 2 verschiedenen 2DGrafiktreibern ärger gezickt als meine rothaarige Exfreundin.

Ich seh grad, dass ich da offenbar ein paar Erinnerungen durcheinander bringe.
Mit meiner Mystique hatte ich eine der früheren 3D add in Karten mit Signaldurchschleifung später dann wohl die Creative Geforce 256.
Lang, lang ists her...
 
Beim Erscheinen des Parhelia war ich 15 und eifrig am Rechnerbasteln im Familienkreis. Ein Onkel von mir, damals 18 und ein Fan von Matrox, wollte diese Karte unbedingt in seinem Rechner. Jedoch war er zu der Zeit auch absolut unfähig auf dem Gebiet des Hardwarebastelns oder allein schon des Öffnen von PC Gehäusen.

Also bat er mich, die von ihm gekaufte Parhelia mit damals unglaublichen 512 MB RAM (und die in BGA Packages, das sah man damals nicht oft) in seinen ALDI Rechner einzubauen. Mir wäre sie damals schon nicht performant genug gewesen, für ihn war die Karte ein ordentlicher Leistungsschub. Er war happy und fühlte sich in seinen Age2, Anno1602 und Empire Earth Sessions überlegen :D (Wobei Matrox' 2D-Bildqualität ja bis heute scheinbar unerreicht sein soll. Vielleicht hats in Age und Anno ja was gebracht^^)
 
Namen "Parhelia" mochte ich, vom Klang, aber Rest davon war zu schwachbrüstig. Das war noch zur der Zeit wo ich mir meinen ersten selbst zusammengestellten PC angeschafft habe...
 
Ohman .... die "gute" alte Matrox m3D ... ja das Teil kenne ich noch . Hab die zu meiner Mystique (2MB-Edition mit erweiterung auf 4MB VRAM was ne relativ teure Aufsteckbrücke war) zusammen mit nem K6-2 450 betrieben damals . Hab mir das Ding gekauft weils billiger war als eine "echte" 3D Karte und die ersten Spiele unbedingt volle 3D-Unterstützung haben wollten per DX .... das konnte die Mystique nicht wirklich *g* . Hab damals dann Formula One druff gezockt und das rannte wie Sau .... das meiste andere allerdings nicht weil die Performance gegenüber Riva- TnT's unterirdisch war und Vodoo's damals ohnehin allem anderen die Rücklichter zeigten *g*
 
Naja, dann sollte er es aber auch nicht als Tatsache in den Raum stellen.

Kann schon sein, daß Matrox wenig gezahlt hat, vermutlich aus diesem Grund hat man damals auch keine der aktuelleren GPUs ausgewählt.
Aber NVIDIA hätte ihnen sicher auch eine alte GPU andrehen können, wenn Matrox die Rechenleistung nicht so wichtig war;)

Natürlich habe ich keinen Einbilck in die Angebote, die Matrox so bekommt aber letztlich muss man einfach davon ausgehen, da AMD nV immer und überall preislich unterboten hat. Und bei einem derart großen Kunden ist es mehr als nur etwas wahrscheinlich, dass nV eben nichts wirklich Vergleichbares liefern konnte. Und das nicht, weil sie technisch irgendwie zurückgelegen hätten, sie wollen sich eben einfach zu gut bezahlen lassen. Warum kostet eine Switch mehr, als sie wirklich wert wäre? Sicher nicht wegen der Highend-Leistung, sondern weil nV selbst seine bereits abgeschriebenen Tegras doch noch zu Höchstpreisen an den Mann bringen konnten...
 
Natürlich habe ich keinen Einbilck in die Angebote, die Matrox so bekommt aber letztlich muss man einfach davon ausgehen, da AMD nV immer und überall preislich unterboten hat. Und bei einem derart großen Kunden ist es mehr als nur etwas wahrscheinlich, dass nV eben nichts wirklich Vergleichbares liefern konnte. Und das nicht, weil sie technisch irgendwie zurückgelegen hätten, sie wollen sich eben einfach zu gut bezahlen lassen. Warum kostet eine Switch mehr, als sie wirklich wert wäre? Sicher nicht wegen der Highend-Leistung, sondern weil nV selbst seine bereits abgeschriebenen Tegras doch noch zu Höchstpreisen an den Mann bringen konnten...

Sorry, aber warum Matrox zu AMD gegangen ist, anstelle zu NV ist sehr einfach zu beantworten:
Damals konnten Nvidia GPUs maximal 3 displays anbinden.
AMD GPUs 6 und mehr...

Matrox war da schon für Multi Monitor Produkte bekannt.
Kein Wunder, dass sie da nicht zu Nvidia gehen.
 
Nutze einen 34" Monitor mit Displayport und einen 22" als sekundäres Display für sonstige Anzeigen mit DVI. (CPU Temp, usw.)

Teilweise werden die Desktopgadgets auf dem Hauptmonitor dargestellt, wenn der Sekundäre aus ist.
Nach einem Neustart wird der Displayport nicht genutzt, muss dann am Monitor den Eingang manuell wechseln.
Manchmal startet der Rechner mit DVI manchmal mit Displayport, nach Warmstart fast immer Black Screen.

Er macht es eigentlich immer nach Lust und Laune, mal gehts, mal nicht. Ist eben nervig ständig an den Monitoren rumzufummeln. :rollen:
Mit meiner R9 290 und davor der HD6950 lief es dagegen ohne Probleme.

Interessant: wir haben bei uns in der Arbeit verschiedene Multimonitorsetups. So auch mit Intel oder AMD. Bottom line: das von dir beschriebene Verhalten kenne ich von allen Herstellern. Sporadisch, Nicht jedes Mal, aber 1-2 Mal die Woche. Liegt dann evtl an Microsoft bzw W10
 
Die berühmte 2D Qualität von Matrox rührt auch daher, dass die Qualität von VGA Signalen schon fast lächerlich schlecht war damals. Dann kam hinzu, dass man seine 3dfx Karte ja analog durch die 2D Karte schleifen musste. Wenn man das mit einer mittelmäßigen Karte gemacht hat war ein ein stabiles Bild nicht zu denken. Da haben sich Zeilen gegeneinander verschoben und ganz fies geflimmert. Also hat jeder mit einer 3dfx eine Matrox Mystique oder Millenium genommen und Matrox war der Liebling der Gamer.

Das hat nur nicht lange gehalten, denn im 3D Bereich war Matrox nicht so der Burner, was dazu geführt hat, dass niemand mehr Matrox Karten gekauft hat, als 3dfx und Riva Karten plötzlich selbst 2D konnten und ein Durchschleifen des Signals überflüssig geworden war. Es gab dann eine Zeit mit 3dfx, Nvidia und Radeon Karten, aber Matrox konnte sich nie richtig durchsetzen. 3dfx hat Matrox noch überlebt.

Parhelia war dann die letzte Marketinghysterie von Matrox, die Erlöserkarte, die beste aller Zeiten die kommen wird. Pech nur, dass Nvidia damals so eine komische Karte mit dem Zusatz "Ti" veröffentlicht hatte. Als die Marketingblase geplatzt ist und die Parhelia-Benchmarks da waren, konnte man nicht mehr überall Parhelia, Parhelia, Parhelia hören. Es war auf einmal Ti, Ti, Ti. Der König war tot, lang lebe der König. Ich spekuliere mal, dass neben der ersten GeForce dieser Moment bei Nvidia immer noch 'der' Moment ist und deswegen bekommt die dickste 2080 einen Ti Zusatz, deswegen leitet man daraus die Titan Serie ab, weil sich das schön überschneidet.
 

Naja an der Technik liegts halt einfach nicht. Weder von den Features noch vom Treibersupport, noch von der Effizienz her hat AMD das bessere Paket. Es kann also angenommen werden, dass Nvidia teurer war, denn an der Qualität lags halt nicht

Verstehe aich nicht ganz warum du nochmal nachfragst, nachdem 1. die Aussage eh angepasst wurde 2. das ja schon besprochen wurde und 3. die Indizien nunmal dahingehend deutbar sind. Die Frage ist eigentlich bislang eher gewesen: warum eig. AMD und nicht Nvidia?
 
Zuletzt bearbeitet:
Ich denke, dass Matrox einfach mit anderen Herstellern nicht mithalten konnte. Z.B. bekommt man eine Sapphire GPRO 6200 mit 6 mDP-Ports in 28nm-Fertigung für ca. 230€, während die entsprechende Matrox C680 mit den gleichen Eigenschaften 630€ kostet.

Matrox scheint also 400€ zusätzlich zu wollen, und wie es aussieht, nur, weil Matrox auf der Karte steht.

Wenn Matrox Nvidia-GPUs nimmt, und die eventuell dann so exklusiv bekommt, dass man es nicht vergleichen kann (z.B. könnte es ja sein, dass Nvidia Matrox zusichert, keine Consumer-Karten mit mehr als X mDP-Ports von anderen Herstellern zu erlauben), dann könnte Matrox immernoch behaupten, dass die anderen Karten mit vielen mDP Anschlüssen ja eine AMD-GPU hätten, und es deshalb nicht vergleichbar wäre.

Aus meiner Sicht sieht das also eher wie eine Flucht vor Konkurrenz aus.
 
Naja an der Technik liegts halt einfach nicht. Weder von den Features noch vom Treibersupport, noch von der Effizienz her hat AMD das bessere Paket. Es kann also angenommen werden, dass Nvidia teurer war, denn an der Qualität lags halt nicht

Verstehe aich nicht ganz warum du nochmal nachfragst, nachdem 1. die Aussage eh angepasst wurde 2. das ja schon besprochen wurde und 3. die Indizien nunmal dahingehend deutbar sind. Die Frage ist eigentlich bislang eher gewesen: warum eig. AMD und nicht Nvidia?

Um mich mal zu wiederholen:
Es lag schliucht an der Anzahl der unterstützten Monitore.
Matrox hat sich auf extreme Multi Monitor Setups spezialisiert.
AMD bot mit Eyerfinity deutlich mehr Anschlüsse mit den normalen consumer Chips.
Unter normalen Umständen war mit Kepler sinnvol ein Setup aus drei Monitoren machbar (ein vierter konnte als Zusatzdisplay dienen, aber nicht den gleichen Inhalt anzeigen, wie die andren drei im Array).
Bei den AMD Eyefinity Karten waren immerhin 6 Monitore machbar - im direkten Anschluss.
Mit den Displayport Eyefinity Versionen ging ja auch Dasy Chain für normale 2D Inhalte.

Die Anzahl der unterstützten Displays war für Matrox eben entscheidend.
 
Zurück