Matrox und Nvidia: Historische Zusammenarbeit - das steckt dahinter

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Matrox und Nvidia: Historische Zusammenarbeit - das steckt dahinter

Matrox und Nvidia haben eine als historisch bezeichnete Zusammenarbeit verkündet. Künftig will man im Bereich Videowände auf Basis mehrerer Displays zusammenarbeiten, indem Nvidia Quadro-Technologie liefert und Matrox eigene Lösungen damit entwickelt. Matrox ist PCGH-Veteranen noch als Gaming-Grafikkarten-Entwickler bekannt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Matrox und Nvidia: Historische Zusammenarbeit - das steckt dahinter
 
Meine erste Grafikkarte in meinem ersten Rechner stammte von Matrox! Wenn ich mich recht erinnere war es eine Mystique 220 und dann kam irgendwann Diablo, das waren Zeiten. :hail:
 
Matrox könnte damit für Nvidia ein weiterer Türöffner für den professionellen Markt sein.

Ein weiteres Standbein für NVidia, wenn mal der Endverbraucher im Gamingmarkt nicht mehr bereit ist 1000€ für eine normale High Endkarte auszugeben.

AMD hat Microsoft und Sony als 2. Standbein gefunden und ist damit sehr nah am Gaming Markt, Nvidia hält einzug im Auto und jetzt auch im Bereich von Großvideowänden. Jeder sucht sich ne Nische. Mal sehen.
 
Hab ichs überlesen? Nvidia ersetzt hier anscheinend den bisherigen Partner AMD.
Bislang haben nämlich AMD die Chips f Matrox geliefert
 
Werden Matrox und NVIDIA dafür wirklich eigene GPUs entwickeln?

Bei AMD hat man bis jetzt nur ganz normale GPUs gekauft, ohne das Chipdesign zu ändern.
 
Hab ichs überlesen? Nvidia ersetzt hier anscheinend den bisherigen Partner AMD.
Bislang haben nämlich AMD die Chips f Matrox geliefert

Dachte auch gerade: die haben doch bisher immer nur AMD-Chips verbaut, vor allem wegen der besseren Preise. Dabei kamen recht vernünftige Multimonitorkarten heraus, die aber nicht viel mehr konnten, als eben viele (also mehr als übliche Grafikkarten) Monitore ansprechen. Schon ein wenig schade, dass dieser doch recht bedeutsame Partner für AMD wegfällt aber so wirklich gewaltig werden die Umsätze bei ihnen auch nicht gewesen sein. Der bedeutsamste Punkt von Matrox war eher die Software, die GPUs waren eben einfach nur darüber synchronisierte Ausgabegeräte. Das wird sich mit nVidia wohl auch nicht großartig ändern. Ich erwarte dort nicht wirklich viel Neues, auch wird nV keine großen technischen Vorteile da herausziehen können. Daher interessante Partnerschaft aber für uns als Spieler/User vor dem Bildschirm vollkommen unbedeutend...
 
Naja, Matrox ist den alten Hasen wohl eher wegen der ausgezeichneten Analog-Signal-Qualität bekannt.
Meine erste Karte von denen war eine Matrox Millenium, die kein Texturmapping beherrschte. Daddeln konnte ich damit erst in Kombination mit einer Voodoo1.
Natürlich ohne Loop-Through-Kabel, sondern mit BNC für die Matrox und VGA für die Voodoo. Die einzige Karte, die man wirklich als Gamingkarte bezeichnen konnte und die ich auch hatte, war die Matrox G400 mit dem damals neuen Feature 'Environmental Bumpmapping'. Die G200 war eigentlich zu schlapp für irgendwas jenseits von 2D.
Leider hat Matrox die G400 nicht weiterentwickelt und das Feld 3DFx, ATi und NVidia überlassen.
 
Hach, das waren noch Zeiten.
Matrox Millennium mit 2 oder 4 MB RAM und eine Diamond 3dfx, dazu nen 200er Pentium mit 8 MB Speicher und 1000 MB Festplatte.
Eine Rennsau vor dem Herren.
Danach war dann der Celeron 300 drin, mit Nagellack auf 450 MHz hochgedrückt.
 
Naja, Matrox ist den alten Hasen wohl eher wegen der ausgezeichneten Analog-Signal-Qualität bekannt.
Exakt das war auch mein erster Gedanke. "Gaming-Karten" waren da eher nicht so wirklich die Stärke von Matrox. :D
Auch wenn damals viele User (mich eingeschlossen) darauf gehofft hatten...
 
die haben doch bisher immer nur AMD-Chips verbaut, vor allem wegen der besseren Preise.
Woher hast du diese Info?

Leider hat Matrox die G400 nicht weiterentwickelt und das Feld 3DFx, ATi und NVidia überlassen.
Nach der G400 kam die Parhelia, die hatte aber einen Hardwarebug, der die Gamingleistung stark beeinträchtigt hat.
Die G550 gab es zwar auch noch, aber das war nur ein Shrink der G400 inkl. Upgrade auf DDR-RAM.
 
Woher hast du diese Info?
Kann man aufgrund der herumliegenden Fakten nur annehmen, wissen tut mans nicht.
Nach der G400 kam die Parhelia, die hatte aber einen Hardwarebug, der die Gamingleistung stark beeinträchtigt hat.
Die G550 gab es zwar auch noch, aber das war nur ein Shrink der G400 inkl. Upgrade auf DDR-RAM.
Die Parhelia war eigentlich ein cooles Konzept. Aber wie bei so vielen Matrox Karten, war es nicht ausgereift. Gut, AFAIR ist Matrox ein privates Unternehmen und hat vergleichsweise wenig Budget. Und deshalb hat es allen Matrox Karten immer am letzten Nachdruck, am Feinschliff gefehlt. Oder anders ausgedrückt: gute Projekte die unterfinanziert waren.

Parhelia war teils beeindruckend und teils war es eben unfertig.
Es kam zu spät, war dann nicht Feature-Complete, hatte halt seine Bugs und war am Ende zu langsam.
Hätte es DX9 komplett supportet und einen HyperZ ähnlichen Ansatz verfolgt, wär das schon ein ordentliches Ding gewesen. Aber die Parhelia hat so ziemlich alles "Roh" und unkomprimiert verarbeitet was nur ging und hatte somit intern wie auch zum RAM diverse Bandbreitenprobleme zu lösen. Kurzum, es gab deshalb einige Bottlenecks.
Zumal war der Chip auch nicht ordentlich optimiert und lief ca 50% schwächer getaktet als etwa AMDs kurz darauf erschienene 9700 Pro - bei gleichzeitig weniger Ausführungseinheiten (war ja auch weniger komplex).

Ich denke wenn man massiv mehr Geld auf einen "Parhelia 2" geworfen hätte, um einfahc einen "runden" Parhelia 1 in 13nm zu bringen, wär das was geworden, aber da hat man bei Matrox früher den Stecker gezogen. Leider. Umgekehrt ist man sicher mit der Parhelia 2 fast untergegangen. Aber hätte man sich damals als 3. Player etabliert, wären die Zeiten heute vielleicht spannender.

Aber das ist schon viel hätte, wäre, wenn... da wär wahrscheinlicher gewesen, dass 3dfx 2001 ordentlich zurückgeschlagen hätte.
 
Ich kann mich noch erinnern. Damals hatte ich eine Geforce 4 4200 und eine Radeon 8500, und saß in der Fahrschule in der Pause und den ersten PCGH-Test von der Pahelia inkkusive Fischpfannenjoke gelesen. War dermaßen enttäuscht weil ich die Karte haben wollte. Dann musste ich feststellen dass es ein Downgrade gewesen wäre, und viel mehr als das Golfballdemo ist nicht übrig geblieben.

Kurz darauf kam die FX5800, die nvidia angeblich gemeinsam mit der Grabplünderung der 3dfx-Ingenieursabteilung entwickelt hatte. Und eine der wenigen Karten, die ich in meiner Sammlung vermisse.

Von den G bis zur 400 hab ich einen schuhkarton voll.
 
Kann man aufgrund der herumliegenden Fakten nur annehmen, wissen tut mans nicht.
Naja, dann sollte er es aber auch nicht als Tatsache in den Raum stellen.

Kann schon sein, daß Matrox wenig gezahlt hat, vermutlich aus diesem Grund hat man damals auch keine der aktuelleren GPUs ausgewählt.
Aber NVIDIA hätte ihnen sicher auch eine alte GPU andrehen können, wenn Matrox die Rechenleistung nicht so wichtig war;)
 
So paar Stück fliegen hier auch noch rum ;)

matroxx.jpg mg2_1.jpg mg2_2.jpg mg2_3.jpg _MG_8195.jpg

Paar weitere G200 und Co. müssten auch irgendwo noch'n paar verstauben ;)
Schön war's, hab damit mal 12er (oder sogar 14?!) Multimonitorbetrieb für ne Veranstaltung gemacht, lange ist's her.

Die Software war denkbar schmal und super easy.


Um neben Matrox nochma Nvidia Nostalgie aufkommen zu lassen, hier meine Diamond Viper 770 (Ne Elsa Erazor 2 und 3 sollte auch noch wo rumfliegen...)
tnt2.jpg




Und da ich gerade in Nostalgie versinke ...kennt die auch noch wer? ;-)
fach64.jpg


So, und nun bitte weiter im Text
 
Zuletzt bearbeitet:
Naja, dann sollte er es aber auch nicht als Tatsache in den Raum stellen.
Ja eh, ich habs deshalb auch so hingeschrieben. Natürlich wärs besser gewesen, dass man schreibt "ich nehme mal an, dass AMD billiger war (bzw Nvidia mit dem Preis unterboten hat).
Kann schon sein, daß Matrox wenig gezahlt hat, vermutlich aus diesem Grund hat man damals auch keine der aktuelleren GPUs ausgewählt.
Aber NVIDIA hätte ihnen sicher auch eine alte GPU andrehen können, wenn Matrox die Rechenleistung nicht so wichtig war;)
Ja, man weiß nicht genau was abgelaufen ist. Ich nehm einfach an, dass das ganze sowieso finanziell nicht besonders lohnend ist. Matrox ist zwar aufgrund der Nostalgie cool, aber hohe Stückzahlen wird man hier nicht erreichen. Vermutlich produzierte Nvidia grad einfach irgendwas, was Matrox eher braucht. Eventuell gleich ein ganzes SoC, nicht nur die GPU

Kurz darauf kam die FX5800, die nvidia angeblich gemeinsam mit der Grabplünderung der 3dfx-Ingenieursabteilung entwickelt hatte. Und eine der wenigen Karten, die ich in meiner Sammlung vermisse.
Man findet die Clips zwar nur noch schwer, aber als die FX vorgestellt wurde, wurde das mit einem von Nvidia gemachten Video getan, Und in diesem Video sind bei 3DFX das 3D verblasst und Geforce sowie 5800 Ultra wurden vor und hinter das verbleibende FX geschrieben.
Nvidia hat also selbst gesagt, dass die FX das Ergebnis dieser Zusammenarbeit war.
Natürlich waren auch sämtliche folgenden Projekte eine Fusion aus 3dfx und Nvidia Ingenieuren. Schon davor hat Nvidia gezielt Ingenieure von 3dfx abgeworben.
 
Zuletzt bearbeitet:
Die GTX ist halt nicht für den Profimarkt bestimmt, den er sber meint.
Vonbwelchen Problemen sprichst du? :-*

Nutze einen 34" Monitor mit Displayport und einen 22" als sekundäres Display für sonstige Anzeigen mit DVI. (CPU Temp, usw.)

Teilweise werden die Desktopgadgets auf dem Hauptmonitor dargestellt, wenn der Sekundäre aus ist.
Nach einem Neustart wird der Displayport nicht genutzt, muss dann am Monitor den Eingang manuell wechseln.
Manchmal startet der Rechner mit DVI manchmal mit Displayport, nach Warmstart fast immer Black Screen.

Er macht es eigentlich immer nach Lust und Laune, mal gehts, mal nicht. Ist eben nervig ständig an den Monitoren rumzufummeln. :rollen:
Mit meiner R9 290 und davor der HD6950 lief es dagegen ohne Probleme.
 
Zurück