PCGH-Retro: Matrox Parhelia-512

Ich hatte damals eine Mystique und später die m3d(die war billig :-) ) Der M3d lag damals ein Rennspiel bei welches für den PowerVR optimiert wurde. Zugegeben dieses Rennspiel sah schon toll aus und lief schneller als gedacht.
PowerVR verwendet in Hardware halt einen deferred rendering Ansatz(quasi erst nachdenken, dann nur das nötige rendern) und unterscheidet sich damit grundsätzlich von dem "direkten" Ansatz der Konkurrenz. Dem entsprechend viel konnten darauf ausgelegte Programme raus holen.
Der PowerVR - Chip stammt wohl aus einigen Videospielautomaten.
Sega hat so einen Chip in der Dreamcast und allen verwandten Systemen(also auch ihren Spielautomaten) verbaut.
Das DisplacementMapping hat irgendwie was von Tesselation, oder?:wow:
Eher Parallex-Mapping.
 
Hatte damals auch eine, war ne schöne Karte. Leider wurde trotz anderslautender Gerüchte die Karte nicht für volle Dx9 unterstützung frei gegeben, deshalb musste sie einer 9800 Pro weichen und wanderte mit Zalman Heatpipe Kühler in den Zweitrechner...
Hatte 2 Monitore und nen TV dranhängen war schon recht geil damals.

Hab sie dann nach über 2 Jahren für fast neupreis bei ebay verkauft. Damit ist sie fast so wertstabil wie meine aktuelle 5870, die iwie immer teurer wird :devil:
 
Hallo ruyven_macaran

ich mag dir nicht zu nahe treten aber das nur fail was du da sagst.
Es gibt sehr wohl genügen vorteile die für Matroy sprachen und sprechen.
nur weil du sie nicht kennst heißt es nicht das sie nicht da sind.
und erlich wer je eine Matrox an den Bildschirm hatte wird wissen was der erste
vorteil war.
Da es sich hier aber um Profesionelle Produkte handelt sind wir hier im Forum leider
sehr falsch.

LG

PS: ich war und werde immer fan von Matroy sein
 
@Mente:
Dann nenn doch bitte mal die Gründe.
Ausgabequalität und Anzahl der Anschlüsse fallen ja schon mal weg ;) .
 
Hi Olstyle

warum sollte die ausgabe Qualität wegfallen warum die Anschlusvielfälltigkeit, warum die volle kontrolle im treiber das du mehrere Quellen Monitor TFT Fernseher vernümftig konfigurieren und betreiben kannst.
Sehr ausgereifte Treiber und vieles mehr. aber das ist nichts was ein Begriff für otto normal User heutzutage ist. Den dieser kennt garnicht das was man
an Matrox hatte ergo kann man es auch nicht vermissen bzw. verstehen.

lg
 
Hi Olstyle

warum sollte die ausgabe Qualität wegfallen
Weil ein DVI-Signal keinen Schwankungen mehr unterliegt wie es noch bei VGA der Fall war(digital vs. analog halt), somit ist bei modernen Monitoren die allgemeine Bildqualität an allen Karten identisch.
warum die Anschlusvielfälltigkeit,
Weil man mit einer ATI Graka mittlerweile auch schon 6 Monitore betreiben kann und mit alle anderen immerhin zwei Anschlüsse haben.

warum die volle kontrolle im treiber das du mehrere Quellen Monitor TFT Fernseher vernümftig konfigurieren und betreiben kannst.
Das kann heutzutage sogar schon Windows alleine ganz prima(und Linux eh).
Sehr ausgereifte Treiber und vieles mehr. aber das ist nichts was ein Begriff für otto normal User heutzutage ist. Den dieser kennt garnicht das was man
an Matrox hatte ergo kann man es auch nicht vermissen bzw. verstehen.

lg
Deswegen habe ich ja gefragt was denn dieses "vieles mehr" ist. Im 2D Betrieb ausgereift sind schließlich alle Graka-Treiber, egal ob Intel, S3, ATI oder Nvidia sowieso.
 
Hallo Olstyle

wo bitte hast du den den umfang der einstellung in irgend einem treiber sonst?
wo funktioniert den auch externe Quellen richtig?
das hat doch mit DVI HDMI nichts zu tun das die Quellen richtig angesprochen werden.
Und das mit mehreren Monitoren zb. Konnten die G200 schon, das ist über 10jahre her
was einige Hersteller jetzt erst können. Und glaubt hier jemand das sie sich nicht weiter
entwickelt haben? schaut euch doch mal heutige Produkte an.
Ich weiß das das schwer ist aber die Qualität der Matroy karten in 2D ist ausser Konkurenz
und so wie NV und ATI arbeiten wird sie das auch bleiben.
Es gab auch noch andere Gründe warum Matrox aus den 3D Markt ausgestiegen ist,
da ging es auch darum, das die Qualität im 3D Markt keine Rolle spielt (zumindesten
nicht auf dem Niveau was matrox sich auferlegt hatte)
grade NV sehr beigetragen.

lg
 
Ich kenne den Umfang der Einstellungen nicht, sonst würde ich ja nicht fragen. Also was konkret kannst du bei Matrox einstellen was woanders nicht geht?

das hat doch mit DVI HDMI nichts zu tun das die Quellen richtig angesprochen werden.
Quelle=>Recording?! :confused:
Ich weiß das das schwer ist aber die Qualität der Matroy karten in 2D ist ausser Konkurenz
und so wie NV und ATI arbeiten wird sie das auch bleiben.
Die Optik an sich wird durch das OS/die restliche Software definiert und die Weitergabe erfolgt bei Verwendung von DVI/HDMI/DP rein digital, also ohne Verluste. Was bleibt ist die (wiederum nichts an der Darstellung an und für sich ändernden)Beschleunigung welche über den Treiber/die Karte erfolgt und das zumindest bei Nvidia und Intel mehr als nur ausreichend schnell(ATI und WIn7 sind da wieder ein anderes Thema).
 
Jaja wurde damals sehr gehypt, aber im Endeffekt war die Karte fürs Spielen zu langsam und zu teuer. Mit Kantenglättung war sie damals aber sehr schnell. Naja, es ist jedenfalls schade, dass daraus keine Konkurenz für Ati und nVidia entwachsen ist. Nach dem Abgang von 3dfx hätte das sicher nichts geschadet. Nach dem auch noch die Kyros vom Markt verschwanden, bzw. keine Nachfolger mehr kamen, gabs eigentlich nur noch die beiden. Wäre schön, wenn es 3dfx noch gäbe und Matrox gescheite Karten fürs Zocken entwickeln würde. Gegen eine Kyro 3 hätte Ich auch nichts einzuwenden. 5 Konkurenten sind immer besser als 2.
 
Sega hat so einen Chip in der Dreamcast und allen verwandten Systemen(also auch ihren Spielautomaten) verbaut.

Da gibts afaik bis heute PowerVR (auch wenn der Schwerpunkt mitlerweile auf Handys liegt)

Eher Parallex-Mapping.

Ich votiere für Normal-Mapping ;)


Hatte damals auch eine, war ne schöne Karte. Leider wurde trotz anderslautender Gerüchte die Karte nicht für volle Dx9 unterstützung frei gegeben,

Sie war nie DX9-tauglich, weil die Pixel-Shader fehlten.



Hallo ruyven_macaran

ich mag dir nicht zu nahe treten aber das nur fail was du da sagst.
Es gibt sehr wohl genügen vorteile die für Matroy sprachen und sprechen.

Ich bin gespannt, was du zum "sprechen" noch anliefern wirst, denn dem "sprachen" habe ich nie wiedersprochen und bislang steht deine "fail"-Behauptung ziemlich allein im Raum.

und erlich wer je eine Matrox an den Bildschirm hatte wird wissen was der erste vorteil war.

Ich hatte eine am Bildschirm. Und ich weiß, was der erste Vorteil war.
Da du mich für Aussagen über heute (bzw. heute vor einem Jahr) disst, solltest du aber mal sagen, was (für eine nenneswerte Zahl von Anwendern) der Vorteil ist.

Da es sich hier aber um Profesionelle Produkte handelt sind wir hier im Forum leider sehr falsch.

Wenn du dich hier für falsch hälst...

PS: ich war und werde immer fan von Matroy sein

Soviel zum Thema fail :ugly:

wo bitte hast du den den umfang der einstellung in irgend einem treiber sonst?

Was für Einstellungen vermisst du denn in anderen Treibern?

Und das mit mehreren Monitoren zb. Konnten die G200 schon, das ist über 10jahre her
was einige Hersteller jetzt erst können. Und glaubt hier jemand das sie sich nicht weiter
entwickelt haben? schaut euch doch mal heutige Produkte an.

*schau*
*weiterhin wenig finde*
Okay: Sie können jetzt noch mehr Monitore mit noch weniger und mittlerweile auch wieder passiven Karten ansteuern.
Leider ist das ohne Monitor-Spar-Sixpack weiterhin eine mini-Nische. 8 Monitore kann ich (zumindest unter älteren Windows-Versionen) auch einfach mit mehreren PCI-Karten für ein paar € ansteuern. Die Grafikkarte hat da nie limitiert, sondern die Verfügbarkeit von Monitoren.
(diese Worte werden auf einem einzelnen 15" geschrieben)

Ich weiß das das schwer ist aber die Qualität der Matroy karten in 2D ist ausser Konkurenz

Jup. Weil (bis auf ganz, ganz wenige Röhrenfanatiker) 2D-Qualität heute überall gleich ist. Wie sollte sich da eine Konkurrenzsituation bilden können?
 
Da gibts afaik bis heute PowerVR (auch wenn der Schwerpunkt mitlerweile auf Handys liegt)
NAOMI ist ja auch noch nicht tot...

PowerVR ist im grunde eh nicht mehr als eine Technologie welche man für die verschiedensten Einsatzgebiete lizenzieren kann. Es könnte sich z.B. auch einfach Intel dazu entschließen die (x86)^x Konstruktion auf zu geben und stattdessen einen großen PowerVR Chip fertigen im sparsamsten Atom-Chipsatz hat man ja mal entsprechende Technik eingesetzt.
Ich votiere für Normal-Mapping ;)
Ich bleibe bei Parallex.Mapping. Zumindest das was der Artikel zeigt spricht nämlich für veränderte Geometriedaten aufgrund des Mappings was bei Normalmaps nicht der Fall ist.
Sie war nie DX9-tauglich, weil die Pixel-Shader fehlten.
Ganz gefehlt haben werden sie wohl kaum, die braucht man schließlich schon für DX8.;)
 
PowerVR ist im grunde eh nicht mehr als eine Technologie welche man für die verschiedensten Einsatzgebiete lizenzieren kann. Es könnte sich z.B. auch einfach Intel dazu entschließen die (x86)^x Konstruktion auf zu geben und stattdessen einen großen PowerVR Chip fertigen im sparsamsten Atom-Chipsatz hat man ja mal entsprechende Technik eingesetzt.

Afaik nutzt Intel schon seit Jahren in allen IGPs PowerVR-Patente. (aber kein einziger Chip ist eine 1:1 Umsetzung)

Ganz gefehlt haben werden sie wohl kaum, die braucht man schließlich schon für DX8.;)

Stimmt wohl.
 
Das ding war damals so überteuert man hat matrox einfach nur dafür ausgelacht... dazu noch die treiber probleme... Zumal die Geforce 4 Reihe sowieso total beliebt war.
 
schade ansich um matrox. die karte war leider zu langsam und zu teuer. wer weiß wo matrox heute wäre wenn diese karte gut verkauft worden wäre.



gruß
 
Matrox *schwärm*

die waren nie die günstigsten hatten aber eine super Qualität, meine Matrox Mystiqe 4MB funktioniert bis heute einwandfrei:daumen:

mit dem G200 ist matrox damals relativ gut wieder in denn Gamer Markt zurückgekehrt und dann kam die G400 MAX

nebenbei war matrox auf der diesjährigen CeBit:D
 
Es ist immer irgendwie traurig von einem Grafikkartenhersteller zu lesen der den erbarmungslosen Konkurrenzkampf nicht geschafft hat.
Die heutige Hardware Welt wäre sicher besser wenn es noch einen dritten GPU Hersteller geben würde der AMD und NVIDIA ernsthafte Konkurrenz machen könnte.
 
Das kommt davon wenn ein Hersteller eine Grafikkarte für zukünftige Direct-X Standards entwickelt. Stand zum Erscheinen der Parhelia war DX8.1 und die Technik, speziell Displacement Mapping mit Tessellation war für DX9 gedacht. Das diese Funktion erst 3 Generationen oder 8 Jahre später in Direct-X aufgenommen wurde hat der Parhelia nicht unbedingt geholfen.
Die Technik war damals mit LOD schon recht ausgereift. Hier noch ein paar Bilder.
ATI hat diese Funktion ja auch schon mit der 3xxx Serie übernommen so viel ich weiß?
Mit DX11 haben die Spieleentwickler eine Möglichkeit bekommen dieses Feature leichter zu nutzen. Selbst in der Consumer-Hardware war die Möglichkeit dafür allerdings schon seit einer "Ewigkeit" vorhanden.
 
Das kommt davon wenn ein Hersteller eine Grafikkarte für zukünftige Direct-X Standards entwickelt. Stand zum Erscheinen der Parhelia war DX8.1 und die Technik, speziell Displacement Mapping mit Tessellation war für DX9 gedacht. Das diese Funktion erst 3 Generationen oder 8 Jahre später in Direct-X aufgenommen wurde hat der Parhelia nicht unbedingt geholfen.
Die Technik war damals mit LOD schon recht ausgereift. Hier noch ein paar Bilder.
ATI hat diese Funktion ja auch schon mit der 3xxx Serie übernommen so viel ich weiß?
Mit DX11 haben die Spieleentwickler eine Möglichkeit bekommen dieses Feature leichter zu nutzen. Selbst in der Consumer-Hardware war die Möglichkeit dafür allerdings schon seit einer "Ewigkeit" vorhanden.

Matrox hat die Karten nicht für künftige DX-Standards entwickelt. Sicher, man hatte Funktionen drin, die später auch in DX kamen - aber umgekehrt fehlten welche, von denen klar waren, dass sie zeitnah Vorraussetzung für höhere DX-Level sein würden. Wer eine Karte entwickelt, die inkompatibel zu kommenden und lahm unter bestehenden Standards ist, der braucht sich über mangelnde Käufer nicht zu wundern.
Die 10bit Ausgabe war damals, bevor sich LCDs endgültig durchsetzten, auch eine mögliche Zukunftstechnologie, an der auch schon 3dfx gearbeitet hatte. Aber das ist genauso nutzlos, wie DX10-ähnliche displacement Maps, wenn man nichtmal DX9 Pixelshader bietet.
 
Zurück