PCGH.de: PCGH-Retro: Atis erste Dual-GPU-Karte

Wenn 3dfx' SLI so toll war, dann frag ich mich, wieso dessen Technik heute nicht mehr verwendet wird. Möglicherweise ist AFR performanter, hat aber bei niedrigen fps-Zahlen eben das berüchtigte Problem mit den Mikrorucklern

nennst du bis zu 150 prozentige Skalierung ineffizient ? :ugly:

raff du solltest mal den artikel aktualiesieren mit neueren treibern testen
und antworte mal auf pns im va
prost,
Bier.jpg
 
Ach ja, waren das noch schöne Zeiten :schief:

Meine erste dual GPU war eine 3dfx Voodoo 5 5500 :hail:

Seitdem benutze ich nur noch zwei Grafikchips.
 
Nicht schlecht. Also ist ATI der Urheber von dieser Mikroruckler-********?
nein, damals gab es keine Microlags, zumindest nicht bei meinen Karten. Aber die waren auch von 3dfx :D
Nein, 3dfx war mit der mit SLI denke ich früher dran.
ja und zwar 1996 mit der ersten Voodoo, die es auch als multigpu gab, allerdings nur von quantum 3d. später (voodoo 2) gab es die von jedem hersteller und hatte eine überraschend starke Skalierung in fordernden Szenarien. Ohne Microlags/Mikrorucklern

3dfx SLI: Scan Line Interleave (die grafikkarten errechneten nur jeweils die hälte des sichtbaren bildes - quasi eine zeile ich, eine zeile du... und wenn beide bilder fertig sind, machen wir ein großes draus)

nvidia SLI: Scalable Link Interface (die grafikkarten wechseln sich mit angezeigten bildern ab - ru-ck-el)

Lucids "Hydra" verwendet einen ähnlichen Ansatz, ist zudem unabhängig davon, ob die Graka von ATI, Nvidia oder sonstwem ist. Es werden gewisse Bereiche und Effekte von der einen Karte berechnet, und wieder andere von der anderen. Scheinbar läufts mit Spielen wie Bioshock und Far Cry 2 schon

Wann belebt NV endlich die Marke 3dfx wieder?!?!?!!?!!!!!!!
ich hoffe gar nicht, es wäre einfach nicht mehr dasselbe, sondern bloßes Marketing, das mit der Marke, Philosophie, dem Design und den Ideen von 3dfx nichts mehr zu tun hätte

Das Verfahren eignet sich nur leider wohl nicht für moderne Renderpfade inklusive Shader und Co. Zu 3dfx-Zeiten gab es für die Graka ja noch nichts zu tun, außer eine Fototapete aka Textur auf die Polygone zu klatschen, was das ganze etwas einfacher gemacht hat ;-)
jep, das ist das Problem. Damals waren die Levels einfach nur Polygone und Texturen. Man müsste heute das Verfahren ähnlich anwenden, und dann noch zusätzlich aufteilen welche Karte welche Shader berechnet, um eine ähnliche Effizienz zu erreichen. Hinzu kommt, dass die untere Bildschirmhälfte meist mehr zu tun hat als die obere, also sowieso schon eine Karte mit mehr und eine mit weniger Texturen zu tun hätte. Der ganze Aufwand das halbwegs gut zu synchronisieren rechnet sich nicht mehr

was 3dfx und Mikroruckler? das sind zwei Woerter die nicht in zusammenhang gebracht werden koennen, da sich beide gegenseitig ausschliessen :lol:
3dfx war in der lage 32 gpus zusammen im sli zu fahren, ohne einen einzigen Mikroruckler, dass sollen erstmal aktuelle Grafikkarten Hersteller nachmachen.

Mikroruckler sind die Erfindung von ati und nvidiot
wobei ich vermute das es das einzige ist was nvidiot nicht geklaut hat :ugly:

selbst die XGI Volari V8 Ultra Duo unterstuetzte dieses feature noch nicht :lol:
also ich bitte euch mal darueber nachzudenken warum ihr euch diesen mist antut :D

prost,
Bier.jpg

wie hat die Volari Duo dann das Bild aufgebaut? Würd mich gerade bei Shaderintensiven Spielen interessiern (wenngleich die Lösung ganz offensichtlich auch nicht die performanteste war)

Hatte die Karte nicht mit den treibern zu kämpfen?
Ich hatte zu der Zeit ne Rage Pro und der Treiber war recht grottig.
steht ja auch im Text :schief:

Aber du hast schon recht, ATIs schlechter Ruf bei den Treibern kommt hauptsächlich von der Zeit bis 2003, als die echt noch mehr Bugs als Features hatten

Ohje, ihr habt die Print-Ausgabe 10/2009 verpasst. ;) Da hat's ein 8-seitiges Special von und über Multi-GPU inklusive 3dfx-Rückblick und warum diese einst sauber skalierende Technologie heute nicht mehr sinnvoll nutzbar ist.

Infos über 3dfx-SLI und seine 100-prozentige Skalierung erwünscht? Here you go: 3dfx Voodoo5 6000 Review | 3DCenter.org

MfG,
Raff

ein bisschen Eigenwerbung hat noch nie geschadet ;) das mein ich sowohl für die PCGH als auch für 3dc.
Ja, stimmt ich hab leider den Artikel nicht gelesen, liegt hauptsächlich daran, dass neben 30 sehr interessanten Websites die ich täglich aufsuche für IT News und Gamenews, ich leider auch nicht das Geld habe, mir alle interessanten Zeitschriften zu kaufen die ich gerne hätte (chip, c't,diverse Maczeitschriften, Linuxzeitschriften, PCG,PCGH, PCA,GS etc etc)

raff du solltest mal den artikel aktualiesieren mit neueren treibern testen
und antworte mal auf pns im va
Netter Umgangston den du da hast. Und bestimmt bist du nicht der einzige der Raff mit seinen PNs sexuell belästigt, überleg mal wie viele Leute hier angemeldet sind. Dann überleg nochmal, ob der Inhalt deiner PN wirklich so elementar und wichtig war, dass sich jemand der am Tag sicher nur so zugeschüttet wird von PNs von Usern die mit den Redakteuren befreundet werden wollen, um eine Antwort schert...
 
Zuletzt bearbeitet:
wenn du Interesse an der v8 duo hast, wuerde ich an deiner stelle einen Artikel darueber lesen:
Club3D Volari Duo V8 Ultra Review: XGI Volari Family Coming to Graphics Market - X-bit labs

ich bitte bei meinem ton um verzeihung, war rein zweckmaesig gemeint, hab mir ueber den umgang da keine Gedanken gemacht :D
ich bitte dich
du kannst nicht urteilen warum ich ihn anschreibe oder sonst was tue, ich weis zwar nicht was du so in pns verfasst, aber ich belaestige damit keinen sexuell :ugly:
ausserdem bin ich maennlich und keineswegs homosexuell :lol:

wenn man die pns gar nicht erst oeffnet, kann man auch nicht drauf antworten, aber das ist hier ot
also bitte btt

prost,
Bier.jpg
 
ergo. 3dfx war damals schon besser

Nicht "schon". "noch". :(

Wann belebt NV endlich die Marke 3dfx wieder?!?!?!!?!!!!!!!

Haben sie die überhaupt?
Die haben afaik nur sämtliche (verbliebenen) Techniken und Rechte aufgekauft, also z.B. SLI und afaik auch Voodoo.
Aber die lehre Hülse "3dfx" ist erst ~1 Jahr später Pleite gegangen.

Aber einen Sinn würde es eh nicht machen. Wer heute noch weiß, was "3dfx" war, der interessiert sich zu sehr für Technik, als das er neue Karten nur wegen dem Namen kaufen würde.

3dfx war in der lage 32 gpus zusammen im sli zu fahren, ohne einen einzigen Mikroruckler, dass sollen erstmal aktuelle Grafikkarten Hersteller nachmachen.

Machen sie dir vermutlich sofort, solange du nicht mehr als DX6 verlangst ;)
Zur Einführung von nvSLI und CF war zumindest auch Splitscreen-(bei ATI sogar tile-based-)Rendering verfügbar, aber da dass nicht den erhofften Schwanzmark-Balken bringt, wurde es wieder gestrichen.

selbst die XGI Volari V8 Ultra Duo unterstuetzte dieses feature noch nicht :lol:

Die unterstützte ja auch kein AA, kein ordentlich AF, afaik nur sehr schlecht OpenGL und unter d3d kam es auch zu Fehlern. Ebenfalls nicht unterstützt wurde "schnelles Rendering" und "geringer Stromverbrauch" :ugly:

Hatte die Karte nicht mit den treibern zu kämpfen?
Ich hatte zu der Zeit ne Rage Pro und der Treiber war recht grottig.

Das war jedenfalls der Tenor aller mir bekannten ATI-Besitzer, die ich zu der Zeit kannte.
Erst zu Radeon9xxx Zeiten wurden die Treiber afaik wirklich brauchbar. (unter OpenGL gibts bis heute Nachteile)

Wenn 3dfx' SLI so toll war, dann frag ich mich, wieso dessen Technik heute nicht mehr verwendet wird. Möglicherweise ist AFR performanter, hat aber bei niedrigen fps-Zahlen eben das berüchtigte Problem mit den Mikrorucklern

Die Leistung ist sogar massiv geringer. Wenn mehrere GPUs am gleichen Bild rechnen, aber über keine schnelle Schnittstelle untereinander verfügen ("schnell": min. so schnell wie das Interface zum VRAM), dann müssen alle Inhalte, die nicht pro-Pixel anfallen, von jeder GPU parallel berechnet werden. Also Beleuchtung, Geometrie, Schatten, bild-weite Effekte,........
Das ist ein Großteil des heutigen Workloads, weswegen die Skalierung ohne AFR i.d.R. katastrophal ist und sich Multi-GPU erst recht nicht lohnt. Dann liefer AFR und unregelmäßige Frametimes, die aber immerhin kleiner sind, als die regelmäßigeren ohne AFR.
 
Zur Einführung von nvSLI und CF war zumindest auch Splitscreen-(bei ATI sogar tile-based-)Rendering verfügbar, aber da dass nicht den erhofften Schwanzmark-Balken bringt, wurde es wieder gestrichen.
Splitscreen ist völlig fürn Arsch, absolut unperformant. Sorgt ständig für Händer und/oder Ruckler. Keine Alternative zu AFR.

Einzig sinnvoll: Beide Karten rechen dasselbe Bild und addieren dann am Ende beide für ein besseres AA. DAS ist sinnvoll, performant und auch Ruckelfrei.
 
Einzig sinnvoll: Beide Karten rechen dasselbe Bild und addieren dann am Ende beide für ein besseres AA. DAS ist sinnvoll, performant und auch Ruckelfrei.

Das wäre 2xSSAA bei miserabler Skalierung: Leicht niedrigere fps (Verrechnung, Übertragung) bei doppelter Leistung, obwohl bei konstanter Leistung und halbierten fps bereits 4x SSAA auf Single-GPU möglich sind. Es ist nunmal ziemlich egal, ob das Bild in doppelter Auflösung berechnet und danach runtergesampled oder 1:1 ausgegeben wird - der Leistungsvorteil gegenüber Single-GPU ist bei Multi-GPU-SSAA genau der gleiche, wie bei Interleaved-SFR und somit sehr niedrig bei heutigen Spielen.
 
Splitscreen ist völlig fürn Arsch, absolut unperformant. Sorgt ständig für Händer und/oder Ruckler. Keine Alternative zu AFR.

Das liegt daran, dass ständig ein Lastausgleich zwischen den Grakas hergestellt werden musste. Es war aber auch nicht grade die kleverste Idee, das Bild horizontal zu teilen. Oben ist der Himmel mit ein paar Wölkchen und unten geht die große Schlacht ab.
Es wäre vermutlich sinnvoller gewesen, hätte man das Bild vertikal geteilt und dann die dynamische Leistungsverteilung gestrichen und einfach die eine Graka warten lassen, bis die zweite ihre Hälfte fertig hat und dann das Bild zusammengesetzt.


@Topic: Ich hätte auch nicht gedacht, dass ATI so früh DualGPU-Grakas hatte. Ich dachte erst an diese X1600 von Asus mit 2 GPUs.
 
Das liegt daran, dass ständig ein Lastausgleich zwischen den Grakas hergestellt werden musste. Es war aber auch nicht grade die kleverste Idee, das Bild horizontal zu teilen. Oben ist der Himmel mit ein paar Wölkchen und unten geht die große Schlacht ab.
Es wäre vermutlich sinnvoller gewesen, hätte man das Bild vertikal geteilt und dann die dynamische Leistungsverteilung gestrichen und einfach die eine Graka warten lassen, bis die zweite ihre Hälfte fertig hat und dann das Bild zusammengesetzt.
Ob vertikal oder horizontal ist egal, du musst bei beiden Trennungen ein Loadbalancing betreiben. Der Rechenaufwand ist selten wirklich ausgeglichen über das gesamte 3D-Bild.
 
Das ist mir bewusst, aber bei vertikaler Trennung wäre schon von Natur aus die Leistung in den meisten Fällen vergleichbar gut ausgeglichen, weshalb man eine Neuverteilung evtl. völlig streichen könnte.
Angenommen du hast ein Rennspiel, du hast vor dir eine Rechtskurve, da drin fahren grad 5 Autos. Also muss die rechte Hälfte (=Grafikkarte) diese 5 Autos+Rest berechnen, die andere nur links ein bisschen Vegetation. Da kannst du auf eine Neuverteilung nicht verzichten.

Wenn das alles so einfach wäre mit MGPU, hätten das Nvidia und ATI schon längst gemacht, so blöd sind die net :ugly:
 
Die GTX 295 von EVGA war die erste MGPU-Karte die ich hatte und zugleich eine der besten Karten überhaupt. Mikroruckler nimmt man nicht wahr und Probleme gab und gibt es mit der Karte praktisch gar keine. Unter Volllast ein bissl laut aber ansonsten ein dickes :daumen: für Nvidia!
 
Die GTX 295 von EVGA war die erste MGPU-Karte die ich hatte und zugleich eine der besten Karten überhaupt. Mikroruckler nimmt man nicht wahr und Probleme gab und gibt es mit der Karte praktisch gar keine.

ich bin 1. NVidia Nutzer, 2. hatte ich auch eine 295 und testweise eine 4870X2

wer behauptet das es diese Ruckler nicht gibt oder man sie nicht wahrnimmt, der lügt schlicht und ergreifend...
ich habs auch nie geglaubt, aber wenn mit Fraps 120 FPS in "Diashow" enden, während die Single-Alternative 75FPS ohne dieses Ruckeln darstellt, dann hört der Spaß auf

Multi GPU ist und bleibt unausgereift, bei beiden Herstellern
 
wer behauptet das es diese Ruckler nicht gibt oder man sie nicht wahrnimmt, der lügt schlicht und ergreifend...
Multi GPU ist und bleibt unausgereift, bei beiden Herstellern

Du unterliegst da einem gewaltigen Irrtum. Derjenige lügt mit an Sicherheit grenzender Wahrscheinlichkeit nicht! Das zu unterstellen ist schlichtweg eine Frechheit. Aber das nur am Rande.

Ich nutze seit gut einem Jahr mal wieder Crossfire, diesmal in Form der HD 5970 von HIS. Und ich kann Dir bestätigen, das ich in keinem Spiel mit Mikrorucklern zu kämpfen habe. Ich habe auch noch nie den Effekt gehabt, das sich 120 Bilder die Sekunde wie eine Diashow anfühlten. Frage mich auch wie das gehen soll? :what:

Wobei ich mich nicht als Referenz in punkto Mikroruckler bezeichnen würde, das kann nämlich niemand! Denn jeder von uns nimmt diesen Effekt anders wahr. Der eine spürt dieses Ruckeln schon bei 100 Bilder, während ich diesen negativen Effekt erst ab Bildraten unterhalb 50 Bilder die Sekunde zu spüren beginne. Und in diese Regionen habe ich meine HD 5970 nur selten runterbekommen. Meist liege ich oberhalb der 80 BpS

Aber das diese Technik nicht im Geringsten ausgereift, da stimme ich Dir uneingeschränkt zu. Diese verflixte zeilenbasierte Berechnung könnte nur dann vernünftig funktionieren, wenn es auf der Graka einen Zusatzchip gibt, der die Bilder sammelt und dann in regelmäßigen Abständen an den Monitor ausgibt. Aber das wiederrum dürfte als negativen Nebeneffekt bewirken, das der Inputlag noch größer wird. Aber da bin ich nicht der Fachmann. Vielleicht irre ich mich in dem Punkt ja auch.
Das einzige Verfahren was wohl beide Probleme sinnvoll löst, ist das AFR- Verfahren, welches ATi ja bei der Rage Fury Maxx nutzte.
 
Du unterliegst da einem gewaltigen Irrtum. Derjenige lügt mit an Sicherheit grenzender Wahrscheinlichkeit nicht! Das zu unterstellen ist schlichtweg eine Frechheit. Aber das nur am Rande.

Ich nutze seit gut einem Jahr mal wieder Crossfire, diesmal in Form der HD 5970 von HIS. Und ich kann Dir bestätigen, das ich in keinem Spiel mit Mikrorucklern zu kämpfen habe. Ich habe auch noch nie den Effekt gehabt, das sich 120 Bilder die Sekunde wie eine Diashow anfühlten. Frage mich auch wie das gehen soll? :what:

Wobei ich mich nicht als Referenz in punkto Mikroruckler bezeichnen würde, das kann nämlich niemand! Denn jeder von uns nimmt diesen Effekt anders wahr. Der eine spürt dieses Ruckeln schon bei 100 Bilder, während ich diesen negativen Effekt erst ab Bildraten unterhalb 50 Bilder die Sekunde zu spüren beginne. Und in diese Regionen habe ich meine HD 5970 nur selten runterbekommen. Meist liege ich oberhalb der 80 BpS

Aber das diese Technik nicht im Geringsten ausgereift, da stimme ich Dir uneingeschränkt zu. Diese verflixte zeilenbasierte Berechnung könnte nur dann vernünftig funktionieren, wenn es auf der Graka einen Zusatzchip gibt, der die Bilder sammelt und dann in regelmäßigen Abständen an den Monitor ausgibt. Aber das wiederrum dürfte als negativen Nebeneffekt bewirken, das der Inputlag noch größer wird. Aber da bin ich nicht der Fachmann. Vielleicht irre ich mich in dem Punkt ja auch.
Das einzige Verfahren was wohl beide Probleme sinnvoll löst, ist das AFR- Verfahren, welches ATi ja bei der Rage Fury Maxx nutzte.


ähm, heute MGPUs rendern doch auch mit AFR oder nicht? Man hat das Splitframerendering doch wieder aufgegeben, weil die Mehrleistung bei AFR größer ist.. oder irre ich mich da?
Wenn man sich die Frameausgabezeiten bei Nvidia anguckt, dann sind diese deutlich gleichmäßiger als bei ATi, heißt also, dass das Mikroruckelnnicht mehr so stark (und vorallem erst später auftritt).... Man kann über den Treiber schon einiges machen.. wünschte ATi würds auch so machen und sich nicht einfach aufder (beachtlichen) Leistung der 5970 ausruhen. Man sollte Techniken ausreizen und dieVerlustleistung senken :daumen:
 
Zurück