PCGH.de: PCGH-Retro: Atis erste Dual-GPU-Karte

ähm, heute MGPUs rendern doch auch mit AFR oder nicht? Man hat das Splitframerendering doch wieder aufgegeben, weil die Mehrleistung bei AFR größer ist.. oder irre ich mich da?
Wenn man sich die Frameausgabezeiten bei Nvidia anguckt, dann sind diese deutlich gleichmäßiger als bei ATi, heißt also, dass das Mikroruckelnnicht mehr so stark (und vorallem erst später auftritt).... Man kann über den Treiber schon einiges machen.. wünschte ATi würds auch so machen und sich nicht einfach aufder (beachtlichen) Leistung der 5970 ausruhen. Man sollte Techniken ausreizen und dieVerlustleistung senken :daumen:

Das wäre schön, aber leider rendern sowohl die Karten von AMD, als auch die von Nvidia nach dem Zeilenverfahren. Leider stimmt es auch das AMD diesbezüglich etwas im Hintertreffen gegenüber Nvidia ist. Aber im Großen und Ganzen komme ich, wie bereits erwähnt, nicht in die Regionen runter in denen ich beginne das Phänomen der Mikroruckler wahrzunehmen. Nur bei BC2, wenn mal wieder der Heil das Feuer auf mich armen Infanteristen eröffnet und dazu ein oder zwei Scharfschützen ihre Mörser auf mich niederregnen lassen komme ich in den Bereich wo es mehr oder weniger deutlich anfängt zu ruckeln. Aber da dies in der Regel nur sehr kurze Phasen sind, stört mich das nicht weiter.

Da nerven die Crossfire- und SLi- Probleme von BC2 weitaus mehr. Zumal nicht bei jedem Nutzer von MGPU auftreten und keiner weiß wodurch sie verursacht werden. Sicher ist nur, das die Einstellung für die Tonausgabe von Bad Company damit irgendetwas zu tun haben muß. :what:
 
Sowohl Nvidia wie ATI nutzen heutzutage ausschließlich AFR.
Was anderes macht heutzutage auch keinen Sinn mehr: Geometrie, Beleuchtung und Post-Processing lassen sich nicht parrallelisieren, machen aber einen enormen Teil der Rechenlast aus. Hätten wir noch DX9 könnte man die entsprechenden Einheiten in einen extra-Chip packen und wenigstens den Rest zeilenweise parallelisieren - dieser Rest bestände aber nur noch aus den Pixelshadern und ROPs. Unter DX10/11 ist nicht einmal das mehr sinnvoll, da ist man froh, wenn wenigstens AFR funktioniert und nicht auf Inhalte aus anderen Frames zurückgegriffen werden muss. (Was sich für z.B. MotionBlur durchaus anbietet.)
Mikroruckeln ist somit höchstens durch Synchronisation vermeidbar, Lag gar nicht.

Und bezüglich der fps:
Imho ist es ziemlich egal, ab welcher Grenze man es wahrnimmt. Sinn einer leistungsfährigeren Grafiklösung ist es, eine flüssigere Wiedergabe zu ermöglichen. Wenn eine Dual-GPU-Lösung trotz stark unterschiedlicher Frametimes nur deswegen einen flüssigen Eindruck liefert, weil sie soviele fps schafft, dann ist das einfach Verschwendung von Leistung. Ob es bei höherer Belastung ruckelt, weil eine GPU überfordert ist, oder weil zwei GPUs Mikroruckler produzieren, ist doch egal. Beides ist schlecht und man muss Details reduzieren. Dann sind beide wieder flüssig, die Dual-GPU-Karte hat aber weiterhin einen hohen Preis, Stromverbrauch, Abwärme, ggf. Lautstärke und Lag.
Damit Multi-GPU eine Verbesserung bringt, muss es mehr Flüssigkeit durch zusätzliche fps gewinnen, als es durch ungleichmäßige verliert. Letztere scheinen in Extremfällen um den Faktor 3 zu schwanken (ggf. mitlerweile besser, aber ne vernünftige frametime-Analyse liefert kaum jemand). D.h. der Abstand von FrameA (GPU1) zu FrameB (GPU2) kann dreimal so groß sein, wie der folgende Abstand zu FrameC (GPU1). Umgekehrt heißt das:
Wenn das Crossfiregespann 6 Frames in einem Zeitraum liefert, in dem eine Einzelkarte 4 Frames ausgegeben hat, dann ist der maximale Abstand bei beiden Lösungen gleich groß. (4/6: Im Schnitt wird 2/3 der Zeit einer Einzelkarte pro Frame benötigt. Für ein Frame-Paar also 4/3, wovon in der Ausgabe 3/3 auf den ersten und 1/3 auf den zweiten entfallen.) Die Crossfirelösung muss also 50% mehr fps liefern, um auch nur gleich flüssig zu sein, wie die Single-GPU-Lösung. Erst wenn sie 160-170% der Leistung der Single-GPU-Karte erreicht, kommt es zu einer flüssigeren Wiedergabe (magere 6-13% Verbesserung, bezogen auf Single-GPU).
In der Praxis liegt aber z.B. eine HD5970 nur 30-40% von einer HD5870, d.h. die HD5870 hat die flüssigere Wiedergabe. (bei oben angenommenen Verhältniss von 3:1 zwischen langsamen und schnellen Frame. Wenn der Unterschied bei Faktor 2 liegt, wäre sie mit 133% Skalierung ungefähr gleich auf, was den Bildeindruck angeht. Sie soll aber nicht nur gleichauf liegen, sie soll besser sein)
 
Zuletzt bearbeitet:
Sowohl Nvidia wie ATI nutzen heutzutage ausschließlich AFR.
Was anderes macht heutzutage auch keinen Sinn mehr: Geometrie, Beleuchtung und Post-Processing lassen sich nicht parrallelisieren, machen aber einen enormen Teil der Rechenlast aus. Hätten wir noch DX9 könnte man die entsprechenden Einheiten in einen extra-Chip packen und wenigstens den Rest zeilenweise parallelisieren - dieser Rest bestände aber nur noch aus den Pixelshadern und ROPs. Unter DX10/11 ist nicht einmal das mehr sinnvoll, da ist man froh, wenn wenigstens AFR funktioniert und nicht auf Inhalte aus anderen Frames zurückgegriffen werden muss. (Was sich für z.B. MotionBlur durchaus anbietet.)
Mikroruckeln ist somit höchstens durch Synchronisation vermeidbar, Lag gar nicht.

Und bezüglich der fps:
Imho ist es ziemlich egal, ab welcher Grenze man es wahrnimmt. Sinn einer leistungsfährigeren Grafiklösung ist es, eine flüssigere Wiedergabe zu ermöglichen. Wenn eine Dual-GPU-Lösung trotz stark unterschiedlicher Frametimes nur deswegen einen flüssigen Eindruck liefert, weil sie soviele fps schafft, dann ist das einfach Verschwendung von Leistung. Ob es bei höherer Belastung ruckelt, weil eine GPU überfordert ist, oder weil zwei GPUs Mikroruckler produzieren, ist doch egal. Beides ist schlecht und man muss Details reduzieren. Dann sind beide wieder flüssig, die Dual-GPU-Karte hat aber weiterhin einen hohen Preis, Stromverbrauch, Abwärme, ggf. Lautstärke und Lag.
Damit Multi-GPU eine Verbesserung bringt, muss es mehr Flüssigkeit durch zusätzliche fps gewinnen, als es durch ungleichmäßige verliert. Letztere scheinen in Extremfällen um den Faktor 3 zu schwanken (ggf. mitlerweile besser, aber ne vernünftige frametime-Analyse liefert kaum jemand). D.h. der Abstand von FrameA (GPU1) zu FrameB (GPU2) kann dreimal so groß sein, wie der folgende Abstand zu FrameC (GPU1). Umgekehrt heißt das:
Wenn das Crossfiregespann 6 Frames in einem Zeitraum liefert, in dem eine Einzelkarte 4 Frames ausgegeben hat, dann ist der maximale Abstand bei beiden Lösungen gleich groß. (4/6: Im Schnitt wird 2/3 der Zeit einer Einzelkarte pro Frame benötigt. Für ein Frame-Paar also 4/3, wovon in der Ausgabe 3/3 auf den ersten und 1/3 auf den zweiten entfallen.) Die Crossfirelösung muss also 50% mehr fps liefern, um auch nur gleich flüssig zu sein, wie die Single-GPU-Lösung. Erst wenn sie 160-170% der Leistung der Single-GPU-Karte erreicht, kommt es zu einer flüssigeren Wiedergabe (magere 6-13% Verbesserung, bezogen auf Single-GPU).
In der Praxis liegt aber z.B. eine HD5970 nur 30-40% von einer HD5870, d.h. die HD5870 hat die flüssigere Wiedergabe. (bei oben angenommenen Verhältniss von 3:1 zwischen langsamen und schnellen Frame. Wenn der Unterschied bei Faktor 2 liegt, wäre sie mit 133% Skalierung ungefähr gleich auf, was den Bildeindruck angeht. Sie soll aber nicht nur gleichauf liegen, sie soll besser sein)

Jau hast recht. Habe die beiden Verfahren mal wieder durcheinander geworfen. Entschuldigung.
 
Das war meine erste und für lange Zeit auch die einzige ATI-Karte die Rage Fury Maxx, die wollte aber wie ja bekannt ist nicht mit Windows 2000. Mit der ATI/AMD HD6870 habe ich es nochmal versucht aber vom Hocker hat auch die mich nicht gehauen. Aber sie macht ihr Ding und gut. ;)
 
Das war meine erste und für lange Zeit auch die einzige ATI-Karte die Rage Fury Maxx, die wollte aber wie ja bekannt ist nicht mit Windows 2000. Mit der ATI/AMD HD6870 habe ich es nochmal versucht aber vom Hocker hat auch die mich nicht gehauen. Aber sie macht ihr Ding und gut. ;)

Naja, das war wohl auch der ungüstigste Zeitpunkt in den letzten Jahren, um von einer ATI/AMDvom Hocker gehauen zu werden. :ugly:
Sowohl 4000er, 5000er als auch 7000er-Reihe wären da deulich beeindruckender gewesen...
 
Dual-GPU... hatte ich auch einige Zeitlang, die erste war eine Voodoo 5 5500 (beste von ihnen) und dann noch zwei mal mit Nvidia... so ein quatsch, auch heute noch.
Kein Hersteller (Nvidia und Amd) schafft es wirklich die Mängel abzustellen, früher war es gut in den Anfangszeiten, aber die Technik von den heutigen Marktführern ist viel zu früh erschienen.
Gekauft wird es sicher gut, darum hat man es auch auf dem Markt geschmissen, aber von dem Punkt Ausgereiftheit hat man die Augen verschlossen.
 
Braucht noch einer eine Maxxxxx? Sogar mit Treibern, leider nicht auf orig. Datenträger. Aber die original Treiber waren eh nicht zu gebrauchen.
W98se fetzt nicht! Und mit 'ner Maxx ohnehin nicht, die Treiber waren wirklich grottig.
Der erste der einigermaßen taugte, war zu gleich der letzte und kam erst im August 2000. Na und Mensch, den konnte man dann auch noch ein ganzes Jahr nutzen, bis XP.
Damals noch so viel Geld für gefühlten Schrott, danke auf Wiedersehen ATI!
Welche Erleichterung war dann die Geforce256DDR.
 
Zuletzt bearbeitet:
Naja die Technik war schon interressant, die Umsetzung naja, auf Grund der "bescheidenen" Treiber aber ein Rohtkrepierer. Denke da auch gerade an die ersten Shutterbrillen...
Gut das ATI/AMD das irgendwann gerafft hat, das es nucht nur auf gute Hardware ankommt, denn selbst bei der 9800 hatte ATI immer wieder mal Treiberschwächen. Das Rumgemurkse war der Hauptgrund warum die Karte nicht in den Rechner kam. (Obwohl die Präsentation bei GIGA schon gut aussah)
So kann man Leute auch dazu bewegen beim Mitbewerber, der auch einige Knaller im Petto hatte (z.B. Riva TNT, Haarföhn 5xxx), zu bleiben. Da wurde halt mal eine Generation ausgelassen und fertig. Und als meine V5 5500 ausgedient hatte, kam eine Geforce 3 TI 500 in den Rechner und seitdem hatte auch ATI/AMD nicht wirklich eine Chance bei mir.
 
ach ATI.....

die älteren Karten habe ich gerne benutzt damals....
Mach 32 / Mach 64 / All in Wonder mit TV....
auch mit IBM OS/2 Warp 3 :)
 
AW: Atis erste Dual-GPU-Karte (PCGH-Retro, 07. Oktober)

Als damals mein PC manche Games nur noch ruckelnd darstellen konnte. Bin ich, ohne Ahnung zu haben, in einen Media Markt rein und hab mir irgendeine GPU geholt die in meinem Budget lag und ein hübsches Cover hatte xD Es war dann tatsächlich die rage furry Maxx. Hab erst Jahre später herausgefunden was ich mir da eigentlich gekauft hatte xD Leider besitze ich sie heute nicht mehr /o:
 
Zurück