Mantle "entfesselt" Crossfire: AMD verabschiedet sich vom AFR-Modus - Mikroruckler adieu?

AW: Mantle "entfesselt" Crossfire: AMD verabschiedet sich vom AFR-Modus - Mikroruckler adieu?

Ich glaube zuviel Leute assozieren Mantle mit AMD. Soweit ich das verstanden spielt der Heer Johan Andersson hier die größte Rolle. Er hatte ja die Idee und ist zu Nvidia gegangen die ihn aber abgewiesen haben und dann ist er zu AMD gegangen. Daraus ziehe ich dass AMD eher finanziell sie versorgt, Personal zur Verfügung stellt und villeicht etwas von ihrem Fachwissen teilt. Aber Chef der ganzen Entwicklung ist der Johan Andersson. Also gebt mal dem guten Mann das Lob und nicht AMD, obwohl AMD natürlich auch für mich um einiges besser darstellt da sie ja offen für sowas waren in Gegensatz zu Nvidia.
 
AW: Mantle "entfesselt" Crossfire: AMD verabschiedet sich vom AFR-Modus - Mikroruckler adieu?

Wer die Idee hatte, ist eigentlich egal. ;)
 
AW: Mantle "entfesselt" Crossfire: AMD verabschiedet sich vom AFR-Modus - Mikroruckler adieu?

Wer die Idee hatte, ist eigentlich egal. ;)
Sehe ich anders. Ist ähnlich bei den ganzen Spielepublisher. Jeder spricht immer davon wie Blizzard oder Ubisoft etc.. ein so geniales Spiel herausbringen und überschütten sie mit Lorbeeren und vergessen dabei komplett die wichtigsten Leute und zwar das Entwicklungsteam. Der Publisher tut nichts als Geld her geben und in den Entwicklungsprozess mit reden, die Entwickler leisten die Arbeit.

So finde ich auch das man nicht AMD die Krone aufsetzen soll wenn es klar nicht von ihnen startete.
 
AW: Mantle "entfesselt" Crossfire: AMD verabschiedet sich vom AFR-Modus - Mikroruckler adieu?

Und wenn 100 Leute ein Spiel entwickeln, muss man die dann alle erwähnen, weil jeder Ideen dazu beigetragen hat? Dann werden die Threads aber umfangreich :D
Für mich ist jedenfalls Mantle=AMD.
 
AW: Mantle "entfesselt" Crossfire: AMD verabschiedet sich vom AFR-Modus - Mikroruckler adieu?

Du meinst wegen der VLIW4-Grafikeinheit? Als reine CPU gehts natürlich schon, und könnte ja gerade da von Mantles Ansätzen zum besseren Multithreading etc. profitieren. :)
Ja genau deswegen.

Wenn willst du ja die dGPU nur zur Leistungssteigerung der iGPU nutzen, und gerade das soll ja mit Mantle besser gehen.

Ich glaube zuviel Leute assozieren Mantle mit AMD. Soweit ich das verstanden spielt der Heer Johan Andersson hier die größte Rolle. Er hatte ja die Idee und ist zu Nvidia gegangen die ihn aber abgewiesen haben und dann ist er zu AMD gegangen. Daraus ziehe ich dass AMD eher finanziell sie versorgt, Personal zur Verfügung stellt und villeicht etwas von ihrem Fachwissen teilt. Aber Chef der ganzen Entwicklung ist der Johan Andersson. Also gebt mal dem guten Mann das Lob und nicht AMD, obwohl AMD natürlich auch für mich um einiges besser darstellt da sie ja offen für sowas waren in Gegensatz zu Nvidia.
Aha, wenn AMD so unwichtig ist, warum hat er es dann nicht ohne Sie gemacht?

Ach ja richtig, dafür muss man auf der Treiberseite schon verdammt viel machen, und eben auch Zugriff auf die grundlegenden Sachen geben. Und GENAU da seh ich bei nVidia eher ein Problem als die Tatsache, das es von AMD gepusht wird. Die wollen ihre Sachen so weit wie möglich unter verschluss halten...
 
AW: Mantle "entfesselt" Crossfire: AMD verabschiedet sich vom AFR-Modus - Mikroruckler adieu?

Aha, wenn AMD so unwichtig ist, warum hat er es dann nicht ohne Sie gemacht?

Ach ja richtig, dafür muss man auf der Treiberseite schon verdammt viel machen, und eben auch Zugriff auf die grundlegenden Sachen geben. Und GENAU da seh ich bei nVidia eher ein Problem als die Tatsache, das es von AMD gepusht wird. Die wollen ihre Sachen so weit wie möglich unter verschluss halten...

Geld und Verbreitung. Selbst wenn er es ganz alleine programmiert hätte und ein fertiges Produkt gemacht hätte so bringt dass nichts wenn es niemand verwendet und es weder Nvidia noch AMD pushen. Es muss halt jemand da sein und es auf dem Markt forcieren, es an den Mann bringen und den Entwicklungsprozess finanzieren. Ich sagte nicht dass AMD unwichtig ist. Ich wollte nur sagen dass AMD warscheinlich im Entwicklungsprozess außer dem finanzieren selbst nicht eine so hohe Rolle gespielt hat wie manche es darstellen. Jetzt kommt halt AMDs Part wo sie es vermarkten und an den Mann bringen.

Wie gesagt alles nur Spekulation aber ich glaube Johan Andersson hatte schon handfeste Details und Pläne als er zu AMD ging um ihnen seine Idee zu präsentieren, sonst hätte AMD es nie akzeptiert. Was halt noch fehlte waren Geld und villeicht Arbeitskräfte, aber die meißte Gestaltung und geistige Arbeit kommt höchstwarscheinlich von Johan Andersson.
 
AW: Mantle "entfesselt" Crossfire: AMD verabschiedet sich vom AFR-Modus - Mikroruckler adieu?

Was willst du mir damit sagen Amigo ?
Na dass ich das anders sehe... ;)
Der werte Herr Ramsauer war ja gestern auch im TV, da musst ich auf deinen Avatar* anspielen... :D
 
Zuletzt bearbeitet:
AW: Mantle "entfesselt" Crossfire: AMD verabschiedet sich vom AFR-Modus - Mikroruckler adieu?

Geld und Verbreitung. Selbst wenn er es ganz alleine programmiert hätte und ein fertiges Produkt gemacht hätte so bringt dass nichts wenn es niemand verwendet und es weder Nvidia noch AMD pushen. Es muss halt jemand da sein und es auf dem Markt forcieren, es an den Mann bringen und den Entwicklungsprozess finanzieren. Ich sagte nicht dass AMD unwichtig ist. Ich wollte nur sagen dass AMD warscheinlich im Entwicklungsprozess außer dem finanzieren selbst nicht eine so hohe Rolle gespielt hat wie manche es darstellen. Jetzt kommt halt AMDs Part wo sie es vermarkten und an den Mann bringen.

Wie gesagt alles nur Spekulation aber ich glaube Johan Andersson hatte schon handfeste Details und Pläne als er zu AMD ging um ihnen seine Idee zu präsentieren, sonst hätte AMD es nie akzeptiert. Was halt noch fehlte waren Geld und villeicht Arbeitskräfte, aber die meißte Gestaltung und geistige Arbeit kommt höchstwarscheinlich von Johan Andersson.
Da lehnste dich aber mit sehr wenig Wissen sehr weit aus dem Fenster...

So tiefgreifende Änderungen am Treibergerüst erfordern einen großen Aufwand für den Hardwarehersteller. Der muss das ganze Zeug nämlich implementieren, debuggen und eben auch performant machen. Eine Idee zu haben, was man denn haben will ist da natürlich sehr sehr hilfreich, aber die muss man auch erstmal implementieren, und das ist alles andere als mal eben kurz gemacht bei so tiefgreifenden Änderungen.

Das hat schon seine Gründe, das er an die Hersteller ran gegangen ist. Alleine hätte er da rein gar NICHTS machen können.;)
 
AW: Mantle "entfesselt" Crossfire: AMD verabschiedet sich vom AFR-Modus - Mikroruckler adieu?

Man liest ja nur Gutes über Mantle, aber abwarten. Am Ende knallt die Peitsche :D
 
AW: Mantle "entfesselt" Crossfire: AMD verabschiedet sich vom AFR-Modus - Mikroruckler adieu?

Da lehnste dich aber mit sehr wenig Wissen sehr weit aus dem Fenster...

So tiefgreifende Änderungen am Treibergerüst erfordern einen großen Aufwand für den Hardwarehersteller. Der muss das ganze Zeug nämlich implementieren, debuggen und eben auch performant machen. Eine Idee zu haben, was man denn haben will ist da natürlich sehr sehr hilfreich, aber die muss man auch erstmal implementieren, und das ist alles andere als mal eben kurz gemacht bei so tiefgreifenden Änderungen.

Das hat schon seine Gründe, das er an die Hersteller ran gegangen ist. Alleine hätte er da rein gar NICHTS machen können.;)

Das stimmt schon und du hast vollkommen Recht aber was ich sagen wollte ist das Johan Andersson das einzigartige und unaustauschbare Element ist. Damit Mantle entstehen hat können hätte es entweder AMD oder Nvidia sein können, wäre egal wer von den 2, aber Johan Andersson (und eventuell sein Originalteam) ist in der ganzen Sache das Element das man nicht ausstauschen oder ersetzen kann. Deswegen denke ich gebührt im die meiste Ehre.
 
AW: Mantle "entfesselt" Crossfire: AMD verabschiedet sich vom AFR-Modus - Mikroruckler adieu?

SFR kommt zurück.

Bei BF4 in der x64 Bit Fassung geht da mal gar nichts, ruckelt alles im AFR, egal was ich bei RadeonPro einstelle.
Wenn das mit Mantle besser wird, kann ich beinahe auf 200% Scaling hochstellen.

Mantle gefällt mir besser und besser. Mal schauen ob ich bis zu den 20nm Karten warten kann mit Tripple CF:D
 
AW: Mantle "entfesselt" Crossfire: AMD verabschiedet sich vom AFR-Modus - Mikroruckler adieu?

Wenn ich das richtig verstanden habe, bietet Mantle den Entwicklern diese Möglichkeit bzw. ist das so nicht fest implementiert. Das würde dann aber auch bedeuten, dass die Entwickler für die entsprechende Multi GPU Unterstützung sorgen müssen und nicht mehr die Grafikkartenhersteller per Profil im Treiber. Das kann also auch ein zweischneidiges Schwert sein.
 
AW: Mantle "entfesselt" Crossfire: AMD verabschiedet sich vom AFR-Modus - Mikroruckler adieu?

Umm - ich will die Jubelstimmung ja nicht unnötig mit einer vermutlich blöden Frage stören, aber:

Durch den verringerten Overhead und die niedrigeren Latenzen soll es möglich sein, die Warteschlangen auf verschiedene GPUs zu verteilen, wobei die Speicherkontrolle trotzdem als "tricky" bezeichnet wird - hier dürfte das PCI-Express-Interface in gewisser Maßen limitieren

Ist es nicht so, dass auch heute, so komplett mit ohne Mantle und so, die zu geringe Bandbreite zwischen den GPUs der einzige Grund ist, warum man AFR überhaupt nutzt???

Es gibt genug Lösungen, die SFR ermöglichen würden, afaik schlummern sogar in den DX und OGL Treibern noch die entsprechenden Fragemente aus Mitte des letzten Jahrzehnts, aber solange diverse Effekte verlangen, dass jede GPU die gesamte Szene kennt, nützen diese arg wenig, weil eben kein direkter Zugriff in den VRAM der zweiten Karte möglich ist. Dem letzten Mantle-Thread zu Folge gibt es zwar wohl weiterhin einige Spiele, in denen so 50% Skalierung möglich ist, aber in anderen sinds eben auch nur 5%. Und wer bitte schön würde für durchschnittliche 10-20% mehr Leistung 200% Verbrauch, 200% Kosten, 200% Hitzeentwicklung, 200% Platzbedarf und eine deutliche Lärmsteigerung in Kauf nehmen wollen?
 
AW: Mantle "entfesselt" Crossfire: AMD verabschiedet sich vom AFR-Modus - Mikroruckler adieu?

Ist es nicht so, dass auch heute, so komplett mit ohne Mantle und so, die zu geringe Bandbreite zwischen den GPUs der einzige Grund ist, warum man AFR überhaupt nutzt???

Es gibt genug Lösungen, die SFR ermöglichen würden, afaik schlummern sogar in den DX und OGL Treibern noch die entsprechenden Fragemente aus Mitte des letzten Jahrzehnts, aber solange diverse Effekte verlangen, dass jede GPU die gesamte Szene kennt, nützen diese arg wenig, weil eben kein direkter Zugriff in den VRAM der zweiten Karte möglich ist. Dem letzten Mantle-Thread zu Folge gibt es zwar wohl weiterhin einige Spiele, in denen so 50% Skalierung möglich ist, aber in anderen sinds eben auch nur 5%. Und wer bitte schön würde für durchschnittliche 10-20% mehr Leistung 200% Verbrauch, 200% Kosten, 200% Hitzeentwicklung, 200% Platzbedarf und eine deutliche Lärmsteigerung in Kauf nehmen wollen?
Öhm, nee, ich hab das immer anders verstanden:
Man nutzt zur Zeit nur noch AFR, weil das die einzige Möglichkeit ist, das alles korrekt berechnet wird.
Würde man zb SFR nutzen und sagen, GPU1 berechnet die obere Bildschirmhälfte und GPU2 die untere, dann würde zB die Beleuchtungsberechnungen der einen GPU auf der anderen fehlen und vice versa, was dazu führt, das die beiden Bildschirmhälften komplett anders aussehen würden von der Beleuchtung her, zB oben Blaustich, wegen Himmel und unten Sepia, wegen Erdtönen. Das ist doch so ähnlich wie Deffered Rendering und AA, was auch nur sehr schwer umzusetzen ist, weil es sich gegenseitig beeinflussen würde, zumindest, so wie es verstanden habe.

Ich denke nach wie vor, es wäre eine gute Lösung verschiedene Bereiche auf die GPUs auf zu teilen, zB GPU1 macht die Geometrie, GPU2 Texturen und Beleuchtung und dann GPU1 den Postprozess...
 
AW: Mantle "entfesselt" Crossfire: AMD verabschiedet sich vom AFR-Modus - Mikroruckler adieu?

Da hast du was unvollständig verstanden.
Richtig ist: Jede GPU muss das ganze Bild kennen, um z.B. die Beleuchtung richtig zu berechnen.
Falsch ist: Deswegen kann SFR überhaupt nicht funktionieren.
SFR funktioniert sehr wohl - aber eben unter der Bedingung, dass entweder alle Geometrie, Licht,.. Berechnungen auf beiden GPUs durchgeführt werden (-> nur die pro-Pixel-Berechnungen werden parallel ausgeführt, nur dieser Teil der Berechnungszeit halbiert) oder aber die GPUs ihre Ergebnisse untereinander austauschen (was noch lahmer wäre). Unterm Strich ist deswegen der Leistungsgewinn durch eine zweite GPU bei SFR so klein, dass es sich nicht lohnt. (Erst recht nicht für Balkenliebhaber in der Marketingabteilung)

Nur: Daran dürfte auch Mantle nichts ändern, denn die Berechnungen bleiben ja die gleichen und die Ergebnisse haben weiterhin keine ausreichend schnelle Möglichkeit, zur zweiten GPU zu kommen. Genau davon sprach ich.
 
AW: Mantle "entfesselt" Crossfire: AMD verabschiedet sich vom AFR-Modus - Mikroruckler adieu?

Naja villeicht verwenden die mal was komplett neues oder haben sich da schon was überlegt?
Im Endeffekt können wir nur spekulieren, sobald es draußen ist können wir wirklich sagen was Sache ist und wieviel es wirklich bringt, ich aber werde dem ganzen optimistisch entgegensehen.
 
AW: Mantle "entfesselt" Crossfire: AMD verabschiedet sich vom AFR-Modus - Mikroruckler adieu?

Bis auf deinen letzten Satz stimmt das soweit im großen und Ganzen. Von 200% Verbrauch usw kann man aber nicht ausgehen bei einer schlechten Skalierung.

Was du aber absolut richtig erkannt hast ist das PRoblem der Aufgabenstellungen, die Informationen über den Rest der Szene benötigen. Hier fällt Kommunikation an, wobei wirklich die Latenz das kritischere ist, und eher weniger die Bandbreite. Zumindest mit PCI-E 3.0 16x sollte sich das Problem in Grenzen halten.

Keine Ahnung, wie DX und OpenGL mit MultiGPU umgehen, aber ich gehe stark davon aus, dass die Datentransfers über die CPU laufen, und nicht direkt über die GPUs. Das bricht einem dann halt das Genick.

Zumindest bei früheren GPUs wäre dass dann etwa so abgelaufen:

GPU1/2 erstellt Daten -> GPU2/1 braucht Daten der jeweils anderen Karte -> GPU 1/2 schreiben Daten per DMA über PCI-E in einen Buffer im RAM der CPU -> auf der CPU wird ein Interrupt ausgelöst -> CPU löst einen Kernel-Trap aus -> CPU kopiert Daten nochmals innerhalb des CPU-RAMs (dieser Schritt kann eventuell ausfallen) -> CPU schreibt Daten per DMA über den PCI-E in den RAM der GPU -> GPU löst, wenn die Daten geschrieben sind, einen Interrupt auf der CPU aus -> CPU gibt den entsprechenden Prozess in die Queue der GPU -> GPU fängt an das PRoblem zu bearbeiten

Das ist halt SCHNARCH langsam....

Die heutigen GPUs sollten aber eigentlich RDMA mit zero-Copy machen können. Also nicht mal two-sided Communication, sondern one-sided Communication

GPU1/2 erstellen Buffer im RAM und tauschen Informationen über die Größen der Buffer und die Virtuellen/physikalischen Adressen zu den Buffern über die CPU aus. Das kann man alles zum Zeitpunkt des Programmstarts machen!

GPU1/2 erstellt Daten -> GPU1/2 schreiben per DMA über PCI-E die Daten in den vorher definierten Speicherbeireich der jeweils anderen GPU -> GPU 2/1 pollt entweder darauf, dass die Daten ausgetauscht wurden, oder wartet auf einen Interrupt über einen PCI-E Interrupt (MSI(-X)) -> GPU 2/1 verarbeitet entweder die Daten direkt, da in einer! der Queues schon der Auftrag von der CPU auf die Bearbeitung wartet, oder -> GPU löst Interrupt auf der CPU aus -> CPU schiebt Prozess in Queue -> GPU startet.

Man kann das mit dem was heutige GPUs alles an Hardware schon eh mit rum schleppen also deutlich beschleunigen. Man muss es eben "nur" implementieren und nutzen...

Ruyven, ich hatte mich ja im AMD-Review-Topic auch schon ausführlich geäußert. Das hier schlägt im Prinzip auch mit in diese Kerbe. Das lässt sich wunderbar kombinieren, bzw besser gesagt er ergänzt sich und ist ein logischer Schritt. Wenn ich mir so das anhöre, was jetzt über Mantle neu bekannt geworden ist, kann das schon sein, dass die da im Prinzip ziemlich genau das machen, was ich mir auch vorgestellt habe.

Die Graphics-Branche ist hier nur scheinbar etwas konservativer und langsamer, da man sich nicht auf einen gemeinsamen Nenner einigen kann. Ein bischen wie bei OpenCL. Gerade die AMD GPUs können eigentlich viel mehr als die Software-APIs zugänglich machen, weshalb man so manche alten Krücken nutzen muss um etwas zu erledigen, was heute eigentlich viel einfacher und eleganter lösbar wäre.

Was so ca möglich wäre, zeigt nVidia teilweise mit ihrer neuesten CUDA-Version. Das ist halt ein propritärer Standard, und Sie müssen auf niemanden Rücksicht nehmen. GPUDirect2.0 lebt ja z.B.unteranderem von Zerocopy. ;) Das ist schon ne feine Sache, aber an sich eigentlich nichts revolutionäres. Das ist eigentlich alles längst überfällig... Da wird sich in den nächsten 1-2 Jahren SEHR viel tun, auch von anderen Herstellern.

DA wird der eine oder andere noch die Hucke voll bekommen, weil die Konkurrenz nachzieht mit Features, oder diese sogar noch übertrifft. Aber lasst euch überraschen ;)
 
AW: Mantle "entfesselt" Crossfire: AMD verabschiedet sich vom AFR-Modus - Mikroruckler adieu?

Microruckler was ist das, kann man das essen?

Ne Spaß beiseite, tolle News, erspart mir mein Limiter. :D
 
AW: Mantle "entfesselt" Crossfire: AMD verabschiedet sich vom AFR-Modus - Mikroruckler adieu?

Naja villeicht verwenden die mal was komplett neues oder haben sich da schon was überlegt?

Man soll nichts ausschließen. Aber ich halte es für unwahrscheinlich, dass man auch mit noch soviel Überlegungen etwas daran wird ändern können, dass auf GPU A berechnete Informationen sich nicht im VRAM von GPU B befinden und da auch nicht hinkönnen, solange es kein Interface zwischen den GPUs gibt, dess Bandbreite sich in Größenordnungen bewegt, die man sonst nur von Grafikspeicher kennt.


Bis auf deinen letzten Satz stimmt das soweit im großen und Ganzen. Von 200% Verbrauch usw kann man aber nicht ausgehen bei einer schlechten Skalierung.

Wieso nicht? Die schlechte Skalierung hat man ja nicht, weil die GPUs Däumchen drehen, sondern weil eine GPU Berechnungen durchführen muss, die die andere parallel auch berechnet. Das bedeutet doppelten Aufwand, in diesem Teil der Pipeline aber keinerlei Geschwindigkeitsgewinn gegenüber Single-GPU.

Keine Ahnung, wie DX und OpenGL mit MultiGPU umgehen, aber ich gehe stark davon aus, dass die Datentransfers über die CPU laufen, und nicht direkt über die GPUs. Das bricht einem dann halt das Genick.

Afaik machen DX und OpenGL da rein gar nichts. Die sprechen einen Multi-GPU-Verbund wie eine einzelne Grafikkarte an - der Rest bleibt dem Treiber überlassen, der somit schon heute all die Möglichkeiten hat, die du als Potential für die Zukunft ansiehst. Dual-GPU-Grakas sind afaik sogar in der Lage, die interne Kommunikation über den PCIe-Switch laufen zu lassen, ohne den PCIe-Controller in der CPU zu belasten.

Ich persönlich glaube aber, dass du die Bandbreite unterschätzt. Für Beleuchtungsberechnungen braucht GPU 2 eben nicht nur ein paar Daten von GPU 1 (und das mit möglichst wenig Latenz), sondern GPU 2 braucht die komplette Levelgeometrie und sämtliche Lichtquellen, die GPU 1 schon berechnet hat, denn es gibt meines Wissens nach kein Format, mit dem GPU 1 "nur" das Lichtfeld als solches übergeben könnte, dass vom GPU1-Teil des Levels ausgeht. Stattdessen müssen sämtliche Grundlagen des Beleuchtungsprozesses eingespeißt werden und dann von GPU2 z.T. noch einmal nachvollzogen werden, weil möglicherweise Verschattung aus Level-Teil1 sich nur in Teil2 auswirken. Und wenn jetzt noch Reflektionen hinzukommen, kann es sein, dass GPU2 anschließend ein vergleichbares Paket zurückschicken muss - das bei multiplen Reflektionen oder Streuung ggf. dazu führt, dass GPU1 noch einmal Teile der zuvor übergebenen Daten aktualisieren muss,...
Oder, komplett anderes Beispiel: Auf der GPU generierte Geometrie, z.B. Tesselation oder Displacement-Mapping auf Objekten, die sich durch beide Bildhälften ziehen. Ein Torbogen kann leicht das Level überspannen und besteht vielleicht nur aus einer Tesselationsanweisung und seinen Endpunkten - die nicht in den Aufgabenbereich der gleichen GPU fallen.

Ich lass mich da gerne eines besseren belehren, aber ich glaube nicht, dass man die Interaktionen zwischen zwei Levelteilen so klein machen kann, dass PCIe damit locker fertig wird. Nicht ohne Grund redet z.B. auch niemand von mehr von Tile Based Rendering, obwohl gerade Iris Pro und die Xbox 1 massiv davon profitieren könnten. Wenn es denn so ohne weiteres möglich wäre, eine Szene häppchenweise zu berechnen.


Soweit ich weiß, soll man auch beim Oculus Rift, pro Auge eine Grafikkarte nutzen können wenn man 2 Karten im CF betreibt. Sozusagen für jedes Äuglein eine Karte :D

Das sollte sogar ohne explizites CF möglich sein, denn da berechnen dann ja wirklich beide GPUs das komplette Bild. Mit ein bißchen Trixerei könnte man vermutlich sogar ein Auge von Nvidia und das andere von AMD versorgen lassen (Fanboys sähen dann natürlich nur noch 2D :ugly: ). Aber entsprechend mies wäre auch die Skalierung einer derartigen Lösung:

De facto hat jede GPU die volle Arbeit, die ein Bild mit der hälfte der Gesamtauflösung erfordert. Also wo eine Single-GPU-Karte 1920x1080 berechnet, hat eine Hälfte eines Päärchens nur 970x1080 zu bearbeiten. Aber zwischen HD und FHD liegt eben nicht unbedingt ein großer FPS-Unterschied.
(Für die Rift ist es natürlich so oder so die einzige Option, AFR-Lag wäre intollerabel)
 
Zurück