RX-480-Crossfire vs. GTX 1070: Multi-GPU lohnt sich nach Test kaum

von einem der sich in der Materie nicht auskennt ist mir relativ Wurst. Es gibt soviele die ihren Senf zu Themen schreiben ohne bzw. mit laienhaften Hintergrundwissen.

Ganz ehrlich: Es ist sowas von unnötig eine Diskussion mit solchen Aussagen zu beginnen...Das ist Schulhofniveau.
Ich dachte, du hättest mittlerweile kapiert, dass ich mich Jahrelang sehr intensiv mit dem Thema M-GPU beschäftigt habe.

Das mit Aufwand zu erklären würde meinen zeitlichen Rahmen sprengen. Befasse dich einfach mit den Abstract Layern von Microsoft die vor kurzem veröffentlicht wurden : DirectX-Graphics-Samples/Samples/Desktop/D3D12LinkedGpus at master * Microsoft/DirectX-Graphics-Samples * GitHub. Sie bieten eine relativ einfache Möglichkeit MGPU Support zu integrieren.

In dem Link geht es vor allem um AFR, also Alternate Frame Rendering. das ist die schlechteste Methode, um GPUs gemeinsam rendern zu lassen, denn dabei entstehen Mikroruckler.

Das mit Aufwand zu erklären würde meinen zeitlichen Rahmen sprengen.

Ich habe Zeit. Also los. Du kennst dich doch so toll aus :schief:
Ich würde jedenfalls eher sagen, dass es sich überhaupt nicht beziffern lässt, ob und wie viel leichter es für die Entwickler ist, M-GPU unter DX12 zu implementieren.

Das ein Teil der aktuellen Directx 12 Spiele jetzt noch kein MGPU unterstützen heist nicht dass es nicht noch mit nachfolgenden Patches implementiert wird.

Man kann aber auch nicht davon ausgehen, dass es nachgepatcht wird. Im Moment gibt es keinen Beleg und keine Hinweise darauf, dass sich der M-GPU Support in DX12 Games in irgendeiner Art und Weise gegenüber der jetzigen Situation verbessern wird. Aber dass Spiele wie Hitman unter DX12 ohne M-GPU Support kommen, ist ein Fingerzeig, dass es auch in Zukunft AAA Games ohne M-GPU Support geben wird.

Es gibt nur leider genügend die den Mist dann glauben bzw. verlassen sich darauf das es wie hier ein seriöser Test ist was er nicht ist.

Schon klar. Der Test ist nicht seriös, weil er nicht zu deiner Meinung passt. Du rätst ja Leuten allen Ernstes dazu, lieber zwei Radeon 480 zu verbauen, als eine GTX1080, was ohne jeden Zweigfel absoluter Quatsch ist. Und deswegen passt dir das Ergebnis dieses Tests natürlich nicht, denn er widerlegt ja deine Meinung und dann müsstest du leider eingestehen, dass du wohl doch nicht so viel Ahnung hast, wie du es dir seber einreden willst. Denn bisher bestehen deine Posts nur aus heißer Luft garniert mit persönlichen Angriffen, um das mal so klar und deutlich zu sagen.
 
Zuletzt bearbeitet:
1tens hab ich nicht von deinem zeitlichen Ramen gesprochen sondern von meinem. 2tens ein MGPU System zusammenzubauen heist nicht dass du dich mit der Programmierung auskennst. Hardware != Software.

Und dir zu helfen deine Deffiziete Auszugleichen dafür fehlt mir die Zeit als auch Lust. Soviel sei dir aber gesagt es ist jetzt eine Möglichkeit vorhanden die vorher 1tens nicht vorhanden war und vorallem nicht einheitlich verbessert werden konnte.
Die Problem mit Mikrorucklern wie von vor 2 Jahren sind bei entsprechender Programmierung und Hardware Konfiguration nicht mehr das Problem.

Jeder hat quasie sein eigenes Süppchen gekocht jetzt hat jeder ein Kochbuch zur Hand und kann die Rezepte nach seinen Bedürfnissen anpassen. Man spart sich quasi das Kochbuch zu schreiben was einen sehr großen Aufwand erfordert hatte. 1/2 Arbeit.

Natürlich wird es Spiele geben vorallem von Nvidia unterstützt die keinen MGPU support bieten werden. Ob ich das aber möchte bleibt mir als Käufer überlassen. Natürlich habe ich dann aber auch den Nachteil dass wenn ich das Spiel in 4k spielen möchte mit vollen Details, wo selbst eine GTX 1080 ihre Probleme hat nur durch den Kauf einer besseren Grafikkarte mein Ziel erreiche und nicht die Möglichkeit habe durch einfaches CF/SLI zum gewünschten Ergebnis zu kommen. Weitere Ausführungen kannst du hierzu in meinen Post zuvor nachlesen. Bin es Leid mich zu wiederholen.

Dein letzter Absatz ist nur dein typischen Bla Bla Bla. Und ja ich rate Leuten lieber 500,-€ für ein CF System auszugeben mit annähernd gleicher Leistung bei CF unterstützen Spielen bzw. für VR oder DM anstatt eine GTX 1080 für 650,-€ zu kaufen. Denn plus G-Sync Monitor +100,€ sind es gleich mal 250,-€ mehr Aufwand. Zwar habe ich vielleicht nicht aktuell einen Gleichwert aber für die Zukunft schon. Auch macht es mehr Sinn mit Undervolting solchen Karten später in ein HTPC oder dgl. zu recyclen als eine GTX 1080.

Und Hitman interressiert mich z.B. nicht da spiele ich lieber Battlefield 1 das CF unterstützt.
 
Zuletzt bearbeitet:
Und dir zu helfen deine Deffiziete Auszugleichen dafür fehlt mir die Zeit als auch Lust.

Ja, weil du es nicht kannst. Von Spiele-Programmierung hast du 0,0 Ahnung (so viel war und ist aus deinen Kommentaren abzulesen), tust hier aber so als ob. Und das ist ziemlich arm. Also hör auf dich hier so aufzuspielen.

Die Problem mit Mikrorucklern wie von vor 2 Jahren sind bei entsprechender Programmierung und Hardware Konfiguration nicht mehr das Problem.

Das ist falsch. Bei AFR treten IMMER Mikroruckler auf, im Vergleich zu einer Single-GPU. Das lässt sich anhand von Messungen einwandfrei belegen. Das ist bei dieser Render-Methode nun mal so und wird sich auch nicht ändern.

Natürlich wird es Spiele geben vorallem von Nvidia unterstützt die keinen MGPU support bieten werden.

So ein Blödsinn. Hast du dafür mal Belege, dass NVIDIA MGPU Support blockiert?

Dein letzter Absatz ist nur dein typischen Bla Bla Bla. Und ja ich rate Leuten lieber 500,-€ für ein CF System auszugeben mit annähernd gleicher Leistung bei CF unterstützen Spielen bzw. für VR oder DM anstatt eine GTX 1080 für 650,-€ zu kaufen. Denn plus G-Sync Monitor +100,€ sind es gleich mal 250,-€ mehr Aufwand.

Eine einzelne GTX1080 ist gegenüber zwei RX480 immer die bessere Wahl. Gleiches gilt auch für eine 1070.

Zum Beispiel hier:

AMD Radeon RX 480 CrossFire Review | techPowerUp


"At just $398, about the same price as the cheapest GeForce GTX 1070 you can find, or $478 for a pair of 8 GB cards like those we have, Radeon RX 480 CrossFire is not a viable solution if you plan to buy two cards upfront. When averaged over all our games, it is consistently slower than a single GeForce GTX 1070 at all the resolutions that matter - 1080p, 1440p, and 4K. Instead of buying two cards upfront, you're much better off putting your monies into a single GTX 1070, not just for better performance but to dodge the spectre of application multi-GPU support, which continues to haunt both SLI and CrossFire."

Und das ist nur ein Beispiel. In jedem Test, den man zu diesem Thema findet, werden eher eine GTX1070/1080 empfohlen anstatt zwei RX480.
Aber die Tester und Redakteure haben natürlich, genauso wie ich und andere hier im Forum, keine Ahnung. Du bist der einzige der den Durchblick hat, nicht wahr? Träum ruhig weiter

Und Hitman interressiert mich z.B. nicht da spiele ich lieber Battlefield 1 das CF unterstützt.

Was dich interessiert oder nicht, ist in diesem Zusammenhang vollkommen irrelevant. Andere interessieren sich für Hitman und diejenigen würden sich dann doch sehr ärgern, wenn sie zwei RX480 im Rechner haben, und ihnen die zweite Karte rein gar nichts in diesem Spiel bringt. Alleine dieses Beispiel zeigt, wie sinnlos es ist, sich zwei Midrange Karten in den Rechner zu stecken.
 
Zuletzt bearbeitet:
Sobald man Regen bei pCars aktiviert hat werden die Karten auch unnormal heißer als bei jedem anderen Spiel. :ugly:
Also wenn es regnet sollten die Karten normalerweise kühler werden ...:D
Entscheidend dafür ist die GPU-Auslastung & genutzte Kühlung und wenn diese permanent am Limit rödeln, dann können Tempwerte_XY schon entstehen.
01%20sm_B-%29.gif


Die laufen immer auf Anschlag; ...Also bei mir läuft das Spiel auf jeden Fall im Grafiklimit und nicht im CPU Limit; ...Ich hab meinen 3930k auch nur mit Enhanced Turbo auf 6x3800 anstatt 6x3500 laufen.
Bei solch einem niedrigen SandyBridge-Takt kann ich das ja kaum glauben, dass dein SLI-Gespann mit zwei 1080er permanent im Grafiklimit verweilt. Wie hoch sind denn in etwa die Frames im Regen und mit 28KI-Fahrer & kannst Du das interessehalber belgen, eventuell mit diverse Pics oder besser noch einem Filmchen?
Bedenke, selbst ein Haswell 8Kerner/16Threader @4,4GHz kann eine TitanX-Pascal @2160p nicht dauerhaft bei starkem Regen und ~21KI-Fahrer auslasten. HisN hat zwar kein AA aktiviert, aber ein 1080er SLI-Gespann würde bei adäquater
"CPU-Befeuerung" auch entsprechende Frames auf den Schirm zaubern & das AA (bis hoch) ist bei pCars recht schonend bzw. nicht soo ressourcenfressend.
 
Also wenn es regnet sollten die Karten normalerweise kühler werden ...:D
Entscheidend dafür ist die GPU-Auslastung & genutzte Kühlung und wenn diese permanent am Limit rödeln, dann können Tempwerte_XY schon entstehen.
01%20sm_B-%29.gif



Bei solch einem niedrigen SandyBridge-Takt kann ich das ja kaum glauben, dass dein SLI-Gespann mit zwei 1080er permanent im Grafiklimit verweilt. Wie hoch sind denn in etwa die Frames im Regen und mit 28KI-Fahrer & kannst Du das interessehalber belgen, eventuell mit diverse Pics oder besser noch einem Filmchen?
Bedenke, selbst ein Haswell 8Kerner/16Threader @4,4GHz kann eine TitanX-Pascal @2160p nicht dauerhaft bei starkem Regen und ~21KI-Fahrer auslasten. HisN hat zwar kein AA aktiviert, aber ein 1080er SLI-Gespann würde bei adäquater
"CPU-Befeuerung" auch entsprechende Frames auf den Schirm zaubern & das AA (bis hoch) ist bei pCars recht schonend bzw. nicht soo ressourcenfressend.
Nur laufen andere Spiele auch mit 99% Auslastung auf beiden Karten und machen nicht so viel Wärme. :D

Ich hab grade mal ein paar schnelle Tests gemacht und es ist wirklich krass Unterschiedlich je nachdem wie die Bedingungen sind. :wow:

2160p, Ultra, MSAA, 32 Bots, Nordschleife, Unwetter:
Freie Fahrt vorne weg -> 90-110 FPS, GPUs 99%
Mitten drin so Platz 15 mit viel Gischt und vielen Autos um einen rum -> 65-75 FPS, GPUs 55-70%
Letzter Platz, Feld fährt etwas vorraus-> 80-90 FPS, GPUs 70-80%

Ansich ist es aber ziemlich Mumpe ob er mehr als 60 FPS liefert, weil ich im normalen Spielbetrieb vsync an hab. :D Wichtig ist nur das er die 60 FPS hält.
 
... Junge Junge du schließt von einer schlechten Implementierung gleich darauf das MultiGPU schlecht ist. Schau dir mal Werte von Ashes of the Singularity an.

Mit Spielen habe wir zwar wenig am Hut aber VR wird nicht nur für Spiele eingesetzt. Und stell dir vor dort wird genauso gerendert wie bei Spielen auch. Ich programmiere zwar nicht mehr selbst aber ich muss mich zumindest immernoch auf dem aktuelllen Stand der Technik halten damit ich zukünftige Projekte planen kann.

Wenn du dich hier schon aufspielen willst dann lern erstmal was ein Abstract Layer ist bzw. fang mit den Basics der Objektorientierten Programmierung an, dann würdest du auch verstehen warum die Entwicklerstudios weniger Arbeit haben. Und ich werde mir nicht dir die Zeit nehmen dir alles zu erklären für welches manche mehrere Jahre brauchen. Geschweige den dir Technicken verraten die wir im Betrieb nutzen und mit denen wir unser Geld verdienen. Und es gibt Techniken die Frametimes vor dem Senden an den Monitor anzupassen damit keine Mikroruckler enstehen auch bei AFR.

Wir haben im Vergleich zu den Spieleentwicklern natürlich einen Vorteil weil wir für eine bestimmte Hardwarekonfigurartion programmieren und nicht für 1000ende verschiedene. Aber allein dadurch kann ich besser beurteilen was mit CF/SLI möglich ist. Und eine Skalierung von +1,9 ist auf jeden Fall zu erreichen.

Wenn sich das Studio von Hitman die Arbeit spart MGPU zu implementieren dann kann ich schon davon ausgehen dass der Titel bei 4k und vollen Details zumindest bei heutigem Stand der Technik nicht ruckelfrei läuft. Wie gesagt selbst die GTX 1080 hat dort massive Probleme. Und so wie 4k Fernsehen langsam aber sicher kommt wird auch Gaming in 4k kommen.

Für so einen Titel gebe ich für meinen Teil dann kein Geld aus bzw. kauf es mir erst wenn es reduziert ist da er quasi jetzt schon veraltet ist.

Oder ich muss eine komplette Neuanschaffung einer High-End Grafikkarte schon mit einplanen .
 
@cook:
Die Diskussion ist sinnlos, Speedi glaubt fest daran, dass in der Zukunft alles anders sein wird.
Dem kannst du mit Argumenten von heute nicht beikommen.
 
Wenn du dich hier schon aufspielen willst dann lern erstmal was ein Abstract Layer ist bzw. fang mit den Basics der Objektorientierten Programmierung an, dann würdest du auch verstehen warum die Entwicklerstudios weniger Arbeit haben. Und ich werde mir nicht dir die Zeit nehmen dir alles zu erklären für welches manche mehrere Jahre brauchen.

Du hast doch selber keinen Plan weswegen du es auch nicht erklären kannst. Ich kann mich auch hier hinstellen und irgendwelche Begriffe in die Runde schmeißen, um zu suggerieren, dass ich mich auskenne. Und dann, wenn andere nach Erklärungen fragen, antworten, dass ich es nicht erkläre. Nur mache ich sowas nicht.

Und es gibt Techniken die Frametimes vor dem Senden an den Monitor anzupassen damit keine Mikroruckler enstehen auch bei AFR.

Welche Techniken sind das konkret? Kläre uns auf. Aber lass mich raten: Auch darauf wirst du nicht näher eingehen...
Es gibt höchstens Wege, um bei AFR MR zu lindern, nicht aber, um sie komplett zu unterbinden.

Wir haben im Vergleich zu den Spieleentwicklern natürlich einen Vorteil weil wir für eine bestimmte Hardwarekonfigurartion programmieren und nicht für 1000ende verschiedene. Aber allein dadurch kann ich besser beurteilen was mit CF/SLI möglich ist. Und eine Skalierung von +1,9 ist auf jeden Fall zu erreichen.

So eine Saklierung erreicht man nur im Idealfall. In der Praxis liegt sie im Schnitt meistens ein ganzes Stück darunter.

Wenn sich das Studio von Hitman die Arbeit spart MGPU zu implementieren dann kann ich schon davon ausgehen dass der Titel bei 4k und vollen Details zumindest bei heutigem Stand der Technik nicht ruckelfrei läuft. Wie gesagt selbst die GTX 1080 hat dort massive Probleme. Und so wie 4k Fernsehen langsam aber sicher kommt wird auch Gaming in 4k kommen.

Also bei mir läuft es auf der 1080 (mit hohen Settings, nicht Ultra) ruckelfrei. Aber was weiß ich schon....

Für so einen Titel gebe ich für meinen Teil dann kein Geld aus bzw. kauf es mir erst wenn es reduziert ist da er quasi jetzt schon veraltet ist.

Du redest einen Mist. M-GPU Unterstützung ist doch keine Indikator dafür, ob ein Game auf moderner Technik basiert, oder nicht. Und wenn du davon deine Kaufentscheidung abhängig machst, tust du mir echt leid. Aber gut, in solchen Games guckst du ja dann mit deinen beiden RX480 ziemlich in die Röhre. daran kannst du dich aber schonmal gewöhnen, denn auch in Zukunft wird nicht jeder AAA mit MGPU Support kommen.


PS:

Mir war da noch was In Erinnerung aus einem anderen Thread geblieben. Um mal aufzuklären.

Aus diesem Thread:

Mit Spielen habe wir zwar wenig am Hut aber VR wird nicht nur für Spiele eingesetzt. Und stell dir vor dort wird genauso gerendert wie bei Spielen auch. Ich programmiere zwar nicht mehr selbst aber ich muss mich zumindest immernoch auf dem aktuelllen Stand der Technik halten damit ich zukünftige Projekte planen kann. [...]
Wir haben im Vergleich zu den Spieleentwicklern natürlich einen Vorteil weil wir für eine bestimmte Hardwarekonfigurartion programmieren und nicht für 1000ende verschiedene. Aber allein dadurch kann ich besser beurteilen was mit CF/SLI möglich ist.


Zukünftige Projekte planen. Ähm, ja:

Warum spreche ich das an ? Nun da zu mir einige junge Leute kommen und ihr hart verdientes(erspartes) Geld für eine GTX 1080 ausgeben wollen. Ich könnte es natürlich wie Nvidia machen das Geld nehmen und gut ist. Da ich aber möchte das meine Kunden auch noch nach einem Jahr sagen der Kauf hat sich gelohnt und es nicht bereuen, mache ich das nicht und versuche hier im Vorfeld schon einige aufzuklären.

In dem anderen Thread hast du rumgeprahlt und User runtergemacht, weil du Hardware verkaufst und diese als Selbstständiger sogar von der Steuer absetzen kannst. Da war, bei genau dem gleichen Thema, von dir nicht Mal Ansatzweise die Rede davon, dass du dich mit Programmierung auskennst. Und hier stellst du dich plötzlich als Programmierer hin? Wer's glaubt, wird selig.

Du bist und warst nicht in der Softwareentwicklungsbranche tätig, sondern du verkaufst Hardware (Wobei: Ob das dann stimmte? Fraglich). Und du kennst dich genauso wenig näher mit der Programmierung von Spielen aus, wie ich es tue. Hier spielst du dich aber auf, wie der große Zampano. Das ist wirklich albern.

@cook:
Die Diskussion ist sinnlos, Speedi glaubt fest daran, dass in der Zukunft alles anders sein wird.
Dem kannst du mit Argumenten von heute nicht beikommen.

man soll die Hoffnung ja nicht aufgeben ;-)
Und wenn ich lese, was er so von sich gibt, unser selbstständiger Herr Hardwareverkäufer, dann kann ich einfach nicht anders.
 
Zuletzt bearbeitet:
Als ein Beispiel wo MultiGPU durchaus Sinn macht ist zum Beispiel VR dort ist es vorteilllhafter wenn eine Grafikkarten je ein Auge berechnet. Und meines erachtens wird VR sowieso den herkömmlichen Monitor ablösen.
*gähn* Das haben wir so schon vor >10 Jahren genutzt. Nichts Neues. Und außer für ein paar Nischen-Anwendungen ziemlich irrelevant.

Und falls du es noch nicht mitbekommen hast: NVIDIA kann mit den Pascal-Chips die entsprechenden Doppelbilder für VR in Hardware in einem Durchgang berechnen, womit so eine GPU wieder deutlich schneller ist als zwei GPUs, die jeweils zu 95% die identische Szene berechnen (eben nur aus den minimal unterschiedlichen Blickwinkeln). Dafür baut sich dann doch keiner zwei schwachbrünstige GPUs ein.

Nvidia GeForce GTX 1080 Simultaneous Multi-Projection & Async Compute

Ich habe auch nicht nur von SingleDies geschrieben auf unseren Servern haben wir z.B. mehrfach 4 x XEON E5-4610 laufen. Dort funktoniert Multithreading auch stell dir dass mal vor .....
Ja und hast du dir mal angeschaut, wie groß die Chips sind, damit da schlussendlich 6 Kerne verbaut sind? Da gehen >90% der Chipfläche für Cache, Synchronisation & Co drauf, während die eigentlichen Rechnenkerne minimal klein sind.

So und jetzt das ganze bitte mal mit den heute üblichen >2000 Rechenkernen bei einer GPU. Und selbst behauptest du erst noch, die GPUs würden ja nicht größer werden. Wo soll denn dann, deiner Meinung nach, die Chipfläche her für das ganze Synchronisationszeug, wie bei deinem tollen Xeon?

Mit Vulkan und Directx 12 haben die Entwickler aber eine einfachere Möglichkeit MultiGPU zu implementieren der Aufwand ist vielleicht nur noch 1/2 so hoch wie vorher deswegen wird die Technik auch mehr genutzt werden. Schönes Beispiel ist BF1 dort wird CF auch unterstützt.
"Einfach" ist wohl relativ. Dir ist hoffentlich schon klar, dass mit Vulkan und DX12 die Entwickler viel Handarbeit leisten müssen und faktisch für jede GPU ihr Spiel händisch optimieren müssen? Ob das viele tun werden? Wohl kaum.

Und apropos BF1:
Warum muss AMD dann einen Treiber mit CF-Profil veröffentlichen?
Radeon Software Crimson 16.8.3: Crossfire-Profil fur Battlefield 1

Meine Sichtweise ist auf die Zukunft gerichtet und nicht auf die Spiele die vielleicht noch ein halbes Jahr oder ein Jahr aktiv gespielt werden. Das Directx 11 Spiele nachträglich kein CF/SLI Support bekommen ist mir klar aber Spiele die Vulkan oder Directx 12 nutzen haben die möglichkeit mit relativ wenig Aufwand MultiGPU zu integrieren. Ich für meinen Teil Supporte jedes halbwegs vernünftige Spiel durch Sofortkauf das CF bzw. Vulkan unterstützt auch wenn es nicht direkt mein Genre ist. Liegt aber hauptsächlich daran dass ich eine Alternative zu Windows 10 Directx 12(da ich Microsofts Datensammelleidenschaft nicht leiden kann) supporten möchte.
Ja und das mit MultiGPU-Support bei Vulkan und DX12 ist ja so "wenig Aufand", dass der große Vulkan-Showcase Doom nicht mal MultiGPU beherrscht:
Someone please benchmark 2x RX480 crossfire vs GTX 1080 in Doom Vulcan. : Amd
:lol:
 
Speedbone: Wie kommst Du eigentlich auf den Trichter, dass hier keiner außer Dir weiß, was ein Layer ist? Ich wär da mal ganz vorsichtig... :)
 
Vor allem wen juckt das theoretische Potential? Wir sind hier nun primär in einem Gamerforum und da zählt was am Ende im Schnitt aller Spiele heraus kommt und das ist oft einfach den Aufwand nicht wert. Ob das an der Hardware, den Treiber oder den Spielen liegt ist dabei völlig sekundär. Das Multi-GPU in anderen Anwendungsbereichen deutlich mehr Sinn machen kann, spielt dabei eigentlich auch keine Rolle.
 
Ganz genau. Was nutzt eine theoretisch gute Skalierung, wenn es immer wieder Titel gibt, die M-GPU nicht unterstützen? Gerade wenn man nur zwei Midrange Karten verbaut, ist das großer Mist. Da kauft man doch lieber für den Preis der beiden Midrange Karten eine High-End Single-GPU Karte, hat in etwa die gleiche Leistung, aber nicht das Risiko schlechter Skalierung oder gar fehlender M-GPU Unterstützung (von den anderen M-GPU Problemchen mal ganz abgesehen).
 
Ich hab grade mal ein paar schnelle Tests gemacht und es ist wirklich krass Unterschiedlich je nachdem wie die Bedingungen sind. :wow:...
Also ich muss doch sagen, für einen SandyBridge-Prozi @3,8GHz sind das doch mehr als respektable Werte ....;-)
Wenn es für Dich wichtig ist, dass die 60FPS jederzeit gehalten werden, wird das speziell mit pCars (je nach Setting) schwer, aber dein SLI-Gespann scheint ja sehr gut zu arbeiten. :D

...Zukünftige Projekte planen. Ähm, ja:...
Sehr aufschlussreich & da fällt mir sponatn folgender Vermerk dazu ein ..."Blender mit ausgeprägter Neigung" ....:devil:

...Da kauft man doch lieber für den Preis der beiden Midrange Karten eine High-End Single-GPU Karte, hat in etwa die gleiche Leistung, aber nicht das Risiko schlechter Skalierung oder gar fehlender M-GPU Unterstützung
Das war schon immer so & wird wohl auch so bleiben & aktuelle Tests belegen das erneut ...:-)
 
Also ich muss doch sagen, für einen SandyBridge-Prozi @3,8GHz sind das doch mehr als respektable Werte ....;-)
Wenn es für Dich wichtig ist, dass die 60FPS jederzeit gehalten werden, wird das speziell mit pCars (je nach Setting) schwer, aber dein SLI-Gespann scheint ja sehr gut zu arbeiten. :D
Och, bis jetzt hab ich ansich keine Probleme bemerkt das er die 60FPS nicht halten konnte. :D

BF1 beta läuft sogar in 8k Auslösung auf Ultra ohne AA mit ~40FPS. :ugly: Da sind die Karten dann aber dauerhaft auf 99%, egal was ist.
 
Ich denke doch mal & fundierte Tests belegen das immer wieder, dass wenn man rational & objektiv über "die Sache" nachdenkt, dann kann das auch niemand verstehen. Was mir schon seit langer Zeit immer wieder auffällt, besonders von "gewisse Strömungen" ....
Es wird immer im Konjunktiv argumentiert, also recht vage und sämtliche Nachteile sind nicht existent. Mich würde so etwas nicht befriedigen... :devil:

@TheBadFrag
Hättest Du von deiner Nordschleife; Unwetter; ~35KI-Fahrer ggf. einige Pics parat? Denn wie gesagt, für eine SandyBridge-CPU @3,8GHz ist das mehr als respektabel und ja fast kaum zu glauben...:P
 
Zurück