AMD Radeon Crossfire: Nicht mehr im Fokus von AMD

Ich habs ein paar mal probiert mit Multigpu.
Was ich aber will sind mehr Details und nicht hunderte FPS.
Details raufdrehen klappt nicht, weil Multigpu einfach kake läuft unter 80-100 fps.

Skyrim war die große Ausnahme aus meinen Spieln. Skyrim lief gut mit 60 FPS im Gespann.
 
Die günstigeren X570-Modelle sind größtenteils auf einen PEG umgeschwenkt. Da waren sicherlich auch die deutlich gestiegenen Implementierungskosten von PCI-E 4.0 ein Grund, aber ich erwarte in Zukunft deutlich weniger SLI-/Crossfire-optimierte Layouts.

Dann könnte man ja den PCIe 16x Slot weiter nach unten setzen um mehr Abstand zum Sockel zu bekommen.
Oder ist das kontraproduktiv, weil sich der Abstand vergrößert und der Weg von der CPU zum Slot länger wird?
 
Multi-Gpu ist einfach nur tot, weil es die Hersteller so wollen!
Um die neuen High-Preis-Dinger zu verkaufen, muss die Konkurenz ausgeschaltet werden.Da erklärt man mal schnell SLI/Crossfire für tot, und schon gibts keine Alternativen mehr zu den überteuerten Penisverlängerungsstücken.
Ich glaube, wenn Die wollten- würde das innerhalb von 4 Wochen funzen- selbst mit AMD/Nvidia-CrossSli.Aber was hätten unsere lieben Hersteller davon?
Ps: Ich hab leider keinerlei Multierfahrungen-da mir schon eine GPU heuer zu teuer ist!
Gruß Yojinbo
 
Die ganze Entwicklung kneift aber leider die Besitzer von 1080Ti-SLi(dito Cf) total in den Po.
Man bräuchte nähmlich eigentlich gar keine 2080 Ti.

Deswegen sind die wahren Enthusiasten auch ein bisschen sauer auf Unity+UE4 + Id und Co, von Jensen ganz zu schweigen. Genauso Anvil2 ging bei For Honor noch prima mit SLi/Cf.

Und wenn dann kurzsichtige Opportunisten (Poly und Co) so eine Entwicklung noch feiern.
Dann dürfen Die auch gern jedes 1/2 jahr ne neue Super kaufen.
"the more you buy the more you save" sagt der Prophet J
 
Zuletzt bearbeitet:
Wenn das 1A laufen würde in jedem Game und auch sauber skaliert hätte ich hier 2 2080ti drin.
Ich glaube nicht das es daran liegt das dadurch 5% mehr Highend Karten verkauft werden. Gerade die Brot und Butter Modelle hätten doch dann ein viel höheren Absatz wenn das alles so sauber funktionieren würde.
Wieso würde man das liegen lassen wollen wenn es nur über die Softwäre zu lösen wäre?
 
Wenn das 1A laufen würde in jedem Game und auch sauber skaliert hätte ich hier 2 2080ti drin.
Ich glaube nicht das es daran liegt das dadurch 5% mehr Highend Karten verkauft werden. Gerade die Brot und Butter Modelle hätten doch dann ein viel höheren Absatz wenn das alles so sauber funktionieren würde.
Wieso würde man das liegen lassen wollen wenn es nur über die Softwäre zu lösen wäre?

Weil es weniger lokrativ ist.
Die die sich 2x 2080TI kaufen sind so wenige das es sich Gewinn technisch nicht lohnt.

Und die die sich 2 schwächere Karten kaufen würden, die will man nicht denn eine 2080Ti hat weniger Leistung und bringt viel mehr Gewinn.

Ist ne Win Win Politik von Nvidia und AMD Crossfire und SLI aufzugeben bzw. es so weit abzuschwächen das es maximal von Leuten gut genutzt werden kann die eh 3000€ für ne Grafikkarte ausgeben.
Denn alles mit 8GB hat eh zu wenig VRam für die Leistung die da aufgeboten wird.
 
Das würde sicher möglich sein, aber da bräuchte man einen SI-Interposer, was die Sache wohl recht teuer machen würde.

Milan soll auf einen SI-Interposer kommen, aber das ist auch eine ganz andere Preisklasse als eine Gamer-Grafikkarte.

Ausreichend schnelle Schnittstellen für zusammengesetzte Prozessoren sind immer eine Kosten-Nutzen-Rechnung: Ist es günstiger jedem Chip der Leistungsklasse X ein aufwendiges, zusätzliches Interface zu verpassen um sie unter zusätzlichen Aufwand zu einem Chip 2X-Leistung zusammenzusetzen? Oder sollte man bei jedem einzelnen X-Chip etwas sparen und ein getrenntes 2X-Design auflegen?

Bei Chips die multiple unabhängige Aufgaben abarbeiten sind zusammengesetzte Systeme schon lange üblich, im einfachsten Fall als Multi-CPU-Rechner. Aber für typische Endanwender-Einzelaufgaben waren bislang nur Core 2 Quad und Ryzen 3000 einigermaßen erfolgreich. Die Bauweise von ersterem wurde bekanntermaßen mit zunehmender Quadcore-Optimierung schnell wieder adacta gelegt und letztere rentieren sich von AMD vor allem durch die hohen Stückzahlen von 7-nm-Chiplets; mehrere monolithische Designs hätten zu Auslastungsproblemen in der Fertigung geführt.


Dann könnte man ja den PCIe 16x Slot weiter nach unten setzen um mehr Abstand zum Sockel zu bekommen.
Oder ist das kontraproduktiv, weil sich der Abstand vergrößert und der Weg von der CPU zum Slot länger wird?

Die Leiterbahnlänge ist bei PCI-Express 4.0 ein großes Thema und noch hat kein Hersteller den PEG an Slot-Position 3 oder gar 4 verschoben, wie wir es zu Sockel-775- und AM2-Zeiten schon mal gesehen haben. Im Gegenteil, Asrock ist bei den X570-Budget-Modellen sogar ohne irgend einen weiteren Anlass auf Slot-Position 1 gegangen, mit spürbaren Konsequenzen für die Kühlerkompatibilität. Ich hoffe, diese Entscheidung überdenkt man bei kommenden Produkten noch einmal. (Meine Noten werden jedenfalls dazu motivieren ;))
 
Multi-Gpu ist einfach nur tot, weil es die Hersteller so wollen!

Was ne krude Theorie! Multi GPU ist tot, weil der Markt es nicht will. Die paar Hansel, die das verwenden bzw deren Umsatz stehen in keinem vernünftigen Verhältnis zum Aufwand der dahinter steckt die Sache am Leben zu halten!

Und ja klar, wenn die Hersteller das wollten würde es einfacher zu verwenden sein, besser performen und was weiß ich, bloß warum sollten die Hersteller in eine Lösung, deren Marktdurchdringung im maximal 2-stelligen ppm Bereich liegt auch nur irgendwas investieren? Da gibts sicherlich sinnigere Dinge, die man in der Entwicklung mit dem Geld anstellen könnte!
 
Aber so läuft es ja meist nicht. Fps zwischen Multi- und Singlegpus sind nicht vergleichbar.
Was MGPU mit 60 raushaut ist schlechter als 40 Fps auf ner Single. Jetzt skalieren die beiden selten mehr als 70%, d.h. Effektiv kommen 20-30% Mehr raus, wenn überhaupt.
Das mit viel gefrickle und 100% Aufpreis und weiteren Nachteilen.

MGPU hat sich bisher immer nur in ganz wenigen Ausnahmen gelohnt.
Hier mal aus dem Fiji-CF-Test hier auf PCGH:

"Im Unigine Heaven befinden sich die Radeons durchaus im guten Rahmen. Eine zweite Fury X bringt knapp 90 Prozent mehr Punkte, danach nimmt die Performance um den Faktor 2,7 beziehungsweise 3,37 zu. Beim gleichen Test mit 8x AA ist die Skalierung einer zweiten Fury X mit 95 Prozent fast ideal, ein Vier-Wege-Crossfire bringt 90 Prozent der Performance auf die Straße (Faktor 3,6). Bei den Spiele-Benchmarks sieht es meistens deutlich schlechter aus. In einer 64v64-Partie in Battlefield 4, in Grid Autosport Metro Last Light Redux, Thief und Bioshock Infinite bringen die dritte und vierte Grafikkarte nur noch kaum etwas, skalieren teilweise sogar negativ. Besonders ärgerlich ist das bei den minimalen Fps, die stark einbrechen können. Interessanterweise skaliert das VRAM-hungrige Shadow of Mordor noch mit allen vier Fury X, wenn auch nur mehr schlecht als recht (Faktor 2,7 bei vieren). Tomb Raider skaliert mit dem Faktor 3,71 bei vier Radeons noch am besten, dort bringt ein zweites Exemplar alleine mit einem Plus von 92 Prozent auch noch mit am meisten."

Das deckt sich sehr gut mit meinen Erfahrungen zu CF. 3-Way CF hatte ich beispielsweise erst mit drei HD7970ern und war etwas verwundert. Die dritte Karte sorgte bei mir nämlich für genau 1fps weniger als mit zweien, zeigte jedoch volle Auslastung an. Irgendwann hab ich dann den CF Modus geändert (weiß gerade nicht mehr wie das genau hieß, jedenfalls das nach AFR-freundlich) und tada!!! die Bildausgabe war fast so sauber wie mit nur einer Karte. Von Mikroruckeln war überhaupt keine Spur. Dann kamen die beiden Fury-X und die hatten in Skyrim knapp 96 Prozent Skalierung und liefen tadellos, sofern man nach Spielstart einmal raus getappt hat und wieder zurück. Ansonsten wurde der Speicher der zweiten Karte nur weiter gefüllt, aber nicht mehr geleert. Das ist aber eine Kleinigkeit und hat rauszubekommen keine zehn Minuten probieren gedauert.

Gesendet von meinem HTC U12+ mit Tapatalk
 
3 Way war immer problematisch, ist ja auch klar, weil die Anbindung per PCiE net ausreicht.

P/L ist ein 2x 2070s ner Ti haushoch überlegen, weswegen die Devs SLi net mehr zulassen "dürfen".
(dito 2x 1080Ti)

Es gab auch in jüngerer Zeit Ausnahmen: z.Bsp.
Apex+Overwatch+Destiny2+SB+SoTR+Hitman+RE2+FC5 + BF V und Division (D2 netmehr)
(Reviews kann man net ernst nehmen, weil oft sinnlose Einstellungen für TAA und Bandbreite;
man sollte sich einfach mal die Videos von Kamiccolo anschauen; mit NV die Bits in den Foren erfragen)

Als Besitzer von nem SLi/Cf kauft man halt nur Games, wo Es funzt. Wenns beim Nachfolger net mehr geht, dann halt net(D2).

Wg. Multichips auf dem PCB verweise ich gern noch mal auf Stadia und die RadeonDuo.
Es ist net auszuschließen das irgendwann die X2-Grakas zurückkommen. (dann reichen auch einfache Mobos)

Durch den NV-Link reicht momentan auch ein einfaches Mobo. Es gab keine gravierenden Vorteile 16x vs. 8x.
Bei AMD würde ich 2x 16x als erf. ansehen.
Das Ganze nur falls man sich mal ne 2. Graka ausleihen kann. Am Besten Beide in nem CustomLoop.
Ralle hatte 2x RX64LC wo durch die Radis auch das Problem der Kühlung funzte.
 
Zuletzt bearbeitet:
@Cleriker
Yay nur den dreifachen Preis für nicht mal ganz doppelte Leistung (ist ja fast wie 1080TI und 2080TI zu Release:ugly:). Klingt nach einem super deal....not.
SFR ist der Modus, den du suchst, den mochte aber kein Hersteller, weil er selten mehr als 50% Plus brachte.
Und mit heutigen Temporal Methoden kannst du sowas eh vergessen.

Neben der meist miesen Skalierung (alles unter 90% Geldverschwendung, CPU Limit natürlich außenvor) durfte man gerne wochen lang warten, damit ein Treiber kommt.

Wenn Multigpu wenigstens konstant gewesen wäre, immer überall mind. 85% mehr Leistung ohne gestottere, ja dann hätte es was werden können.
 
Nein, SFR meinte ich nicht. AMD hatte eine Weile etwas Hirnschmalz in CF investiert und insgesamt fünf verschiedene CF-Modi im Treiber integriert. SFR und vier verschiedene AFR Varianten mit Fokus auf frametimes, Qualität, usw. Einer davon hatte beispielsweise in Skyrim die Möglichkeit gegeben mit der dritten GPU nochmal knapp 45 Prozent dazu zu bekommen. Das hieß also mit der dritten GPU nochmal eine Skalierung von etwa 90 Prozent zu erreichen. Das war schon geil. Oder dass man beispielsweise wenn die zweite GPU in irgendeinem Spiel weniger als 90 Prozent brachte, einfach MSAA auf 8x stellte und quasi keinen Frame weniger hatte, weil die GPU dann besser die Last verteilte. Also die waren da eine zeitlang recht weit und bemüht.

Zudem passte deine Rechnung bezüglich der P/L ja nur auf neue GPUs. Der Vorteil war doch aber dass man bei Release einer neuen Gen einfach noch ne alte gebraucht für einen Appel und nen Ei dazu gesteckt hat und dann für 40 Prozent vom Preis etwa 80 Prozent Leistung dazu bekam, während man beim Wechsel auf eine neuere Gen nur 30 Prozent für deutlich höhere Kosten bekommen hat. Also nur Nachteile aufzulisten, so wie du eben, ist längst nicht tauglich im die Situation wiederzugeben.

Gesendet von meinem HTC U12+ mit Tapatalk
 
Generell fand ich CF immer smoother als SLI was Mikroruckler betrifft.

Gestört hat mich an mGPU aber immer die kleinen Grafikfehler wie Textur- oder Schattenflackern, was ich regelmäßig in Spielen gesehen hab.
 
Das schlimmste mGPU Erlebnis dass ich hatte waren drei GTX580 Matrix Platinum in Battlefield. Das war eine Katastrophe. Erst wollte es nicht laufen, dann lief es kurz und sorgte für Bildfehler, dann gab's blackscreens mit Ton, dann ließ der Treiber die mittlere Karte nicht hoch drehen und verbrennen. Super. Von denen auf die HD7970er zu wechseln kam mir vor wie der Heilige Gral. Dabei war das mal andersherum. Zu HD3870er Zeiten waren Geforce etwas unkomplizierter und erzielten in Gothic 3 beispielsweise die besseren Werte. Dann kam die ATI X1950 Pro und es war Gleichstand, aber es gab bei beiden Herstellern unterschiedliche Bildtricks. Plötzlich sahen in G3 die Dach-ubd Bodentexturen schärfer aus, allerdings schien UT weniger Partikel darzustellen.

Mir hat die ganze Entwicklung echt Spaß gemacht und ich fand es spannend. Jetzt ist es wirklich öde geworden. Die User basteln kaum noch. Alle kaufen sich nur noch langweilige Custommodelle und mit Treibern will sich erst recht keiner mehr auseinandersetzen. Na und als Sahnehaube oben drauf gibt's noch vollkommen bescheuerte Preise.

Gesendet von meinem HTC U12+ mit Tapatalk
 
3 Way war immer problematisch, ist ja auch klar, weil die Anbindung per PCiE net ausreicht.
Mit PCIe 4.0 würde sie schon reichen, aber es wird halt teuer, weil man die Lanes nicht einfach wie viele glauben in 3.0er Lanes splitten kann.

Man bräuchte einen Multiplexer der am Eingang 16 4.0er Lanes hat und beim Ausgang 48 3.0/4.0er Lanes.
Mainboards mit Multiplexer sind aber echt teuer, weil diese Chips schon schnell mal 70€ aufwärts kosten.

Deswegen hat AMD mit Epyc im Servermarkt einen großen Vorteil, die Mainboards brauchen keine bzw. kaum Multiplexer/Switches.
 
Mit 4.0 wären für mich 2 Navis optimal. Reicht auch dicke, weil nur 8GB.
Man müsste eh auf big Navi warten.12..16Gb?
R7+Navi haben kein Cf für DX11 !!! nur noch mGPU für DX12+Vulkan, wo das Game das unterstützt.

Denke mal das Gamesetting und die Einzelgraka bestimmen die min Fps.
Im worst case tritt halt in Bild X die Explosion auf.(ggf. die Partikel eine Stufe runter)

Flackern deutet eigentlich auf net geeignetes Game hin. FFXIV-Demo ist beim Himmel so schlimm,
habe ich gleich sein gelassen.(für AMD mit Cf) Dagegen macht der FFXIV Shadowbringer-Benchmark gar keine
Probleme. Also man muss sich immermal überraschen lassen.
Bei Games ohne reguläres Profil kann man auch bei Games mit gleicher Engine schauen.
 
Zuletzt bearbeitet:
Is doch klar. Zum einen kostet es Geld, zum anderen besteht einfach kein "Interesse" daran 2 Karten zu verkaufen, die 50% schneller sind wie das teuerste highendbrett und dann noch weniger kosten im duo.

Am meisten hängen bleibt beim überteuerten flagship... Hat NV ja schon gezeigt mit den 2060 und 2070, da gabs kein sli Suport. Erst ab der 2080.... Also win win für NV ;)
 
Zurück