• Hallo Gast, du möchtest medizinische Grundlagenforschung unterstützen und die Chance haben, ein Netzteil, Arbeitsspeicher oder eine CPU-Wasserkühlung von Corsair zu gewinnen? Dann beteilige dich zusammen mit dem PCGH-F@H-Team ab dem 21. September an der Faltwoche zum Weltalzheimertag! Wie das geht, erfährst du in der offiziellen Ankündigung.
  • Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

AMD Radeon Crossfire: Nicht mehr im Fokus von AMD

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu AMD Radeon Crossfire: Nicht mehr im Fokus von AMD

Der Niedergang von Multi-GPU-Systemen ist schon seit einiger Zeit zu beobachten und der Support der Hersteller schrumpft zusehends. AMD erklärte nun klar, dass das Thema nicht mehr im Fokus steht. Und damit ist es auch für den Kunden uninteressant, weil der Erfolg solcher Systeme mit dem Software-Support steht und fällt.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: AMD Radeon Crossfire: Nicht mehr im Fokus von AMD
 
K

KrHome

Guest
Heute wo Frametime-Messungen zum guten Ton gehören, ist das unsaubere AFR Framepacing toter als tot. Und das ist auch gut so!

Hindert die Mainboardhersteller natürlich trotzdem nicht immernoch 2354231 PCIe 16x Slots, die kein Mensch braucht, auf ihre Boards zu packen.
 

ZanDatsuFTW

Freizeitschrauber(in)
Alles gut und schön AMD, aber wie wäre es dann mal eine High-End GPU auf den Markt zu bringen, die auch mal ordentlich (Roh-)Leistung hat,
um einen 4k/144Hz Monitor zu befeuern?!
 

Casurin

BIOS-Overclocker(in)
Schade, gerade hier könnte Amd richtig punkten.
Wie denn? Massig Ressourcen für eine Randerscheinung mit inhärenten nachteilen verschwenden? XD
Da sieht man aber auch wie verblendet einige sind - weil AMD früher mal CrossFire gepusht hat (weil die Single-Karten zu weit abgeschlagen waren) muss es der heilige Gral sein - selbst wenn AMD offen eingesteht das es wenig bringt und nur viel Aufwand mit vielen Problemen ist.
 

RX480

Volt-Modder(in)
Mit Cf ist nur DX 11 gemeint. Z.Bsp. mit den UE4-Leutchen redet AMD ja auch kaum noch. Deswegen verständlich.
Bemerkt man auch mit Singlegrakas.

Die Unterstützung von mGPU in DX12 und Vulkan bleibt. Deswegen sind die R7 und Navi nur für mGPU freigegeben.
Wo das Game mitspielt sind gute Frametimes kein Problem (SoTR und StrangeBrigade)

Auch bei NV ist gerade mit NV-Link in mGPU erstaunliche Performance möglich.(gerade mit der 2070s)
Bei neueren Games sind in der Tat indirekte Schatten das Problem, deswegen ist mGPU nur mit Unterstützung des Dev machbar.
 

Anhänge

Zuletzt bearbeitet:

Two-Face

PCGH-Community-Veteran(in)
Irgendwo schon schade.

Zumal es da durchaus Entwicklungsbedarf gegeben hätte; CrossFireX mit vier Grafikkarten hätten ja nicht das Ende der Fahnenstange sein müssen. Eine Art "CrossFireXE" mit doppelt so vielen Rechenchips wären mMn in Anbetracht heutiger Anforderungen sinnvoll gewesen. Zu lösen wäre das ganz einach mit einer Grafikkarte mit vier GPUs (Radeon 5 6000) gepaart mit einem weiteren solchem Monstrum. Das wäre der absolute technische Overkill gewesen.:hail:

Die Kohle dafür hätte man sich dann ohnehin über Bitcoin-Mining wieder reinholen können, wäre also wie ich finde absolut kein Problem gewesen.
Aber stimmt, das ist ja auch tot.... hab ich ganz vergessen.:klatsch:
Und was waren eigentlich Mikroruckler nochmal?:fresse:
 

RX480

Volt-Modder(in)
Mit 2 Grakas laufen ordentliche Games sauber.

Die Zukunft wird wohl ähnlich Stadia mit 2 Chips auf einem PCB sein können dank IF.
Kleinere Chips sind bestimmt günstiger als Übergroße.

Obs mit RDNA2 gleich soweit ist wird man sehen. Aber die Option besteht.
Mit der Radeon Duo haben die Macs ja schonmal ein Bsp. gezeigt, das es geht.
Für das System dann nur noch als eine Graka.
 

PCTom

BIOS-Overclocker(in)
Man bekam damals für 2600 Euro noch 4 Highendchips... heut eine Titan. Wie die Preise sich doch ändern. Ansonsten hab ich mit dem Ende von CF keine Probleme, man bekommt ja schon für 400 Euro genug WQHD Leistung. Für 4K gibt es auch Singlekarten wenn auch von NV und nicht ganz so billig.
 
Zuletzt bearbeitet:

PCGH_Torsten

Redaktion
Teammitglied
Titan & Co dürften der Hauptgrund für die Abkehr von Multi-GPU sein. Der Grundgedanke war damals nicht, eine Mittelklasse-Grafikkarte später erweitern zu können, sondern nur noch maximal Oberklassekarten zu entwickeln und den High-End-Markt mit deren zwei bedienen zu können. Das eine monolithische Enthusiast-Karte der technisch bessere Weg ist, war immer klar. Aber es ist auch der aufwendigere, den man sich eine Zeit lang sparen konnte.


Heute wo Frametime-Messungen zum guten Ton gehören, ist das unsaubere AFR Framepacing toter als tot. Und das ist auch gut so!

Hindert die Mainboardhersteller natürlich trotzdem nicht immernoch 2354231 PCIe 16x Slots, die kein Mensch braucht, auf ihre Boards zu packen.
Die günstigeren X570-Modelle sind größtenteils auf einen PEG umgeschwenkt. Da waren sicherlich auch die deutlich gestiegenen Implementierungskosten von PCI-E 4.0 ein Grund, aber ich erwarte in Zukunft deutlich weniger SLI-/Crossfire-optimierte Layouts.
 

Strunzel

PC-Selbstbauer(in)
Nvidia hält mit CUDA und Nvlink jedenfalls im professionellen Bereich daran fest. Bei Datenberechnung stört sich keiner an Mikroruklern und man verkauft 4 Titan anstatt 1 (dort gibt es halt andere Budgets).

AMD sollte da einfach mehr in diese Richtung machen.
 

restX3

Software-Overclocker(in)
Wer hat überhaupt zwei Grafikkarten im PC? Ich schmeiße mal eine Zahl in Raum 1% bis vielleicht 2 % der PC Gamer.
Die Sche*e ist einfach zu teuer, und bei heutigen Grafikkartenpreise......
 

Locuza

Lötkolbengott/-göttin
Nvidia hält mit CUDA und Nvlink jedenfalls im professionellen Bereich daran fest. Bei Datenberechnung stört sich keiner an Mikroruklern und man verkauft 4 Titan anstatt 1 (dort gibt es halt andere Budgets).

AMD sollte da einfach mehr in diese Richtung machen.
Läuft bei AMD mehr oder weniger genauso ab.
Statt CUDA gibt es ROCm und statt NvLink gibt es Infinity-Fabric-Link, welcher bis zu 4 GPUs mit 100GB/s pro Richtung verbindet.

AMD hat auch den Deal für den Exascale-Computer Frontier gewonnen, dort besteht ein Node aus einer CPU + 4 Radeon GPUs und alle kommunizieren über Infinity-Fabric untereinander.
 

PCGH_Torsten

Redaktion
Teammitglied
Läuft bei AMD mehr oder weniger genauso ab.
Statt CUDA gibt es ROCm und statt NvLink gibt es Infinity-Fabric-Link, welcher bis zu 4 GPUs mit 100GB/s pro Richtung verbindet.

AMD hat auch den Deal für den Exascale-Computer Frontier gewonnen, dort besteht ein Node aus einer CPU + 4 Radeon GPUs und alle kommunizieren über Infinity-Fabric untereinander.
Die genannten Techniken greifen respektive besser gesagt griffen zwar auf für SLI und Crossfire entwickelte Hardware zurück, habe aber von der Funktion und insbesondere den wichtigen Treibern nichts mit Multi-GPU-Rendering gemein.
 

-Atlanter-

Software-Overclocker(in)
Alles gut und schön AMD, aber wie wäre es dann mal eine High-End GPU auf den Markt zu bringen, die auch mal ordentlich (Roh-)Leistung hat,
um einen 4k/144Hz Monitor zu befeuern?!
Nun es gibt ja Karten die einen 4k/144Hz Monitor mit nativer Auflösung befeuern, nur halt nicht unbedingt mit 144fps. Möglicherweise bin ich in der Hinsicht ein Banause, aber was bringen mir 144fps? Stabile 60fps sind doch in meinen Augen vollkommen flüssig. Und wer 144fps als Profi-Esportler braucht, der muss dann eben Schatten, Licht oder Texturen runter schrauben.

Aber wenn du damit nur aussagen willst, dass AMD eine gelungene Oberklasse-Graka ala RTX 2080 rausbringen muss um bei Nvidia mal kräftig Preisdruck erzeugen soll stimme ich dir natürlich zu.
 

hanfi104

Volt-Modder(in)
Was nützen dir Frames, die so ungleich verteilt sind, das sie genauso oder schlechter laufen als eine?
Details hochdrehen geht auch nicht, da 60 FPS auf zwei Karten sich schlimmer anfühlen als 40 FPS bei einer.


Ich verstehe eigentlich seit Jahren nicht, wie man sich Multigpu antuen kann. Schreckliches gefühl.
 

takan

Software-Overclocker(in)
Nun es gibt ja Karten die einen 4k/144Hz Monitor mit nativer Auflösung befeuern, nur halt nicht unbedingt mit 144fps. Möglicherweise bin ich in der Hinsicht ein Banause, aber was bringen mir 144fps? Stabile 60fps sind doch in meinen Augen vollkommen flüssig. Und wer 144fps als Profi-Esportler braucht, der muss dann eben Schatten, Licht oder Texturen runter schrauben.

Aber wenn du damit nur aussagen willst, dass AMD eine gelungene Oberklasse-Graka ala RTX 2080 rausbringen muss um bei Nvidia mal kräftig Preisdruck erzeugen soll stimme ich dir natürlich zu.
wenn man selbst 144hz vs. 60 hz "getestet" hat will man nur noch eine hohe hertz zahl haben. spätesten bei csgo&co willste es nicht missen!
zwar haste etwas mehr inputlag wenn du keine rockstable 144fps hast, aber immerhin ist es immer noch besser als 60hz.


und soweit ich weiß gibts immer noch keine karte die uhd 144hz überhaupt stemmt in sämtlichen titeln. nichtmal eine rtx titan schafft sowas. von daher. lass ihn weiter fordern, er wirds eh nicht kaufen wollen.:ugly::lol:
 

Kondar

BIOS-Overclocker(in)
Heute wo Frametime-Messungen zum guten Ton gehören, ist das unsaubere AFR Framepacing toter als tot. Und das ist auch gut so!
Hindert die Mainboardhersteller natürlich trotzdem nicht immernoch 2354231 PCIe 16x Slots, die kein Mensch braucht, auf ihre Boards zu packen.
naja mir ist ein 16X Slot lieber als ein 1X.
Man kann alles in ein 16X Slot stecken auch wenn der nur mit ~2 oder 4 Fach anbebunden ist.
 

TheBadFrag

Lötkolbengott/-göttin
Was nützen dir Frames, die so ungleich verteilt sind, das sie genauso oder schlechter laufen als eine?
Details hochdrehen geht auch nicht, da 60 FPS auf zwei Karten sich schlimmer anfühlen als 40 FPS bei einer.


Ich verstehe eigentlich seit Jahren nicht, wie man sich Multigpu antuen kann. Schreckliches gefühl.
Wenn man sein System nicht im Griff hat, dann könnte das eventuell vorkommen. ;) Wobei man schon wirklich was falschmachen muss, wenn sich 60 fps ruckelig anfühlen.
 

tori1117

Kabelverknoter(in)
Ich finde es eigentlich schade. Für den Verbraucher wären Multigpu Systeme bei den Preisen echt nice.
Eine Vega 56 bekommt man schon für unter 250 Euro. So ein Crossfiregespann würde sich bei dafür optimierten
Spielen lohnen. Aber es nutzt ja fast niemand Multigpu Systeme, also wird sich da auch nichts tun. Da die igpu von Intel auch immer stärker wird, könnte man ja dahingehend auch optimieren.
 

RX480

Volt-Modder(in)
Wenn man sein System nicht im Griff hat, dann könnte das eventuell vorkommen. ;) Wobei man schon wirklich was falschmachen muss, wenn sich 60 fps ruckelig anfühlen.
Jo,
man nimmt ja net mGPU um 200 Fps(x) zu erzwingen sondern meist nur um in 4k die 62-65 mit wenig Verbrauch zu halten.
Durch ne enge Range wird auch das Streaming besser. (mir reichen oft auch 50fps in 1800p dank niedrigem Inputlag)
Je mehr Shader desto weniger V braucht man und ist net unwirtschaftlich und laut.
(insofern ist auch ne 2080Ti sparsamer als ne 2080 bei selber TDP --> siehe IgorsLab)

Ich finde es eigentlich schade. Für den Verbraucher wären Multigpu Systeme bei den Preisen echt nice.
Eine Vega 56 bekommt man schon für unter 250 Euro. So ein Crossfiregespann würde sich bei dafür optimierten
Spielen lohnen. Aber es nutzt ja fast niemand Multigpu Systeme, also wird sich da auch nichts tun. Da die igpu von Intel auch immer stärker wird, könnte man ja dahingehend auch optimieren.
Nein +Ja.
2 x 16 3.0 als Unterbau ist net preiswert. (mit PCiE 4.0 reicht 2 x 8, was aber bei der 56 und der R7 net geht)
Gabs ja bei Einführung von explicit mGPU schon als Demo, wo die iGPU nur für das Postprocessing FXAA eingesetzt wurde.

(x) Bei nem sehr schnellen Moni kann man auch mal aus Gaudi in älteren/light Games die 200 Fps nutzen:
Chill war auf 200fps eingestellt = eff. 195 fps , warum auch immer.
 

Anhänge

Zuletzt bearbeitet:

shootme55

BIOS-Overclocker(in)
Eine Art "CrossFireXE" mit doppelt so vielen Rechenchips wären mMn in Anbetracht heutiger Anforderungen sinnvoll gewesen. Zu lösen wäre das ganz einach mit einer Grafikkarte mit vier GPUs (Radeon 5 6000) gepaart mit einem weiteren solchem Monstrum. Das wäre der absolute technische Overkill gewesen.:hail:
Um so eine Karte zum laufen zu bringen bräuchtest vermutlich ein externes Netzteil und einen Voodoo-Priester, der permanent Stoßgebete nach Santa Clara schickt, wo die Gebeine des flammenköpfigen Diamantenmonsters begraben liegen... :P

Hatten die nicht erst vor relativ kurzer Zeit die Möglichkeit von MCM diskutiert? Irgendwie hab ich da was im Hinterkopf. Die Frage ist ob man das mit der AMD-IF verbinden und dann "quasi"-monolitisch arbeiten lassen kann. Aber dann wär ein doppelter 5700XT sicher der Burner, im wahrsten Sinne des Wortes, mit 3× 8 Pin.

Ich hatte mein Crossfire-Experiment mit 2x 4870 1GB, und das war damals nicht berauschend. Lieber einen doppelten Korn...
 

Tech_Blogger

Software-Overclocker(in)
Das würde sicher möglich sein, aber da bräuchte man einen SI-Interposer, was die Sache wohl recht teuer machen würde.

Milan soll auf einen SI-Interposer kommen, aber das ist auch eine ganz andere Preisklasse als eine Gamer-Grafikkarte.
 

TheBadFrag

Lötkolbengott/-göttin
Wie kommst du denn darauf?
Ohne mGPU gibts keine anständigen FPS in 4k. Man kann nicht mal mit einer stark übertakteten 2080Ti Anthem in 4k maxed of mit min. 60 fps spielen. Mit 2x1080Ti kein Problem.

Jo,
man nimmt ja net mGPU um 200 Fps(x) zu erzwingen sondern meist nur um in 4k die 62-65 mit wenig Verbrauch zu halten.
Durch ne enge Range wird auch das Streaming besser. (mir reichen oft auch 50fps in 1800p dank niedrigem Inputlag)
Je mehr Shader desto weniger V braucht man und ist net unwirtschaftlich und laut.
(insofern ist auch ne 2080Ti sparsamer als ne 2080 bei selber TDP --> siehe IgorsLab)
Mein Rechner braucht teilweise 800W+ beim zocken. Muss ich die Heizung nicht so weit aufdrehen. :D Durch das Headset mit Spielsound und Geschrei in Teamspeak höre ich es eh nicht, wenn mein Rechner ein bischen pustet, von daher alles gut. Hab ehrlich gesagt noch nie auf den Stromverbrauch beim kauf von Hardware geachtet. Die muss in erster Linie anständige Performance bringen.
 

RX480

Volt-Modder(in)
Komplett wäre 100%. ???
Du solltest evtl. mal nen Deutschgrundkurs belegen.
(Wundert mich soundso das Noobs hier Ihren Senf dazu geben. Brauchst Du Likes?)

Nochmal zum Setting bei mGPU: Man würde net die Grakas mit >1,0V quälen müssen, sondern kann viel weniger nehmen.
Ohne groß min.Fps zu verlieren.

In Witcher 3 lohnt sich sowas. Bei Cyberpunk bin ich mal gespannt.
Das Anthem nachträglich wieder für SLi freigegeben wurde ist sehr löblich.
Wurde ja im Promovideo auch mit SLi vorgestellt, dann hinterher entfernt. (um die Ti´s zu puschen?)

btw.
Würde mir persönlich bei Cf ähnliche Enthusiasten wünschen wie bei SLi: Kamiccolo
YouTube
 
Zuletzt bearbeitet:

hanfi104

Volt-Modder(in)
Wenn man sein System nicht im Griff hat, dann könnte das eventuell vorkommen. ;) Wobei man schon wirklich was falschmachen muss, wenn sich 60 fps ruckelig anfühlen.
Aber so läuft es ja meist nicht. Fps zwischen Multi- und Singlegpus sind nicht vergleichbar.
Was MGPU mit 60 raushaut ist schlechter als 40 Fps auf ner Single. Jetzt skalieren die beiden selten mehr als 70%, d.h. Effektiv kommen 20-30% Mehr raus, wenn überhaupt.
Das mit viel gefrickle und 100% Aufpreis und weiteren Nachteilen.

MGPU hat sich bisher immer nur in ganz wenigen Ausnahmen gelohnt.
 

RX480

Volt-Modder(in)
Es ist doch ganz klar, das net jedes Game geeignet ist.(gewollt vom Dev und Jensen)
Deine komische 60 zu 40 sind auch echte Crap-Games.
(würde ich net kaufen)
 
Oben Unten