AMD Radeon Crossfire: Nicht mehr im Fokus von AMD

Alles gut und schön AMD, aber wie wäre es dann mal eine High-End GPU auf den Markt zu bringen, die auch mal ordentlich (Roh-)Leistung hat,
um einen 4k/144Hz Monitor zu befeuern?!

Nun es gibt ja Karten die einen 4k/144Hz Monitor mit nativer Auflösung befeuern, nur halt nicht unbedingt mit 144fps. Möglicherweise bin ich in der Hinsicht ein Banause, aber was bringen mir 144fps? Stabile 60fps sind doch in meinen Augen vollkommen flüssig. Und wer 144fps als Profi-Esportler braucht, der muss dann eben Schatten, Licht oder Texturen runter schrauben.

Aber wenn du damit nur aussagen willst, dass AMD eine gelungene Oberklasse-Graka ala RTX 2080 rausbringen muss um bei Nvidia mal kräftig Preisdruck erzeugen soll stimme ich dir natürlich zu.
 
Was nützen dir Frames, die so ungleich verteilt sind, das sie genauso oder schlechter laufen als eine?
Details hochdrehen geht auch nicht, da 60 FPS auf zwei Karten sich schlimmer anfühlen als 40 FPS bei einer.


Ich verstehe eigentlich seit Jahren nicht, wie man sich Multigpu antuen kann. Schreckliches gefühl.
 
Nun es gibt ja Karten die einen 4k/144Hz Monitor mit nativer Auflösung befeuern, nur halt nicht unbedingt mit 144fps. Möglicherweise bin ich in der Hinsicht ein Banause, aber was bringen mir 144fps? Stabile 60fps sind doch in meinen Augen vollkommen flüssig. Und wer 144fps als Profi-Esportler braucht, der muss dann eben Schatten, Licht oder Texturen runter schrauben.

Aber wenn du damit nur aussagen willst, dass AMD eine gelungene Oberklasse-Graka ala RTX 2080 rausbringen muss um bei Nvidia mal kräftig Preisdruck erzeugen soll stimme ich dir natürlich zu.

wenn man selbst 144hz vs. 60 hz "getestet" hat will man nur noch eine hohe hertz zahl haben. spätesten bei csgo&co willste es nicht missen!
zwar haste etwas mehr inputlag wenn du keine rockstable 144fps hast, aber immerhin ist es immer noch besser als 60hz.


und soweit ich weiß gibts immer noch keine karte die uhd 144hz überhaupt stemmt in sämtlichen titeln. nichtmal eine rtx titan schafft sowas. von daher. lass ihn weiter fordern, er wirds eh nicht kaufen wollen.:ugly::lol:
 
Heute wo Frametime-Messungen zum guten Ton gehören, ist das unsaubere AFR Framepacing toter als tot. Und das ist auch gut so!
Hindert die Mainboardhersteller natürlich trotzdem nicht immernoch 2354231 PCIe 16x Slots, die kein Mensch braucht, auf ihre Boards zu packen.

naja mir ist ein 16X Slot lieber als ein 1X.
Man kann alles in ein 16X Slot stecken auch wenn der nur mit ~2 oder 4 Fach anbebunden ist.
 
naja mir ist ein 16X Slot lieber als ein 1X.
Man kann alles in ein 16X Slot stecken auch wenn der nur mit ~2 oder 4 Fach anbebunden ist.

Ja es wäre schöner würden öfters diese "offenen" 1X Slots verbaut werden.
PCIe_J1900_SoC_ITX_Mainboard_IMG_1820.JPG
 
Zuletzt bearbeitet:
Was nützen dir Frames, die so ungleich verteilt sind, das sie genauso oder schlechter laufen als eine?
Details hochdrehen geht auch nicht, da 60 FPS auf zwei Karten sich schlimmer anfühlen als 40 FPS bei einer.


Ich verstehe eigentlich seit Jahren nicht, wie man sich Multigpu antuen kann. Schreckliches gefühl.
Wenn man sein System nicht im Griff hat, dann könnte das eventuell vorkommen. ;) Wobei man schon wirklich was falschmachen muss, wenn sich 60 fps ruckelig anfühlen.
 
Ich finde es eigentlich schade. Für den Verbraucher wären Multigpu Systeme bei den Preisen echt nice.
Eine Vega 56 bekommt man schon für unter 250 Euro. So ein Crossfiregespann würde sich bei dafür optimierten
Spielen lohnen. Aber es nutzt ja fast niemand Multigpu Systeme, also wird sich da auch nichts tun. Da die igpu von Intel auch immer stärker wird, könnte man ja dahingehend auch optimieren.
 
Wenn man sein System nicht im Griff hat, dann könnte das eventuell vorkommen. ;) Wobei man schon wirklich was falschmachen muss, wenn sich 60 fps ruckelig anfühlen.

Jo,
man nimmt ja net mGPU um 200 Fps(x) zu erzwingen sondern meist nur um in 4k die 62-65 mit wenig Verbrauch zu halten.
Durch ne enge Range wird auch das Streaming besser. (mir reichen oft auch 50fps in 1800p dank niedrigem Inputlag)
Je mehr Shader desto weniger V braucht man und ist net unwirtschaftlich und laut.
(insofern ist auch ne 2080Ti sparsamer als ne 2080 bei selber TDP --> siehe IgorsLab)

Ich finde es eigentlich schade. Für den Verbraucher wären Multigpu Systeme bei den Preisen echt nice.
Eine Vega 56 bekommt man schon für unter 250 Euro. So ein Crossfiregespann würde sich bei dafür optimierten
Spielen lohnen. Aber es nutzt ja fast niemand Multigpu Systeme, also wird sich da auch nichts tun. Da die igpu von Intel auch immer stärker wird, könnte man ja dahingehend auch optimieren.

Nein +Ja.
2 x 16 3.0 als Unterbau ist net preiswert. (mit PCiE 4.0 reicht 2 x 8, was aber bei der 56 und der R7 net geht)
Gabs ja bei Einführung von explicit mGPU schon als Demo, wo die iGPU nur für das Postprocessing FXAA eingesetzt wurde.

(x) Bei nem sehr schnellen Moni kann man auch mal aus Gaudi in älteren/light Games die 200 Fps nutzen:
Chill war auf 200fps eingestellt = eff. 195 fps , warum auch immer.
 

Anhänge

  • Avatar_sparsam.jpg
    Avatar_sparsam.jpg
    1 MB · Aufrufe: 105
  • 2019.08.10-21.47.jpg
    2019.08.10-21.47.jpg
    1,7 MB · Aufrufe: 106
Zuletzt bearbeitet:
Eine Art "CrossFireXE" mit doppelt so vielen Rechenchips wären mMn in Anbetracht heutiger Anforderungen sinnvoll gewesen. Zu lösen wäre das ganz einach mit einer Grafikkarte mit vier GPUs (Radeon 5 6000) gepaart mit einem weiteren solchem Monstrum. Das wäre der absolute technische Overkill gewesen.:hail:

Um so eine Karte zum laufen zu bringen bräuchtest vermutlich ein externes Netzteil und einen Voodoo-Priester, der permanent Stoßgebete nach Santa Clara schickt, wo die Gebeine des flammenköpfigen Diamantenmonsters begraben liegen... :P

Hatten die nicht erst vor relativ kurzer Zeit die Möglichkeit von MCM diskutiert? Irgendwie hab ich da was im Hinterkopf. Die Frage ist ob man das mit der AMD-IF verbinden und dann "quasi"-monolitisch arbeiten lassen kann. Aber dann wär ein doppelter 5700XT sicher der Burner, im wahrsten Sinne des Wortes, mit 3× 8 Pin.

Ich hatte mein Crossfire-Experiment mit 2x 4870 1GB, und das war damals nicht berauschend. Lieber einen doppelten Korn...
 
Das würde sicher möglich sein, aber da bräuchte man einen SI-Interposer, was die Sache wohl recht teuer machen würde.

Milan soll auf einen SI-Interposer kommen, aber das ist auch eine ganz andere Preisklasse als eine Gamer-Grafikkarte.
 
Wie kommst du denn darauf?
Ohne mGPU gibts keine anständigen FPS in 4k. Man kann nicht mal mit einer stark übertakteten 2080Ti Anthem in 4k maxed of mit min. 60 fps spielen. Mit 2x1080Ti kein Problem.

Jo,
man nimmt ja net mGPU um 200 Fps(x) zu erzwingen sondern meist nur um in 4k die 62-65 mit wenig Verbrauch zu halten.
Durch ne enge Range wird auch das Streaming besser. (mir reichen oft auch 50fps in 1800p dank niedrigem Inputlag)
Je mehr Shader desto weniger V braucht man und ist net unwirtschaftlich und laut.
(insofern ist auch ne 2080Ti sparsamer als ne 2080 bei selber TDP --> siehe IgorsLab)
Mein Rechner braucht teilweise 800W+ beim zocken. Muss ich die Heizung nicht so weit aufdrehen. :D Durch das Headset mit Spielsound und Geschrei in Teamspeak höre ich es eh nicht, wenn mein Rechner ein bischen pustet, von daher alles gut. Hab ehrlich gesagt noch nie auf den Stromverbrauch beim kauf von Hardware geachtet. Die muss in erster Linie anständige Performance bringen.
 
Komplett wäre 100%. ???
Du solltest evtl. mal nen Deutschgrundkurs belegen.
(Wundert mich soundso das Noobs hier Ihren Senf dazu geben. Brauchst Du Likes?)

Nochmal zum Setting bei mGPU: Man würde net die Grakas mit >1,0V quälen müssen, sondern kann viel weniger nehmen.
Ohne groß min.Fps zu verlieren.

In Witcher 3 lohnt sich sowas. Bei Cyberpunk bin ich mal gespannt.
Das Anthem nachträglich wieder für SLi freigegeben wurde ist sehr löblich.
Wurde ja im Promovideo auch mit SLi vorgestellt, dann hinterher entfernt. (um die Ti´s zu puschen?)

btw.
Würde mir persönlich bei Cf ähnliche Enthusiasten wünschen wie bei SLi: Kamiccolo
YouTube
 
Zuletzt bearbeitet:
Wenn man sein System nicht im Griff hat, dann könnte das eventuell vorkommen. ;) Wobei man schon wirklich was falschmachen muss, wenn sich 60 fps ruckelig anfühlen.

Aber so läuft es ja meist nicht. Fps zwischen Multi- und Singlegpus sind nicht vergleichbar.
Was MGPU mit 60 raushaut ist schlechter als 40 Fps auf ner Single. Jetzt skalieren die beiden selten mehr als 70%, d.h. Effektiv kommen 20-30% Mehr raus, wenn überhaupt.
Das mit viel gefrickle und 100% Aufpreis und weiteren Nachteilen.

MGPU hat sich bisher immer nur in ganz wenigen Ausnahmen gelohnt.
 
Es ist doch ganz klar, das net jedes Game geeignet ist.(gewollt vom Dev und Jensen)
Deine komische 60 zu 40 sind auch echte Crap-Games.
(würde ich net kaufen)
 
Zurück