RX-480-Crossfire vs. GTX 1070: Multi-GPU lohnt sich nach Test kaum

[KlugscheissMod EXTREME v2: ON] Es gab keine 780 mit 6 GB, nur eine 780 mit 6 GiB ;) [MOD: OFF]

PCGH-Basiswissen im Video: Was unterscheidet Gigabyte und Gibibyte?

na und zu 99% sagen trotzdem GB anstatt GIB oder sonst was .Dann müssten sie auch richtige angaben machen und nicht nur schreiben oder in ihre Revies sagen 4 GIB sonder . 4096MIB sind nach PCGH angaben dann richtig und nicht 4000MIB usw aber naja auf GIB gehen aber 96MIB vergessen und höre sogar von denen immer nur 4 GIB aber sind trotzdem knappe 4.1 GIB sogar bei der 970 sind es 3.6 GIB und nicht nur 3.5 GIB

Sogar bei den Rams machen sie sie in ihren Beispielen falsche angaben aber das ist PCGH zb hier The Division: Grafikvergleich PC vs. PS4 vs. Xbox One 18,8GB dann müsste es anders heissen super halten sich dran

Den Ausschnitt "Der Test PC hat folgende Spezifikationen: Intel Core i7 3.33 GHz, NVIDIA GeForce GTX 980, 18.8 GB RAM, Windows 10 64-Bit.
 
Zuletzt bearbeitet:
Es ist schon bedauernswert, dass AMD immer wieder selbst Schw...vergleiche initiiert, die nur Nvidia bzw. Intel in die Hände spielen. Zwei AMD-Karten gegen eine von Nvidia, CPUs mit 220 Watt TDP, die dennoch weniger Leistung haben, sind nur zwei Beispiele. Wenn sie schon bei der Entwicklung ihren Konkurrenten nicht das Wasser reichen können, sollten sie zumindest eine Marketing-Abteilung haben, die halbwegs fähig ist. Wer solche Freunde hat, braucht wirklich keine Feinde mehr.
 
na und zu 99% sagen trotzdem GB anstatt GIB oder sonst was .Dann müssten sie auch richtige angaben machen und nicht nur schreiben oder in ihre Revies sagen 4 GIB sonder . 4096MIB sind nach PCGH angaben dann richtig und nicht 4000MIB usw aber naja auf GIB gehen aber 96MIB vergessen und höre sogar von denen immer nur 4 GIB aber sind trotzdem knappe 4.1 GIB sogar bei der 970 sind es 3.6 GIB und nicht nur 3.5 GIB

Sogar bei den Rams machen sie sie in ihren Beispielen falsche angaben aber das ist PCGH zb hier The Division: Grafikvergleich PC vs. PS4 vs. Xbox One 18,8GB dann müsste es anders heissen super halten sich dran

Den Ausschnitt "Der Test PC hat folgende Spezifikationen: Intel Core i7 3.33 GHz, NVIDIA GeForce GTX 980, 18.8 GB RAM, Windows 10 64-Bit.

Hast das glaube bissl falsch verstanden^^
EIGENTLICH sind es wie du in deinem Beispiel sagst 4096MB=4GiB
GiB=Gibibyte und das bi bezieht sich immer auf die binäre Rechenweise, also die 2er Potenzen (2^10,...)
Also die "glatten" Zahlen sind meistens (!) die mit GiB und so weiter angegeben werden müssen. GB, MB und so weiter sind 1.000 Potenzen und sowas ist in der IT eher unüblich^^
PCGH macht das schon richtig.
 
Das war aber bereits auch schon seit dem Test der RX 480 abzusehen. Finde ich persönlich auch jetzt nicht so schlimm.
Sind schließlich Karten die unterschiedliche Käuferschichten abdecken sollen.

Dazu kommt auch noch das SLI/CF mit Mittelklasse Karten eher selten anzuraten ist. ;)
 
pcgh sollte sich schämen, arma 3 apex hat kein dx12 und wurde einige monate vor release bekannt gegeben...............

qualitspresse vom feinsten. deswegen habe ich auch kein abo, weil NIEMAND VON DENEN SELBST RECHERCHIERT!

edit sagt//

und die haben auch die falsche cpu für arma 3.....
einmal mit profis arbeiten................................................................................................................................
 
pcgh sollte sich schämen, arma 3 apex hat kein dx12 und wurde einige monate vor release bekannt gegeben...............

qualitspresse vom feinsten. deswegen habe ich auch kein abo, weil NIEMAND VON DENEN SELBST RECHERCHIERT!

edit sagt//

und die haben auch die falsche cpu für arma 3.....
einmal mit profis arbeiten................................................................................................................................

PCGH schreibt doch garnicht, das Arma 3 Apex mit unter DX12 läuft !?!

Was die Benchmarkbalken bei so einem Test nicht ausdrücken, ist das ein multi GPU Setup gefühlt viel langsamer ist, als ein single GPU Setup, gemessen am Benchmarkwert.
 
Warum zur Hölle testen die mit nem i7-5820K, der nur 28 Lanes hat? :ugly: Konnten die keine anständige CPU mehr beschaffen? :lol:

Wer lesen kann...Natürlich bleibt man den offiziellen Vergleich schuldig, aber durch die verbesserte Kompression bzw Streamingengine wird da kein großer Unterschied raus kommen und im Rahmen der Messtoleranz untergehen.

Ich verstehe immer noch nicht das dieser Mhytos so lange und hartnäckig diskutiert wird.

NVIDIA ist mittlerweile in der komfortablen Lage und schafft die SLI Unterstützung bei den Mainstream Karten ab - warum sollten sie das tun wenn es nicht offensichtliche Nachteile gäbe?

Zwei verkaufte 1060er Karten wäre doch besser als eine!
Ich würde nicht mal mit der Wimper zucken und mir sofort eine zweite 980Ti einbauen...Die Erfahrung mit zwei 780er und andere SLI Setups reichen mir aber...
 
NVIDIA ist mittlerweile in der komfortablen Lage und schafft die SLI Unterstützung bei den Mainstream Karten ab - warum sollten sie das tun wenn es nicht offensichtliche Nachteile gäbe?

Zwei verkaufte 1060er Karten wäre doch besser als eine!
Ich würde nicht mal mit der Wimper zucken und mir sofort eine zweite 980Ti einbauen...Die Erfahrung mit zwei 780er und andere SLI Setups reichen mir aber...

Den SLI Support lässt man deswegen weg weil er Geld kostet und somit die Marge schmälert. Das aktuelle Nvidia Pascal Produktportfolio ist in erster Linie auf die 1070er und 1080er konzentriert, die will und kann man ordentlich gewinnbringend verkaufen. Die 1060er verkauft man weil man sie verkaufen muss und da gehts dann natürlich um jeden Cent, den ich sei's jetzt bei der Herstellung oder dem Support einsparen kann ....
Täte sich Nvidia so viel Gedanken darüber machen was dem Kunden Vor oder Nachteile bringt würds wohl heutzutage kaum eine "kastrierte" 1060 mit 3GB Vram geben ....

Wäre eine RX480 nicht der Vollausbau eines midrange Polaris 10 sondern ein xfach gecutteter highend Vega würde AMD aus Gründen der Kalkulation vielleicht den selben Weg beschreiten.
 
Zuletzt bearbeitet:
Also ich finde Multi-GPU vor allem für Nachrüster interessant.
Wenn 1-3 Jahre nach Release ne 2te Karte günstig schießen kann, ist das oft günstiger als
das nächst größere, oder gar doppelt so schnelle Modell zu kaufen, auch gebraucht.

Nur muss man halt schon ein passendes Netzteil da haben, sonst kommt das noch auf die Kosten mit drauf. Genau wie ein passendes Board. Dazu isses meist trotzdem günstiger, wenn man die alte Karte verkauft und eine neue Mittelklasse GPU holt.
Achja laufende Stromkosten bei nochmal 200W extra sind auch kein Pappenstiel.
 
... Ich werde wohl nie AMD Fanboy werden... Auch wenn ich vor Jahren mal mit einer Radeon 9700PRO Uebergluecklich war,...
Habe vor kurzem mal 2 R9 290 im CF getestet, einfach zu krasse Stromaufnahme und abwaerme. 2x RX480 ist keine Option.
AMD MUSS einfach an der effizienz arbeiten.
 
Witziger weisse Brauchte ich vor ein paar Jahren ein 750W TT ThoughPower fuer zwei GTX275, Jetzt reicht ein 650W fuer 2x GTX970, Also werden sicher die meisten schon ein passendes NT fuer die Zukunft haben!:daumen:
 
Also ich finde Multi-GPU vor allem für Nachrüster interessant.
Wenn 1-3 Jahre nach Release ne 2te Karte günstig schießen kann, ist das oft günstiger als
das nächst größere, oder gar doppelt so schnelle Modell zu kaufen, auch gebraucht.

Ich habe das schon recht oft so gemacht für diverse Gaming-PCs.
Allerdings heißt es hier Augen auf, ob die eigenen Spiele Crossfire unterstützen (nach so ner langen Zeit geht das aber oft),
und vor allem wie gut die laufen und ob man sich selbst an Microrucklern stört oder nicht.

Das macht aber nur Sinn wenn man eher alte Spiele zockt und bei Mikorrucklern unempfindlich ist. Dual-GPU hängt oft an mangelnder Skalierung und/oder mangelnder Unterstützung und wenn das System mal nicht funktioniert, dann ist es Essig mit den FPS. Ich würde mir normal (also außerhalb von VR) nie wieder ein Dual-System bauen, da rüste ich lieber öfter auf. Sinn nacht Dual-GPU imho nur wenn die Leistung der größten GPU am Markt nicht mehr ausreicht, also nur im absoluten High-End.
 
Wie kommt ihr auf die Idee, dass NVIDIA den SLI Support fallen lässt? Man hat nur Triple und Quad-SLI abgekündigt.
 
... Ich werde wohl nie AMD Fanboy werden... Auch wenn ich vor Jahren mal mit einer Radeon 9700PRO Uebergluecklich war,...
Habe vor kurzem mal 2 R9 290 im CF getestet, einfach zu krasse Stromaufnahme und abwaerme. 2x RX480 ist keine Option.
AMD MUSS einfach an der effizienz arbeiten.

Deswegen machen sie es ja gerade bzw. haben es mit der RX 400er Serie angefangen.
 
Witziger weisse Brauchte ich vor ein paar Jahren ein 750W TT ThoughPower fuer zwei GTX275, Jetzt reicht ein 650W fuer 2x GTX970, Also werden sicher die meisten schon ein passendes NT fuer die Zukunft haben!:daumen:

Nein, weil es technisch veraltet sein kann. Bei NT bitte nicht nur auf Watt achten:schief:

Sorry für den doppel Post.
 
Zurück