• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Was denkt ihr zur Ati 3870 X2

CrashStyle

PCGHX-HWbot-Member (m/w)
Soll ja nächste woche rauskommen und ein online shop hat sie ja schon im verkauf! Was denkt ihr wie ist die karte???
 

y33H@

BIOS-Overclocker(in)
Wir haben doch schon massig Threads dazu ...

Ich halte es für Unfug wie alle Dual-GPU-PCB Karten, zuviele Probleme - lieber ne GTX.

cYa
 

Secondfly

Gesperrt
Wir haben doch schon massig Threads dazu ...

Ich halte es für Unfug wie alle Dual-GPU-PCB Karten, zuviele Probleme - lieber ne GTX.

cYa

Ich halte es für keinen Unfug denn so kommen auch Leute mit nur einem PCIe-Slot in den Genuss von Dual-Power ohne sich ein SLI- oder CF-Board kaufen zu müssen. Es macht also schon Sinn sich ne Dual zukaufen.
 

y33H@

BIOS-Overclocker(in)
Ich habe doch gesagt, Dual-GPU-PCB - also habe ich ja nicht von normalem CF/SLI gesprochen ;)

Wobei die Vor- und Nachteile bis auf das nicht benötigte CF/SLI-MoBo gleich sind - letzteres bleibt aber noch abzuwarten in wie weit es da mit normalen MoBos Komplikationen gibt, die 7950GX2 läuft bis heute nicht auf allen Boards.

cYa
 

Secondfly

Gesperrt
Ob 1PCB oder 2 ist ja eigentlich egal. Wichtig ist, wie gut die Chips miteinander kommunizieren und was der Treiber draus macht. Na gut, die 7950GX² lass ich jetzt mal so im Raum stehen....darüber gibts genug Berichte für Pro und Contra. Allein das Thema Kühlung, ein absolutes Desaster wo man nur hoffen kann das es mit der kommenden GX² "wirklich" besser gemacht wird. Ansich bin ich aber für Dual-GPU...ob nun mit einer oder zwei PCBs ist wurscht.
 

M. Polle

Komplett-PC-Aufrüster(in)
Wird bestimmt interessant, aber ich halte genauso wie y33h@ nciht wirklich was von mehr als einer Grafikkarte. Ich denke bis sich MultiGPUs wirklich etablieren, sind diese sowieso unter einem Heatspreader oder sogar auf einem DIE! richtig interessant könnte es ab dem R700 werden, aber nur wenn die Entwicklung wirklich in Richtung Multi-GPU geht und der R700 ein Grundstein wird und nicht eine Technologie, die dann schnell wieder verworfen wird:)

Man kann aber auch einfach abwarten und Tee trinken;)
 

Stefan Payne

Kokü-Junkie (m/w)
Ob 1PCB oder 2 ist ja eigentlich egal. Wichtig ist, wie gut die Chips miteinander kommunizieren und was der Treiber draus macht.
Und genau das ist eher schlechter denn bei 'echten' CF/SLI,

Und die Chips kommunizieren genauso wie bei 2 einzelnen Karten miteinander, der Treiber macht auch nix anderes draus, momentan ists auch eher Müll, was der Treiber da rausholt (stichwort Microruckler -> asynchrone Frametime) ist Mist, kurzum sind Multigpu Systeme 'ne Krücke.
Na gut, die 7950GX² lass ich jetzt mal so im Raum stehen....darüber gibts genug Berichte für Pro und Contra. Allein das Thema Kühlung, ein absolutes Desaster wo man nur hoffen kann das es mit der kommenden GX² "wirklich" besser gemacht wird. Ansich bin ich aber für Dual-GPU...ob nun mit einer oder zwei PCBs ist wurscht.
1. Warum?!
Weil die ein hervorragendes Beispiel dafür ist, wie mans nicht macht?!
Oder weils 'nen Beispiel für eine Karte die Mist ist, ist?!
2. Richtig, Multigpu Karten sind alle Mist und eher 'ne Krücke...

Einzig die Dual HD2600 Karten sind zu empfehlen, wenn da nicht der Preis wäre und das auch nicht wegen der Leistung sondern Anschlüsse!!
 

Secondfly

Gesperrt
die 7950GX² ist das Beispiel dafür wie man es eben nicht macht. Ich vermute mal, dass eine Karte mit 2 PCBs bzw: Dual-GPUs generell, vorrangig nicht für CF oder SLI gedacht sind, sondern wohl eher den Besitzer eines Boards mit nur einem PCIe-Slot ansprechen sollen. Ich denke das evtl. mit 2x GX² oder 2x X2 SLI bzw. CF möglich ist, wird einfach nur ein nettes Zubehör für Enthusiasten sein. Und in meinen Augen ist es eben Wurscht ob die Chips nun auf einer oder zwei PCBs sitzen solang die Leistung und vor allem Kühlung stimmt.
 
B

Bimek

Guest
Für Leute mit grossem Monitor 24" 27" 30" gibts nunmal keine andere Lösung als Top-End Multi-GPUs um in der nativen Auflösung ordentlich zu daddeln.

Ich finde es gut, dass auch in diese Richtung entwickelt wird... :cool:

Die SingleGPUs haben sich in der leistung in einem Jahr kaum weiter entwickelt,( GTX , ULTRA >> immer noch (mit) die schnellsten Karten :ugly:)....

mfg
 

y33H@

BIOS-Overclocker(in)
Für Leute mit grossem Monitor 24" 27" 30" gibts nunmal keine andere Lösung als Top-End Multi-GPUs um in der nativen Auflösung ordentlich zu daddeln.
Ach ja? Wie wäre es mit einer niedrigeren Auflösung statt der nativen?!

cYa
 

EvilKnivel

Komplett-PC-Käufer(in)
Was meint ihr. Werden die X2 un die GX2 die selben Probleme haben wie ein CF/SLI Gespann. Sin ja immerhin zwei GPUs drin:D. Hat noch nie ne GraKa mit zwei GPUs, deshalb frag ich halt mal^^.

MfG EvilKnivel
 

y33H@

BIOS-Overclocker(in)
....gar nix wäre das..... wer sich nen z.B. 27" kauft wird sicher nicht mit 1280 zocken wollen.....
... weil er dann sich nicht toll fühlt?! Du kannst außer mit zwei G92 oder zwei GTX oder vll noch zwei HD3870 keinen 27'' befeuern, zudem haben auch genug Leute so einen Monitor zum Arbeiten! Und ob man nicht in 1280 zocken will oder ob man es muss, weils in 1900*1200 ruckelt wie blöde ist ja wohl ein Unterschied!

@ EvilKnivel

Klar, die Probs sind gleich, einzig der Platzverbrauch ist bei PCB-onboard-CF/SLI geringer.

cYa
 

y33H@

BIOS-Overclocker(in)
Keiner, wenn du sie gleich taktest. Die X2 läuft mit 825/900, eine normales HD-Doppel mit 775/1125, ich denke normales CF dürfte daher leicht flotter sein, vll gleicht die interne Verschaltung dies aber aus.

cYa
 

EvilKnivel

Komplett-PC-Käufer(in)
@y33H

Ah okay. Des is doch dann Schwachsinn so ne Karte überhaubt zu bauen, wenn allgemein bekannt ist das es schon bei CF bzw. SLI Zicken macht.
Oder werden solche Karten nur produziert um dehnen die n CF/SLI Gespann wollen aber nur ein PCIe Slot besitzen, das etwas zu erleichtern? Damit die dann sich nicht gleich ein ganz neues MoBo dazu kaufen müssen?
Oder ist des wieder so n, ätsch bätsch, wir ham die schnellste Karte überhaupt Dreck:ugly:?

MfG EvilKnivel
 

Secondfly

Gesperrt
Abwarten, ich denke die Chips auf der X2 werden wesentlich effizienter als ein normales CF-Gespann arbeiten...sonst würde AMD/ATI selbst doch den Sinn dieser Karte in Frage stellen. Sicherlich hier ein Minus ist die niedrigere Taktrate des Speichers aber vermute ich mal wage, das man mit ein wenig OC doch etwas mehr rauskitzeln kann und mindestens den Standardtakt (Speicher) einer normalen HD3870 (1126MHz) erreichen wenn nicht gar toppen kann.
 

Rain_in_may84

PCGHX-HWbot-Member (m/w)
Des is doch dann Schwachsinn so ne Karte überhaubt zu bauen, wenn allgemein bekannt ist das es schon bei CF bzw. SLI Zicken macht.

Ja ist es in meinen Augen. Die die es sinnvoll finden haben zuviel Geld und achten auch nicht so auf ihre Stromrechnung bzw bezahlen sie nicht selbst ;)

Oder werden solche Karten nur produziert um dehnen die n CF/SLI Gespann wollen aber nur ein PCIe Slot besitzen, das etwas zu erleichtern? Damit die dann sich nicht gleich ein ganz neues MoBo dazu kaufen müssen?

Das kann sein, wäre ja dann nett von den Herstellern :P

Oder ist des wieder so n, ätsch bätsch, wir ham die schnellste Karte überhaupt Dreck:ugly:?

Ich denke die wollen einfach nur für die Statistik ein "Performance Sprung" hinlegen, der in Wirklichkeit nicht vorhanden ist.

MFG
 

y33H@

BIOS-Overclocker(in)
@ EvilKnivel

Von einem vernünftigen Standpunkt aus gesehen ist SLI/CF mit Mid-Range Chips wie dem G92 und RV670 tatsächlich Schwachsinn, nichtsdestotrotz sind solche Dual-Karten öfters in der Lage - Probleme hin und Schwierigkeiten her - Highest-End Modelle zu schlagen und werden daher von den Entwicklern wie auch vielen Reviewern und Fanboy als schnellstes, tollstes Produkt dargestellt. Solche Karten haben eine enorme PR Wirkung, der übliche nichtsahnende Kunde schlägt bei dem Hersteller zu, der die fetteste Karte hat, denn "dann müssen die andren Karten ja auch so toll sein".
Oder ist des wieder so n, ätsch bätsch, wir ham die schnellste Karte überhaupt Dreck?
Genau das, Prestige auf Teufel komm raus, nichts sonst!

@ Secondfly
ich denke die Chips auf der X2 werden wesentlich effizienter als ein normales CF-Gespann arbeiten
Aha, und warum? Wenn ich zwei GPUs auf einem PCB kopple, dann ist da natürlich schneller und Strom sparender als wenn man exakt die identischen GPUs auf zwei getrennten PCBs packt und koppelt, oder was?! Die X2 ist wenn, nur deswegen 10 Watt sparsamer, weil der Speichertakt stark gesenkt wurde (von 1125 MHz auf 900 MHz). Und wer weiß, ob ATI vll nur Speicher mit 1.1ns einsetzt wie auf der HD3850 anstatt welchen mit 0.8ns wie auf der HD3870 - mit den 1.1ns ist es ohne größere Mods nahezu unmöglich auf 1125 MHz zu kommen.

cYa
 

Nobbis

Software-Overclocker(in)
ich würd sie mir gern kaufen, weiss aber nicht warum, es gibt derzeit nur ein Spiel, welches ich schöner stellen wollte (AA&AF) als ich kann

aber 1GB VRAM und diese Hammer Performance für 400 is schon verlockend
 

Secondfly

Gesperrt
Aha, und warum? Wenn ich zwei GPUs auf einem PCB kopple, dann ist da natürlich schneller und Strom sparender als wenn man exakt die identischen GPUs auf zwei getrennten PCBs packt und koppelt, oder was?! Die X2 ist wenn, nur deswegen 10 Watt sparsamer, weil der Speichertakt stark gesenkt wurde (von 1125 MHz auf 900 MHz). Und wer weiß, ob ATI vll nur Speicher mit 1.1ns einsetzt wie auf der HD3850 anstatt welchen mit 0.8ns wie auf der HD3870 - mit den 1.1ns ist es ohne größere Mods nahezu unmöglich auf 1125 MHz zu kommen.

cYa

"Ich denke/vermute..." ist eine Aussage die darauf zielt das ich es eigentlich nicht weiß aber es hoffe....deswegen ist eine Anwort auf dein "Aha, warum?" relativ unwahrscheinlich. Aber ich glaube es eben, ansonsten würde ATI den Sinn der eigenen Karte in Frage stellen oder nicht?
 

Nobbis

Software-Overclocker(in)
Aha, und warum? Wenn ich zwei GPUs auf einem PCB kopple, dann ist da natürlich schneller und Strom sparender als wenn man exakt die identischen GPUs auf zwei getrennten PCBs packt und koppelt, oder was?! Die X2 ist wenn, nur deswegen 10 Watt sparsamer, weil der Speichertakt stark gesenkt wurde (von 1125 MHz auf 900 MHz). Und wer weiß, ob ATI vll nur Speicher mit 1.1ns einsetzt wie auf der HD3850 anstatt welchen mit 0.8ns wie auf der HD3870 - mit den 1.1ns ist es ohne größere Mods nahezu unmöglich auf 1125 MHz zu kommen.

cYa

Auf der X2 soll DDR3 zum Einsatz kommen, dieser nimmt mehr Strom als DDR4 auf der einzelnen 3870. Und ja, es werden sicher keine 0.8ns werden, da DDR3.
Vermutlicher Schritt um Kosten zu sparen, da 1GByte verbaut sind.
Zwei 3870 haben auch zusammen nur 512MByte VRAM, weil die 2x 512MByte nicht addiert werden dürfen
 

Rain_in_may84

PCGHX-HWbot-Member (m/w)
Auf der X2 soll DDR3 zum Einsatz kommen, dieser nimmt mehr Strom als DDR4 auf der einzelnen 3870. Und ja, es werden sicher keine 0.8ns werden, da DDR3.
Vermutlicher Schritt um Kosten zu sparen, da 1GByte verbaut sind.
Zwei 3870 haben auch zusammen nur 512MByte VRAM, weil die 2x 512MByte nicht addiert werden dürfen

1. Die Asus X2 hat GDDR3 Speicher mit 0,8ns. Quelle: http://www.pcgameshardware.de/?article_id=629355
Was für Speicher die Hersteller nehmen ist den ihre Sache, Hauptsache die erfüllen die Vorgaben von AMD.

2. hat dieses X2 "Ding" auch nur 2 x 512 MiB VRAM warum sollte sie also 1 GiB haben, wenn du sagst das 2 CF 512MiB keine 1024 MiB haben?
oder habe ich das falsch verstanden?

MFG
 

Nobbis

Software-Overclocker(in)
meinen Infos zufolge können bei der X2 beide GPUs die vollen 1Gbyte nutzen, weil sie vieleicht als ein Chip vom Treiber erkannt werden, ich weiß es aber auch nicht genau, damit wird ja auch geworben, schau auf den Karton

Bei CF stehen nur 512 MByte zur Verfügung, weil die Ausgabe über eine Karte geschieht

Und die News sind nicht von PCGH, der Wortlaut ist "der mit 0,8 Nanosekunden spezifiziert sein soll", obwohl es natürlich erfreulich wäre wenn der DDR3 so spezifiziert sein sollte, denn dann kann man noch mit dem Takt nach oben gehen.
 

Nobbis

Software-Overclocker(in)
Gerade das kann ich mir nicht vorstellen. Bei CF wird doch auch nicht mit 1GB VRAM geworben.

Hat keiner hier nen Plan?
 

Rain_in_may84

PCGHX-HWbot-Member (m/w)
Keine Ahnung warum die da 1GiB angeben, weil wie Stefan schon sagte unrecht haben sie nicht damit und besser klingen tut es nunmal.
Zudem ist mir nicht bekannt das ein Hersteller eine CF-Kombi zum Verkauf anbietet, wenn Jemand so etwas kennt bitte Link angeben, das wäre nett :)

Und ich hab etwas schönes bei Fudzilla gefunden, nämlich einen Bericht ob sich so eine "Powerkarte" (Dual-Gurke) überhaupt lohnt. Es ist alles in Englisch aber sehr gut geschrieben. fudzilla.Link
Viel Spaß beim lesen.

Edit:
Aber ich glaube es eben, ansonsten würde ATI den Sinn der eigenen Karte in Frage stellen oder nicht?

Die Karte hat einfach den Sinn, wie y33h@ schon sagte, die Performancekrone mit 2 Mittelklasse Chips zu erlangen und das dann als Highend Superprodukt anzupreisen, welches es aber mal nun objektiv nicht ist.
 

Nobbis

Software-Overclocker(in)
Sapphire hat Crossfire Gespanne verkauft, aber darum geht es primär nicht, auch eine Technologie wird ja beworben

Verkaufsslogan "setzen sie eine zweite Graka ein und sie verdoppeln ihren Grafikspeicher"

ich sehe es objetiv als HighEnd - PCIe2.0, DX10.1, Stromspartechniken wie man sie sonst nur aufm Notebookmarkt kennt, das hat Nvidia alles nicht, mal davon ab, das die Leistung sich ja tatsächlich im HighEnd Bereich zu bewegen scheint
 

Stefan Payne

Kokü-Junkie (m/w)
Gerade das kann ich mir nicht vorstellen. Bei CF wird doch auch nicht mit 1GB VRAM geworben.

Hat keiner hier nen Plan?
Bei CF hat man ja auch nicht eine Karte sondern 2.

Von daher stimmt die Angabe von 1GiB ja, es befinden sich physikalisch 1GiB auf der Karte, das man davon nur die Hälfte nutzen kann, steht auf einem anderen Blatt...
 

y33H@

BIOS-Overclocker(in)
@ Nobbis

Die X2 ist allerhöchstwahrscheinlich nichts weiter als zwei HD3870-GPUs, welche mit einem Core/Shadertakt von 825 MHz rennen. Jeder der beiden Chips kann auf mit 256Bit und 900 MHz angebundenen GDDR3-RAM zugreifen, der Speicher addiert sich natürlich nicht. Von einer Technologie, womit jede GPU auf den VRAM der anderen GPU zugreifen kann, ist bisher nichts bekannt. Da aber 16 Speicherbausteine mit je 64Mb (gesamt 1024Mb) auf dem PCB sitzen, schlachtet das Marketing dies mit dem Media-Markt-Slogan "1Gb-Karte" eben wie üblich aus.

PCIe2.0, DX10.1 und Powerplay klingt ja wohl nur bedingt nach High-End. DX10.1 klingt nach Technologieführung, PCIe2.0 nach super-duper-schnell und Powerplay, also Stromsparmechanismen klingt für die meisten mehr nach Low-End.

cYa
 

Nobbis

Software-Overclocker(in)
die
Umwelt und den Geldbeutel schonen klingt nach LowEnd?

:-|

ansonsten hast ja recht, aber ich hoffe das die 1GByte wirklich echt sind, weil dann hol ich mir die Karte


das is ja wie, Mercedes baut jetzt nen S600 mit 1Liter Verbrauch und ohne Abgase und die Leute sagen, iiii wasn das für ne Krücke, obwohl er schneller is als die Konkurrenz
 
Zuletzt bearbeitet:

y33H@

BIOS-Overclocker(in)
Imo verbinden die meisten Käufer High-End mit Stromfressern und Low-End mit sparsam, das meinte ich.

Was soll die Aussage "das die 1GByte wirklich echt sind, weil dann hol ich mir die Karte"? Die Karte ist herrlich teuer dann, der Nutzen beschränkt sich auf 10-25% mehr Power, wobei die beiden Chips bei AA, wo sich der VRAM bemerkbar macht, oder kommenden Games, die mehr als 512Mb wollen, eh zu lahm sind. Es ist unsinnig so etwas zu kaufen.

cYa
 

Rain_in_may84

PCGHX-HWbot-Member (m/w)
das is ja wie, Mercedes baut jetzt nen S600 mit 1Liter Verbrauch und ohne Abgase und die Leute sagen, iiii wasn das für ne Krücke, obwohl er schneller is als die Konkurrenz

ne das ist eher wie die Stuttgarter bauen einen S1200 mit 2 600er Motoren wodurch der Kofferaum wegfällt, der Spritkonsum ordendlich ansteigt, die Alltagstauglichkeit sinkt und die Fahrleistungen nicht viel mehr als denen eines S65 AMG entsprechen und das zu einen unglaublich hohen Preis von mehr als 2 S600ern.
Und jeder normale Mensch sagt dann warum brauche ich 2 Motoren in einem Auto? und das völlig zu Recht.

MFG
 

DerSitzRiese

Software-Overclocker(in)
Kann denn nicht mal ein Mod diesen Threadtitel ändern? Mann kann nicht "zur" etwas denken.
Aber "über die" beispielsweise würde gehen.

Ist vielleicht etwas kleinlich, aber jedesmal wenn ich das hier so lese ärgere ich mich.
 

Nobbis

Software-Overclocker(in)
nanu, du musst dich doch nicht ärgern, wir quasseln doch über die X2

y33H@ - also gerade in diesen Auflösungen trumpft doch bereits die 3870 auf, und die 10-25% mehr Power als eine Ultra rechtfertigen für mich den Kauf . nagut 400 is für mich günstig wenn die bisherigen benches stimmen

das mit dem VRAM macht mir da nur sorgen, denn wenn effektiv tatsächlich "nur" 512MB genutzt werden können wie beim einem CF Gespann, dann muss ich da nochmal nen Auge drauf werfen

@Rain_in_may84 - es sind ja keine zwei 600er Motoren und der Verbrauch liegt 10% über den AMG aber die LEiStunG um 25% (genau hab ichs jetzt nicht da) höher
 
Oben Unten