Was denkt ihr zur Ati 3870 X2

Das erinnert mich irgendwie alles so ein bisschen an die zeit als Dual Core Prozessoren auf den Markt kommen sollten,da waren auch einige die nur am rumheulen waren wie z.B. Blödsinn,überteuert,wird sich nie durchsetzen usw....

Heute haben wahrscheinlich genau diese "deppen" selber alle min. einen Dual Core Prozessor.
Wie gesagt,sollte nur ein vergleich sein@ y33H@ und Rain_in_may84
 
Das erinnert mich irgendwie alles so ein bisschen an die zeit als Dual Core Prozessoren auf den Markt kommen sollten,da waren auch einige die nur am rumheulen waren wie z.B. Blödsinn,überteuert,wird sich nie durchsetzen usw....

Heute haben wahrscheinlich genau diese "deppen" selber alle min. einen Dual Core Prozessor.
Wie gesagt,sollte nur ein vergleich sein@ y33H@ und Rain_in_may84

Super Vergleich da damals die DualCPUs einen geringeren Takt als Singlcore Varianten (war ja zu verkraften) hatten und außerdem die optimierte Software fehlte (das nicht so). Ein Glück sieht die Situation jetzt anders aus.
Bei den MultiGPUs fehlt es zur Zeit nicht an der Software sondern eher an der Kommunikation zwischen den GPU Chips.
Weiterhin hast du dir nicht alles richtig durchgelesen. Ich hab nicht auf die MultiGPU Karten geschimpft sonderen an deren derzeitiger Ausführung.

Die Idee mit den 2 GPUs auf einen PCB ist zwar eigentlich ganz toll aber es sollte dafür eine andere Lösung als CF und SLI zur Kommunikation der GPUs untereindander gefunden werden. Um z.B. das Thema mit den Speicher so hin zu bekommen dass zwei mal 512 MiB auch ein 1 GiB sind und nicht irgendwas dazwischen. Es könnte durch die bessere Anbinung der GPUs untereinander enrom die Effizienz von solchen Multi GPU Karten gesteigert werden und damit auch die Leistung. Somit würden sie auch attraktiver werden.

Ich hasse es mich selbst zu zittieren, vorallendingen wenn das Zitat aus den gleichen Thread kommt...

Zu guter Letzt, der "Depp" hat immer noch einen Einkerner als CPU. guckst du in mein Profil.

MFG
 
Zuletzt bearbeitet:
habe bei google rumgeschaut aber kein Hd 3870 X2 crossfire Benchmark gefunden !!

gibt es etwa kein Treiber unterstützung ?
 
Den Vergleich mit den Dualcore Prozessoren find ich gar nicht so abwegig.
Warum sollten nicht irgendwann 2 GPU's auf einem PCB zusammenarbeiten koennen? Oder Besser, warum sollten nicht zwei GPU-einheiten auf einem Chip verbaut sein?! Natuerlich sind CPU & GPU zwei verschiedene Prozessoren-typen, aber es waere doch eigentlich die logische Konsequenz aus der Entwicklung.
Anfaenglich gab es sogar 2 Steckplaetze auf dem MB (siehe heute noch XEON-MB)

...dann kam SLI & Crossfire, warum jetzt nicht Dual-GPU Karten? :hmm:
 
Die sollten lieber Dual Core GPUs oder halt allgemein Mehrkern GPUs bauen, auch wenn ich glaube das die auch zu stark von der Skalierung des Spiels/Treibers abhängen werden.
SLI und CF also auch Dual-GPU Karten, werden einfach zu schlecht unterstützt als das es sich lohnen würde, außer vielleicht bei Leuten die sowieso zuviel Geld haben und einen 30"
Außerdem kommen da noch die Probleme dazu die y33H@ schon aufgezählt hat
 
Wie ich es vorrausgesagt habe - die Ultra ist kaum langsamer und oft klar schneller, weil das nicht deaktivierbare CF und ASR für massive Probleme bei der X2 sorgen. Eine GTX ist also immer noch sinner :D

Hier die mich bestätigenden Review:

hardtecs4u.com
Entgegen einem Crossfire-Gespann aus zwei separaten Grafikkarten findet sich also im Falle dieser Dual-GPU-Lösung auch im Treiber keine Option für die Aktivierung bzw. Deaktivierung von Crossfire wieder. Der Treiber aktiviert Crossfire automatisch. Auf Nachfrage teilte uns AMD diesbezüglich mit, dass als Standard-Render-Modus generell der AFR-Modus (Alternate Frame Rendering) Verwendung findet. [...] edoch hat der Anwender im Falle der Radeon 3870 X2 keinerlei Einfluss darauf, wie die Karte schlussendlich die Frames auf den Bildschirm bringt.

Und an diesem Punkt stellt sich unweigerlich die Frage: Was passiert wenn ein Spiel nicht oder nur unbefriedigend im Zusammenspiel mit AFR läuft? Genau diese Problematik durften wir mit dem aktuellen Shooter Timeshift erfahren, welchen wir für diesen Test neu in unserem Benchmark-Parcour aufnahmen. Das Spiel reagierte mit einer Flimmerorgie auf den Einsatz der Radeon HD 3870 X2, ähnlich einem TV-Gerät, das mit einer viel zu niedrigen Hz-Zahl betrieben wird. Auf einer normalen Radeon HD 3870 bereitete das Spiel hingegen keinerlei Probleme.

Da der Anwender keinerlei Einfluss auf die Crossfire-Konfiguration nehmen kann, muss man sich mit diesem Umstand abfinden. Dies ist natürlich eine alles andere als zufriedenstellende Tatsache bei einer High-End-Karte für rund 400 Euro. Optionen für ein Profil-Management, ähnlich wie es NVIDIA bei deren Multi-GPU-Interpretation SLI macht, wäre hier wünschenswert. Zumindest die Möglichkeit Crossfire im Problemfall deaktivieren zu können sollte man dem Anwender zugestehen.

hartware.de
computerbase.de

cYa
 
Naja, daran arbeitet man gerad, es gibt Berichte von Leuten, die ein spezielles Crossfirepanel mit ein paar Optionen gesehen haben wollen...
 
kann man eigentlich auf einem neuen board (zb. K9A2 CF) eine HD3870X2 und eine HD3870 im CF laufen lassen sozusagen thriple CrossFire? Oder gibs da irgendwelche probleme?
 
Sollte normalerweise März/April kommen. Werden natürlich erstma für die Cebit aufgespart um für Ansturm zu sorgen^^
 
Den Vergleich mit den Dualcore Prozessoren find ich gar nicht so abwegig.
Das ist aber ein Apfel <-> Birne Vergleich!
Warum sollten nicht irgendwann 2 GPU's auf einem PCB zusammenarbeiten koennen? Oder Besser, warum sollten nicht zwei GPU-einheiten auf einem Chip verbaut sein?!
Weil die irgendwie miteinander kommunizieren müssen, GPUs mit weit mehr Datenmengen als CPUs hantieren und daher entsprechend breite Interfaces benötigen und so weiter, solltest dich vielleicht mal etwas mehr mit der Technik beschäfitigen, nur soviel:

CPUs und GPUs sind grundverschieden, allein schon wie mit Speicher umgegangen wird...

Natuerlich sind CPU & GPU zwei verschiedene Prozessoren-typen, aber es waere doch eigentlich die logische Konsequenz aus der Entwicklung.
Was du (und auch andere) wohl nicht so ganz wissen, ist das das schon seit Anfang an der Fall ist -- seit Riva TNT (und auch schon die Voodoo Graphics)

Anfaenglich gab es sogar 2 Steckplaetze auf dem MB (siehe heute noch XEON-MB)
Anfangs hatten CPUs keinen Cache und die GraKa hing am CPU Bus...

...dann kam SLI & Crossfire, warum jetzt nicht Dual-GPU Karten? :hmm:
Weils Blödsinn ist und man sich nur 'nen Sack voll PRobleme ins Haus holt....
 
@Stefan,

irgendwie bekomm ich den Eindruck Du wirkst etwas angespannt im Bezug auf dieses Thema.
Natuerlich habe ich lange nicht so viel Ahnung wie andere Menschen in diesem Gebiet,was aber nicht heisst, dass man solche Thesen nicht erlaeutern darf.


Worin genau bestehen die Probleme bei der Kommunikation der 2 oder mehrer GPU's (ausser an der Menge der Daten, dieses Problem laesst sich sicherlich ueber kurz oder lang beheben)

ich hatte dies neulich schon mit Y33h@...wo sind deine Gegenvorschlaege im Detail?
 
@SeoP

Ersteinmal hinkt der Vergleich mehrerer Prozessoren und GPUs gewaltig, siehe den Hinweis auf die Speicheranbindung und was wichtiger ist (CPU: Latenz, reagiert wenig bis garnicht auf Bandbreite, bei der GPU ists umgekehrt), zum anderen teilen sich die CPUs einen Speicher, daher ist der Vergleich unpassend!

Vergleichbar mit 2 Grafikkarten wäre folgendes:

Du hast 2 Boards (also 2 komplette Rechner) und frickelst die irgendwie zusammen, das wäre vergleichbar.
Ein Bild eines Beispieles einer Mehrprozessorumgebung.
Anhang anzeigen 7341

Du siehst:
die CPUs hängen an der NB, die wiederum ein Speicherinterface hat, in diesem Falle 2x PC2-6400 bzw 4x PC2-6400F.

Beim Opteron schauts auch nicht anders aus, der hat auch 'nur' 2x 400MHz @ 64bit, maximal, pro CPU, macht also lächerliche 12,8GB/sec, bei aktuellen GPUs haben wir das 10 Fache.
Da sich der Code für 3D Berechnungen um WELTEN besser parallelisieren lässt (was bei x86 Code nur schwer möglich ist, Multicore ist auch nur 'der letzte Ausweg', aber das ist Thema für einen anderen Thread), hat man schon seit ewigkeiten mehrere 'Cores', die parallel rechnen...

Zum Problem mit der Kommunikation zwischen den beiden GPUs:
Ums wirklich brauchbar hinzubekommen, bräuchte man ein Interface das genauso schnell wie das Speicherinterface ist!
Und wie willst du das hinbekommen, so dass das auch in der Praxis realisierbar ist??
Und genau das ist das Problem...

Komm jetzt nicht mit Hyper Transport, das ist sogar in Version 3.0 ein Witz gegen die Bandbreiten, die die GPU zum Speicher hat!

Zum Vergleich: Hyper Transport schafft etwa 20GB/sec, VRAM einer aktuellen 'High End' Grafikkarte wie der HD3870 sind etwa 100GB/sec, das Chip to Chip Interface müsst also etwa fünfmal so schnell sein, wie HT 3.0 und das auch nur für die aktuelle Generation, bei der kommenden (oder nehmen wir mal den R600) reicht das auch wieder nicht.


Du siehst, das ist also nur schwer bis garnicht zu realisieren.
 
Zuletzt bearbeitet:
Zurück