Was denkt ihr zur Ati 3870 X2

@Rain_in_may84 - es sind ja keine zwei 600er Motoren und der Verbrauch liegt 10% über den AMG aber die LEiStunG um 25% (genau hab ichs jetzt nicht da) höher

Wieso das ist aber das ist genau das was AMD und Nvidia gerade machen. Die nehmen einfach 2 gehobene Mitteklasse Chips, schustern die zusammen und sagen Leute guckt mal wir haben die ultimative Karte...
Wenn man einen S600 als gehobenen Mittelklassemotor und den AMG Motor als Topmotor nimmt, haut mein vergleich ziemlich gut hin.
Und dann baut man einfach 2 S600er Motoren in die S Klasse ein und sagt: guckt Leute die ultimative Fahrmaschine... und vorallendingen zu einen Preis von weit mehr als 2 S600.
dabei wär das genauso ein Heckmeck wie die X2 und die GX2.

MFG

Edit: wegen den Speicherverbrauch und dem Speicher generell von der X2
2 Postings von ulukay
das 1. für Speicherverbrauches bei Grakas:
http://extreme.pcgameshardware.de/showpost.php?p=66633&postcount=48
das 2. für den Speicher der X2
http://extreme.pcgameshardware.de/showpost.php?p=66575&postcount=30
 
Zuletzt bearbeitet:
@ Nobbis

Der Preis der X2 wird bei rund 450 liegen, eine GTX kostet 340, also ist die X2 rund 30% teurer und im Schnitt 15-15% schneller, gerne mal auch langsamer. Die X2 geht gerade mit den 900 MHz und somit nur 57.6 Gb Bandbreite und den nur 512Mb in höheren Auflösungen und mit Speicherfressenden Settings unter, zudem ist die RV670 Architektur sowas von mies mit AA/AF ....

@ Rain_in_may84

Deine VRAM Links taugen imo nur wenig, man muss 512Mb gegen 1024Mb auch mit Spielen/Settings testen, die über 512Mb nutzen - dann geht die 1024er stark nach vorne, vor allem wegen dem VRAM-Bug, bei den Radeons sind "nur" 10-25% mehr.

Anhang anzeigen 6636

cYa
 
Also ich seh dass so...
ATI war unter Zugzwang. Und was sie da mit der X2 momentan gemacht haben ist 1.) noch von keinem foreninternen Mitglied einem wirklichen Praxistest unterzogen worden (folglich ist alles Hypothese) und 2.) denke ich dass das Prinzip doch funktionieren kann.

Die 2 Chips verbrauchen so viel Strom wie meine 2900 PRO ... ich finde das beeindruckend den selben Chip so weiter zu entwickeln!

400 euro sind im Vergleich zur Leistung (Voellig egal, wieviel Chips verbaut sind) absolut fair. Zur Erinnerung, die ULTRA steht nach wie vor mit schlappen 500 Latschos im Internet und die benoetigt fast auch so viel Strom.

Uber die Umweltvertraeglichkeit als solches sollten wir eh den Mund nicht aufmachen. Unsere begeehrten Produkte sind sowas von Umweltschaedlich, das einem der Hut wegfliegt...

Man kann sich zwar darueber aufregen das AMD erst jetzt mit solch einer Karte (oder solch einer Loesung) kommt, Fakt ist jedoch dass sie anscheinend mehr Dampf hat als jede andere Karte IN EINEM STECKPLATZ.

Es interessierts doch am Ende auch nicht wie Euer FC gewonnen hat: Hauptsache der Ball ist Rund und Tor ist Tor!
 
Der RV670 ist ja keine wirkliche Weiterentwicklung, sondern "nur" ein Die-Shrink samt eingebauten Powerplay.

450 sind für die schwankende Power und die vielen Probleme/Nervereien imo zuviel ...

cYa
 
450 sind für die schwankende Power und die vielen Probleme/Nervereien imo zuviel ...

cYa

woher beziehst Du diese Informationen?
Versteh mich nicht falsch, ich vermisse nur deinen fundierten Bezug. Das einzige was ich von Dir in diesem Thread gelesen habe war Gemecker...wo bleibt deine Lösung für deine Ansicht?
Ich denke Du weisst einiges über Grafikkarten; dann setze Zeichen und Anregungen worüber man nachdenken und tüfteln kann, anstatt nur den Zeigefinger zu erheben.
 
Alles klar - dann hau ich mal in die Tasten und greif in die Link-Kiste ...

computerbase
Denn der Codename verdeutlicht bereits, dass der RV670 eng verwandt mit dem R600, der auf der Radeon HD 2900 XT verwendet wird, ist. [...]ATi hat seit längerer Zeit die Tradition, dass man immer den neuesten zur Verfügung stehenden Fertigungsprozess nutzt, von der man beim RV670 nicht abgewichen ist. So wird die GPU im modernen 55-nm-Prozess gefertigt und beherbergt mit 666 Millionen Transistoren einige Schaltungen weniger als der R600[...]Kurz zusammengefasst besteht der RV670 aus denselben technischen Einheiten wie der R600[...]So unterstützt der RV670 die Direct3D-10.1-API, den Unified Video Decoder (UVD), eine intelligente Stromsparfunktion und den PCIe-Standard der zweiten Generation[...]Die 64 5D-Shadereinheiten sind auf dem RV670 unverändert geblieben[...]Beim RV670 hat es ATi bei 16 Textureinheiten belassen[...]

Doch was hat sich denn nun überhaupt auf einem RV670 geändert? Die Feinheiten liegen abgesehen von den oben erwähnten offensichtlichen Modifizierungen im Detail.[...]Die Arbitter-Logik im Speichercontroller wurde verbessert, zudem kann man nun auftretende Latenzen besser in den ROPs verstecken.[...]Erreicht wird dies laut David Nalasco (ein AMD-Mitarbeiter^^) durch eine höhere Taktrate des Shader-Cores. Genauere Details konnten wir bis jetzt leider noch nicht in Erfahrung bringen.[...]Darüber hinaus hat ATi auf dem RV670 nach eigenen Angaben die Performance bei Geometry-Shader-Berechnungen steigern können
Man erkennt schnell, der RV670 ist schlicht ein R600, man hat eben den Chip auf 55nm zusammengepresst, packt den UVD sowie DX10.1 mit ins Die und nutzt PCIe2.0 - nichts, was die Performance ändern würde. Die angeblichen Änderungen, die der AMD Mitarbeiter nennt, sind praktisch nicht spürbar. Vergleicht man eine HD2900Pro/512/256Bit (600/800) mit einer auf 600/800 getakteten HD3870, gibts in allen Benches Gleichstand.

Liest man andere Reviews, sieht man ähnliches - die Verbesserungen hat kein Tester entdecken können, nur laut AMD wurde was geändert.

PCGH schreiben im Heft selbst, dass nur Powerplay, DX10.1, PCIe2.0 und der UVD neu sind - aber keine architektonischen Neuerungen vorhanden sind, die mehr Power bringen. Auch die angeblich ausgebügelte AA-Schwäche sei noch vorhanden --> "So muss vorerst konstatiert werden, dass AMD dieses Versprechen nur aus einer bestimmten Perspektive einhalten konnte" --> freundliche Umschreibung von "die haben nix verbessert".

cYa
 
Zuletzt bearbeitet:
@y33H@ - Tipp in eigener Sache, du hast die Hersteller vertauscht, die HD3870 ist bei hohen Auflösungen und reichlich AA&AF die bessere Karte, nich umgekehrt http://www.computerbase.de/artikel/...rte/22/#abschnitt_performancerating_qualitaet
der Test wurde sogar sehr nachteilig gegen die AMD Karten geführt, weil das Board nur 8fach PCIe unterstützte, kann passieren, die Kommentare bringen Licht ins Dunkel

dann ist auch nicht von der GTX die Rede sondern der 500 Ultra, da SOLL (obs wahr is kann noch keiner sagen) die X2 deutlich schneller sein, bei lediglich 10% mehr Verbauch, also bessere Effizienz

VRAM Bug? Ich dachte den hätte nur die GTS320?!?!
 
Zuletzt bearbeitet:
@ Nobbis

Nö, ich habe da nichts verdreht. Die HD3870 im CF ist nur besser, weil sie mehr Bandbreite hat und nur bei 8xAA, was eh kaum spielbar ist, ist das RV670-Doppel flotter als die beiden G92-GTS.
Du musst bedenken, dass ATI bei 8xAA einen andren Modus als nV benutzt ;)

Zwischen einer GTX und einer Ultra liegen keine 10%, die Ultra kauft keine Sau, zudem geht jede A2/A3-GTX auf Ultra Takt oder mehr - die X2 hat sich an der 340 GTX zu messen und da sieht sie imo nicht gut aus. Zwar ist die X2 meist schneller, teils aber auch langsamer und zudem sicher mehr als 100 und will mehr Strom.

cYa
 
Nagut, ich belasse es dabei, ich hatte mich hier eigentlich nur angemeldet, weil "extreme" klang ziemlich wichtig, aber hier is genau das selbe zu lesen wie in allen anderen Foren auch, nur eben noch extremer :-(

Fanboy blabla und alles beruht wie immer auf VErmutungen
 
Fanboy blabla und alles beruht wie immer auf VErmutungen
Das Fanboy verbitte ich mir und natürlich sind es nur Vermutungen oder hast du ein Review mit einer finalen X2 oder einer finalen GX2 zur Hand?!

Ich will keinem auf die Füße treten, zumal deine Aussagen schon gut klingen, nur ists eben oft ein bissl Ansichtssache ;)
Meine Ansichten vertrete ich aber ehrlich gesagt arg heftig, in über 90% der Fälle treffen meine Vermutungen aber eben ein^^

Es wäre schade, wenn du uns wieder verlässt ...

cYa
 
schwankende Power und die vielen Probleme/Nervereien

ich habe den Bericht seinerzeit auch sehr interessiert gelesen.

Aber in diesem Bericht sehe ich keinen Zusammenhang zu deinen Aeusserungen auf schwankende Power oder Probleme / Nervereien...

was verstehst Du unter schwankender Power? und vorallem in welchem Kontext? Spiele, Anwendungen, Stromverbrauch?

Wenn Du Probleme bei der Treiberentwicklung meinst, dann trifft dies genauso auf Nvidia zu.

Das mit der Kantenglaettung kann ich nachvollziehen, das ist in der Tat aergerlich, und es ist daemlich dass sich ATI dbzgl nicht aeussern moechte.

ABER: es gibt meines Wissens keine nenneswerten Ausrutscher die deiner Beurteilung entsprechend gerecht waeren.

Nun, bevor wir aber in die Haarspalterei abrutschen (passiert ja schnell in einem Forum), was waere deiner Meinung nach sinnvoll und verbesserungswuerdig. Woran klemmt es bei ATI?
Was koennte die Produktion von GPU-chips verbessern, welcher Entwicklungsfehler/-Manko laesst ATI hinterher hinken?
 
Ich meine folgende Probleme/Nervereien:

  • bestimmter Chipsatz mit mindestens 2x 8 Lanes notwending
  • Platzverbrauch/Enge mit daraus resultierenden Wärmeproblemen
  • doppelter Stromverbrauch
  • Mauslag und asymetrische Fps (Mikroruckler)
  • sehr abhängig von der Treiberunterstützung
  • Skalierung reicht von -10% bis +95%, im Schnitt nur ~50-60%
  • kein Multi-Monitoring

Mit "schwankender Power" meine ich das Skalierungsverhalten, welches eben keine konstante Leistung ermöglicht wie sie eine Single-GPU an den Tag legt. Je nach Spiel und Setting kommt es vor, dass CF mit knapp 100% skaliert, manchmal sind zwei Karten aber auch langsamer als Eine - vor allem bei CPU-lastigen Titeln.

Was meinst du mit "Ausrutscher"? Vll, dass eine GTX ab und zu schneller als 2x HD3870 sind?

Bei ATI wie auch nV klemmt es imo an einem: Multi-GPU ist im Highest-End-Sektor eine feine Sache! Es ist allerdings traurig/lächerlich/dämlich, dass man Entwicklungszeit in eine Dual-GPU-Karte steckt, um mit zwei Mid-Range-Chips und hoffentlich guter Skalierung die Leistungskrone zu halten (nV) oder wieder zu erobern (ATI). Beide Hersteller sollten sich auf gescheite Single-GPUs konzentrieren, dann haben die Entwickler auch mehr Zeit, auf die aktuell erhältlichen GPUs zu optimieren - wie man an den Konsolen sieht, kann man somit viel mehr raus holen, als die 30%, die die GX2 angeblich vor der Ultra liegt.
ATI speziell, genauer AMD haben wohl einige Probleme mit ihren Chips und der Übernahme, daher hinken sie hinterher, da hilft nur schneller und besser entwicklen. Imo hätte man sich die X2 schenken und gleich am R700 weiter bauen sollen. Leider haben die meisten Käufer (Retail wie OEM) für sowas kein Verständniss, der Hersteller, der technologisch und PR-technisch hinterhängt, macht weniger Umsatz und so steht weniger Budget zum entwickeln zur Verfügung - ein Teufelskreis.

cYa
 
Nagut, ich belasse es dabei, ich hatte mich hier eigentlich nur angemeldet, weil "extreme" klang ziemlich wichtig, aber hier is genau das selbe zu lesen wie in allen anderen Foren auch, nur eben noch extremer :-(

Fanboy blabla und alles beruht wie immer auf VErmutungen


Also Fanboy blabla von y33h@?

Wir haben doch schon massig Threads dazu ...

Ich halte es für Unfug wie alle Dual-GPU-PCB Karten, zuviele Probleme - lieber ne GTX.

cYa

Kein Fanboy gelaber, er findet DualGPU Karten weder von Nvidia noch von AMD gut.
Er hat lediglich seine Meinung dargelegt, genauso wie du, viele andere hier und ich auch ;)

Also viele sind der Ansicht, das diese Karten für das Geld keine gute Leistung bringen. Das ist nich von der Hand zuweisen, da SingleGPU Karten mit den gleichen technischen Spezifikation schneller und sparsamer wären als eine Dualkarte und außerdem ist eine DualGPU mehr als doppelt so teuer wie die Single Karte.
Das andere ist: es hat nicht viel mit Vermutung zu tun um auf die Leistung der DualGPU Karten zu schließen. Da es sich um die gleiche Technik wie bei einer Zweikartenlösung handelt. Also wird die Performance auf ungefähr den Niveau sein.
Und worüber viele sich auch noch aufregen, dass einfach 2 Mittelklasse Chips zusammen gepackt werden um das neue Highendmodell zu bauen und nicht zwei Highendchips auf ein PCB geschustert wurden.
Dann sollen die Hersteller halt auf Wasserkühlung setzen und nicht auf Luftkühlung wenn sie die Hitze von 2 GTX nicht in den Griff bekommen.
Die Idee mit den 2 GPUs auf einen PCB ist zwar eigentlich ganz toll aber es sollte dafür eine andere Lösung als CF und SLI zur Kommunikation der GPUs untereindander gefunden werden. Um z.B. das Thema mit den Speicher so hin zu bekommen dass zwei mal 512 MiB auch ein 1 GiB sind und nicht irgendwas dazwischen. Es könnte durch die bessere Anbinung der GPUs untereinander enrom die Effizienz von solchen Multi GPU Karten gesteigert werden und damit auch die Leistung. Somit würden sie auch attraktiver werden.
Wovor ich jetzt Angst habe ist, das Nvidia/AMD die Technik von SLI/CF nicht sonderlich verbessern und ständig solche Karten auf den Markt bringen. Das finden einige zwar ganz gut (warum weiß ich nicht) aber wenn dann immer so ein Leistungsmischmasch rauskommt ist es für die Anwender bestimmt nicht toll, weil eigentlich viel mehr möglich ist.
Naja es muss halt jeder selbst wissen ob er sich so eine überteuerte DualGPU Karte kauft oder nicht.
Für uns Anwender wäre es sicherlich besser den Leuten von AMD/Nvidia zu sagen Leute Idee gut Umsetzung naja bitte nachbessern, indem wir die Karten zu Ladenhütern werden lassen.
Wie gesagt wenn jemand sich die X2 oder GX2 holen will soll er das machen,ich werde ihn nicht für einen Idioten erklären :D
Ich meinerseits werde erst so eine Karte kaufen wenn sie Effizienter arbeiten und ein paar Kinderkrankheiten verloren haben.

Aso und das du dich austragen willst aus den Forum würde ich auch nicht gut finden.
Wie gesagt hier wurde nach er Meinung zur X2 gefragt, wir haben alle unsere Meinung geäußert und da must du doch nicht sauer sein, wenn wir alle mal nicht der gleichen Meinung sind :)

MFG
 
Zuletzt bearbeitet:
also ich lese das hier und kann nur sagen alle leuten haben vollkommen recht das die X2 total überteuert ist für diese paar prozent "mehr" power

es ist wieder mal eine werbelüge um leute zum kauf einer neuen grafikkarte zu bewegen

wirklich schade sie sollten mal lieber wirklich gute grafikkarten rausbringen die auch für den preis ok sind wie die 8800 GT halt nur im High end bereich (Ultra, GTX, XT)

ich würde nie im leben 450 für ne grafikkarte ausgeben die nur so wenig mehrleistung hat


grüße
Ansgar
 
Das habe ich auch grade gelesen :D
hast du mal auf die Leistungsaufnahme in 3D geguckt?
herrlich 80 Watt mehr als eine GTS OC und das trotz mordernerer 55nm Fertigung :lol:

und dafür die mehr Leistung, erbärmlich.
Leider sind die Angaben zur Laustärke in dB und nicht in Sone.
Nur der vergleich zur GTX, (die es zur Zeit für 299 neu gibt http://www.playit.de/pd1055319965.htm?categoryId=155) hat mit persönlich gefehlt,ansonsten sehr schöner Test.
MFG
 
es ist wieder mal eine werbelüge um leute zum kauf einer neuen grafikkarte zu bewegen

Hmmm, Nvidia belügt seine Jünger also nicht? Ich bin immer noch der Meinung das man die Kunden mit dem G80 und dem G92 (Refresh) aalglatt über den Tisch gezogen hat indem man die "Deppen" erst hat die alten Chips kaufen lassen. Das ist aber eine andere Geschichte. Zur X2, ob man sie braucht oder nicht, entscheidet der Anwender doch immer noch selber und 450 (günstigste bereits ab 380) ist nicht teuer. Ich denke hier unterhalten wir uns noch einmal wenn die GX2 erschienen ist. Im übrigen geht es in dem Thread um die Meinung über die X2, einige weichen aber mit ihrer Nvidia-Verherrlichung allerdings deutlich vom Thema ab.
 
Hmmm, Nvidia belügt seine Jünger also nicht? Ich bin immer noch der Meinung das man die Kunden mit dem G80 und dem G92 (Refresh) aalglatt über den Tisch gezogen hat indem man die "Deppen" erst hat die alten Chips kaufen lassen.

? das ist doch immer so, dass die neuen Grafikkarten schneller sind wie die alten. Wenn das nämlich nicht der Fall wäre würden wir immer noch mit einer GeForce 256 rumhängen.

(günstigste bereits ab 380) ist nicht teuer.

Wenn aber eine Einzelne 3870 175 http://geizhals.at/deutschland/a294648.html kostet sind selbst 380 zu teuer.

Ich denke hier unterhalten wir uns noch einmal wenn die GX2 erschienen ist. Im übrigen geht es in dem Thread um die Meinung über die X2, einige weichen aber mit ihrer Nvidia-Verherrlichung allerdings deutlich vom Thema ab.

Das können wir gerne jetzt schon machen. Ich verurteile die GX2 genauso wie die X2 und ich werde sie auch genauso durch den Kakao ziehen wie die X2. Außer Nvidia schafft es auf wundersame Weise doch noch signifikant dieEffizienz zu verbessern. Daran glaube ich nicht und selbst dann verbrauch sie mir noch zu viel Strom.

MFG
 
Nvidia hat zu mindestens angekündigt die Effizienz verbessern zu wollen. Ob man damit bereits bei der GX2 rechnen kann weiß ich jetzt nicht aber ich wiederhole mich nochmals gern: Ich vermute, dass mit der X2 bevorzugt Leute angesprochen werden sollen die eben kein CF-Board besitzen oder in selbiges investieren wollen. Was also den CF-Status auf einem PCB betrifft eine recht clevere Entscheidung. Netter Nebeneffekt: Vielleicht ist die X2 ebenfalls CF-tauglich was demnach 4 Grafikchips für Enthusiasten bedeuten würde. Ob das nun noch Sinn macht sei dahin gestellt. Man kann aber nicht auf Grund von eigenen Bedürfnissen eine Contra-Argument gegen eine ganze Firma aufrecht erhalten und anderen unbedingt das Konkurrenzprodukt aufzwingen (nicht in deinem Fall) wollen. Irgendwo, wenn auch nicht in euren Augen wird die X2 ihren tieferen Sinn haben wie auch die GX2 wenn sie denn endlich erscheint.
 
@ Secondfly

Jop,
ich Verurteile beide Firmen nicht für ihre Produkte sondern nur für die Produkte die ich nicht toll finde.
Weiter habe ich auch schon oben gesagt das ich jetzt meine Meinung über die beiden DualGPUKarten, speziell aber über X2 (weil sie halt hier zur Debatte stand) kund getan habe und ich habe auch gesagt das ich keinen verurteile und für einen Idioten halte der sich so eine Karte kauft.
Wer sich eine DualGPU kaufen will soll es machen und glücklich werden. Ich werde mir auch weiterhin eine SingleGPU Karte holen und damit glücklich werden ;)
zumindest solange bis MultiGPU Karten wirklich gut werden.

Also jedem so wie er es gerne hätte.

MFG
 
Zurück