Test Radeon HD 5750: Juniper-GPU zum Zweiten

@ Explosiv / Rolk

Zwei Midrange-Karten zu koppeln, die dann zusammen nicht schneller als eine HD5850 sind, ist ziemlich sinnlos ;) Daher werden wir eine solche CF-Kombi wohl auch nicht testen.

Naja nicht schneller, würde ich jetzt nicht behaupten wollen :schief: !
Ich weiß nicht in wie fern für euch die Benches von CB relevant sind (für mich selbst nicht besonders viel).
Zumindest ist dort ein Crossfire-Gespann einer HD5770 in manchen Titeln vor einer HD5870, allein deswegen würde ich mich dafür interessieren, da eine HD5870 teurer ist als zwei HD5770/5750 ;).
Wenn das nicht der Fall ist, dann überzeugt uns halt mit dem Gegenteil und eigenen CF-Benches :daumen: :devil: !

CB-Benches :Test: ATi Radeon HD 5770 (CrossFire) (Seite 6) - 13.10.2009 - ComputerBase

MfG Explosiv
 
Wobei 2 HD5750 kaum mehr kosten als eine HD5850. Ich für meinen Teil fände so einen Test wesentlich spannender als ein HD5850 Crossfireverbund. :hail:
 
wenn ich mich für irgendeine form von CF intressieren würde, dann wäre dass wieviel man dazugewinnt wenn man später noch eine zweite karte derselben bauart dazukauft. wenn man z.b. eine günstig von nem kumpel bekommt.
aber die frage ob 2x5750 oder 1x5850 stellt sich für mich nicht wirklich... wenn man sparen will kauft man sich halt die 4890 oder 5770 und dann nächstes jahr ne 5890/6770... so mach ich das und bin damit immer gut gefahren.:daumen: immer eine für um die 150€ kaufen und gucken wie lang die hält. bis zur nächsten generation 150€-karten langt das locker...
 
Nach dem selbst uralte Karten wie die Ati Rage II eine 2D-Desktopumgebung (zwar nur in 1280x1024px 16Bit) problemlos darstellen können wird selbst eine extrem untertaktete, heutige Mittelklassegrafikkarte reichen.
Hast du das schon mal versucht?!
Nein??

Also ich schon und ich kann dir versichern, das das maximal wirklich angenehm und problemlos mögliche bei meiner 4MiB Rage Pro im Compaq Deskpro EN SFF sind 1024x768!
Bei 1280x1024 funktioniert z.B. die Vodepbeschleunigung nicht mehr, entsprechend ruckeln Videos.

Also erzähl hier nix von Problemlos!


Und an dem Rest:
Nutzt ihr überhaupt 2 Schirme an der GraKa?!
Wenn nicht, solltet ihr euch nicht so weit ausm Fenster lehnen.

Ich nutze sehrwohl 2 Schirme am Rechner, find die 'Einschränkung' zwar blöde, mir ists aber durchaus verständlich, da eben 2 Schirme weitaus mehr Bandbreite (und auch Speicher) benötigen als ein einzelner!
 
Ach verzeih, ein Forenpost ist natürlich die viel glaubwürdigere und seriösere Quelle als ein offizielles Changelog :ugly:
Das Changelog ist wachsweich formuliert, Dave Baumann sollte aber wissen, wo bei AMD der Hund begraben liegt und sagt es auch klar. Es handelt sich um diesen Dave Baumann, nicht um irgendeinen Hans Wurst:

An interview with ATI - Dave Baumann

Und? Was läuft denn nicht, wenn du den Speicher deiner Karte manuell auf 100Mhz heruntertaktest?
 
Das Changelog ist wachsweich formuliert, Dave Baumann sollte aber wissen, wo bei AMD der Hund begraben liegt und sagt es auch klar. Es handelt sich um diesen Dave Baumann, nicht um irgendeinen Hans Wurst:

An interview with ATI - Dave Baumann
Ahja, das Changelog ist also Quatsch, aber der große Dave Baumann (falls er es überhaupt ist) in irgendeinem Forum sagt die Wahrheit. Das ist schon ne sehr verschobene Wahrheit....

Und selbst wenn das der Grund wäre, ist es dennoch ein sehr guter technischer Grund, das sich die Grafikkarte nicht heruntertaktet.

Und? Was läuft denn nicht, wenn du den Speicher deiner Karte manuell auf 100Mhz heruntertaktest?
Ganz einfach, bei zuvielen Effekten fängt logischerweise der Desktop an zu ruckeln. Deinstallier doch mal unter XP (besser noch unter Vista/Win7) deinen Grafiktreiber und nutz den vollkommen unbeschleunigten VGA-Standardtreiber und dann sag mir nochmal, dass das ganze 2D Geraffel ja alles ganz easy ist :ugly:
 
Und selbst wenn das der Grund wäre, ist es dennoch ein sehr guter technischer Grund, das sich die Grafikkarte nicht heruntertaktet.
Natürlich ist es ist ein technischer Grund, aber ein sehr guter?. Ein kurzes Flackern beim Wechsel des Performancemodus wird verhindert, indem man den Kunden dauerhaft eine doppelte Leistungsaufnahme der Karte zumutet. Es wäre das Mindeste, dass man optional das Flackern ausdrücklich in Kauf nehmen dürfte. Ich würde sofort das Flackern zugunsten der Stromersparnis wählen und ich vermute, die Mehrheit der User würde das auch so sehen.

Ganz einfach, bei zuvielen Effekten fängt logischerweise der Desktop an zu ruckeln. Deinstallier doch mal unter XP (besser noch unter Vista/Win7) deinen Grafiktreiber und nutz den vollkommen unbeschleunigten VGA-Standardtreiber und dann sag mir nochmal, dass das ganze 2D Geraffel ja alles ganz easy ist :ugly:
Der VGA-Standardtreiber ist um Größenordnungen langsamer, als eine heruntergetaktete Karte mit Hertstellertreiber und letztere hat genug Performance. Musstest du etwa Geruckel in Kauf nehmen, das du bei einem Monitor nicht hast, aber bei zweien? Da wärst du der erste, der davon berichtet.

Jetzt laß mal noch ein paar Seiten darüber berichten. Bei der HD4870 hieß es immer, PowerPlay funktioniert wie es soll, der böse GDDR5-RAM ist halt so ein übler Stromfresser, was soll AMD da machen. Jetzt haben sie PowerPlay soweit im Griff, Speicher und Speichercontroller in der GPU werden heruntegetaktet und oh Wunder, GDDR5-RAM ist doch kein Stromfresser. Demnächst werden wir bei einem der beiden Hersteller das Kunststück erleben, wie man mit abgesenkter Speicherbandbreite trotzdem Desktops auf mehreren Monitoren darstellen kann. :)
 
Hurra, ATI: Jetzt gibt es endlich eine Grafikkarte,die kompakt, relativ kühl und schnell ist und wenn man sie in ein Mini-ITX-Case einbauen möchte, guckt man in die Röhre, weil es eine Zwei-Slot-Lösung ist.....Da hat Nvidia besser mitgedacht und die GT 220 als Single-lösung auf den Markt gebracht,leider wurde da die Leistung vergessen...

Als Kunde, der eine Graka für ein Mini-ITX-Case vom schlage eines LianLi PC-Q07 sucht, heißt es weiter die onboard-Lösung nutzen oder die alte Garde 4670 erwerben.

Ich wünsche mir da von den Boardpartnern bei den (hoffentlich) kommenden Abweichungen vom Referenzdesign da ein Mitdenken!
Und beim Blick ins Forum haben dieses Problem mittlerweile ja mehr User.

Aber positiv: Gute Grafikleistung
Negativ: Preis: :daumen2:
 
Und? Was läuft denn nicht, wenn du den Speicher deiner Karte manuell auf 100Mhz heruntertaktest?
Die Bandbreite reicht nicht aus, so dass die Widergabe etwas zäh ist, was man von einer High End Karte nicht erwarten würde - und auch nicht akzeptieren kann.

Komm jetzt nicht wieder mit irgendwelchen uralten Chips von vor 10 Jahren (und mehr), damals waren die Anforderungen an den 2D Core wesentlich geringer als heute (OK, wird mehr und mehr via 3D EInheit ausgeführt, der '2D Code').

@nobbi77
Naja, wird wohl auch noch Herstellerlösungen mit einem Slot geben.
Also erstmal abwarten und Tee rauchen.
Die GT220 ist auch 'ne ganz andere Baustelle, das ist etwa der Bereich, den AMD mit der HD4350 abdeckt!
Ev. sogar HD4550.
 
Komm jetzt nicht wieder mit irgendwelchen uralten Chips von vor 10 Jahren (und mehr), damals waren die Anforderungen an den 2D Core wesentlich geringer als heute
Bei meiner Elsa Winner 1000 stand immerhin schon "Windowsbeschleuniger" auf dem Karton, aber ich bezweifle dass es Treiber für Win7 x64 gibt. Ich habe keine uralte Karte von vor dem Weltkrieg und sowas benutzt auch "keiner", aber ich habe eine Radeon 1550. Die meistert allerdings auch Multischirmbetrieb und Desktopeffekte (okay, unter Linux) problemlos. Möglicherweise meint ihr mit mangelnder Speicherbandbreite ja die Videowiedergabe, da könnte ich mir noch vorstellen, dass es knapp wird, würde mich aber wundern.


(OK, wird mehr und mehr via 3D EInheit ausgeführt, der '2D Code').
Jepp, neue Radeons verfügen überhaupt nicht mehr über dedizierte 2D-Beschleunigung. :)
 
Natürlich ist es ist ein technischer Grund, aber ein sehr guter?. Ein kurzes Flackern beim Wechsel des Performancemodus wird verhindert, indem man den Kunden dauerhaft eine doppelte Leistungsaufnahme der Karte zumutet. Es wäre das Mindeste, dass man optional das Flackern ausdrücklich in Kauf nehmen dürfte. Ich würde sofort das Flackern zugunsten der Stromersparnis wählen und ich vermute, die Mehrheit der User würde das auch so sehen.
Ich denke du würdest es nach 10 Minuten wieder umschalten, weil dieses umschalten sehr oft passiert. Meine GTX285 schaltet bei der Nutzung von ein bisschen Aero (Fenster verschieben, merh Transparenz & Co) selbst bei einem Monitor sofort hoch in einen höheren Modus. Ich denke auch du würdest wieder hochschalten, wenn es mehrmals pro Minute flackern würde oder der Aero heftig ruckeln.

Der VGA-Standardtreiber ist um Größenordnungen langsamer, als eine heruntergetaktete Karte mit Hertstellertreiber und letztere hat genug Performance. Musstest du etwa Geruckel in Kauf nehmen, das du bei einem Monitor nicht hast, aber bei zweien? Da wärst du der erste, der davon berichtet.
Na klar, schließlich takten sich die Karten ja nicht herunter bei zwei Monitoren, deshalb kann ja davon keiner berichten :ugly:

Jetzt laß mal noch ein paar Seiten darüber berichten. Bei der HD4870 hieß es immer, PowerPlay funktioniert wie es soll, der böse GDDR5-RAM ist halt so ein übler Stromfresser, was soll AMD da machen. Jetzt haben sie PowerPlay soweit im Griff, Speicher und Speichercontroller in der GPU werden heruntegetaktet und oh Wunder, GDDR5-RAM ist doch kein Stromfresser. Demnächst werden wir bei einem der beiden Hersteller das Kunststück erleben, wie man mit abgesenkter Speicherbandbreite trotzdem Desktops auf mehreren Monitoren darstellen kann. :)
Werden sie wohl auch, aus der heutigen Sichtweise (sowohl technisch als auch aus Sicht des Benutzers), ist es wohl so das sinnvollste.
 
Die Karte ist meiner Meinung nach nicht so der Renner, sie ist langsamer wie ien 4870 1G und außerdem kostet sie gleichviel/mehr wie eine 4890 / 4870!

BTW: hat Amd den Intel Boxed Kühler auf die Karte gehauen:ugly:
 
Zurück