Test Radeon HD 5750: Juniper-GPU zum Zweiten

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung zu Test Radeon HD 5750: Juniper-GPU zum Zweiten gefragt. Beachten Sie dabei unsere Forenregeln.

arrow_right.gif
Zurück zum Artikel: Test Radeon HD 5750: Juniper-GPU zum Zweiten
 
hab ich Tomaten auf den Augen oder steht auf der ersten Seite bei dem Crysis Wahead Vergleich tatsächlich zweimal GTX 285?
 
@ smith0815

Der Multi-Monitor-Betrieb war bisher bei uns nicht obligatorisch, da kaum jemand einen 2ten Monitor nutzt. Wir überlegen jedoch, dies künftig mit zu bewerten.
 
Nachdem bereits bei HD5870 und HD5770 im Multi-Monitorbetrieb der IDLE-Verbrauch in die Höhe geschnellt ist und auch Nvidia bei mehreren Monitoren versagt, wäre es schön gewesen ihr hättet in euren Tabellen eine obligatorische Spalte für "Leistungsaufnahme 2D (Multi-Monitor)" vorgesehen.
Was heißt hier versagen? Es ist ein MUSS, dass die Taktraten nicht auf das Niveau von Ein-Schirm abgesenkt werden, da sonst für Zwei Schirme der Chip-/Memorytakt zu niedrig ist, um das Bild für den Monitor darzustellen. Steht so auch u.A. in den offiziellen Releasenotes von Nvidia.
 
Mal ne Frage zum "umfangreichen Feature-Set (DX11, Sparse-Grid-AA, verbesserte AF, Eyefinity)":
Lässt sich auch nur eins dieser Features auf einer Karte mit solch einer beschränkten Leistung überhaupt sinnvoll einsetzen?
 
Mal ne Frage zum "umfangreichen Feature-Set (DX11, Sparse-Grid-AA, verbesserte AF, Eyefinity)":
Lässt sich auch nur eins dieser Features auf einer Karte mit solch einer beschränkten Leistung überhaupt sinnvoll einsetzen?

1, 3 un 4 ja, bei 2 hab ich da so meine bedenken. aber ein wichtiger vorteil fehlt noch:

"Auch die Fähigkeit, Dolby TrueHD und DTS-HD MA als Bitstream auszugeben, waren bislang Soundkarten jenseits der 150-Euro-Marke vorbehalten."

Quelle:

ATIs Stromsparer mit DirectX 11: Radeon HD 5770 und 5750 : Einleitung
 
Der Multi-Monitor-Betrieb war bisher bei uns nicht obligatorisch, da kaum jemand einen 2ten Monitor nutzt. Wir überlegen jedoch, dies künftig mit zu bewerten.
kthx :)
Was heißt hier versagen? Es ist ein MUSS, dass die Taktraten nicht auf das Niveau von Ein-Schirm abgesenkt...
Versagen heißt, der Verbrauch schießt unnötigerweise durch die Decke. Ein "MUSS" ist es nicht, denn manuell auf Takt gezwungene Karten sind immer noch (bei weitem) schnell genug, um ein wenig Desktop mit Aeroeffekten auch auf zwei Monitoren darzustellen. Beide Hersteller versagen schlicht bei der Synchronisation der Taktwechsel und bevor sie dem Kunden erklären, warum es bei Taktwechseln einmalig kurz flackert, verbraten sie lieber Energie und bauen darauf, dass es kaum einer bemerkt. Das siehst du im Gegensatz zum Flackern nämlich nicht, bei AMD hört man es aber an der gesteigerten Lüfteraktivität -> epic fail! :daumen2:
 
Versagen heißt, der Verbrauch schießt unnötigerweise durch die Decke. Ein "MUSS" ist es nicht, denn manuell auf Takt gezwungene Karten sind immer noch (bei weitem) schnell genug, um ein wenig Desktop mit Aeroeffekten auch auf zwei Monitoren darzustellen.
Nope, genau das eben nicht:
GPU Runs at a High Performance Level in Multi-display Modes
Even when no 3D programs are running, the driver will operate the GPU at a high performance level in order to efficiently drive multiple displays.
http://de.download.nvidia.com/Windows/191.07/191.07_Win7_Desktop_Release_Notes.pdf

Beide Hersteller versagen schlicht bei der Synchronisation der Taktwechsel und bevor sie dem Kunden erklären, warum es bei Taktwechseln einmalig kurz flackert, verbraten sie lieber Energie und bauen darauf, dass es kaum einer bemerkt. Das siehst du im Gegensatz zum Flackern nämlich nicht, bei AMD hört man es aber an der gesteigerten Lüfteraktivität -> epic fail! :daumen2:
Quatsch, die Taktwechsel funktionieren auch bei einem Monitor ohne Flackern, würden sie auch mit zwei Monitoren genauso. Nur ist die Speicherbandbreite für zwei Monitore nicht mehr ausreichend, also bleibt sie hochgetaktet. Einen Zwischenmodus gibt es da bei Desktopkarte mangels Masse von Zweischirmsystemen aktuell nicht. Wirds aber sicherlich bald geben.
 
Quatsch, die Taktwechsel funktionieren auch bei einem Monitor ohne Flackern, würden sie auch mit zwei Monitoren genauso.
Nvidia kann viel erzählen, auerdem ist das Changelog wachsweich formuliert. AMD synchronisiert Taktwechsel jedenfalls mit dem Panel und das ist der Grund, warum beim Mehrschirmbetrieb PowerPlay nicht so effizient arbeitet, wie man es erwarten würde:
Beyond3D Forum - View Single Post - AMD / ATI Radeon HD5800 -review thread

Nur ist die Speicherbandbreite für zwei Monitore nicht mehr ausreichend, also bleibt sie hochgetaktet.
Ich frage mich, wie du auf die Idee kommst, wozu soll man denn bitte im Desktopbetrieb eine derart hohe Speicherbandbreite brauchen? Mal andersrum, nimm die billigste 64Bit-DDR2 Grafikkarte und vergleiche ihre Speicherbandbreite mit einer heruntergetakteten Performancekarte. Trotzdem reicht das den Officekarten locker für Desktopbetrieb, auch mit mehreren Monitoren versteht sich.
 
Nvidia kann viel erzählen, auerdem ist das Changelog wachsweich formuliert. AMD synchronisiert Taktwechsel jedenfalls mit dem Panel und das ist der Grund, warum beim Mehrschirmbetrieb PowerPlay nicht so effizient arbeitet, wie man es erwarten würde:
Beyond3D Forum - View Single Post - AMD / ATI Radeon HD5800 -review thread
Ach verzeih, ein Forenpost ist natürlich die viel glaubwürdigere und seriösere Quelle als ein offizielles Changelog :ugly:

Nebenbei hat es ATI auch nicht geschafft das ganze flackerfrei bei einem Monitor mit dem RV770 hinzukriegen, scheint also nicht nur daran zu hängen.

Ich frage mich, wie du auf die Idee kommst, wozu soll man denn bitte im Desktopbetrieb eine derart hohe Speicherbandbreite brauchen? Mal andersrum, nimm die billigste 64Bit-DDR2 Grafikkarte und vergleiche ihre Speicherbandbreite mit einer heruntergetakteten Performancekarte. Trotzdem reicht das den Officekarten locker für Desktopbetrieb, auch mit mehreren Monitoren versteht sich.
Weil das so ist und ich das weiß ;)

Meine GTX285 kann sich auf Minimum 100Mhz Memorytakt heruntertakten. Da bleibt dann von den Nominal 160GB/s Speicherbandbreite nicht mehr wirklich viel über, gar nicht zu reden von den Latenzen, die natürlich auch mit ansteigen. Da liegt man dann auf dem Niveau der allerbilligsten Einsteigerkarte, an die sicherlich niemand auf die blöde Idee kommen würde 2x30" anzuschließen.

Nebenbei benötigt alleine die Ansteuerung EINES 30" Monitors 7,3GBit/s und das jederzeit und ohne, das es irgendwelche 2D-Informationen gäbe, die die Grafikkarte an den Monitor schicken könnte. Und dann kommt natürlich noch Aero....
 
Ein echt schöner Test :daumen: . Was mich interessieren würde, wie sich 2 Karten im Crossfireverbund verhalten und wie diese zur CPU skalieren. Da die Karten ja relativ günstig sind, wäre es schon eine Überlegung wert.

Gruß Explosiv
 
Durch den Test wird diese Karte interessanter als gedacht. Der Stromverbrauch is wirklich Klasse und da ich nur noch selten zocken, ist das schon wichtig und etwas was mich von der 4770 abgehalten hat. Mit der 5750 is man gleich auf aktuellem DirectX-Stand und modernen Features bei besserer Leistung. Von daher schöne neue Mittelklassenkarte.

Bin jetzt schon sehr auf die Tests der Karten von den verschiedenen Herstellern gespannt, da es ja hier wohl schon alternative Kühlungen gibt. Wenns dann eine Karte mit sehr geringer Lärmentwicklung für den 2D-Modus gibt, dann ist die Wahl der nächsten GraKa für mich perfekt. :daumen:
 
Nebenbei benötigt alleine die Ansteuerung EINES 30" Monitors 7,3GBit/s und das jederzeit und ohne, das es irgendwelche 2D-Informationen gäbe, die die Grafikkarte an den Monitor schicken könnte. Und dann kommt natürlich noch Aero....
Nach dem selbst uralte Karten wie die Ati Rage II eine 2D-Desktopumgebung (zwar nur in 1280x1024px 16Bit) problemlos darstellen können wird selbst eine extrem untertaktete, heutige Mittelklassegrafikkarte reichen.

Wahrscheinlich wurden die Nvidia-Leute da vom selben Teufel geritten wie die Notebookhersteller mit ihren Hochglanz-Displays und Gehäusen …
 
Nach dem selbst uralte Karten wie die Ati Rage II eine 2D-Desktopumgebung (zwar nur in 1280x1024px 16Bit) problemlos darstellen können wird selbst eine extrem untertaktete, heutige Mittelklassegrafikkarte reichen.
Na klar, lässt sich ja auch 1a mit dem heutigen Aero & Co vergleichen :lol:

Wahrscheinlich wurden die Nvidia-Leute da vom selben Teufel geritten wie die Notebookhersteller mit ihren Hochglanz-Displays und Gehäusen …
Genau, deswegen macht es ATI ja genauso ;)
 
@ Explosiv / Rolk

Zwei Midrange-Karten zu koppeln, die dann zusammen nicht schneller als eine HD5850 sind, ist ziemlich sinnlos ;) Daher werden wir eine solche CF-Kombi wohl auch nicht testen.
 
Zurück