Jetzt ist Ihre Meinung zu Test Radeon HD 5750: Juniper-GPU zum Zweiten gefragt. Beachten Sie dabei unsere Forenregeln.
Zurück zum Artikel: Test Radeon HD 5750: Juniper-GPU zum Zweiten
Was heißt hier versagen? Es ist ein MUSS, dass die Taktraten nicht auf das Niveau von Ein-Schirm abgesenkt werden, da sonst für Zwei Schirme der Chip-/Memorytakt zu niedrig ist, um das Bild für den Monitor darzustellen. Steht so auch u.A. in den offiziellen Releasenotes von Nvidia.Nachdem bereits bei HD5870 und HD5770 im Multi-Monitorbetrieb der IDLE-Verbrauch in die Höhe geschnellt ist und auch Nvidia bei mehreren Monitoren versagt, wäre es schön gewesen ihr hättet in euren Tabellen eine obligatorische Spalte für "Leistungsaufnahme 2D (Multi-Monitor)" vorgesehen.
Mal ne Frage zum "umfangreichen Feature-Set (DX11, Sparse-Grid-AA, verbesserte AF, Eyefinity)":
Lässt sich auch nur eins dieser Features auf einer Karte mit solch einer beschränkten Leistung überhaupt sinnvoll einsetzen?
kthxDer Multi-Monitor-Betrieb war bisher bei uns nicht obligatorisch, da kaum jemand einen 2ten Monitor nutzt. Wir überlegen jedoch, dies künftig mit zu bewerten.
Versagen heißt, der Verbrauch schießt unnötigerweise durch die Decke. Ein "MUSS" ist es nicht, denn manuell auf Takt gezwungene Karten sind immer noch (bei weitem) schnell genug, um ein wenig Desktop mit Aeroeffekten auch auf zwei Monitoren darzustellen. Beide Hersteller versagen schlicht bei der Synchronisation der Taktwechsel und bevor sie dem Kunden erklären, warum es bei Taktwechseln einmalig kurz flackert, verbraten sie lieber Energie und bauen darauf, dass es kaum einer bemerkt. Das siehst du im Gegensatz zum Flackern nämlich nicht, bei AMD hört man es aber an der gesteigerten Lüfteraktivität -> epic fail!Was heißt hier versagen? Es ist ein MUSS, dass die Taktraten nicht auf das Niveau von Ein-Schirm abgesenkt...
Nope, genau das eben nicht:Versagen heißt, der Verbrauch schießt unnötigerweise durch die Decke. Ein "MUSS" ist es nicht, denn manuell auf Takt gezwungene Karten sind immer noch (bei weitem) schnell genug, um ein wenig Desktop mit Aeroeffekten auch auf zwei Monitoren darzustellen.
http://de.download.nvidia.com/Windows/191.07/191.07_Win7_Desktop_Release_Notes.pdfGPU Runs at a High Performance Level in Multi-display Modes
Even when no 3D programs are running, the driver will operate the GPU at a high performance level in order to efficiently drive multiple displays.
Quatsch, die Taktwechsel funktionieren auch bei einem Monitor ohne Flackern, würden sie auch mit zwei Monitoren genauso. Nur ist die Speicherbandbreite für zwei Monitore nicht mehr ausreichend, also bleibt sie hochgetaktet. Einen Zwischenmodus gibt es da bei Desktopkarte mangels Masse von Zweischirmsystemen aktuell nicht. Wirds aber sicherlich bald geben.Beide Hersteller versagen schlicht bei der Synchronisation der Taktwechsel und bevor sie dem Kunden erklären, warum es bei Taktwechseln einmalig kurz flackert, verbraten sie lieber Energie und bauen darauf, dass es kaum einer bemerkt. Das siehst du im Gegensatz zum Flackern nämlich nicht, bei AMD hört man es aber an der gesteigerten Lüfteraktivität -> epic fail!
Nvidia kann viel erzählen, auerdem ist das Changelog wachsweich formuliert. AMD synchronisiert Taktwechsel jedenfalls mit dem Panel und das ist der Grund, warum beim Mehrschirmbetrieb PowerPlay nicht so effizient arbeitet, wie man es erwarten würde:Quatsch, die Taktwechsel funktionieren auch bei einem Monitor ohne Flackern, würden sie auch mit zwei Monitoren genauso.
Ich frage mich, wie du auf die Idee kommst, wozu soll man denn bitte im Desktopbetrieb eine derart hohe Speicherbandbreite brauchen? Mal andersrum, nimm die billigste 64Bit-DDR2 Grafikkarte und vergleiche ihre Speicherbandbreite mit einer heruntergetakteten Performancekarte. Trotzdem reicht das den Officekarten locker für Desktopbetrieb, auch mit mehreren Monitoren versteht sich.Nur ist die Speicherbandbreite für zwei Monitore nicht mehr ausreichend, also bleibt sie hochgetaktet.
Ach verzeih, ein Forenpost ist natürlich die viel glaubwürdigere und seriösere Quelle als ein offizielles ChangelogNvidia kann viel erzählen, auerdem ist das Changelog wachsweich formuliert. AMD synchronisiert Taktwechsel jedenfalls mit dem Panel und das ist der Grund, warum beim Mehrschirmbetrieb PowerPlay nicht so effizient arbeitet, wie man es erwarten würde:
Beyond3D Forum - View Single Post - AMD / ATI Radeon HD5800 -review thread
Weil das so ist und ich das weißIch frage mich, wie du auf die Idee kommst, wozu soll man denn bitte im Desktopbetrieb eine derart hohe Speicherbandbreite brauchen? Mal andersrum, nimm die billigste 64Bit-DDR2 Grafikkarte und vergleiche ihre Speicherbandbreite mit einer heruntergetakteten Performancekarte. Trotzdem reicht das den Officekarten locker für Desktopbetrieb, auch mit mehreren Monitoren versteht sich.
Ein echt schöner Test . Was mich interessieren würde, wie sich 2 Karten im Crossfireverbund verhalten und wie diese zur CPU skalieren. Da die Karten ja relativ günstig sind, wäre es schon eine Überlegung wert.
Gruß Explosiv
Nach dem selbst uralte Karten wie die Ati Rage II eine 2D-Desktopumgebung (zwar nur in 1280x1024px 16Bit) problemlos darstellen können wird selbst eine extrem untertaktete, heutige Mittelklassegrafikkarte reichen.Nebenbei benötigt alleine die Ansteuerung EINES 30" Monitors 7,3GBit/s und das jederzeit und ohne, das es irgendwelche 2D-Informationen gäbe, die die Grafikkarte an den Monitor schicken könnte. Und dann kommt natürlich noch Aero....
Na klar, lässt sich ja auch 1a mit dem heutigen Aero & Co vergleichenNach dem selbst uralte Karten wie die Ati Rage II eine 2D-Desktopumgebung (zwar nur in 1280x1024px 16Bit) problemlos darstellen können wird selbst eine extrem untertaktete, heutige Mittelklassegrafikkarte reichen.
Genau, deswegen macht es ATI ja genausoWahrscheinlich wurden die Nvidia-Leute da vom selben Teufel geritten wie die Notebookhersteller mit ihren Hochglanz-Displays und Gehäusen …