60 Hertz Monitor "overclocken"?

annboi

PC-Selbstbauer(in)
Ich habe hier im Forum gelesen, dass man seinen Monitor von 60 Hertz auf 75 Hertz "overclocken" kann.
Ist dies möglicherweise schädlich für ihn oder kann man ihn damit beschädigen?
Wie würde sowas funktionieren, würde es ein anfänger auch schaffen bzw. hinbekommen?

Setup falls erforderlich

- Acer G246HLBbid
- Palit GeForce GTX 770
- Asrock 970 EXTREME3 R2.0
- AMD FX Series FX-6300
- 8GB Crucial Ballistix Sport
- Windows 7 64bit


Mfg. Michal
 
Bei bestimmten Monitoren ist es möglich. Besonders schwer ist es nicht, aber ob es schädlich ist kann ich dir nicht beantworten.
Meinen Benq habe ich seit über einem Jahr auf 75 Hz laufen (standardmäßig 60).

Bisher hatte ich noch keinerlei Probleme und die 15 Hz mehr sind für mich auch spürbar.
Zum übertakten habe ich das Programm "CRU" benutzt. Gibt auch auf YT einige gute Tutorials zum übertakten.
 
Schädlich kann es eigentlich nicht sein. Versuche einfach den Monitor im Grafiktreiber (nVidia Systemsteuerung-> Auflösung ändern-> Anpassen-> Benutzerspezifische Auflösung erstellen) die Frequenz zu verändern. Versuche es zunächst mit 61Hz. Wenn das nicht geht kannst du es gleich vergessen; ansonsten kannst du dich weiter hochtasten. Da du keine Spannungen veränderst oder verändern kannst kannst du kaum etwas kaputt machen oder die Lebenserwartung des Monitors beeinträchtigen.
 
Hab nen alten Samsung 2253BW mit 60 Hz Panel, da war bei 62Hz schon Schluss. Probiers aus, ob bei dir mehr geht.
 
Bei meinem "alten" Asus war bei 70Hz Schluß.
Bei 71Hz konnte ich erkennen, dass das Bild schlechter wurde.

Ich habe über das nvidia control panel die neuen Bildschirm-Frequenzen eingestellt und danach übernommen.
 
also ich habe gerade 74Hz, bei 75 kommt dann Frequenz kann nicht ermittelt werden oder sowas in der art
 
Kurze Frage am Rande: Weiß jemand woran das liegt, dass die meisten modernen Breitbild Monitore nur 60 Hertz haben? Ich kann mich noch erinnern, dass damals fast alle Bildschirme mit 1280x1024 Auflösung 75 Hertz hatten :huh:
Das würde mich interessieren.
 
Kurze Frage am Rande: Weiß jemand woran das liegt, dass die meisten modernen Breitbild Monitore nur 60 Hertz haben? Ich kann mich noch erinnern, dass damals fast alle Bildschirme mit 1280x1024 Auflösung 75 Hertz hatten :huh:
Das würde mich interessieren.

Vermutlich weil HDMI nur 60 Herz kann oder ist das so eine was kam zuerst Geschichte.
 
Datenrate Single Link DVI = HDMI 1.0/1.1: 3,72GBit/s

WUXGA mit 8 Bit Farben: 1920x1200x(8+8+8)=55296000 Bit/Bild=52,7MBit/Bild

-> 3720MBit/s / 52,7MBit~70,6Hz

Dann gibt es aber noch die Sache mit dem Blanking und einen kleinen Overhead für Zeilensprungsignale usw. weshalb ohne weiteres nur etwas weniger als 70Hz genutzt werden können... am Ende hat man sich auf 60Hz als "Standard" für WUXGA festgelegt und das wurde für Full-HD übernommen. Bei geringeren Auflösungen ist es natürlich leicht möglich eine höhere Bildwiederholrate zu erreichen.

"Blanking" ist eine Wartezeit zwischen der Übertragung zweier Zeilen die dafür da ist dem Elektronenstrahl eines CRT Monitors Zeit zu geben auf den Anfang der nächsten Zeile ausgerichtet zu werden sowie insbesondere auch vom Bildende zum Bildanfang. Blanking wurde ursprünglich auch im TMDS Protokoll vorgesehen auf dem DVI und HDMI basieren da es in den späten 1990ern mit Rücksicht auf die CRT Technik entwickelt wurde. Bald etablierte sich zwar der "reduced blanking" Modus als Option die aber vorerst nur selten genutzt wurde.

Daher sind 60Hz jedenfalls bis heute "Standard".
 
Ja... dabei ist das auch keine neue Erfindung... Silicon Image hat die Möglichkeit einer variablen Bildwiederholrate schon damals Ende der 1990er im ursprünglichen TMDS/DVI Standard vorgesehen. Diese Option hat die Hersteller aber nie interessiert, weder die Grafikkartenhersteller bzw. Grafiktreiberentwickler noch die Monitorhersteller. Auch die VESA hat diese Option im Display Port Standard vorgesehen- wurde ebenfalls lange Zeit kaum genutzt bzw. nur vereinzelt in Notebooks zum Energiesparen.
 
Zurück