Blog Alkis Blog #42 - Übertakten ist doch voll doof.

Incredible Alk

Moderator
Teammitglied
Wie kann der Alki sich erdreisten, so eine steile These gerade in einem Extreme-Forum anzubringen? Die Erfahrungen der letzten Jahrzehnte was OC angeht lassen mich zum Schluss kommen, dass alltagstaugliches Übertakten langsam aber sicher aussterben wird. Warum das so ist und wie es dazu kam soll dieses Mal die Grundlage des für meine Blogs üblichen Textberges sein.

Vorweg: Ich bin schon immer ein begeisterter Übertakter gewesen. Zwar bin ich nie in extremere Gefilde vorgedrungen (bei Wasser war bei mir Schluss, Trockeneis, LN2 oder gar LHe überlasse ich gerne den Kollegen…), hatte aber quasi nie einen PC in meinem Besitz, der nicht übertaktet war bzw. deutlich schneller arbeitete als von den Herstellern der Komponenten eigentlich vorgesehen. Gerade in meinem „alltagstauglichen“ Bereich abseits extremer Kühlmethoden und der Jagd nach Benchmarkpunkten stirbt das Thema OC aber zusehends aus und das aus guten unten erläuterten Gründen. Glücklicherweise bleiben aber die verrückten Rekordjagden davon unbeeindruckt – soviel kann ich bereits versprechen: Auch in Zukunft wird es Hardcore-OC zum Spaß an der Freude geben. Aber schauen wir uns an, warum es für uns „Normalos“ zunehmend eng werden wird bzw. schon ist.

Wie fast schon üblich möchte ich ein wenig in die Vergangenheit ausholen und ein paar Grundlagen in Sachen CPU/GPU-Taktung ansprechen um auch die weniger nerdhaften Leser abzuholen.

Vor vielen Jahren war das PC-Leben hinsichtlich Taktung sehr einfach. Man kaufte eine CPU X, diese hatte einen Takt Y und das Thema war gegessen. Als die Hersteller irgendwann anfingen, den genau gleichen Chip mit verschiedenen Taktraten anzubieten um verschiedene Marktsegmente abzudecken witterten manche Nerds ihre Chance – denn damals wurden Taktraten oftmals simpel per Jumper auf dem Board festgelegt. Nichts war einfacher, als sich eine 66 MHz-CPU zu kaufen, das Board aber auf 100 oder gar 133 MHz zu jumpern und zack hatte man ein womöglich doppelt so teures Modell aus seiner CPU gezaubert, was in den allermeisten Fällen sogar ohne Weiteres stabil lief. Das waren noch Performancezuwächse! Mit einem einfachen Handgriff zack 100% mehr Leistung!

Natürlich war das nicht im Sinne der CPU-Hersteller und es wurde den Übertaktern zunehmend schwerer gemacht. Der Multiplikator (das, was die Jumper änderten) wurde in die CPU programmiert und war ohne Weiteres nicht mehr beeinflussbar. Nerds konterten mit einem erhöhten Bustakt („FSB“). Hersteller änderten daraufhin den Bustakt zu einem festgenagelten Taktgeber („BCLK“) – und hatten die grandiose Idee, den einstmals per Jumper änderbaren Multiplikator wieder freizuschalten… aber das natürlich nur in teureren Modellen ihrer CPUs. Das ist in etwa der Stand wo wir heute sind. OC erlaubt wenn die passende (teurere) Hardware dafür vorhanden ist. Wo ist nun das Problem? Im Turbo!

Bereits vor einiger Zeit haben Chiphersteller bemerkt, dass sie die Prinzipien der Übertakter angepasst für sich ausnutzen könnten. So wurden vor rund 10 Jahren die ersten CPUs vorgestellt, die sich völlig selbstständig ein bisschen übertakten konnten wenn die Umgebungsbedingungen (Temperatur, Leistungsaufnahme, Lastzustand,…) passten. Diese ersten Gehversuche waren sehr zaghaft – ein Core i7 920 beispielsweise konnte seinen Takt von 2,66 GHz auf 2,93 GHz anheben, und das obwohl bei manuellem Eingriff nicht selten 4 GHz und mehr bei der CPU möglich waren. Letzteres war der Segen der Übertakter – schön, dass ein CPU-Hersteller einen eigenen Boost einbaute der die CPU auf 3 GHz brachte – aber der geneigte Nerd konnte nur lächeln, schaltete den Boost ab und schob die CPU von Hand auf 4 GHz. Alles wunderbar, oder? Fast.

Durch die immer komplizierter werdenden Architekturen, die mittlerweile mehrere Taktdomänen, Spannungsversorgungen, Turbostufen, Multiplikatortabellen und vieles mehr hatten wurde es zunehmend komplizierter, manuell ein gutes OC hinzubekommen. Für tief in der Materie steckende Enthusiasten kein Problem, doch der Kreis der Personen wurde immer kleiner. Und schon war die Marktlücke da: Wie wäre es mit Tools und Programmen, die das automatisch können und so auch der Ottonormalverbraucher mit zwei Klicks sein super-OC haben kann? Die unsäglichen Auto-OC-Funktionen waren geboren. Software schoss aus dem Boden, die wir wild Spannungen und Multiplikatoren anhob, Boards wurden verkauft die mit stets wohlklingenden Marketingnamen den TPU-Superdigiplusoverdriveboost-des-Todes versprachen. Das blöde daran ist nur: Jede CPU ist anders. Ein Automatismus kann aber nur sehr begrenzt auf die Eigenschaften eines Einzelsamples eingehen ohne dass das Sample selbst Funktionen dafür bieten würde (oder profan gesagt: Wenn Intel/AMD nicht aktiv mitarbeiten kann ein automatisches OC nie gut werden). Die Hersteller der Boards/Tools mussten also die Keule rausholen: Spannung rein um Stabilität zu erzwingen und rauf mit dem Takt. Und das heutzutage ab Werkseinstellung ohne dass der Benutzer etwas davon weiß! Man will ja den ersten Platz im Benchmarkbalkendiagramm nicht verlieren. Dass die CPU dabei doppelt so viel verbraucht als sie soll/darf, heiß wird usw. ist egal. Merkt der Besitzer eh nicht.

Warum erzähle ich das alles? Nunja, diese ganze Entwicklung ist den großen Chipherstellern natürlich bekannt. Da sie das aber nicht unterbinden können ohne ihre schönen teuren OC-CPUs komplett zu sperren muss ein anderer Weg her: Wenn man es nicht verhindern kann dass ein Drittanbieter übertaktet muss man es eben selbst besser machen.

In den folgenden Generationen wurden entsprechend die Turbofunktionen immer ausgefeilter. Mehr Sensoren und eine viel aufwendigere Regeltechnik machte es möglich, innerhalb von Millisekunden Taktraten und Spannungen von einzelnen Kernen so anzupassen, dass die erlaubte TDP immer bestmöglich ausgenutzt wurde. Und – um mit den billigen Auto-OC-Funktionen (die sich nicht an TDP-Begrenzungen halten müssen…) auch in der absoluten Leistung mithalten zu können wurden stellenweise TDP-Grenzen zeitweise angehoben oder die Definition der TDP sehr… günstig gewählt. Daraus resultiert dann nach vielen Iterationen beispielsweise ein 9900K, der zwar auf dem Papier 95 W verbraucht – das aber nur bei seinem Basistakt, also 3,6 GHz. Sobald der Boost einsetzt gelten andere Grenzen. Und hier trifft es erstmals zu, dass wie oben angesprochen Chip- und Boardhersteller zusammen ein automatisches OC realisieren. Eine solche CPU ist in der Lage, bis 5 GHz hoch zu boosten, was die erlaubten TDP-Grenzen (selbst für den Boost, hier liegt die Spec bei nur 118 W!) bei weitem sprengt. Der Boardhersteller kann der CPU aber nun erlauben 200 W statt 95 W oder 118 W zu verbrauchen und schon kann der Boost (sofern der Rest wie etwa Kühlung ebenfalls passt) nach oben schießen – und zwar bis ans theoretische Limit der CPU. Aber warum hat das jetzt was mit manuellem OC zu tun?

Ganz einfach: Die Boostfunktionen sind mittlerweile zu gut geworden. Jede moderne (Oberklasse/High-End) CPU kann sich im Rahmen ihrer eingestellten TDP extrem feinkörnig, schnell und dynamisch für jeden Einzelkern selbst an ihr physikalisches Limit takten. Der Spielraum, den ein manuelles Übertakten in diesem Bereich hatte (Boost geht bis 3 GHz, manuell geht bis 4) ist verschwunden – die 5 GHz eines 9900K beispielsweise erreicht ein aggressiver Boost genauso wie ein manueller OCler – und nennenswert mehr ist auch nicht mehr drin. Ähnlich ists auch bei Ryzen: Boost/XFR takten die 1000er/2000er Ryzen CPUs so nahe an ihr Limit, dass auch manuell meist nur zwei, drei Prozent mehr machbar sind und das oftmals zu Lasten der Dynamik geht und man beispielsweise Singlecoreperformance opfert. Es ist heute einfach nicht mehr nötig, viel rumzuprobieren, Stabilitätstests zu machen um sich an die Grenzen vorzutasten – im Wesentlichen reicht es für ein ordentliches Alltags-OC heutzutage völlig aus, der CPU im UEFI zu verraten, wie viel Watt sie sich denn genehmigen darf. Die Boostfunktionen machen den ganzen Rest und takten die CPU so, das sie das gesteckte Leistungslimit aufs Watt genau ausschöpft. Bei den richtig schnellen/großen CPUs ists sogar so, dass sie was ihre Taktraten angeht quasi rein abwärme-/temperaturlimitiert sind. Ein Skylake-X/EP oder Threadripper kann viel viel höher stabil laufen als seine entstehende Abwärme es ihm erlaubt, selbst mit starken Wasserkühlungen. Werden diese beiden CPUs auf allen Kernen unter Last jenseits der 4 GHz betrieben werden schnell Gegenden von 500W und mehr (!) erreicht was für den Alltagsgebrauch natürlich völlig unpraktikabel ist. Hier muss vom Nutzer nur festgelegt werden, ob die CPU nun 150 oder 200 oder 250W fressen soll und schon liegen die dazu passenden Taktraten an – schneller, besser, genauer und dynamischer als man es von Hand je einstellen könnte.

Was bleibt also dem Nerd noch übrig? Naja, wer möchte kann durch Spannungsoffsets die ganze Sache noch etwas optimieren und die kleinen Sicherheitsreserven, die sich die Boostfunktionen lassen, noch ausnutzen bzw. vielleicht überall 30, 40 mV einsparen. Das erfordert aber extrem viel Arbeit wenns wirklich gut werden soll, wiederum aufgrund der Komplexität der Boostfunktionen. Denn senke ich die Grundspannung um 40 mV so sinkt entsprechend der Verbrauch der CPU. Dies bemerkt die Boostfunktion natürlich sofort und legt vielleicht 200 MHz mehr auf da man die gesteckte TDP ja perfekt ausnutzen will – nur sind die 200 MHz mehr vielleicht mit den 40 mV weniger nicht mehr stabil… und so müssen zig Lastzustände durchprobiert werden nur um am Ende ein bisschen mehr Leistung pro Watt zu erhalten und sich nie so wirklich 100%tig sicher zu sein ob nun wirklich alles stabil ist. Ists das wirklich wert?

Nebenbei noch ein Wort zu Grafikprozessoren da die ganze Zeit nur CPUs im Vordergrund standen. GPUs haben natürlich, zwar aus leicht anderen Gründen in der Vergangenheit (Details dazu siehe hier: http://extreme.pcgameshardware.de/blogs/incredible-alk/1619-alkis-blog-36-gpu-powerlimiter.html), ebenso ausgefeilte Boostfunktionen. Zumindest bis zur letzten Generation war es aber hier noch so, dass der Boost zwar sehr gut und feinabgestuft funktionierte, aber dennoch ein stellenweise merkliches Sicherheitspolster im Rücken hatte. Der geneigte Nerd konnte also per simplem Taktoffset durchaus mal 5, 10, 15% zusätzlich rausholen indem die Boostkurve einfach durch den entsprechenden Taktoffset nach oben verschoben werden kann. Aber auch hier ist spätestens seit dem mit den RTX-Karten von NV eingeführten Auto-OC Feature der Spielraum vernachlässigbar klein geworden. Ein kleines Tool prüft bei diesem Auto-OC etwa 20-30 Minuten lang die verschiedenen Takt-/Lastzustände der Karte durch und legt die passenden Boostparameter der Einzelkarte neu fest. Das Resultat ist eine nach oben verschobene Boostkurve, die sich bis auf wenige Prozent an das stabile Maximum annähert, sprich das Sicherheitspolster von den 10, 15% auf einen kleinen einstelligen Prozentwert verringert. Natürlich kann ein begeisterter Bastler hier noch ein paar MHz mehr von Hand erreichen aber für einen Normalnutzer ist die ganze Geschichte damit erledigt.


Fazit für mich ist daher, dass die ganze Arbeit, die ich in den letzten beiden Jahrzehnten damit verbracht habe, für unzählige PCs ein vernünftiges und stabiles Alltags-OC einzurichten, erledigt ist. Wenn ich heute einen aktuell üblichen flotten PC baue, sagen wir mal einen Ryzen 2700X mit einer RTX2070, ist das Alltags-OC schnell erledigt: Der 2700X boostet ohnehin über 4 GHz an seiner möglichen Grenze herum und die RTX2070 ist mit zwei Mausklicks und 20 Minuten Wartezeit optimiert. Das wars. Die Automatiken haben dem Mensch das OC in diesem Bereich vollständig abgenommen. Voll doof. Oder? ;-)
 
Da sind wir mittlerweile angekommen. OCler werden arbeitslos. Da bin ich ja froh noch eine der letzten CPUs zu haben, bei der sich OC noch lohnt. Je nach dem, ob ich von Base- oder Boost-Clock ausgehe, kann ich 800 respektive 600 MHz mehr geben, und dabei wird es nicht mal viel heißer. Alltagstauglich hänge ich dann aber doch lieber bei 4.5 GHz herum.
 
Zurück