• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Alkis Blog #46 - Verbrauch und TDP

Incredible Alk

Moderator
Teammitglied
Kaum ein Thema taucht so oft auf und wird so oft diskutiert wie TDPs („Thermal Design Power“) und Realverbräuche von Komponenten. Und da es um die ganzen Zusammenhänge zu verstehen durchaus ein bisschen Hintergrundwissen erfordert was nur selten umfänglich vorhanden ist, wird auch bei kaum einer Thematik derart viel Unsinn verbreitet. Es ist hier wie bei allen Themen, die in ihrer Sache her etwas komplizierter sind (so schlimm ist es gar nicht wie weiter unten erklärt wird…!) und im Internet in oftmals sehr kurzen Textabschnitten irgendwelche Aussagen getroffen werden die ohne Kontext meist völlig falsch sind und noch falscher verstanden und weitergegeben werden. Der Klassiker in diesem Thema: „Die TDP hat mit dem echten Verbrauch nichts zu tun.“ Realität: Zwischen „Stimmt“ und „Falsch, beides ist aufs Watt genau exakt dasselbe“ ist alles drin – je nachdem über was man genau redet. Hier bedarf es aber mehr als nur zweier Sätze um Zusammenhänge darzustellen und zu verstehen – also gibt’s wieder nen längeren Blogeintrag dazu.

Vorweg: Es geht mir hier NICHT darum, seitenweise Erklärungen rauszuhauen wie Intel, AMD und NVidia ihre TDPs definieren. Das können erstens andere Seiten besser und zweitens ist dieses Detailwissen gar nicht nötig, um die grundlegenden Dinge zu verstehen und mindestens 95% aller Forenfragen bezüglich Verbrauch und TDPs zu beantworten. Fangen wir ganz vorne an – und am Anfang technischer Zusammenhänge steht nahezu immer die blanke Physik. Aber keine Angst, ich versuche etwaige Erinnerungen an furchtbare Schulphysikstunden nicht aufleben zu lassen…


1. Physikalische Grundlagen

Die Physik hinter TDPs und Stromverbräuchen basiert im für uns relevanten Bereich ausschließlich auf dem Energieerhaltungssatz. Die Theorie ist einfach wie genial: Alles, was ich an Energie irgendwo reinstopfe kommt da auch in exakt gleicher Menge, nur ggf. in anderer Form, wieder raus. Im Falle von CPUs ist die Energie die ich reinstecke elektrische Energie. Physikalisch korrekt müsste ich jetzt anfangen von Energiemengen in Joule zu reden, ums einfacher bzw. praxisnah zu machen rede ich ab hier aber nur noch von Energiemengen pro Zeiteinheit, also Joule pro Sekunde – was ein Normalsterblicher als Leistung, bzw. „Watt“ kennt.
Also, nehmen wir eine CPU und schieben da 100 W elektrische Leistung rein. Die Energieerhaltung zwingt die CPU jetzt, eben genau diese 100 W auch wieder loszuwerden. Die Möglichkeiten sind vielfältig: Die CPU könnte leuchten, rotieren/vibrieren, ihren Aggregatzustand ändern, expandieren bis explodieren oder sonstwas tun aber Spaß beiseite, sie wird, da CPUs elektrisch gesehen nach außen hin ziemlich ideale ohmsche Widerstände sind, natürlich einfach warm bzw. gibt die zugeführte elektrische Leistung als Wärmeleistung ab. Bereits an der Stelle ranken sich diverse Mythen in den Foren dass diese Wattzahlen ja nicht gleich wären aber an der Stelle kann man tatsächlich ganz klar sagen: FALSCH. Die 100 W die in eine CPU gedrückt werden, werden von dieser zu etwa 99,99% in reine Wärmeenergie umgewandelt. Ganz minimale Anteile der Energie gehen noch in winzige Nebeneffekte wie beispielsweise die Wärmeausdehnung des Heatspreaders aber das ist völlig vernachlässigbar für uns.

Physikalischer Fakt für uns ist ganz einfach (umgangssprachlich ausgedrückt für den geneigten Leser, Physiker mögen mir die Ungenauigkeit verzeihen): Jedes Watt, das eine CPU an Strom verbraucht, kommt im gleichen Moment auch als Watt Wärme wieder raus.

That’s it. Thema durch. Verbrauch und Abwärme ist genau dasselbe. Tja, wenns wirklich so einfach wäre gäbe es die endlosen Diskussionen im Netz dazu nicht – natürlich geht die Sache weiter. Aber vorweg: Alles was bisher gesagt wurde ist unumstößliche Physik und ist es wirklich zu jedem Zeitpunkt so, dass Verbrauch = Abwärme ist.
ABER: „TDP“ ist nicht dasselbe wie „Abwärme“ und Menschen sind sehr schlecht darin, in inkrementellen winzigen Zeitabschnitten zu denken – und technisch gut arbeiten kann man mit sowas auch nur selten. Der erste Schritt der dem klassischen Foristen offenbar schwerer fällt ist zu verstehen, dass Leistungsaufnahme und Abwärme in Watt physikalisch eindeutige (und in dem Fall gleiche!) Größen sind, die „TDP“ jedoch eine künstlich generierte Größe unterschiedlichster Definitionen ist die man sich geschaffen hat, um in der praktischen technischen Welt besser klarzukommen – dass man damit unzählige User verwirrt, die mit der technischen Problemlösungswelt keine Erfahrung haben ist nur ein blöder Nebeneffekt – aber dafür sind sie ja hier, oder? Warum gibt’s also diese blöde TDP die alle verwirrt? Springen wir in der Zeit mal ein paar Jahrzehnte zurück…


2. Fertigungen und TDP-Klassen

Noch bin in die 90er Jahre hinein gab es gar keinen Grund für derartige Überlegungen oder eine „TDP“, denn Chips im Endkundenbereich waren so leistungsschwach (im wahrsten Sinne des Wortes), das sie keinerlei Kühlung benötigten. Natürlich verbrauchen auch diese Chips Strom und auch hier wurde bereits die gesamte elektrische Leistung in Wärme umgewandelt – die ein, zwei Watt die da entstanden konnten aber ohne Kühlkörper einfach so an die Umgebung abgegeben werden ohne dass irgendetwas heiß wurde. Als die Leistungen anstiegen reicht das so nicht mehr und man pappte kleine Passivkühlkörper auf die Chips – technisch musste man nur unterschieden „Chip braucht Kühlkörper“ oder „Chip braucht keinen Kühlkörper“. Alles easy. Aber es ging weiter – noch mehr Leistung und entsprechend noch mehr Abwärme erforderten irgendwann kleine Lüfterchen auf den Kühlkörpern. Also musste man schon 3 Fälle unterscheiden: Reicht ohne, braucht Passivkühlung und braucht Aktivkühlung. Ok geht auch noch – aber dann wird’s komplizierter. Weiter steigende Leistungen und Mengen an Abwärme sowie rasant steigende Varianten von Chips, Plattformen, Sockeln, Slots und so weiter führten dazu, dass man unzählige Kühler hätte designen müssen, die auf genau die Abwärme des jeweiligen Chips zugeschnitten waren und das ist weder technisch noch wirtschaftlich sinnvoll. Was also tun? Immer dann, wenn in der Technik etwas zu viel Varianz entwickelt um sinnvoll oder wirtschaftlich zu sein führt man Standards ein – und genau das hat man natürlich auch hier gemacht.

Man standardisierte sogenannte „TDP-Klassen“ für Chips und baute passend zu jeder Klasse einen entsprechenden Kühler. Man definierte also beispielsweise willkürlich die Klassen „35W“, „65W“, „95W“ und „130W“ und konstruierte Kühler, die unter definierten Umgebungsbedingungen in der Lage sind, diese Wärmemengen an ihre Umgebung abzuführen. Und schon braucht man nur noch 4 verschiedene Kühler zu bauen um Hunderte Chipversionen kühlen zu können, man muss nur wissen welcher Kühler auf welchen Chip muss. Super Sache, oder?

Die Logik gebietet nun, dass die TDP-Klassen für Chips jeweils Obergrenzen sind. In den oben genannten Klassen müsste ein Chip, der 60 W Wärme abgibt (und entsprechend auch genau 60 W verbraucht!) in die „65W-Klasse“, ein Chip der 66 W Wärme abgibt und verbraucht aber bereits in die „95W-Klasse“ – denn der 65er Kühler wäre ja überfordert. Und das ist der erste Punkt wo sich TDP-Angaben und Realverbräuche massiv unterschieden hatten (damals!!), denn ein Chip der mit „95 W“ auf der Packung stand verbrauchte in der Realität fast immer weniger als 95 W, denn er war eben nur in der Klasse 95 einsortiert weil sein realer Verbrauch irgendwo zwischen 66 und 95 W lag.

Nun kommt noch eine Geschichte aus der Fertigung von CPUs zum tragen die manche vielleicht von der „Silicon Lottery“ kennen – manche Chips sind „besser als andere“. CPUs haben in ihrer Fertigung wie nahezu alle Produkte eine gewisse Serienstreuung. Bedeutet wenn die gleiche CPU 100x hergestellt wird entstehen 100 Unikate. Der eine wird vielleicht 72 W verbrauchen, der andere unter den exakt gleichen Bedingungen 84 W oder nur 63 W. So entstehen nicht nur innerhalb der TDP-Klassen unterschiedlichste Realverbräuche bei nominell gleichen Chips, manche Chips fallen sogar in andere TDP-Klassen hinein und bekommen vom Hersteller andere Namen und ggf. Betriebsparameter verpasst. All diese Dinge führten damals dazu, dass die echt gemessenen Verbräuche zwar 1:1 identisch mit der Abwärme des Chips waren aber sehr unterschiedlich zur TDP-Angabe sein konnten.

Warum redet der aber ständig von „damals“? Nun, auf der Suche nach mehr Performance haben die Hersteller den geregelten Boost/Turbo erfunden und der verkompliziert das ganze etwas.


3. Turbos

Damals war die Chipkühlungswelt noch einfach: Der Chiphersteller schrieb sinngemäß „baue einen Kühler drauf der 65 W schafft und alles ist tutti“ auf die Packung und das wars. Die CPU verbrauchte auch unter Volllast niemals mehr als 65 W, real sogar nahezu immer weniger. Heute siehts anders aus… woher kommt das? Das Ganze ist eine Mischung von zwei Effekten: Ausnutzen von Spielraum innerhalb der gesetzten TDP-Klasse und ausnutzen von Spielraum der thermischen Massenträgheit. Klingt kompliziert, ists aber nicht. Zur Erklärung:

Produziert ein Chiphersteller eine CPU für die „65W-Klasse“, misst aber nach der Produktion, dass die CPU in der Realität nur 55 W verbraucht bei Volllast ist das faktisch gesehen ja verschenkte Performance. Die 10 W die zu den Kühlmöglichkeiten des Kühlers noch fehlen könnte die CPU doch ausnutzen, indem sie sich übertaktet? Genau das machen Boostfunktionen. Sie messen viele Umgebungsparameter der CPU (Temperatur, Leistungsaufnahme, Stromstärken, Spannungen, Auslastung und vieles mehr) und können viele Hundert Mal in der Sekunde auf Basis dieser Daten ihren Takt dynamisch an die Situation anpassen. Verbraucht die CPU nur 55 W und alle anderen Parameter sind im grünen Bereich so wird der Takt der CPU (in gewissen Grenzen) angehoben und die Performance damit erhöht bis die 65 W TDP erreicht sind und die Reserven des Kühlers damit ausgenutzt. Übrigens kann eine CPU selbstverständlich nicht ihre Abwärme messen sondern nur die elektrische Leistungsaufnahme – aber diese Zahlen sind ja wie wir ganz oben gelernt haben gleich, auf dieser Grundlage funktionieren auch alle heutigen Turbofunktionen. ;-)

Nun hätte man eine CPU, die unter Last ihre Taktrate so regelt, dass sie immer so viel verbraucht wie der Kühler wegschaffen kann an Abwärme. Verbrauch = TDP. Aber es geht noch mehr wo wir beim zweiten Punkt wären. CPU-Kühler bestehen heutzutage vereinfacht gesagt aus recht filigranen aber dennoch oft schweren Metallblöcken mit Lüfter drauf. Diese Metallklötze haben eine gewisse Wärmekapazität bzw. Wärmeträgheit: Ein Stück Kupfer das man 10 Sekunden lang über ein Feuerzeug hält wird ja nicht sofort Hunderte Grad heiß wie die Flamme es ist obwohl viele Hundert Watt Wärmeenergie von der Flamme ausgehen. Das Metall nimmt Wärmeenergie auf und erhöht seine Temperatur dabei, die erforderliche Wärmeenergie dafür bis ist aber für eine CPU ziemlich hoch. Oder anders gesagt: Wenn ein kalter Kühlkörper auf einer CPU sitzt könnte die CPU statt der 65 W TDP auch eine Zeit lang 100 W abgeben bis der Kühler und die CPU darunter zu warm werden. Der 65 W-Kühler schafft zwar die 100 W nicht dauerhaft abzuführen, für ein paar Sekunden ist das aber kein Problem da er die überschüssige Energie mit seiner Masse "abpuffern" kann. Auch das macht man sich heute zu nutze in Boostmechanismen und genau hier fängt es dann an, dass CPUs MEHR real verbrauchen als ihre TDP-Angabe es angibt.

Nehmen wir ein aktuelles Beispiel aus dem Hause Intel – sagen wir einen 9900K. Dieser hat eine TDP von 95 W. Und betreibt man diese CPU dauerhaft unter Volllast und innerhalb ihrer Werksspezifikationen (dazu später mehr) gibt die CPU auch genau diese 95 W an Abwärme ab und verbraucht exakt 95 W – denn genau dahin wird der integrierte Boostmechanismus sie regeln. Nun gibt es zum Ausnutzen der Kühlerträgheit aber eine weitere Regel: Ein 9900K darf 28 Sekunden lang das 1,25-fache seiner TDP verbrauchen/abgeben wenn sonst nichts dagegen spricht (also nicht zu heiß beispielsweise). Das bedeutet, wenn ein 9900K unter einem kalten Kühler sitzt und die letzte zeit wenig zu tun hatte und jetzt auf ein Mal voll ran muss dann wird er 28 Sekunden lang 119 W verbrauchen (und an Wärme abgeben) und danach auf 95 W zurückregeln. Wird langsam klarer, wie Verbrauch und TDP-Angabe zusammenhängen?

Nun kann man das Spiel natürlich weiter treiben. Heutzutage haben nur noch wenige Desktop-PCs im oberen Leistungssegment Kühler verbaut die gerade ausreichen um das TDP-Limit des Herstellers zu erfüllen. Denn der Anspruch ist heute zusätzlich, dass ein Kühler auch leise sein muss und die meisten User wollen ihre CPU auch nicht ständig bei 95°C arbeiten sehen (auch wenn das technisch gar kein Problem ist und die TDP-Klassen darauf ausgelegt sind… natürlich wird ein 9900K unter Dauerlast so heiß werden wenn man nur einen 95 W-Kühler draufsetzt, das ist ABSICHT). Die Folge davon ist, dass viele Kühler heute sehr viel mehr Abwärme wegschaffen können als es eigentlich laut Hersteller der CPU notwendig wäre.

Nach bisher beschriebenem Stand der Boosttechniken wäre der Performancevorteil aber sehr klein, denn auch wenn der Kühler extrem leistungsfähig ist würde unser 9900K nach den 28 Sekunden die er „überboosten“ darf auf seine 95 W zurückregeln. Einziger Vorteil des Riesenkühlers wäre in dem Fall die Lautstärke. Und wieder gibt es zwei Stufen den fetten Kühler auszunutzen… Zunächst könnte man das Zeitlimit der 28 Sekunden erhöhen oder gar ganz weglassen. Bei Intel kann der Nutzer das manuell im UEFI tun („Long Duration Power Limit“ auf 119 W setzen statt 95 W), AMD tut das bei seinen Ryzen-CPUs bereits ab Werk: Für Ryzens gibt es kein Zeitlimit für den (Über-)Boost. So lange die restlichen Parameter passen darf die CPU das 1,35-fache (ja, AMD erlaubt da etwas mehr als Intel) ihrer TDP verbrauchen. Unbegrenzt lange. Ein 3900X beispielsweise der eine 105 W TDP Angabe hat wird unter einem sehr großen Kühler unter dauerhafter Volllast dauerhaft 142 W verbrauchen.

Aber auch das reicht den ständig nach mehr Leistung hungernden Usern natürlich nicht. MEHR POWER. Also warum eigentlich nur 1,25x oder 1,35x TDP im Boost? Weg mit den Limits! Das ist eine gängige Praxis unter Übertaktern: Den Boostfunktionen einfach alle Fesseln abnehmen und die CPU durchballern lassen egal wie viel Strom verbraucht wird: So lange nichts zu heiß wird weitermachen. Und dann kommen wir in die Regionen wo moderne Hochleistungschips abartig zugreifen und wirklich heizen. Ein unlimitierter 9900K oder 3900X denen man große Last aufbürdet und die man womöglich noch manuell in Takt/Spannung frisiert hat können schnell deutlich über 200 W fressen. Viel Mehrleistung generiert das nicht da diese CPUs „obenrum“ extrem ineffizient werden aber manche wollen die letzten 100 MHz eben haben koste es was es wolle. Und spätestens an der Stelle hat der Verbrauch mit der TDP-Angabe gar nichts mehr zu tun einfach weil keine der Regelungen zur TDP mehr aktiv ist. Leider ist es vielfach zur Unsitte geworden, dass solche Einstellungen schon als „OC-Profil“, Auto-OC-Funktion oder gar als Werkseinstellung mancher Mainboards hinterlegt ist. Das macht es nicht gerade einfacher über die Thematik dieses Blogs zu reden denn nun kann ein 9900K seine 95 W oder 119 W oder 200+W verbrauchen je nachdem in welchem Board er verbaut ist und wie es eingestellt wurde – und letzteres ist selten im Detail überhaupt bekannt. Und spätestens jetzt sind wir an dem Punkt, wo es für Außenstehende die diese ganzen beschriebenen Zusammenhänge nicht kennen unmöglich wird, zwischen Realverbrauch und TDP Angabe zu unterscheiden. Natürlich schreiben die dann das eine hat mit dem anderen nichts zu tun – aber wer bis hierhin gelesen bzw. es durchgehalten hat weiß nun schon mal, dass es durchaus sehr starke Zusammenhänge gibt.

***
Edit/Update Intel-10000 fix hier eingeschoben:
Um weiter mit ZEN zu konkurrieren aber möglichst ohne den Shitstorm der Masse mit hohen TDP-Angaben auf sich zu ziehen hat Intel mal fix den Faktor von 1,25 auf 2 angehoben und die Zeit von 28 auf 56 Sekunden verdoppelt. Also nicht wundern, wenn ein 10900K fast ne Minute lang 250W frisst. MEHR POWER. Sag ich doch... jetzt sogar offiziell ab Werk.
***

Diese ganze Dinge kann man jetzt Leuten, die ein gewisses technisches Verständnis haben noch in einem vergleichsweise kurzen Text näherbringen (also weit weniger ausschweifend als ich es hier gerade tue) – aber nun folgt das Kapitel, was es wirklich im Forum nahezu unmöglich macht sinnvoll zu diskutieren, nämlich:


4. Definitionen

Es ist durchaus möglich eine zielführende Diskussion über TDPs und Verbräuche zu führen, sofern die Diskutierenden das Hintergrundwissen der obigen Abschnitte haben und wissen, über was sie da genau reden. Ersteres ist wie gesagt erreichbar, letzteres ist extrem schwer – denn jeder Hinz und Kunz „misst“ und versteht „Watt“ anders. Und es werden ständig Wattzahlen miteinander verglichen die völlig unvergleichbar sind wo ich rückwärts vom Stuhl falle.

Es ist ja mittlerweile klar geworden, dass TDP-Angaben eben (frei) definierte Grenzen sind und Abwärme sowie die entsprechend genau gleiche elektrische Leistungsaufnahme reale, physikalische Messwerte sind. Und jetzt geht’s eben los… Über welche CPU (oder GPU?) reden wir, wie funktionieren ihre Boostmechanismen? Wie sind die Boostregelungen eingestellt, welche Grenzwerte dürfen wie lange erreicht werden? Wird die Last mit oder ohne AVX (1/2/512) angelegt, von welchem Programm in welcher Version? Reden wir über die TDP eines Chips oder von der des Chips und seiner Umgebung („TBP“ / „Total Board Power“)? Was wird gemessen und wie? Nur mit Tools ausgelesen? Wird die CPU selbst gemessen oder die CPU mit ihren MOSFets? Wird die Effizienz der Spannungswandlung betrachtet? Herausgerechnet? Wird gar der ganze PC gemessen? Wenn ja wie? Vor dem Netzteil, nach dem Netzteil? Welche Effizienz hat dieses und wurde das berücksichtigt? Von Messunsicherheiten will ich gar nicht erst anfangen. Die Liste solcher Dinge ist endlos, ich habe nur mal einige Beispiele genannt was Wattzahlen unvergleichbar macht.

Und jetzt stelle man sich den Thread „9900K braucht sau viel Strom“ vor. Da sagt einer die CPU verbraucht 250 W. Er zeigt ein Diagramm von Webseite xy mit nem Balken wo 250 W dran stehen. Bevor man erklären kann dass das aufs Gesamtsystem abzgl. Netzteileffizienz bezogen ist schreibt der zweite User „Stimmt schau hier HWInfo“ und zeigt einen 9900K ohne TDP-Limits mit Prime95/AVX der TATSÄCHLICH 250 W verbraucht was aber was völlig anderes ist und da steht schon der dritte Post der sich fragt ob sein 220 W – Brockenkühler dann noch reicht aber seine CPU wäre gar nicht so heiß. Kurz darauf kommt ein User und nennt „in Spielen ists ja weniger“ und zeigt eine 50 W verbrauchende CPU im GPU-Limit als Screenshot was wieder was völlig anderes ist. Der erste AMD-ler taucht auf und sagt dass ein 3900X trotz höherer TDP ja weniger als ein 9900K verbraucht und zeigt auf die 250 W vom ersten Post und spätestens dann kommt von irgendjemandem der Satz „TDP ist ja nicht Verbrauch“ und die Konfusion ist perfekt. Wenn Blinde über Farben reden. Und ich sitze vor solchen Diskussionen und habe nicht genug Hände für die ganzen Facepalms die ich mir verpassen müsste.


Wie auch immer, ich habe ja jetzt wieder einen Blog/Link mehr den ich da anbringen kann und hoffe damit zumindest einige wenige aus der Verwirrung holen zu können. Wie immer gilt: Wenn was unverständlich ist oder Fragen offen bleiben da unten in die Kommentare hämmern oder mir gleich ne PN zuschicken (was bisher der weit häufiger genutzte Weg ist). Es ist nicht immer einfach, Dinge, die für einen selbst nach zig Jahren selbstverständlich sind, so umfassend/grundlegend zu erklären, damit ein Außenstehender damit was anfangen kann und trotzdem inhaltlich korrekt zu bleiben. Daher Verbesserubngsvorschläge/Kritik zu mir. :D
 

TheGermanEngineer

BIOS-Overclocker(in)
Oh danke für diesen Blog. Vor über einem Jahr musste ich mich mal mit AMD-Fanboys auseinandersetzen, die partout nicht glauben wollten, dass ihr heißgeliebter 2700X sogar eine höhere TDP hat als der 9900K, selbst als ich mit den Datenblättern der Hersteller ankam.
TDP ist halt nicht Realverbrauch.
 
Zuletzt bearbeitet:
Oben Unten