17°C Temperaturunterschied CPU zu GPU

Bei AMD wird konsequent nur der heißeste Sensor ausgegeben. Bei Intel ist nicht bekannt, ob es der Hotspot oder eine anderer Wert ist. Deshalb sind die Temperaturen nicht zwangsläufig vergleichbar.

Noch dazu ist die Energiedichte bei AMD höher, weil die Kerne nur fast halb so groß sind und dennoch über 20W in der Spitze verheizen können.
 
Ich verstehe eh nicht warum ihr immer alle das Neueste haben müsst. Extrem ausgelastete Architekturen die früher nur Übertakter so weit gebracht haben. Da bleibe ich lieber bei meiner 10 Jahre alten Sandy Bridge Architektur. Die reicht zum Zocken und Übertakten. Wer weiß ob es in 10 Jahren überhaupt noch funktionstüchtige Ryzen 5xxxx gibt.


Und wenn ich schon mal bei der Fragerei zu AMD bin, macht es Sinn einen kleinen Block auf den Chipsatz zu setzen oder ist das eher ein Overkill?

Höchstwahrscheinlich hast nicht mehr Leistung, aber niedrigere Temperaturen, was für einen höhere Lebensdauer sorgt. Falls ein nerviger kleiner Lüfter drauf ist, sinkt auch die Lautstärke.
Ist aber trotzdem eher was für Nerds wie mich. :ugly:
 
Gibt einen ganz tollen Trick um die Temperatur zu senken.
PBO einfach deaktivieren.
Das bisschen was da an Mehrleistung generiert wird, ist den Preis dafür nicht wert. Aber das ist nur meine bescheidene Meinung ;-)
 
Die Chips laufen halt, wie ein Gaul auf der Koppel, innerhalb Ihrer Grenzen. Somit performen sie optimal. Beim Ryzen da noch viel rum zu optimieren bringt im großen und ganzen immer Performancenachteile. Früher hat man selbst getweaked und gemacht und getan, Stunden über Stunden gefrickelt in Stresstest tausende Watt an Strom verbraten um ein stabiles und maximales OC zu erreichen, was irgendwann doch wieder instabil war.

Das machen die CPU´s heute selber, ab Ryzen 3000 respektive ZEN2 ist es mit händischen OC nur mehr verschlimmbessern.

Und was Nerds wollen, juckt ja den Hersteller leider nicht. Die meisten Kunden wollen Power und die Hersteller liefern Power. Und was Ryzen da liefert, ist schon erste Sahne. Sei es in Performance und oder Effizienz.
Aber auch hier sei angemerkt, dass AMD sich den PC tunern trotz allem doch auch sehr verbunden fühlt. Sonst gäbe es nicht so viele Hauseigene Mittel und quasi nahezu freien Zugang zu allem was man einstellen kann. Ob bei den CPU´s oder GPU´s.
 
Ich kriege die Hitze aus der CPU nicht raus.
Schau dir doch mal an was sich da in den letzten 20 Jahren getan hat...

2001: Pentium 4 mit 66W TPD, 180nm fertigung und 220qmm DIE Fläche

Hier ergibt sich eine "Flachenleistung" von 0,3W/qmm

2021 ryzen 5800x mit 105W TDP 7nm fertigung und ein CCD mit 80qmm.

Hier ergibt sich eine Flachenleistung von 1,3W/qmm.

Neben dem Fakt das ich heute um ca. Faktor 4 mehr Energie /Fläche habe (beim boost oder bei OC ist es nochmal deutlich mehr). Ist das 2. Problem das die Fläche kleiner ist und somit auch weniger Fläche zur Verfügung steht um die Energie aus dem Chip zu bekommen.
Somit erhöht sich auch der thermische Wiederstand (gleichen genutzten Materialien) und es wird nochmals schwerer die Energie wegzukommen.

Somit ist das was aktuell @stock aus der CPU gezaubert wird wirklich beachtlich!
 
Also wenn das so Hitzköpfe sind... stimmt doch was nicht.
Ich bin nicht mega informiert. AMD hat mich noch nie mega interessiert. Aber die haben doch eine TDP von 125 watt... und ziehen maximal an die 150 Watt (was ich so in tests gelesen habe)

Mein 10900k gönnt sich auch gerne mal 300 watt+ zb. In Prime 95

Und der wird dabei knapp 85 grad unter wirklicher maximal last... wenn ich das power limit auf 150 watt setze, dann sinds noch ca. 70°C bei
30°C Wassertemperatur.

Was macht den Intel da besser, das man da 300 watt weggekühlt bekommt, während AMD schon bei 150 Watt kaum zu bändigen ist?

Fläche.

Abgesehen davon das AMD nur einen Hotspot ausgibt und Intel andere Sensoren mit einer anderen Anordnung bietet (somit sind die Temperaturen nicht vergleichbar), hat AMD einfach eine richtig kleine CPU gemacht. Die kann man halt kaum kühlen. Und das ist ein massives Problem, denn die CPU kann viel viel besser sein wenn man bedenkt wie der Rest aussieht inklusive TDP - aber das Design der CPU verhindert eine effektive Kühlung.
 
Fläche.

Abgesehen davon das AMD nur einen Hotspot ausgibt und Intel andere Sensoren mit einer anderen Anordnung bietet (somit sind die Temperaturen nicht vergleichbar), hat AMD einfach eine richtig kleine CPU gemacht. Die kann man halt kaum kühlen. Und das ist ein massives Problem, denn die CPU kann viel viel besser sein wenn man bedenkt wie der Rest aussieht inklusive TDP - aber das Design der CPU verhindert eine effektive Kühlung.

Klingt ehrlich gesagt so gesehen wie eine Fehlplanung xD. Dann doch lieber 14nm+++ von Intel :)

Da kann man wenigstens noch kühlen :)
 
Klingt ehrlich gesagt so gesehen wie eine Fehlplanung xD. Dann doch lieber 14nm+++ von Intel :)

Da kann man wenigstens noch kühlen :)

Das ist ja auch keine Lösung, ist langsamer als AMD, säuft 1,5x mehr und selbst wenn man es auf 5,1GHz all-core prügelt, ist das immer noch langsamer als AMD. Und zu wenig Kerne im Lineup. Da können die noch 5x das + drankleben - ist auch Rotz.

Wir müssen langsam daran denken, wie wir 7nm jetzt und 5nm oder 3nm (an denen schon gearbeitet wird) kühlen können ohne subzero zu gehen.
 
Es hat ja Gründe warum man die CPU-Dies so klein baut. Neben dem offensichtlichen wirtschaftzlichen, dass kleinere Chips mehr Chips pro Wafer bedeutet und die Herstellungskosten sinken gibts auch technische. Man kann die Transistoren nicht einfach weiter auseinander bauen oder einfach mehr benutzen als das Design vorgibt da dadurch massive Nachteile entstehen würden. Wenn AMD die gleiche Architektur in 7nm auf mehr Diespace verteilt kann man die CPUs zwar besser kühlen - aber sie werden trotzdem weit schlechter Takten da die Signallaufzeiten zwischen den Chipbereichen größer werden nur um ein Beispiel zu nennen. Dann haste zwar unter Last deine 60°C - aber mehr als 4 GHz gehn trotzdem nicht mehr - denn dann entsteht eine "Taktwall" die Temperaturunabhängig ist (bzw. die entsteht nicht, sie kommt nur früher - da ist die sowieso^^). Bei Ryzen1000 konnte man das gut erkennen, die haben die Mauer bei etwa 4,2 GHz. Bis dahin kommen sehr viele der CPUs aber darüber geht nur noch mit irrer Spannungsgewalt (unter LN2).
 
Es hat ja Gründe warum man die CPU-Dies so klein baut. Neben dem offensichtlichen wirtschaftzlichen, dass kleinere Chips mehr Chips pro Wafer bedeutet und die Herstellungskosten sinken gibts auch technische. Man kann die Transistoren nicht einfach weiter auseinander bauen oder einfach mehr benutzen als das Design vorgibt da dadurch massive Nachteile entstehen würden. Wenn AMD die gleiche Architektur in 7nm auf mehr Diespace verteilt kann man die CPUs zwar besser kühlen - aber sie werden trotzdem weit schlechter Takten da die Signallaufzeiten zwischen den Chipbereichen größer werden nur um ein Beispiel zu nennen. Dann haste zwar unter Last deine 60°C - aber mehr als 4 GHz gehn trotzdem nicht mehr - denn dann entsteht eine "Taktwall" die Temperaturunabhängig ist (bzw. die entsteht nicht, sie kommt nur früher - da ist die sowieso^^). Bei Ryzen1000 konnte man das gut erkennen, die haben die Mauer bei etwa 4,2 GHz. Bis dahin kommen sehr viele der CPUs aber darüber geht nur noch mit irrer Spannungsgewalt (unter LN2).
Das ist bekannt.
Man kann die CPU nicht wie eine GPU einfach immer fetter machen.
Also müssen Lösungen her für bessere Hitzeübertragung bei kleinen Komponenten. Lösungen die auch für normale Anwender ohne Wissen und Fähigkeiten für Extremkühlungen nutzbar sind.

Direct Die Kühlung könnte auch bei einer CPU funktionieren, ist bei der GPU ja praktisch immer der Fall.
Das könnte was bringen, aber es ist eben riskant, da CPU immer installiert wird (egal ob Endanwender oder Personal beim PC-Zusammenbau oder Serverwartung etc.) und GPU fast immer vom Hersteller mit dem Kühler gleich versehen wird.

Der Rest ist praktisch schon am Limit. Wasserblöcke gehen kaum noch besser, selbst die besten Designs holen 1-2°C Delta raus. Wärmeleitpasten sind auch nahezu am Limit, wenn man nicht gerade mit leitendem Flüssigmetall rangeht.

Es gibt da neue Entwicklungen in der FinFet Technik, ich verfolge das nur wenig, aber das sollte auch etwas bringen.
 
Na da schein ich ja ein richtig kontroverses Thema angesprochen zu haben. :D

Höchstwahrscheinlich hast nicht mehr Leistung, aber niedrigere Temperaturen, was für einen höhere Lebensdauer sorgt. Falls ein nerviger kleiner Lüfter drauf ist, sinkt auch die Lautstärke.
Ist aber trotzdem eher was für Nerds wie mich. :ugly:

Ja, falls ich das machen würde, wäre es tatsächlich um die Lautstärke zu reduzieren. Obwohl ich tatsächlich sehr überrascht davon bin das man den Lüfter eigentlich nicht hört, bzw. er im "Rauschen" untergeht. (Board: Gigabyte X570 Aorus Elite)
Ich denke das Thema nehme ich dann in Angriff, wenn ich endlich in der Lage bin eine Grafikkarte zu einem vernünftigen Preis zu ergattern. Da muss ich das System ja ohne hin ändern. Mal sehen wann endlich die Kurse einbrechen. :D
 
Ich mach dann auch mal mit.
Also müssen Lösungen her für bessere Hitzeübertragung bei kleinen Komponenten. Lösungen die auch für normale Anwender ohne Wissen und Fähigkeiten für Extremkühlungen nutzbar sind.
Was soll´s, dann laufen die Prozessoren in Zukunft eben alle im Temp- statt im Power- oder Spannungslimit. Einen Tod muss man sterben. Die Energiedichte hat eben ihre Nachteile, gerade, wenn der Boost auf einem Kern voll durchschlägt. Dann wird sich die CPU in Zukunft eben da selbst einschränken müssen und nicht mehr ganz am Spannungslimit laufen. Schön isses nicht und was anderes wäre mir auch lieber, aber geht eben noch nicht. Ansätze gibts ja schon paar.
Der Rest ist praktisch schon am Limit. Wasserblöcke gehen kaum noch besser, selbst die besten Designs holen 1-2°C Delta raus.
Da geht schon noch was, das lässt aber den Durchflusswiderstand und den Wartungsaufwand wahnsinnig ansteigen.
Wärmeleitpasten sind auch nahezu am Limit, wenn man nicht gerade mit leitendem Flüssigmetall rangeht.
Und auch das bringt nicht unbedingt was.
 
Vergleich Ryzen 1700(Kryos Pro) vs 3700x(Next):

Wenn ich einen Reder rennen habe, dann pendelt sich der Ryzen 1700 @3,9ghz alcore bei 53 grad und einem vcore von 1,43 (Fläche 3x360+240)

Ryzen 3700x @Stock 4,3 -4,4ghz boost vcore zw 1,2 und 1,4 je nach dem boost leveln. Trotz der Amd 3000 Halterung, die den Next optimal über den Chiplets positioniert, habe ich beim einem Mehrstündigen render, Temperaturen von 63 bis 65 Grad ? So heiß war noch nie eine Cpu bei mir(Fläche 2x360+420+Mora 360LT) und ich betreibe schon länger waküe. Beim Ryzen 5800x kann man den boost abschalten und schauen wo man manuell hingkommt. Optimal ist das nicht nur schau dir einmal an wie klein ein Chiplet ist………
 
Wäre es dir lieber wenn AMD den Mittelwert aller Kerne anzeigt nur damit es schöner im OSD aussieht?
Intel zeigt auch jeden Kern einzel an... also nix mittelwert aller kerne!

Aber ja man weis nicht, welcher Wert genau angezeigt wird. Aber darum gehts auch nicht.

Es geht darum das kleine Fertigungsgrössen eben auch Nachteile mit sich bringt. Irgendwann bringt die verkleinerung also nichts mehr, resp. Wird sogar Kontraproduktiv.

Das Intel mot 14 nm nahezu die selbe Leistung hin bringt wie AMD mot 7nm. Zeigt das nun auch zimlich deutlich.

Klar mag AMD im moment die Nase etwas vorn haben. Aber wir sind im einsteligen Prozent bereich, bei der Mehrleistung. Und das ist nunmal wirklich nicht viel.

Rein auf Papier müsste AMD sonst viel stärker überlegen sein.
 
Die Verkleinerung bringt immer was. Zen 2 und 3 würden in gröberen Strukturen sicher nicht diese Taktraten erreichen, dabei mehr Spannung benötigen und Strom saufen. Am Ende wäre die Energiedichte kaum niedriger, nur braucht die CPU dann doppelt so viel. Dass Intel mit 14nm immer noch mithalten kann, zeigt eigentlich recht deutlich, was die Architektur kann. In 7nm würde der Prozessor dann eben 500 MHz mehr schaffen und nur halb so viel verbrauchen. Heiß würde er trotzdem werden, wenn er durchtaktet. Stell dir mal nen 11900k mit 1,5V bei 5,5 GHz Boost vor. Der säuft und heizt wie Sau. Die Boostmechanik erzeugt eben durch die hohen Spannungen und Leistungsdichte ein Problem bei der Temperatur. Betreibt man ne 7nm CPU mal mit fixer Spannung im Bereich 1,2V, braucht sie überraschend wenig und bleibt ziemlich kühl. Da steht der 14nm Intel gar nicht mehr so gut da.
Wie gesagt, schlimm wird das nur, wenn der Prozessor (ob durch Boost oder manuell) am Limit läuft. Im üblichen Takt- und Spannungsbereich ein Stück unterhalb des Limits braucht der eben nicht so viel und heizt auch nicht so. AMD nimmt die Mehrleistung aber gerne mit, indem sie die CPUs kontrolliert bis ans Limit laufen lassen. Damit geht dann eben entsprechendes Verhalten mit ein. Wenn AMD darauf verzichten würde, wären die Prozessoren deutlich kühler. Machen sie aber nicht. Die Leistung entscheidet, wenn das Ding dafür 90°C warm werden muss, ist das egal. Ist im Rahmen der Betriebsparameter.
 
Intel zeigt auch jeden Kern einzel an... also nix mittelwert aller kerne!
Dann prügel den Intel auf sein Maximum und er wird auch entsprechend heiß.

Die AMD lassen sich dich auch gut optimieren und werden dann auch nicht so heiß.

Aber ja man weis nicht, welcher Wert genau angezeigt wird. Aber darum gehts auch nicht.
Irgendwie geht es doch genau darum. AMD zeigt den heißesten Punkt an. Und davor haben die Leute jetzt Angst.
 
Bei AMD gabs dazu mal Aussagen von Entwicklungsingenieuren und über die generelle Sensorik (wie viele Sensoren verbaut sind beispielsweise) gibts auch Whitepapers irgendwo, AMD gibt tatsächlich den heißesten Sensorwert aus.
Ich hab damals einen Satz aus dem Paper rauskopiert für meinen Blog ("The CCX incorporates 48 high-speed power supply monitors, 20 thermal diodes, and 9 high-speed droop detectors."). Also zumindest gibts ein paar Angaben. Ein 5800X hat also wahrscheinlich mindestens 40 Temperatursensoren.

Intel macht zu all dem gar keine Aussagen und gibt seit Ewigkeiten einen Sensorwert pro Kern aus (ob mehr Sensoren vorhanden sind ist nicht bekannt). Dieser Wert wird sicherlich tendentiell mit die höchste Kerntemperatur sein da man aus technischer Sicht den Messpunkt (wenns nur einer ist) natürlich möglichst an den Hotspot legt und weil auch die eingestellten Grenzen (bei Intel Tj 100°C) dem entsprechen. Würde der Sensor an einer "unkritischen" Stelle sitzen wäre die Tj weit niedriger, wie beispielsweise bei NVidia-GPUs die bei 93°C drosseln und schon ab 84°C etwas langsam machen - das ist nicht der Hotspot sondern eine andere Stelle des Chips. Mittlerweile kann man hier ja auch Hotspots auslesen (GPUs haben garantiert auch zig Sensoren mittlerweile) und auch da sind die Leute wieder erschrocken dass da auch mal die 100 stehen kann bei AMD und NV. Das war zwar wohl schon seit jahrzahnten so aber jetzt wo mans auslesen kann erschrecken die Leute auf einmal. :haha:
 
Weis man das wirklich so genau?
Spielt es denn eine Rolle?
Ein 5800x zeigt 80 bis 90 Grad im OSD. Na und? Macht das die CPU in irgendeiner Form schlechter? Ich mag auch niedrige Temps und einen leisen PC. Dahingehend kann man die AMDs aber super optimieren.

Die Menschen kaufen sich K CPUs um das Maximum rauszuholen und AMD bietet CPUs an bei denen das nicht mehr nötig ist und das ist dann falsch? Sehr skurriles Denken. Es ist ja nicht so, dass die CPUs anfangen zu kochen und sterben.
Beim Auto freu ich mich wenn die Anzeige die 90 Grad erreicht hat weil ich dann Vollgas geben könnte. AMD zeigt den heißesten Punkt an damit die CPU NICHT zu heiß wird. Finde ich persönlich vorbildlich. Warum das negativ ausgelegt wird deutet nur auf Unwissenheit und Ignoranz hin. Bitte nicht falsch verstehen, aber in diversen Foren wird dieses Verhalten negativ ausgelegt obwohl es doch eher positiv bewertet werden sollte. Intel erreicht nur "xx" Grad!!!!!!! Ja und? Ist es vergleichbar? Keine Ahnung, spielt es denn eine Rolle?
Die CPU läuft in ihren Spezifikationen und Booster ans Limit. Automatisch!
Wäre das nicht für einen Intel auch erstrebenswert?
 
Zurück