17°C Temperaturunterschied CPU zu GPU

Die kann man halt kaum kühlen. Und das ist ein massives Problem, denn die CPU kann viel viel besser sein wenn man bedenkt wie der Rest aussieht inklusive TDP - aber das Design der CPU verhindert eine effektive Kühlung.
Kann ich so nicht bestätigen. Ich lasse gerade seit über 20 Minuten CB23 im Multicore Test und parallel Heaven mit maximalen Settings bei 2560x1440 laufen. Delta CPU zu GPU ist~ 30 K. Wenn ich den Hotspot der 6900XT als Vergleich nehme, dann sind es "nur" 10 K. Vermutlich ist der Vergleich 5800X zu GTX1080 Hotspot ähnlich, nur dass der Hotspot der GPU nicht ausgelesen werden kann.

Von daher würde ich jetzt behaupten, dass die Werte vom TE im Vergleich zueinander komplett in Ordnung gehen. Obendrein meine ich, dass die Werte gemessen an der doch recht spärlichen Radiatorfläche auch vollkommen "normal" sind. Und weiter meine ich, dass diese Grundsatzdiskussionen unsinnig sind.

Screenshot 2021-04-17 181913.jpg


Was macht den Intel da besser, das man da 300 watt weggekühlt bekommt, während AMD schon bei 150 Watt kaum zu bändigen ist?
Nichts. Bei AMD bekomme ich mehr CPU für weniger Geld durch mehr Leistung bei gleichzeitig weniger Verbrauch. Übrigens zieht die CPU (Package) oben auf dem Bild 194 Watt.
 
Spielt es denn eine Rolle?
Ein 5800x zeigt 80 bis 90 Grad im OSD. Na und? Macht das die CPU in irgendeiner Form schlechter? Ich mag auch niedrige Temps und einen leisen PC. Dahingehend kann man die AMDs aber super optimieren.

Na es spielt schon eine Rolle ob eine cpu, von Hause aus schon am Limit läuft, oder ob da noch Luft nach oben ist.

Bei den GPU's kommen ja auch alle AMD jünger mit dem Argument, das die nvidia GPU's 3080/3090 bereits an der Kotzgrenze laufen, während die neuen AMD Gpu's ja noch soo schön viel Spielraum zum übertakten mitbringen.

Was ja auch stimmt.

Abgesehen davon habe ich hier gefragt, wieso das denn so ist, das Inteö cpu's bei 300 watt nur 85 grad warm werden, während AMD Cpu s bei 150 watt schon die 95°c knacken.

Es gab ja auch viele fundierte und sinnvolle Antworten, wie kleinere Kerne, höhere Energiedichte etc. Alles sehr einleuchtend und vernünftig.

Dann kam das Argument vonwegen Intel zeigte einfach tiefere Werte, weil sie irgend nen Durchschnittswert anzeigen würden.
Das kann ja durchaus stimmen, denn ich weis es nicht!. Ich hätte nur gerne eine Quelle dazu. Denn wens keine Quelle gibt, kann es genauso gut einfach schwachsinn und erfunden sein.
Ich mag einfach nicht wenn hier dinge rum erzählt werden ohne Hand und fuss.
 
Dann kam das Argument vonwegen Intel zeigte einfach tiefere Werte, weil sie irgend nen Durchschnittswert anzeigen würden.
Das kann ja durchaus stimmen, denn ich weis es nicht!. Ich hätte nur gerne eine Quelle dazu. Denn wens keine Quelle gibt, kann es genauso gut einfach schwachsinn und erfunden sein.
Ich mag einfach nicht wenn hier dinge rum erzählt werden ohne Hand und fuss.
Da Intel nicht die Daten über die Temperatursensoren, Hotspots etc. in der CPU rausrückt, kann dir keiner was sagen.

Was bekannt ist:
Intel zeigt Werte pro Kern an und hat eine TJmax für die besagte CPU. Gibt noch Package oben drauf.

AMD zeigt nur einen Hotspot an, gibt aber mehrere Sensoren, es wird also nur der höchste Wert angezeigt.
Die sind also nicht vergleichbar. Was schade ist, aber ist wohl so bei verschiedenen Herstellern, jeder Hersteller denkt sich eine Lösung aus und hält daran fest.

Hier wird kein Quatsch erzählt.

Hier werden einfach Dinge bekanntgegeben die eben bekannt sind. Und das AMD bei 90°C ins Limit rennt und auf hochwertige Wasserkühlungen genau so reagiert wie auf einen popeligen 35€-Turmkühler mit einem Lüfter, ist bekannt.
Also gibt es das Problem das die Hitze nicht zum Kühler kommt. Denn hier sind Leute mit Wasserkühlungen unterwegs, die locker 1000 Watt abführen können. Und die kriegen nicht mehr Performance aus der CPU damit, die haben keinen Headroom fürs Übertakten mehr, die CPU rennt einfach ins Temperaturlimit und fertig.

Intel lässt sich besser kühlen, säuft dafür wie n russischer Biker nach dem die Pubs dort geöffnet haben.

Was uns als Nerds halt auch ankotzt - AMD hat keinerlei Spielraum gelassen bei den CPUs, die sind am Limit und lassen sich auch mit schweren Geschützen nicht bändigen wenn man sie nicht gerade einfriert.
 
Nur so nebenbei erwähnt - ihr wisst schon, dass Intel mit dem 11900K aktuell wieder die schnellste Spiele CPU am Markt hat?

Zumindest laut dem Pcgh Cpu index.
Was nützt es mir, wenn ich in 720p die schnellste CPU habe, ich in der realen Welt davon aber nichts habe? Genau! Gar nichts.

Was uns als Nerds halt auch ankotzt - AMD hat keinerlei Spielraum gelassen bei den CPUs, die sind am Limit und lassen sich auch mit schweren Geschützen nicht bändigen wenn man sie nicht gerade einfriert.
Was ist ehrlicher? Das nachträglich außerhalb der Spezifikation Laufenlassen einer CPU, um den Overclockingspass zu haben, oder aber gleich die CPU so betreiben, wie es das Silizium hergibt? Ich meine Letzteres. Und wenn Intel erstmal auf die kleinere Strukturbreite umgesattelt hat, dann wird es dort genauso sein. Also warum sich künstlich aufregen für etwas, was in meinen Augen gut ist?

Außerdem ist beides vollkommen irrelevant für das Thema hier.
 
Zuletzt bearbeitet:
Was nützt es mir, wenn ich in 720p die schnellste CPU habe, ich in der realen Welt davon aber nichts habe? Genau! Gar nichts. Außerdem ist das vollkommen irrelevant für das Thema hier.

Es macht denn Anschein, als würden die Leute denken, man muss eine so "heiße" AMD-CPU kaufen, da Intel ja nichts brauchbares herstellt. Aber ganz so ist es ja nicht. Somit ist es nicht ganz am Thema vorbei. :)

Du hast Recht. Die meisten Spiele sind CPU-limitiert. Deshalb verstehe ich sowieso nicht warum jeder ständig aufrüstet. Falls du nicht jede Menge synthetische Anwendungen hast, kannst du es mir ja mal erklären warum es bei dir ein 5900X seien musste. Gerne auch per PN. ;)
 
Das war zwar wohl schon seit jahrzahnten so aber jetzt wo mans auslesen kann erschrecken die Leute auf einmal. :haha:
Genau, weniger wissen ist manchmal entspannter. Wassertemperatur (ok, als Reglereingang ist das dafür durchaus entspannter zu verwenden als zu versuchen CPU/GPU Temp entsprechend zu glätten) oder gar Durchfluss messen ist auch so ein Ding. Eigentlich zählt am Ende nur was die Komponenten an Temperaturen haben, wie warm/schnell das Wasser dafür wird ist quasi egal.
@Topic: Das ist wenn man >10nm Nvidia mit 7nm AMD vergleicht vollkommen normal.
Selbst mit 3600 zu 2080Ti habe ich ein ähnliches Delta zwischen CPU und GPU.
 
Vermutlich ist der Vergleich 5800X zu GTX1080 Hotspot ähnlich, nur dass der Hotspot der GPU nicht ausgelesen werden kann.
Bei meiner 1080Ti lässt sich der Hotspot auslesen.
während AMD Cpu s bei 150 watt schon die 95°c knacken.
Für solche Temperaturen muss die Kühlung schon ausgesprochen schwach sein.
Spitzentemperaturen sieht man meist nur, wenn wenige Kerne viel Strom ziehen. Werden alle Kerne gleichmäßig ausgelastet, ist die Energiedichte geringer. Beim 5800X ist der Temperaturunterschied zwischen 1T und nT natürlich kleiner, weil dieser mit nur einem CCD die vollen 142W zur Verfügung hat.

Mein 5900X erreicht in CB R23 nT nur 60°C bei 142W PPT. Die Kerne genehmigen sich dabei jeweils 8-9W.
Die 80°C gibt's, wenn sich ein einzelner Kern seine 22W gönnt.
 
Das kann ja durchaus stimmen, denn ich weis es nicht
Ich auch nicht.
Na es spielt schon eine Rolle ob eine cpu, von Hause aus schon am Limit läuft, oder ob da noch Luft nach oben ist.
Nur welche Situation ist davon im Vorteil? Ich finde ersteres erstrebenswert. Vor allem vollautomatisiert. Zumal solch hohe Temps nur in Situationen auftreten in denen sehr wenige Kerne extrem gefordert werden.
 
Zurück