AMD Ryzen Threadripper 3990X im Hands-on-Test: Wenn ganze Welten aufeinander treffen

Was ich am Threadripper interessant finde ist, dass man bei AMD für den doppelten Preis, auch genau doppelt soviele Kerne bekommt, und nicht wie bei einem nicht näher genannten Hersteller, mit einer logarithmischen Preis-Steigerung rechnen muss... ;)

AMD muss auch einfach nur (fast) doppelt so viele gleiche Bausteine zusammen "kleben" und schon ist die CPU fertig.
Bei Intel steigt ja exponentiell die Fehlerrate bei den großen Chips -> exponentiell mehr Ausfallrate -> exponentieller Preis (und natürlich Produktpolitik)
 
Mein 3950X erreicht bei 140 Watt locker 85°C. Das ist der Big TR ja richtig kühl dagegen.

Das Ding ist, dass die 7nm-Chiplets in hohen Boostzuständen sehr starke Hotspotneigung zeigen. Selbst im ECO-Mode den ich grade betreibe bin ich zwar unter Last normalerweise im Bereich von max 70°C, es gibt aber kurze Peaks von ein, zwei Sekunden auf über 80°C wenn gerade zufällig ne Handvoll einzelne Threads Vollast erzeugen und die in ein einzelnes CCX gelegt werden. Das Boostet dann (auch im Eco) auf 4,5 GHz rum hoch, die Kerne liegen direkt nebeneinander und die CPU gibt immer den höchsten Temperaturwert aus - schon haste 80+°C da stehen obwohl der größte Teil der CPU bei 50 ist.

Da ein 3990X bei weitem keine derart hohen Boosts fährt und es hier viel seltener vorkommen sollte dass zwei harte einzelne Tasks zufällig ins gleiche CCX fallen (wenn man 16 CCX hat :ugly:) ist die Hotspotproblematik hier viel weniger ausgeprägt und die ganz hohen Temperaturwerte bleiben aus. :)
 
Wenn man den etwas ausführlicheren Test von Golem liest, wird schnell der Schatten zum Licht klar: nicht nur, dass man die davon profitierende Software mit der Lupe suchen muss inkl. Pflicht zum Update, es hapert auch vorn und hinten am gesamten Konstrukt und der Stabilität auf Betriebssystem-Basis. Der 64 Kernige Hammer für eine Nische in der Nische, denn der Großteil von Software dürfte eher mit GPU Beschleunigung funktionieren als denn CPU.

Gibt es also ein Plus im Zusammenspiel mit einer z.B. Quadro P6000, wenn wir hier schon von professionellen Anwendern sprechen, die sich eine 4.000€ CPU untern Tisch stellen? Wie schlägt sich diese Kombi bei Solidworks 2019, Inventor 2020, Creo 3.0, 3ds Max, Blender / Luxrender, Adobe Premiere Pro 2020 (v. 14) über NvEnc oder AMF, GDI/GDI+? Lohnt sich Aufpreis zum 3950X, 3960X bzw. 3970X, wenn man in 50% der Anwendungen SMT deaktivieren muss damit es überhaupt läuft?

Für mich persönlich vorerst eine reine "weil man es zusammenkleben konnte"-CPU, deren Sinn sich für den überwältigenden Großteil der Konsumenten kaum erschließt - den Punkt trifft auch Golem. Für den wirklich professionellen Rest tendierts dann wiederum zum Epyc. Ich bin ja mal gespannt, wie PCGH testet
 
Tests mehrerer Kühlerhersteller zu Folge hat der asymmetrische Aufbau von Matisse quasi keinen Einfluss auf die Temperaturen. Den gleicht der Heatspreader bequem wieder aus. Aber gegen die auf die winzigen Recheneinheiten konzentrierte zusätzliche Wärmeentwicklung kann er nur wenig ausrichten. Da hilft nur ein effizienter Betriebsmodus und der Verbrauch von Zen explodiert ein Stück oberhalb von 4 GHz geradezu. Ein paar 100 MHz weniger und schon kann ein 3990X mit dem doppelten Energieumsatz eines 3950X viermal so viele Kerne am Leben erhalten.


AMD muss auch einfach nur (fast) doppelt so viele gleiche Bausteine zusammen "kleben" und schon ist die CPU fertig.
Bei Intel steigt ja exponentiell die Fehlerrate bei den großen Chips -> exponentiell mehr Ausfallrate -> exponentieller Preis (und natürlich Produktpolitik)

Verglichen mit der Preispolitik ist die Fehlerrate irrelevant. Guck dir mal die Preisunterschiede zwischen einem 2-Wege-Xeon-Silver und einem 8-Wege-Xeon-Platinum mit ähnlicher Konfiguration an. Bei zwei physisch identischen, in der Herstellung exakt gleicht teuren CPUs kann die Freischaltung für Systeme mit mehr als zwei Sockeln den Preis mehr als verdoppeln. Umgekehrt bekommt das gleiche Silizium als Core-i-Desktop-Modell für einen Bruchteil und Intels 14-nm-Fertigung ist lange genug am Markt, dass es nur noch sehr wenige Defekte und somit keinen technischen Grund für diese Abwertung gibt. Außer eben die Preispolitik. Und die sagt ganz eindeutig: Wenn man vier potenzielle Kunden mit einem Budget von 1.000, 2.500, 4.500 und 10.000 Euro hat, dann sollte man auch CPU-Modelle für 1.000, 2.500, 4.500 und 10.000 Euro Euro anbieten, um 20.000 Euro einzunehmen. Wer das immer gleiche Silizium dagegen nur einmal zum Durchschnittspreis von 5.000 Euro anbietet, verschenkt 15.000 Euro Einnahmen. (Beispiel passt analog auch mit einer Null weniger im Desktop.)
 
Wenn man den etwas ausführlicheren Test von Golem liest, wird schnell der Schatten zum Licht klar: nicht nur, dass man die davon profitierende Software mit der Lupe suchen muss inkl. Pflicht zum Update, es hapert auch vorn und hinten am gesamten Konstrukt und der Stabilität auf Betriebssystem-Basis. Der 64 Kernige Hammer für eine Nische in der Nische, denn der Großteil von Software dürfte eher mit GPU Beschleunigung funktionieren als denn CPU.

Aber irgendwann musst du mal anfangen, sonst hätten wir immer noch 1 Kern CPUs.
Von daher sehe ich da keine Probleme. AMD haut den 64 Kerner raus, den heute praktisch noch keiner benötigt.
Aber in 5 Jahren wird der Standard sein.
Heute ist ein 8 Kerner ja Low Budget. Das war vor 3 Jahren nicht mal in Aussicht. Von daher finde ich den Schritt gut, die Kerne rauszuhauen.
Das zwingt Intel zu reagieren und damit auch die Software Hersteller. Der Kunde ist der große Gewinner. Ich freue mich daher. :daumen:
 
Für mich persönlich vorerst eine reine "weil man es zusammenkleben konnte"-CPU, deren Sinn sich für den überwältigenden Großteil der Konsumenten kaum erschließt. Für den wirklich professionellen Rest tendierts dann wiederum zum Epyc. Ich bin ja mal gespannt, wie PCGH testet

Das stimmt sicherlich. Du musst aber sehen, dass es erstens auch Leute gibt die im Consumerbereich einfach das dickste kaufen weils sies können (nicht weil sies brauchen oder Ahnung hätten), es zweitens ein nicht zu unterschätzdender Marketingzug ist einen solchen 64-Kerner anbieten zu können als einziger am Markt und es drittens einfach ein virtueller Schlag ins Gesicht von Intel ist.

Klar, technisch gesehen hat die CPU nicht wirklich viel Sinn aber als fettes Prestigeobjekt für vergleichsweise wenig Aufwand ists halt geil. :D
 
Was ich am Threadripper interessant finde ist, dass man bei AMD für den doppelten Preis, auch genau doppelt soviele Kerne bekommt, und nicht wie bei einem nicht näher genannten Hersteller, mit einer logarithmischen Preis-Steigerung rechnen muss... ;)

Nur nicht im Power Limit. Denn da bewegen sich die 64 Kerne auf dem Niveau von ~50 Kernen. Ehrlich gesagt finde ich die CPU zum doppelten Preis zu langsam, bei Einhaltung des Limits, da macht der 3970x eine wesentlich bessere Figur.
Und wenn man auf Windows Server 2016 setzt, zahlt man noch 3500€ wegen der Core Lizenzen.
 
Klar, technisch gesehen hat die CPU nicht wirklich viel Sinn aber als fettes Prestigeobjekt für vergleichsweise wenig Aufwand ists halt geil. :D
Wenn man (semiprofessionell) Videos schneidet, ist das Ding der Ferrarie, für den Preis von einem Passat. Man spart unheimlich Zeit und gegenüber Intel Geld. Wenn es dafür einen Kunden gibt, warum nicht Retail anbieten.
 
Wie verhält sich das mittlerweile mit AIO Wakü's ?

Hatte vor Jahren (etwa 4) mal eine mit 3 Fach Radiator bzw 3 großen Lüftern drauf. Happy wurde ich damit nie wirklich auf meinem 4790K. Grade beim OC hat man oft gesehen, das der Takt zurück fährt, weil das Teil die Abwärme nicht in Griff bekommen hat. Daher habe ich mir danach den Noctua NHD 15 irgendwas geholt. Das ist einfach das rundum sorglos Paket seitdem hier auf der Cpu zumindest.

Sind die Dinger mittlerweile braucbarer geworden ? Werde mir richtung Herbst auch einen Threadripper gönnen, wohl den 3960X. Jedoch warte ich momentan noch, bis Noctua größere Kühler zur Verfüngung stellt. Lohnt sich das warten, oder führen mittlerweile Aio's die Wärme besser ab, also sind die überhaupt brauchbar ? Konnte mich mit den Dingern noch nie wirklich anfreunden. Auch was ich bei Freunden erlebt habe, würde ich jederzeit einen klassischen Kühler bevorzugen, sofern der verfügbar wäre überhaupt. Ansonsten wenn schon Wakü, dann custom und selber bauen ! ;-)

Nimms mir bitte nicht übel, aber wenn du schon mit einer AiO überfordert warst, dann ist selbstbau nicht die erste Wahl.
Denn bei gleicher Lautstärke hätte eine 360er mehr Kühlleistung bringen sollen als der nhd15. Deshalb gehe ich davon aus, dass bei der Montage was schief gelaufen ist.

@topic
Was ein geiles Teil! Wirklich erstaunlich wie schnell AMD uns in den letzten paar Jahren voran gebracht hat.
Könntet ihr bitte mal testen ob die CPU sich mit Multirail und Singlerail gleich verhält beim Boostverhalten? Ich war nämlich der Meinung dass sowohl der 1700er als auch der 2700er etwas konstanter oben blieben und sich weniger sprunghaft zeigten. Vielleicht lags an meinem board, vielleicht aber eben nicht. Also falls machbar, bitte einmal testen.
 
Zuletzt bearbeitet:
Eigentlich nicht. Videobearbeitung auf der CPU ist eher ein Oldtimer.
April, April. Du meinst Gleitkomma wie AVX2 ist egal?

Du solltest schnell bei sämtlichen Firmen anrufen, die diese Dinger gerade als heiliger Gral für die Videobearbeitung (als Schnittmaschine) verkaufen wollen (rendern, schneiden usw.) und denen sagen die liegen falsch.:)

Nur so Terminator DF wurde auf 3rd TR gerendert.
 
Zuletzt bearbeitet von einem Moderator:
Was zum Teufel willst du mit einer "Schnittmaschine" sagen? Glaubst du das jedes Vorschaubild von der CPU gerendert wird?
 
Was zum Teufel willst du mit einer "Schnittmaschine" sagen? Glaubst du das jedes Vorschaubild von der CPU gerendert wird?
Ich will dir sagen das Paramount Picture das anders sieht als du und die einen recht frühen Exclusivdeal mit AMD wegen TRX hatten. Insgesamt zeigten sie recht dankbar, weil man auch Zeit sparen kann. Was du mit dieser Info machts ist mir relativ egal.
 
Zurück