AW: 5-nm-Fertigung bei TSMC: 84 Prozent mehr Transistoren auf gleicher Fläche
Daher würde ein 8 Core CCX das ganze recht unabhängig vom Speicher halten können und ich glaube schon, dass die Gameperformance deutliche Zuwächse generieren könnte. Aber klar, ich kann es nicht belegen.
Wenn die Kerne keine/kaum Daten brauchen und damit die den paar MB des Caches genügen mag das so sein. Wenn man aber nun gar Aufgaben von der GPU zurück holen möchte oder andere zusätzlich implementiert (z.B. erheblich ausgeweitete KI), dann brauchen auch diese Threads Daten.
Ich hab nie von einer 500EUR CPU gesprochen, bin eher so der "preisbewusste" Käufer der aber ungern auf Leistung verzichtet.
Glaubst Du, das eine 16+16 oder gar 32+32 Kern CPU in den nächsten 3-4 Jahren nur auf Grund von 5nm Produktion für erheblich weniger wie 500€ kaufbar sein wird? Ich galube derzeit eher nicht daran, womit es gerade für diese Käufer mehr Sinn macht, die steigenden Transistorzahlen in anderes wie noch mehr Kerne zu investieren.
Also so klassisch 3600X doer vieleicht auch mal 3700X Käufer. Klar hätte ich nix dagegen 5 Jahre keine neue zu kaufen, das impliziert mir aber, dass es kein Leistungsplus gibt und das finde ich dann doof!
Bei mir gäbe es für Anwendungen den Leistungpluss nach gut einem Jahr (i9-9900K auf 3950X). Allerdings krankt der i9 bei mir überwiegend an der "lahmen" Speicheranbindung. Wo bei 4+4 Kernen die CPU der limitierende Faktor z.B. bei vielen VMs war, scheint es nun der Hauptspeicher zu sein.
Für mich hat sich das Upgrade auf den i9 erst nach gut 7 Jahren gelohnt. Ohne die neue Kamera hätte es der i7-2600K sicher noch ein paar Jahre getan. Leisutngplus bei CPUs gab es in der Zeit genügend, auch für die paar von mir genutzten Programme, die mit 8+8 oder u.U. auch mehr Kernen irgendwie umgehen können.
Gerne wiederhole ich hier immer, das Gaming am PC ein sehr kleiner Markt ist und der Mittelpunkt ist der Anwendungssektor.
Der Gaming-Sektor ist finanziell die treibende Kraft. Bis ein "normaler" Heimanwender ohne Gaming seinen PC aktualisiert, muss schon einiges passieren. Da brauche ich mir nur meine Kollegen anzusehen, die alle irgendwo im IT-Bereich arbeiten.
Vor allem gibt es im Heimbereich viel zu wenige Applikationen, die wirklich von vielen Kernen profitieren. Wer hundderte Bilder in Lightroom importiert, muss diese erst einmal von der Speicherkarte in den PC bekommen. Selbst bei 300 MB/s Lesedatenrate sind das nur 4-8 Bilder/s. Da bringt es einem überhaupt nichts, wenn die CPU 32 oder gar 64 Bilder parallel bearbeiten könnte, mehr wie 1-2 Sekunden benötigt LR nicht für ein Bild auf einer CPU mit guter IPC.
Wenn man dort nicht ständig Videokonvertierung auf der CPU betreibt, lässt man den Rechner halt man nachts durchlaufen. Und ob meine monatliche 7zip-Komprimierung 20 Minuten oder 60 Minuten benötigt, ist mir auch völlig egal.
Vor allem sieht man schön, dass der 3990X abkackt, da der Windows Scheduler mit den ganzen Kernen nicht klar kommt.
Nein, Windows nutzt ein "eigenwilliges" Konzept und unterteilt CPUs in Prozessor Groups mit jeweils 64 Threads. Kennt die Software dies nicht, dann kann sie max. 64 Threads nutzen. Blender ist z.B. mit der neuen Version gemäß Heise/C't 05/2020 auf dem 3990X ca. 39% schneller wie auf dem 3970X oder fast dreimal so schnell wie auf einem i9-10980XE.
Wobei dann für mich noch als Frage hinterherkommen würde, ist die variable denn die "bessere" Wahl?
Wenn es um maximale Bildqualität bei minimaler Dateigröße geht, dann ist VBR besser. Wer einen konstanten Datentrom benötigt, der niemals über eine gewisse Datenrate hinaus geht und trotzdem die bei dieser Datenrate max. mögliche Qualität möchte, ist mit CBR vermutlch besser bedient.