dann kann man schon noch zu einem 13600k(f)
Das die CPUs gut sind, wollte ich nicht in Abrede stellen, gerade im Gaming Only und normalem Desktop Betrieb sind sie gut und preislich akttraktiv.
Das Teil braucht im Gaming nicht mal 1/3 davon. Das immer dieser Unsinn überall erzählt wird. Im Gaming bzw. Teillastbereich ist der Raptor absolut Konkurrenzfähig. Die Tests von Igor zeigen das auch klar.
Dennoch bleibt es dabei, dass im Gaming die 3Ds konkurenzlos sind, lt. Igor bspw. pro FPS (1440p) 0,2W verbraucht, ein 13900K dagegen schon 0,36W, also 80% mehr Energie braucht. Ob das jetzt ausreicht um "konkurenzfähig" zu sein? Subjektive Einschätzung, mich persönlich würde es nicht wahnsinnig stören, da meine Gamingzeiten recht gering ausfallen, je höher der Gaminganteil ist, je interessanter wird das. Sobald Intel aber eben in den Maximallastbereich geht, sind sie bis auf wenige Anwendungen nicht mehr zu kühlen, was neben der Energie auch ein nicht unwichtiger Aspekt sein kann.
Rein aufs Gaming (PCGamesH) ist aber in meinen Augen 80% mehr Energie pro FPS schon nicht mehr schön zu reden, auch wenn es nur 100W sind und nicht die 320W.
Im Gegenteil, das bigLittle Konzept hat Intel was die Effizienz angeht wieder konkurrenzfähig gemacht. Dort wo ein 11900K einfach nur chancenlos war.
Quatsch!
Das bigLittle Konzept hat in meinen Augen gar keinen Anteil daran. Intel hat der Wechsel zu 10nm (oder wie auch immer es jetzt heißt) wieder ran gebracht, dazu recht konsequente Entwicklungen der Kerne. Die littleKerne haben letzlich nur einen Anteil daran, dass man auch in Anwendungsszenarien (also parralelisierten Workloads) wieder dabei ist.
Das Maximum ist der 320 Modus.
Nö, das Maximum ist das was bei den meisten Boards voreingestellt ist und bedeutet, "hau raus die Scheiße". @Stock sind 320W angedacht, praktisch dürfen sie aber mehr ziehen (wer da Schuld ist sei mal dahingestellt) und landen am Ende im Kühlungslimit.
Jedenfalls mehr als genug um von AMD mal wieder 5-10 Jahre Abstand zu halten (das deckt sich leider auch mit den sonstigen PCs die ich so baue, das waren zwar die letzten Jahre mehrAmd als intel Systeme - Rückrufe wegen diversen Problemen kamen bisher ausschließlich (!) von den Amd Systembesitzern).
Schonmal dran gedacht, dass dies aber auch einfach ein Problem vor dem Computer sein kann? Ich kann immer wieder berichten, dass wir zu AM2 Zeiten hier 25 Rechner im Dauerbetrieb hatte und nie Probleme hatten, im Anschluss gab es 7700k Rechner und ebenfalls nie Probleme, nun haben wir leider etwas gesplittet und neben AM5 Rechner die bisher keine Probleme gemacht haben, auch 12th Intel Rechner, die leider bisher eher schwierig waren, der Scheduler mag gut sein, aber mit komischer Software kommen komische Probleme und erst nachdem ich die Effizienzkerne abgeschaltet habe, läuft alles zufriedenstellend.
Wenn ich optimierte 13600k(s) sehe, die mit undervolting und hohem Speichertakt bei geringer Latenz schon nahe an die Leistung eines 7800X3D heran reichen und dabei eben nicht so absurd viel verbrauchen, wie ein 13900k, fällt mir das etwas schwer zu glauben.
???
zw. wie groß ist die Relevanz noch in 1440p, oder gar 4k. Wenn die CPUs immer mehr im Teillast sind und die Unterschiede zwischen einem Stock 7800X3d und einem Stock 13900k schon nur bei 40W liegen in 4k, im Schnitt.
Großartige Leistung, wenn man trotz vieler "Effizienzkerne" bis zu 3x so viel Strom verbraucht wie die Konkurrenz ?!