AW: Intel Ivy Town: E7-Serverprozessoren künftig mit 15 CPU-Kernen
Die News zeigt deutlich, dass es nach wie vor auch größere Leistungssprünge in der IT gibt.
Nur leider seit Jahren nicht mehr im PC-Desktop sondern in anderen Bereichen, Server, ARM CPUs, Tablet, und Smartphones, u.s.w.
naja im Desktop-Bereich tut sich schon noch so einiges, nur halt im Moment nicht so offensichtlich:
bei der GPU Leistung tut sich weiterhin immer bei neuen Prozessen was, nur wird halt jetzt der Half Node immer übersprungen, also nach außen betrachtet nur noch im halben Tempo, aber eigentlich hat sich nur der Rhytmus verlangsamt, nicht der Leistungszuwachs über eine Zeitperiode, weil dafür die Sprünge WENN dann wieder was passiert größer sind.
Bei GPUs kommt hinzu: 15 Jahrelang ist nicht nur einfach die Transistorzahl in die höhe geschnellt, sondern auch die TDP. Jetzt hat man da halt ein Limit erreicht wo es nicht mehr höher geht bzw wirtschaftlich ist, das heißt, man muss halt jetzt innerhalb physikalischer Grenzen agieren, während das vorher nicht so war.
Die LEISTUNG PRO WATT, steigt aber seit 15 Jahren im gleichen maße.
Genauso bei der reinen CPU Power: auch hier wird es verschleiert, dass eigentlich Sprünge gemacht werden:
Intel mag zwar bei ihren letzten CPUs nicht wirklich viel zugelegt haben (Sandy auf Ivy ca 8% und Ivy auf Haswell nochmal 8% IPC), aber was übersehen wird, ist, dass gleichzeitig die Verlustleistung gesenkt wurde, also war der Sprung viel größer (kann man sich am besten so vorstellen: wenn man versucht hätte bei allen CPUs die TDP bei den 95W von der ersten Sockel 1156 Core i7 CPU zu belassen, wären wir heute bei weitaus mehr Leistung.
Nochwas was für Leistungszuwachs spricht: Die enormen Sprünge bei der iGPU.
Egal? Nutzlos für Spieler?
Was, wenn jeder Spieler eine iGPU hätte, ist das nicht eine nutzenswerte Ressource?
Einfach mal Abwarten bis der Fall eintritt: alle Desktop-CPUs von AMD und Intel haben auch gleichzeitig eine APU drin? was wird passieren? Spieleentwickler fangen (ENDLICH) an KI und Physik über eine OpenCL Engine laufen zu lassen, die diese iGPUs verwenden. Und dann sind wir wieder sehr froh, dass in den letzten Jahren Intel die iGPU Leistung jede Generation fast verdoppelt hat.
Oder anders gesagt, jetzt sehen wir das noch nicht, aber eigentlich wurden hier jedes Jahr die Physik und KI Rechenleistung verdoppelt, falls Entwickler das endlich nützen.
ZUSÄTZLICH käme dann hinzu, dass diese Aufgaben von der eigentlichen CPU und GPU weggenommen werden würden, hier also wieder Ressourcen frei werden.
Dank diesem scheinbaren Stillstand bei CPU Power, und dank der Konsolen, haben sich anscheinend die Hardware auch Anforderungen am Desktop kaum weiterentwickelt, eine 2008er Core i7 CPU reicht völlig bis heute. AAAAABER es wird die Zeit kommen, wo plötzlich alle auf den OpenCL/Direct Compute Zug aufspringen werden, und dann sind wir froh, dass teile unserer CPU sehr wohl jedes Jahr 50-100% (je nach Ausbaustufe) zugelegt haben. Das darf man nicht übersehen.
Und bis dahin freuen wir uns halt, dass unsere CPUs so lange hielten
Übrigens wäre dies eine SUPER Chance für AMD im Desktop bzw Spielemarkt ordentlich zurückzuschlagen, denn in sachen GPU Leistung wird man ja immer die Nase vorne haben, somit auch beim Bereich iGPU und somit erst recht wenns um KI, Physikbeschleunigung geht, bzw der CPU Last abzunehmen. DANN ist das APU Konzept auch für Highendgamer Interessant.
Nicht die CPUs oder GPUs entwickeln sich also kaum weiter, sondern nur die Adaption von der Softwareseite.
Um die zunehmend weniger werdenden Desktop-CPU-News zu kompensieren schlage ich vor, dass PCGH zunehmend auch Server CPU beleuchtet.
Das ist ein sehr interessanter Bereich der IT. Und wir haben hier genug Experten die das interessieren dürfte.
Naja der Cooldown im Desktopbereich wird wohl aufhören, wenn obiges Szenario eintritt: Spieleentwickler entdecken die APUs bzw iGPUs.
Server/Workstation-Bereich ist auf einer Spielewebsite aber absolut uninteressant: dafür gibts viele Websites, die das schon abdecken, außerdem ist der Serverbereich einfach zu groß: da gibts zu viele Spezialbereiche (gibt ja nicht nur Webserver, sondern auch viele andere Dinge wo solche CPUs gebraucht werden, hinzu kommt die inzwischen recht beliebte Beschleunigung durch GPUs und evtl auch Xeon Phi).
Workstation noch am ehesten, aber selbst die werden schon woanders getestet.
Wäre hier wohl eher die Frage ob man nicht AUSFÜHRLICHER berichtet über die angeblich wenigen Dinge die sich ändern.
Andere Magazine schaffen es auch auf mehreren Hundert seiten ausführlichst und detailreichst über CPU Architekturen usw zu berichten, (etwa c't Magazin usw).
Aber Spiele und Hardware sind halt auch wirklich ein sehr kleiner Bereich, es lohnt sich nicht zu weit über den Tellerrand hinauszuschauen, denn dann wird man gleich wieder erschlagen mit Optionen.
Darüber hinaus: 15 Cores bzw 30 Threads werden in Games nur sehr sehr wenig bringen jemals und wohl auch kaum genutzt, da sich gewisse Teile der Engine nunmal nicht sauber parallelisiseren lassen...
wow 15 kerne. also in spielen werden aktuell nicht mehr wie 8 kerne ausgelastet.
man muss aber auch sagen dass ein 4 kerner wie 2500K, 3570K oder 4670K für zocken reicht,
weil die IPC ausreichend ist. zukunft geht in richtung mehr kerne.
Mehr ja, aber nicht mehr viel mehr.
15 Kerne bzw 30 Threads werden wir wohl nie 100% ausgelastet sehen, zumindest solange wir solche Kerne haben wie heute. Wenn wir aber von bestimmten BEREICHEN einer CPU 30 Einheiten haben, statt bislang 4, wird man das eventuell schon nutzen können (eben wie oben erwähnt, im Sinne von execution Units in der iGPU, die zukünftig mehr und mehr mit der CPU verschmelzen wird, in 5-10 Jahren vermutlich dieselben Integer/Floatingpoint eiheiten und Register verwenden, das einzige GPU-Mäßige dann einige Fixed Functions sein.
Wie Rollora auch schon richtig sagte: Die Zukunft muss nicht zwingend in Richtung vieler Kerne gehen.
Acht (phyische und vollwertige) Kerne im Mainstream werden sicher noch kommen, aber danach könnte auch gut Ende der Fahnenstange sein, weil im MAINSTREAM einfach niemand sich so einen großen Parallelisierungsaufwand macht:
Was interessiert auch den 08/15-Nutzer, ob er nun seine WAVs in MP3s mit vier, acht oder sechszehn Kernen umrechnet; hauptsache, das Programm kostet nichts und es geht halbwechs schnell!
Wenn, dann wird man eh eher die Power von gewaltiger Parallelisierung nutzen, als von geringer Parallelisierung, alias Graka> Prozzi!
Für 50% weniger Berechnungszeit kriecht heutzutage keiner mehr hinter den Ofen hervor; 95%, damit kann man locken!
Jep, "Physisch vollwertig" (kann man da auch Monolitisch sagen?), das hab ich gemeint. In Zukunft wird wohl wieder weniger richtung mehr (vollwertige) Kerne gearbeitet, sondern die einzelnen Kerne durch vervielfachung einzelner Einheiten beschleunigt. Der Bulldozer/Modulansatz war ja nicht per se schlecht, sondern das tragische war die mieserable Leistung pro Kern und der hohe Verbrauch (bzw IST das nach wie vor das Problem, sonst wäre Bulli eine Alternative (zu Intel, nicht zur Heizung))