Intel Cascade Lake: Xeon-CPUs mit bis zu 56 Kernen im Multi-Chip-Modul

und wenn die anforderungen gleich bleiben,wie sieht es denn da dann aus,steigt sie denn da massiv.Klar braucht man noch immer sher viele Kerne.Auch ein 1 kern monster mit 30 000 mhz wird nicht reichen um eine sehr hohe mehrleistung zu haben.
Naja ein Chip mit einem Kern und hoher IPC .@ 30 Ghz ist immer noch wesentlich praktischer als 10 Kerne @ 3 Ghz, weil man ja beim Parallelisiieren oft massiv Leistung einbüßt (genau das ist Carmacks Anliegen)
 
Naja ein Chip mit einem Kern und hoher IPC .@ 30 Ghz ist immer noch wesentlich praktischer als 10 Kerne @ 3 Ghz, weil man ja beim Parallelisiieren oft massiv Leistung einbüßt (genau das ist Carmacks Anliegen)

Wenn's überhaupt geht. Wobei die eingebüßte Leistung meist daher kommt, dass es eben entsprechend teilweise geht. Aber es gibt auch für bestimmte Probleme auch weniger effizientere, aber dafür besser parallelisierbare Algorithmen.
 
Naja ein Chip mit einem Kern und hoher IPC .@ 30 Ghz ist immer noch wesentlich praktischer als 10 Kerne @ 3 Ghz, weil man ja beim Parallelisiieren oft massiv Leistung einbüßt (genau das ist Carmacks Anliegen)
Eigentlich stimmt das so aber nicht.

Beispiel 1-Kerner: Wenn du damals (Win95/Win98?) zb. einen Druckauftrag an den Drucker geschickt hast, und natürlich auch bei etlichen anderen Aufgaben, war der Rechner temporär nicht mehr ansprechbar - bis die Aufgabe erledigt war. Hier gab es mit Intels HT zum ersten mal eine Besserung - jetzt brauchte es schon 2 entsprechende Aufgaben, um die "Sanduhr" zu provozieren (was dann wirklich selten war). Und heute werden noch sehr viel mehr Aufgaben parallel abgearbeitet. Die meisten davon [im normalen Alltag] zwar nur sehr kurz, aber bei nur einem Kern würde es ebenso viele kurze Pausen bedeuten. Ergo ist 1 Kern selbst mit 100GHz in der Regel nicht praktisch(er).

Das Problem/die Frage ist eigentlich auch nicht, wie man vorhandene Aufgaben immer weiter aufteilt, um die Performance zu verbessern. Klar, in einem gewissen Rahmen - in dem es möglich und auch noch sinnvoll ist - natürlich schon. Aber es sollte eher darum gehen, neue Aufgaben zu erzeugen, die das Erlebnis am PC verbessern, und vorher so gar nicht möglich waren. Gerade beim Thema Spiele gibt es eigentlich sehr viele Möglichkeiten. Aber man muß eben auch ein wenig umdenken.

Genau dies sollte man eigentlich auch beim Thema Hardware. Wenn diese hier - gerade bei den Kern-Monstern - der Software erstmal entsprechend weit voraus ist, warum dann nicht statt die Kerne einfach nur stumpf zu duplizieren/multiplizieren, diese auch noch spezialisieren? Statt einem 16 oder 32 Kerner mit 16 oder 32 identischen Kernen (und dazu noch mal 16 bzw. 32 virtuellen Kernen) einen 12+4 oder 24+8 Kerner, bei dem man 4 oder 8 Kerne für spezialisierte Aufgaben umbaut/transformiert? Sei es für quasi CPU-Only-Berechnungen, oder in Absprache mit zb. GPU-Herstellern für spezielle Funktionen die die GPU direkt unterstützen? Oder spezielle Kerne für Aufgaben des OS? Vielleicht sogar exklusiv für die GPU, das OS, Computerspiele (zb. A.I. Kerne) o.ä. Oder auch enorm sparsame Kerne, die für rudimentäre Aufgaben reichen, so dass die "eigentliche CPU" beim betrachten von Videos, oder dem surfen im Netz, quasi komplett abgeschaltet werden kann.

In Smartphone zb. kommen mittlerweile ja auch schon 2-3 unterschiedliche CPUs [einzeln oder gemeinsam rechnend) zum Einsatz.

Gerade bei den Kern-Monstern wären ja immer noch genug "normale/universelle" Kerne übrig.
 
OK verstehe. Ich hatte vor kurzen mit einem I9 verkaufe eine Unterhaltung wo er denke mal nicht recht hat. Er hat folgendes geschrieben habt.
er wollte mir weiß machen das xeon und I9 nicht vergleichbar wären. Das broadwell und skylake ganz andere Architekturen sind. Total unterschiedlich also.
das wenn der xeon broadwell bei der Software ab 14 Kernen keinen ht nicht mehr so gut umgehen kann bzw ausbremst das es bei den i9's das aufeinmal nicht mehr der Fall ist. Ja klar will der sein Produkt beschönigen. Er hat ja auch den I9 7920x. Da stimmt es ja auch noch. Er schrieb das allerdings über den I9 7980xe.
zuerst hatte er ja behauptet das 12 Kerne mit ht mehr Leistung bringen als 18 Kerne ohne ht.
irgendwie passt da dennoch was nicht zusammen. Was denkt ihr darüber?
 
Ja OK, was stimmt denn nun mit der Aussage. Kann eine neue Architektur etwa dafür sorgen das ne Software dazu gezwungen wird ht doch sinnvoll zu nutzen bzw aufeinmal doch besser verwenden zu können. Kann also ne neue Architektur also Zaubern, wusste ich ja noch garnicht.
 
Zuletzt bearbeitet:
Beispiel 1-Kerner: Wenn du damals (Win95/Win98?) zb. einen Druckauftrag an den Drucker geschickt hast, und natürlich auch bei etlichen anderen Aufgaben, war der Rechner temporär nicht mehr ansprechbar - bis die Aufgabe erledigt war.
Das war aber ein Windows 9x Problem, weil es kein MultiUserOS war.

Mit Linux war das auch mit nem 1-Kern Prozessor überhaupt kein Problem. Schon damals nicht.
 
Zurück