AMD-Roadmap: Auf Naples soll Starship mit 48 Kernen/96 Threads folgen

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD-Roadmap: Auf Naples soll Starship mit 48 Kernen/96 Threads folgen

Angeblich von AMD stammende Roadmaps sollen die Pläne im Enterprise-Bereich zeigen, die auch Aufschluss über die Bereiche Desktop und Mobile geben. Auf die bereits bekannten Server-CPUs Naples (max. 32 Kerne LGA) und Snowy Owl (max. 16 Kerne BGA) soll Starship in 7 nm und mit bis zu 48 Kernen beziehungsweise 96 Threads folgen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: AMD-Roadmap: Auf Naples soll Starship mit 48 Kernen/96 Threads folgen
 
Aktueller CPU Porno von AMD vom aller feinsten, erst 6 => 8 => 12 => 16 und nun irgendwann 48 Kerne :lol:

Klingt viel, ist aber im Serverbereich kein wirklich großer Sprung. 22 Kerne gibts seit Broadwell-EX zu kaufen, mit Skylake und den Zen-Opterons kommen noch in diesem Sommer die ersten 32-Kerner.

In diesem Kontext klingen 48 Kerne Anfang 2019 jetzt nicht mehr wirklich beeindruckend - auch wenn ich mich natürlich trotzdem schon auf die (HPC-) Benchmarkbalken freue :D.
 
Gibts ein Kernlimit bei CPUs eigentlich ?

Oder wird es in 10 Jahren CPUs mit 1000 Kernen geben?
 
AMD kommt ja jetzt richtig in Fahrt. :daumen:


Das die CCX beim 48-Kerner aus 12 Kernen bestehen glaube ich nicht. Bei Napples, welcher aus 4 x RyZen besteht sind es 8 CCX mit jeweils 4 Kernen.
Deshalb würde ich eher von 12 CCX a 4 Kerne oder 8 CCX a 6 Kerne ausgehen.
CCX mit 6 Kernen wären auch für den Desktop interessant, da man recht leicht die Quadcores, Hexacores, Decacores und 12 Kerner bauen kann. Dabei können dann immer 4/6 Kerne untereinander kommunizieren, was auch das Sheduling vereinfacht.


Gibts ein Kernlimit bei CPUs eigentlich ?

Oder wird es in 10 Jahren CPUs mit 1000 Kernen geben?

Für Anwendungen die mit unendlich vielen Kernen skalieren können, wie zum Beispiel das Knacken von Hashes, nutzt man GPUs und irgendwann vielleicht Quantencomputer.
 
Zuletzt bearbeitet:
Wenn Adobe jetzt endlich mal den allerwertesten heben könnte und Premiere Pro mal optimiert wären glaube ich viele Leute glücklich. So kann ich nur wehmütig das Ansteigen der Kerne beobachten :(
 
Oder wird es in 10 Jahren CPUs mit 1000 Kernen geben?

Grafikkarten haben schon seit Jahren tausende Kerne, der kommende GV100 über 5000. Auch GPUs sind CPUs - nur eben spezialisiert auf bestimmte Anwendungen (die zeiten wo GPUs nur Grafik konnten sind schon lange vorbei).

Das Problem bei der klassischen CPU die du meinst ist, dass der Workload nicht so einfach skaliert mit höherer Parallelisierung, sprich "normale" Aufgaben sind auf 100 Kernen nicht mehr schneller als auf 10 (google mal das Amdahlsche Gesetz ;-)).
 
Das Problem bei der klassischen CPU die du meinst ist, dass der Workload nicht so einfach skaliert mit höherer Parallelisierung, sprich "normale" Aufgaben sind auf 100 Kernen nicht mehr schneller als auf 10 (google mal das Amdahlsche Gesetz ;-)).
Wenn dazu noch Fragen offen bleiben, ihr wisst an wen ihr euch wenden könnt.
:banane:
 
Grafikkarten haben schon seit Jahren tausende Kerne, der kommende GV100 über 5000. Auch GPUs sind CPUs - nur eben spezialisiert auf bestimmte Anwendungen (die zeiten wo GPUs nur Grafik konnten sind schon lange vorbei).

Das Problem bei der klassischen CPU die du meinst ist, dass der Workload nicht so einfach skaliert mit höherer Parallelisierung, sprich "normale" Aufgaben sind auf 100 Kernen nicht mehr schneller als auf 10 (google mal das Amdahlsche Gesetz ;-)).

Danke für die sehr gute Erklärung. Sehr gut zu wissen !
 
Das Problem bei der klassischen CPU die du meinst ist, dass der Workload nicht so einfach skaliert mit höherer Parallelisierung, sprich "normale" Aufgaben sind auf 100 Kernen nicht mehr schneller als auf 10 (google mal das Amdahlsche Gesetz ;-)).
Es würde bei den meisten Anwendungen aber deutlich mehr gehen, als aktuell gemacht wird. Hoffentlich hält der Trend der Funktionalen Programmierung weiter an, dann haben wir in 20 Jahren endlich gut skalierende Programme :D
 
Naja, da spricht einiges dagegen...
1.) Die große Masse da draußen hat ganze zwei Kerne, wenns hoch kommt 2+SMT.
2.) Alltägliche Dinge die 95% der Leute da draußen tun brauchen kaum Rechenleistung für heutige Verhältnisse - du kannst surfen, Mails schreiben, Musik hören usw. alles auf einmal und ein kleiner i3-Zweikerner ist bei 10% Last.
3.) Einem Nicht-Nerd ist es egal, ob eine Internetseite in 1,5 oder 1,8 Sekunden geladen ist, den Unterschied würde man nicht bemerken
4.) Hochoptimierte parallelisierte Programmierung ist sehr aufwendig und teuer - niemand wird das zahlen wollen ohne großen Nutzen
...und vieles mehr.

All das führt dazu, dass die allerallermeisten Programme (neumodisch: "Apps") da draußen genau einen Kern benutzen.
Bei Aufgaben und Software wo es tatsächlich einen großen Nutzen hat und was auch gut auf viele kerne optimiert werden kann (etwa Videobearbeitung/kompression) ist es seit Jahren Standard, dass fast beliebig viele Kerne genutzt werden können (wenn du was in 4K gefilmt hast und das mit starken Settings in den HEVC encodierst kannste problemlos 128 kerne stundenlang voll auslasten... wenn du sie hast).

So wirds wohl auch in Zukunft laufen. Die billig-App wird weiterhin unoptimiert bleiben, speziellere Software für entsprechenden Workload wird weiter optimiert werden.
 
Hm, wäre es möglich dass solche superparallelen CPUs irgendwann GPUs gänzlich obsolet machen? Also das was Intel mit Larrabee vor hatte nur in erfolgreich?^^
 
Hm, wäre es möglich dass solche superparallelen CPUs irgendwann GPUs gänzlich obsolet machen?
Eher umgekehrt. :ugly:

Nein, es wird immer spezielle Chips für spezielle Aufgaben geben - nur wird die Entwicklung dahin gehen (bzw. da sind wir schon), dass Multichip-Packages/Dies sehr effizient alle nötigen Aufghaben mit passenden Chipteilen erledigen können und man nur noch in Ausnahmefällen leistungsfähige Spezialchips braucht.
Oder kurz gesagt: In 10 oder 20 Jahren werden wohl die allerallermeisten Anwendungen durch SOCs (Smartphones beispielsweise) und APUs abgewickelt.
 
Es würde bei den meisten Anwendungen aber deutlich mehr gehen, als aktuell gemacht wird. Hoffentlich hält der Trend der Funktionalen Programmierung weiter an, dann haben wir in 20 Jahren endlich gut skalierende Programme :D

Das ist nicht so ohne weiteres wirklich möglich. Mehrere Threads in einem Prozess nutzen den selben Speicher, sprich mehrere Threads lesen und schreiben in die selben Speicheradressen. Um zu verhindern dass diese wild schreiben und lesen muss dieser Prozess Synchronisiert werden. Sprich wenn ein Thread den Speicher beschreibt dürfen alle anderen nicht, diese müssen warten.

Sprich Parallelisierung funktioniert am besten bei Aufgaben die man einfach Segmentiren und später wieder zusammenführen kann, zum Beispiel Rendering.

Den meisten Nutzen von vielen Kernen / Threads ziehen Betriebssysteme. Da der Scheduler die CPU Zeit auf verschiedene Prozesse verteilt muss bei jedem Wechsel der "Kontext" gerettet werden, sprich der Inhalt der CPU Register usw. Diese Rettung kostet auch Rechenzeit und mit mehreren Kernen muss diese seltener durchgeführt werden.

Deswegen geht der Trend bei Smartphones zu vielen schwachen Kernen als wenigen Starken.

Es ist ein super komplexes Problem. Der Idealfall wären ein bis maximal zwei Kerne @ 10 GHz für normale Heimanwender,
 
Zuletzt bearbeitet:
Viel interessanter ist das komplette Fehlen dieser "AM44" HEDT Plattform. Offensichtlich wird es scheinbar keine geben. Aber wir könnten durchaus z.b. mit Zen3 einen 12 Kerner sehen. Einen CCX der auf 6 Kerne erweitert wird, klingt sehr verlockend. AMD hat sich mit ihrem CCX Design schon einiges dabei gedacht. Das wird sich auszahlen werden.
 
Zurück