Ryzen 4000: Trend zu mehr Kernen laut AMD noch nicht vorbei

Bin gespannt was im nächsten Jahr der 4700X so an Mehrleistung mitbringt, sollte das passen wird mein 2700 ersetzt :daumen:. 16 Kerne - 32 Threads.....pffffff :schief:.

Zwischen 10:02 und 10 47 gabs bei dir wohl einen Wechsel deiner Persönlichkeit ;) von "8c16t reicht noch lange auf 16c32t würd ich mir schon holen" :-D
 
/off topic:

Der Mann heißt wirklich Mark Papermaster? Klingt wie ein alter ego von einem Superhelden, vielleicht AMD-Man.

/on topic:

Was sollen Sie auch anderes sagen bei AMD? Die Mehrkerner auf 3700X (und eigentlich auch schon ab 3600) sind im Multi gleichwertig oder besser als Intel. Es wäre ja blöd, die eigenen Stärken kleinzureden. Es geht jetzt darum, das bequeme Programmierervolk dazu zu prügeln, mehr mit Parallelisierung zu arbeiten. Weil in Single Core ist mit Silizium die Messe gelesen. Viel schneller werden Prozessoren nicht mehr, also muss Parallelisierung her.
 
Es geht jetzt darum, das bequeme Programmierervolk dazu zu prügeln, mehr mit Parallelisierung zu arbeiten. Weil in Single Core ist mit Silizium die Messe gelesen. Viel schneller werden Prozessoren nicht mehr, also muss Parallelisierung her.
Man kann wohl durch weitere Shrinks - und Fertigungsprozessoptimierungen noch etwas rausholen. Ansonsten Speicheroptimierungen. Vielleicht noch das einführen von L4 Cache.
Aber irgendwann ist wirklich Schluss. Dann ist aber auch mit den Kernen Ende und es macht keinen Sinn mehr noch mehr Kerne zu nutzen.
Dann muß zu anderen Materialien gegriffen werden. Vielleicht Kohlenstoff.
Quantencomputer fallen ja weg da sie nur für spezielle Einsatzzwecke zu gebrauchen sind.
 
Für den normalen Office/Internet Heim PC reichen aktuell und auch noch langfristig 4 Kern CPU. Für Game PC' ist meiner Meinung 8 Kern aktuell das optimum im P/L Blickpunkt. 6 kerne gehen sicher auch noch, aber könnten in naher zukunft sehr eng werden. Mehr als 8 sind rausgeworfene kohle, die in einer besseren gpu besser investiert sind. Profi Workstation etc...können nicht genug takt + cores haben. Und der cpu markt bedient gerade alles zu, dank AMD, super Preisen.
 
Profi Workstation etc...können nicht genug takt + cores haben.

Bis auf Adobe Premiere ist mir keine Applikation bekannt, wo mehr Takt wichtiger ist als mehr Kerne. Grundsätzlich gilt bei Workstations: Mehr Kerne sind Trumpf. Da macht Takt wenig aus.

Wenn ich die Wahl zwischen 25% mehr Takt oder 25% mehr CPU Kerne hätte, würde ich immer die Kerne wählen, da die mit den mir bekannten oder für mich relevanten Workloads besser skalieren.
 
Bei einem Spiel kannst Du nicht so viel parallelisieren, da die Threads voneinander abhängen und das ganze Programm vom Nutzer. Man ist immer in der Useraktion -> Software Reaktion gefangen.

naja, nur teilweise, oder? Die eigene Spielfigur ist von Benutzereingaben abhängig.
Alles andere kann doch nebenbei in beliebig vielen Threads laufen, NPCs, Tiere, Physik etc.
Kann man das nicht auch teil-asynchron gestalten? Wenn beispielsweise die eigene Figur in einen NPC läuft, dass die Threads erst dann synchronisiert werden? Falls das überhaupt zwingend geschehen muss, wer merkt es denn wenn Reaktionen auf etwas (zB eine Kollision und damit verbundene Verformung der Kleidung und was weiß ich) 2ms länger dauern. Ist nur ein Gedankengang, bin kein Programmierer... aber gerade Physik im weitesten Sinne (Raytracing zB) sollte doch wohl gut parallelisierbar sein, sonst wäre PhysX damals auch nicht auf GPUs gelaufen...
 
Wenn du jetzt schon grossteils mehrkernoptimierte Anwendungen nutzt brauchts keine utopischen 100% IPC Steigerung. In dem Fall wäre dein 9900k jetzt schon die falsche Wahl gewesen.
Was soll an 100% utopisch sein? Gut, beim i7-2600K zum i9-9900K hat das in 8 Jahren nicht ganz funktioniert. Wie mein Softwaremix und meine Freizeit in 8 Jahren aussehen wird, weiss ich bisher noch nicht. Weniger wie die 70% IPC Steigerurng sind mir bei meiner aktuellen Software jedenfalls keinen HW-Neukauf wert.

Office/Internet Heim PC ... Game PC ...Mehr als 8 sind rausgeworfene kohle, die in einer besseren gpu besser investiert sind. Profi Workstation etc...
Es gibt im Heimsektor also nur Gamer oder Internetnutzer und sonst nichts? Mir ist die GPU als Heimuser völlig unwichtig, hätte der i9-9900K einen Dual-Link DVI Ausgang, wäre die IGP mehr wie ausreichend für mich. Die GTX 1060 langweilt sich seit 10 Monaten zu tode, wenn sie nicht alle paar Wochen mal mit nvenc ein paar Videos eindampfen soll, bei denen es um Performance und nicht um Qualität bei geringer Dateigröße geht.

Aber ich gehöre auch zu der bei Dir nicht existenten Gruppe an Heimanwendern, die mit ihrem PC überwiegend andere Dinge machen.

Bis auf Adobe Premiere ist mir keine Applikation bekannt, wo mehr Takt wichtiger ist als mehr Kerne. Grundsätzlich gilt bei Workstations: Mehr Kerne sind Trumpf. Da macht Takt wenig aus.
Gestern ist bei mir erst wieder eine dazu gekommen. Aus Spaß wollte ich in HandBrake mal VP9 anstatt h.265 als Zielcodec nutzen und der Encoder nutzt mit meinem 720p Testvideo gerade mal 4 Threads. Nikons Raw-Konverter schafft es auch nicht, 8+8 Threads zu 100% auszulasten, im interaktiven Betrieb sowieso nicht.

Es lässt sich nunmal nicht alles parallellisieren, so gerne das hier einige hätten und die Schuld dazu dem Programmiere geben. Wie eine Textverarbeitung die Umformatierung eines Dokumentes parallelisieren solll, wenn dieses keinen einzigen manuellen Seitenumbruch enthält, ist mir jedenfalls bis heute nicht klar.

Wenn ich die Wahl zwischen 25% mehr Takt oder 25% mehr CPU Kerne hätte, würde ich immer die Kerne wählen, da die mit den mir bekannten oder für mich relevanten Workloads besser skalieren.
Bei mir ist es genau anders herum. Warum sollte ich meine eigene Software mit riesigem Aufwand parallelisieren, wenn es die schnellere HW genauso gut erledigen kann?

Ich habe aus meinen Programmen schon einige dieser Versuche wieder entfernt, weil sie außer massiv gestiegener Komplexität bei der Wartung keinen realen Nutzen gebracht haben. Teils wurden sie auch erst entfernt, nachdem ich die langsamste von mir genutzten HW in Rente geschickt hatte.

Parallelisiert wird bei mir dort, wo es einen echten Mehrwert bringt. 25% mehr Takt bei gleicher CPU-Architektur wirkt sich dagegen auch dort aus, wo eine massive Parallelisierung nicht durchführbar ist.
 
Vorstellen kann ich mir aber, aber man mit jedem s´weiterem kern zusätzliche Programmteile laufen lässt. Z.B. bessere Grafische Optionen etc. Aber ja, ich habe von der Spieleprogrammierung rein gar keine Ahnung.

Grafik bezogene Berechnungen sind längst ausgelagert – auf die GPU. Hätte AMD das heutige Feuerwerk vor 20 Jahren abgebrannt, hätte sich die Lastverteilung vermutlich komplett anders entwickelt, aber mittlerweile läuft auf der CPU vor allem Verwaltung. Selbst Strategiespiele haben Probleme, noch sinnvoll Tasks auszulagern (siehe Anno), obwohl diese per Definition viele parallel ablaufende Prozesse berechnen müssen. In anderen Genres ist es bestenfalls noch KI (Routefinding vieler NPCs in Assassins Creed, aber nur in den Stadtleveln) und Netzwerkcode, die hohe Kernzahlen auslasten. (Battlefield frisst Kerne zum Frühstück. Und macht damit kaum mehr als manch 90er-Jahre-Arena-Shooter auf einem Pentium II nebenbei berechnen konnte.) Der PCGH-Spiele-Parcours ist meiner Meinung nach schon stark auf moderne, Multi-Core-nutzende Engines konzentriert, aber wenn man sich die Ergebnisse anschaut, wird die Lage deutlich:
100 Prozent: 8C/16T
93,7 Prozent: 8C/16T
93,0 Prozent: 12C/24T
92,1 Prozent: 16C/32T
92,0 Prozent: 32C/64T (!)
91,9 Prozent: 24C/48T
91,7 Prozent: 8C/8T (!)
90,5 Prozent: 8C/16T
87,8 Prozent: 8C/16T
85,7 Prozent: 6C/12T
84,9 Prozent: 6C/12T
Sieht so eine Anwendungslandschaft aus, die auf mehr als 16 Kerne wartet? Ich glaube nicht.

Rechnet man die Unterschiede im Maximaltakt und der TDP raus, die einigen der vielkernigen Spitzenmodelle Bonuspunkte verschaffen, liegt das Optimum heute zwischen 6C/12T und 8C/8T. Die Mehrkosten für zwölf Kerne kann man nur mit Blick auf die Zukunft rechtfertigen. Das Papermaster hier keinen Sättigungseffekt sieht, lässt an seiner Sehkraft zweifeln. In den letzten drei Jahren hat die Spielebranche, die auch laut AMDs Marketing der wichtigste Leistungsabnehmer/Kaufgrund im Massenmarkt ist, von 4C/8T = gut + 6C/12T = mit Zukunftsreserve, ganze zwei Kerne zugelegt. AMD hat im gleichen Zeitraum plus 12 Kerne in den Mainstream gepuscht und dabei nebenbei noch HEDT platt gemacht. Ehe allein der aktuelle Vorsprung des CPU-Angebots durch den CPU-Bedarf der Software wieder eingeholt ist, dürfte mindestens ein voller Aufrüstzyklus von fünf Jahren vergehen, über eine Erhöhrung auf 32 Kerne können wir dann ab 2030 mal reden. Sollte bis dahin überhaupt noch x86@home diesen Teil der Rechenlast stemmen müssen.
 
Ich glaube die meisten verstehen nicht das es physikalische Grenzen mit der IPC gibt und weniger mit der Anzahl der Kerne.

Da wird sich Softwareentwicklung und eben auch CPU Entwicklung dran orientieren müssen.
 
Was genau sagen die Prozentzahlen aus?
Das ist der PCHG Benchmark zum ersten Platz beginnen (i9-9900K) und dann Stück für Stück herunter. Ja, so Klewinigkeiten wie Takt und IPC werden übergangen, aber die Kernaussage ist eindeutig. Hätte man nich den Vierkerne i7-7700K mit in den Vergleich genommen, wäre es noch deutlicher. Aber gut, seit wann gibt es die Kern"explosion" im Desktop? Vom Core 2 2007 bis zum i7-7700K blieb es bei 4 Kernen. Und seit dem Ryzen 7 1800 geht es los. Darum darf man den Spieleherstellern ruhig etwas Zeit lassen. Mit Vierkernen können doch die meisten Spiele inzwischen viel anfangen.

Außerdem sprach ich explizit von Anwendungen und wenigewr von Spielen, die Nutzen auch noch mehr Kernen ziehen werden.
 
Wenn nächstes Jahr erst der i7 mit 8 Kernen und HT kommt, Intel für eine echte Verdoppelung der Kerne sogar über 3 Jahre nach Zen1 bzw. seit dem i7-7700K gebraucht .

Ich glaube die meisten verstehen nicht das es physikalische Grenzen mit der IPC gibt und weniger mit der Anzahl der Kerne.

Das hängt von den Berechnungen ab. bei den normalen ALUs ist die Entwicklung vorbei. Aber mit spezialisieren Recheneinheiten wie AVX oder Schaltkreisen für neuronale Netzwerke kann man noch recht viel rausholen.
Die zu verarbeitenden Daten und die Algorithmen müssen halt dazu passen.

Aber für normale Berechungen lautet die Lösung wirklich mehr Kerne.

Denn besonders beim Takt sind die physikalischen Grenzen erreicht.Zumindest solange man bei Silizium bleibt. Mit Graphen könnten locker 10 Ghz bei deutlich geringerem Energieverbauch drin sein.
 
Zuletzt bearbeitet:
.

Aber ich gehöre auch zu der bei Dir nicht existenten Gruppe an Heimanwendern, die mit ihrem PC überwiegend andere Dinge machen.
.

Natürlich gibts noch viel mehr usergruppen. Habe mich auf die grössten beschränkt. Bin ja selber eine Randgruppe da ich sogar neben windows auch linux benutze. Im pc und lappi laufen jeweils core i7+5 der ersten Generation, also 10 Jahre alt. Und die rennen in kombi mit ssd mega. Aber die wichtigsten Käufer sind die großen Gruppen die ständig neue hardware wollen, warum sich immer. ;-)
 
Wichtig wäre schon mal das alle anderen Programme im Hintergrund und Windows mit seinen ganzen Diensten auf "langsameren" Kernen läuft und das bestimmte Anwendungen und Spiele dann exklusiv auf die schnellsten Kerne verteilt werden... Automatisch mit und ohne HT.
Das ist dann erstmal eine wichtige und nötige Windows Optimierung.... als erster "schneller" Ansatz, um die vielen Kernen besser zu nutzen.

(siehe z.B: Intel Turbo Boost Max 3.0 / Process Lasso, Ansätze)

Die alten 1 bis 4 Kerner wurden ja damals auch ausgebremst mit den ganzen Hintergrund Tasks und Antiviren Programmen.
Heute kommt noch massiv Social Media, Messenger, Teamspeak , Streaming, Twitch usw im "Hintergrund" parallel dazu... oder auch das gleichzeitige anzeigen von Spielständen und System Infos auf zugeschalteten Tablets/Smartphones während des Spielens.

Mit einer deutlich besseren "selektiven" Lastverteilung sehe ich dann auch den größten Vorteil für bis zu 16 Kerne bei z.b. "gamern"... / wenn der Preis stimmt.
 
Zuletzt bearbeitet:
Wichtig wäre schon mal das alle anderen Programme im Hintergrund und Windows mit seinen ganzen Diensten auf "langsameren" Kernen läuft und das bestimmte Anwendungen und Spiele dann exklusiv auf die schnellsten Kerne verteilt werden... Automatisch mit und ohne HT.
Das ist dann erstmal eine wichtige und nötige Windows Optimierung.... als erster "schneller" Ansatz, um die vielen Kernen besser zu nutzen.

(siehe z.B: Intel Turbo Boost Max 3.0 / Process Lasso, Ansätze)

Die alten 1 bis 4 Kerner wurden ja damals auch ausgebremst mit den ganzen Hintergrund Tasks und Antiviren Programmen.
Heute kommt noch massiv Social Media, Messenger, Teamspeak , Streaming, Twitch usw im "Hintergrund" parallel dazu... oder auch das gleichzeitige anzeigen von Spielständen und System Infos auf zugeschalteten Tablets/Smartphones während des Spielens.

Mit einer deutlich besseren "selektiven" Lastverteilung sehe ich dann auch den größten Vorteil für bis zu 16 Kerne bei z.b. "gamern"... / wenn der Preis stimmt.

Nicht zu vergessen die ganzen DRM Maßnahmen, siehe PCGH Artikel von heute, laut dem ACO nicht so oft ruckelt ohne DRM auf 4 Kernern... ;)
 
Mehrkernprozessoren gibt es seit nun fast 15 Jahren.

Seitdem höre ich den Spruch mit "die Programmierer müsse halt mal auf Multicore optimieren", dann wird alles anders.
Die Praxis offenbart, dass der Parallelisierung von Programmen wohl einfach strengere Grenzen gesetzt sind, als hier der Laie immer in den Raum wirft bzw. es sich ausmalt/wünscht.

Es ist ein Irrglaube davon auszugehen, dass die Programmierer bis jetzt die Multicore- Programmierung hätten schleifen lassen, faul waren aber jetzt, da es "diesmal wirklich richtig viele Kerne gibt", auf einmal ein Wunder geschieht und die Multicore- Programmierung, an der seit 15 Jahren gearbeitet wird, auf einmal dort revolutionäre Fortschritte machen soll.
Eingedenk dessen, dass es mit steigender Kernzahl eher schwieriger als einfacher wird, den Kernen mehr Geschwindigkeit abzupressen.

[Vermutung aufgrund übermäßiger Beanspruchung von Ressourcen]
Dass eine Zwangsparallelisierung auch nicht das Gelbe vom Ei ist, sieht man an Titeln wie Battlefield 1+V oder den neuen Assassins Creed Teilen, die zwar viele Threads nutzen, dabei für das Gebotene aber so viel Rechenkraft in Anspruch nehmen, dass man diesbezüglich eigentlich nicht mehr von einem großen Vorteil sprechen kann.
Im Gegenteil. Durch diese Art der Programmierung schließt man nur unnötiger Weise kleinere Prozessoren künstlich aus und treibt die Multicore- CPUs an den Rande ihres Energie- Hitzeeffizienz- Punktes.
Das haben viele Open- World- Spiele, in welchen ähnlich viel passiert, schon erheblich ressourcenschonender hinbekommen.[/Vermutung]

15 Jahre sind für eine Technik in der IT eine verdammt lange Zeit, in der oftmals so ziemlich alles ausgereizt wurde, was auszureizen ist.

Zudem werden wo immer massiv parallelisierbare Berechnungen zu tätigen sind, soweit als möglich Berechnungen auf GPUs verlagert. Da wirft man tausende von Kernen drauf und jede CPU ist der geballten Rechenpower hoffnungslos unterlegen.

Ich sehe das Aufblühen des Kerne- Krieges deshalb als ein kurzes Strohfeuer, dass aufgrund der praktischen Gegebenheiten schon sehr schnell seinen Höhepunkt überschritten haben wird.

LG
Zero

Das ist korrekt, Multithreading gab es schon lange bevor Multicore CPUs eingeführt wurden. Wer C++ in den 90ern gelernt hat, wird Threadprogrammierung damals schon gekannt haben. Der einzige Unterschied ist, dass die Threads nun auf verschiedenen Kernen ausgeführt werden können und nicht länger nur auf einem, wo sie zeitlich pausiert werden. Andererseits hat sich trotzdem nicht viel verändert. 3000 Threads auf 6 Kernen ausführen oder 500 Threads auf einem Kern. Für Entwickler hat sich dahingehend kaum was geändert, weil sie ja früher schon Nebenaufgaben in Threads gepackt haben. Der Laie glaubt allerdings das sich Software immer einfach so parallelisieren lässt, dabei orientiert sich Software an den Gegebenheiten der Realität, eben jene Ansätze die die objektorientierte Programmierung verfolgt. Der Mensch kann nicht Zuhause essen Kochen und parallel die Zutaten einkaufen. Erst kommt der Einkauf, dann wird gekocht. Der Laie erwartet nun, dass mehrere verfügbare Menschen eben dieses ermöglichen können, nur lässt es sich immer noch nicht kochen, ohne die Zutaten.
Spiele unterliegen halt massiv einer sequentiellen Folge von Aufgaben und Events. Ein Spiel ist nicht gut weil es 100% CPU oder GPU Auslastung erreicht, sondern weil die Immersion gelungen ist.
Assassin's Creed Origins/Odyssey und Battlefield V sind dahingehend Negativbeispiele für horrende Auslastung bei optisch/technischem Mittelmaß. Da winkt dann schon mal die gute alte PS4 mit Horizon Zero Dawn.
 
Zurück