Ryzen 4000: Trend zu mehr Kernen laut AMD noch nicht vorbei

Ich habe gerade meine Schwiegermutter für einen neuen Prozessor in Zahlung gegeben.
Stellt euch mal vor der wollte mich doch wirklich mit einem ollen 9900KS anstatt eines 3900X abspeisen, der Typ hat es wirklich faustdick hinter den Ohren.







 
in 2 Jahren gibt es CPU´s die den 3950X mal eben ohne größere Mühe in die Tasche stecken werde für 150-200€.

Glaube ich kaum,wenn AMD an Intel vorbei gezogen ist wird eher die Leistung in geringeren Schüben kommen.
AMD ist nicht die Wohlfahrt und wird das Spiel wie Intel in der Vergangenheit fortführen,Nvidia zeigt doch wie es geht.

Der 3950X ist genau wie die RTX 2080Ti Spielzeug für Enthusiasten im Hobbybereich,wenn man da kein Spass dran hat kann man auch wieder auf FullHD mit 60 FPS gehen.
Für Leute die mit den Sachen ihre Brötchen verdienen müssen ist das in Ordnung,für alle anderen ist das einfach Hobby und da hat jeder seine eigene Schmerzgrenze.
 
Keiner sollte etwas gegen mehr Kerne auch im günstigeren Marktsegment einzuwenden haben. Acht oder mehr Kerne ohne gleich Unsummen ausgeben zu müssen wäre sehr erstrebenswert,
 
Mehrkernprozessoren gibt es seit nun fast 15 Jahren.

Seitdem höre ich den Spruch mit "die Programmierer müsse halt mal auf Multicore optimieren", dann wird alles anders.
Die Praxis offenbart, dass der Parallelisierung von Programmen wohl einfach strengere Grenzen gesetzt sind, als hier der Laie immer in den Raum wirft bzw. es sich ausmalt/wünscht.
Die Praxis sagt eher, dass du den Programmierern massiv unrecht tust. Klar, es gibt immer noch einige Single-Thread Monstrositäten, die auf 20 Jahre altem Legacy Code aufbauen und deswegen weder mit mehr als 2 Kernen, noch mit mehr als 260 Zeichen in Strings rechnen.

Klar ist auch, dass selbst ein moderner Texteditor nur einen Thread nutzen wird. Aber der überwiegende Anteil der Programme, bei denen Performance auch wirklich eine Rolle spielt, weiß heutzutage mit vielen Kernen umzugehen. Spiele schneiden da eher schlecht ab, moderne Titel nutzen meist "nur" vier Kerne. Aber Produktivprogramme wie Blender, Photoshop, Solidworks, Premiere und GCC bringen auch einen 16 Kerner problemlos zum Glühen.

Zudem werden wo immer massiv parallelisierbare Berechnungen zu tätigen sind, soweit als möglich Berechnungen auf GPUs verlagert. Da wirft man tausende von Kernen drauf und jede CPU ist der geballten Rechenpower hoffnungslos unterlegen.
Das ist falsch. GPUs können durchaus einige Anwendungen massiv beschleunigen. Aber es gibt eben auch eine ganze Menge Aufgaben, die sie nur schlecht ausführen können. Rekursive Algorithmen zum Beispiel. Oder noch trivialer, Algorithmen, die viel Speicher benötigen. Einem EPYC 64 Kerner kann man 4 TB RAM zur Seite stellen, bei GPUs ist im Moment bei 32 GB Schluss.
Klar, für Atombomben-, Klima-, Erdbeben-, Vulkan- und Meteoriten-Forschung, kanns nie genug geben,
aber das sind Mainframe-Nischen, die meistens sowieso per RISC/MIPS oder CRAYs abgedeckt sind.
Abgesehen vom Verwaltungsaufwand für massive Parallelisierung. Irgendwann kippt die Sollkurve.
Guck mal in die Top500 Supercomputerliste. Der überwältigende Anteil besteht aus Systemen bestehend aus Intel CPUs und nVidia GPUs. Einzige Ausreißer sind ein paar IBM (Power) Systeme, und ein paar chinesische Eigenbauten.

Abgesehen davon gibt es Probleme, die sich wirklich beliebig skalieren lassen. Manche (wenige) Probleme zerfallen in quasi unabhängige Unterprobleme, und können deswegen problemlos parallelisiert werden.
 
Die Praxis sagt eher, dass du den Programmierern massiv unrecht tust. Klar, es gibt immer noch einige Single-Thread Monstrositäten, die auf 20 Jahre altem Legacy Code aufbauen und deswegen weder mit mehr als 2 Kernen, noch mit mehr als 260 Zeichen in Strings rechnen.

Klar ist auch, dass selbst ein moderner Texteditor nur einen Thread nutzen wird. Aber der überwiegende Anteil der Programme, bei denen Performance auch wirklich eine Rolle spielt, weiß heutzutage mit vielen Kernen umzugehen. Spiele schneiden da eher schlecht ab, moderne Titel nutzen meist "nur" vier Kerne. Aber Produktivprogramme wie Blender, Photoshop, Solidworks, Premiere und GCC bringen auch einen 16 Kerner problemlos zum Glühen.
Ähnliche Aufgaben sind simpel zu parallelisieren, komplexe Aufgaben mit unterschiedlichsten Runitmes nicht.
Deshalb sind Rendersoftwres usw. einfach zu parallelisieren. Aber in Spielen sind es ja nicht irgendwelche parallelen Dinge die nacheinander abgearbeitet werden, sondern teils komplexe Dinge mit unterschiedlichen Laufzeiten die voneinander abhängen und deren variablen sich ständig ändern... Wärs etwa "nur" Physik, "nur Audio", KI oder sonstwas alleine - kein Problem. Aber es gibt halt Abhängigkeiten unterschiedlich komplexe Tasks usw... die in Echtzeit sich gegenseitig beeinflussen.
Außerdem gibt es durchaus Tasks die NICHT auf mehrere Threads aufgeteilt werden können mit aktuellen Prozessoren.
Kurzum manche Sachen kann man parallelisieren, andere nur schwer und manche gar nicht.
 
Ich denke man sollte Intel nicht abschreiben, die werden in den nächsten 1-2 Jahren mächtig viel Dampf machen. Eigentlich wirds erst dann richtig Interessant, wenn sich beide auf Augenhöhen einen Schlagabtausch geben werden... Und evtl. in 5-10 Jahren noch ein 3. aus China...
Rein subjektiv muss es für mich aber nicht so schnell gehen wie in den 90er anfang 2000er, jedes Jahr umrüsten für viel Geld ist für mich als Verbraucher auch nicht so geil... 2-3 Jahre sollte die Hardware dann schon weiterhin hohes Niveau bringen...
 
Klar ist auch, dass selbst ein moderner Texteditor nur einen Thread nutzen wird. Aber der überwiegende Anteil der Programme, bei denen Performance auch wirklich eine Rolle spielt, weiß heutzutage mit vielen Kernen umzugehen. Spiele schneiden da eher schlecht ab, moderne Titel nutzen meist "nur" vier Kerne. Aber Produktivprogramme wie Blender, Photoshop, Solidworks, Premiere und GCC bringen auch einen 16 Kerner problemlos zum Glühen.

Photoshop und Premiere sind schlechte Beispiele. Photoshop kann mit mehr als 4 Kernen wenig anfangen und Premiere lastet nur 8 Kerne aus...

Abgesehen davon gibt es Probleme, die sich wirklich beliebig skalieren lassen. Manche (wenige) Probleme zerfallen in quasi unabhängige Unterprobleme, und können deswegen problemlos parallelisiert werden.

Für die meiste Software übersteigt der Programmieraufwand irgendwann die zu erwartende Leistungssteigerung und da wird sich die Kernanzahl einpendeln. Momentan ist das natürlich schwer zu sagen, aber ich denke beim 3990X mit 128 Theards kommen wir schon sehr Nahe an diese Grenze, für den Heimanwender wohl gemerkt, ran. Und bei 4096 Threads ist zumindest theoretisch Schluss mit Leistungssteigerung bei der Parallisierung bei 100% läge, was in der Praxis nicht zu erreichen ist. Zudem darf man nicht vergessen, dass es auch den entgegengesetzten Fall gibt: Gensequenzierung, zum Beispiel, ist ein solcher Fall, der sich sehr schwer parallelisieren lässt.. Und man darf nicht vergessen, dass wir bei einem 16 Kernen+ schon von einer 900+ € CPU reden, da ist der Anwenderkreis der Heimanwender noch sehr klein, sodass sich der zusätzlich Programmieraufwand für die meisten Programme noch nicht bzw. beim Thema Textverarbeitung wohl nie lohnen wird...
 
Der Kern-Wahnsinn grenzt an den Gigahertz-Wahnsinn vor einer und mehr Dekade/n.
Ersterer wird wie letzterer auf ein vernünftiges Maß in sich zusammenfallen.
Was den Consumer- und Semi-Pro-Bereich betrifft.
Ich bin selbst im reine Heimbereich froh über meine derzeit 8+8 Kerne und könnte dort auch 16+16 sinnvoll auslasten, wenn das Speicherinterface dann nicht zusammen brechen sollte. AMD kommt damit halt nur ein Jahr zu spät und hat offensichtlich nichts aus dem Lieferfiasko des 3900X gelert.

Natürlich wird der durchschnittliche Benutzer nicht im Office PC nicht 8 oder 12 Kerne ausnutzen können. Dort werden vermutlich für lange Zeit gut genutzte 4 oder 6 reichen.
Zwischen "reichen" und "ausnutzen können" gibt es für mich einen himmelweiten Unterschied. Klar kann ich in meiner Freizeit einfach auf den PC warten und im Zweifel halt bei jedem Klick auf irgendeinen Regler bei der Bildentwicklung (oder bei jedem Clikc auf den "Compile" Button die Augen bewusst schließen.

Wenn ich aber schon locker das 5 fache an Geld für meine Kameraausrüstung wie für den aktuellen PC ausgebe (beides reines Hobby), dann sind mir nochmal 500€ zusätzlich für eine schnellere CPU vollkommen egal, sobald ich an den Punkt komme, an dem mich mein aktueller PC nur noch nervt. Wenn ich zusätzlich an meinen demnächst wohl nötigen Monitor denke, dann hoffe ich, dass ich beim Umstieg von WQHD auf 4K (5-8K gibt es leider noch nicht bezahlbar) in den Anwendungen nicht den selben Rückschlag erleide wie damals beim Wechsel von FullHD auf WQHD.

Das Problem ist nur, vor allem hier, dass kaum jemand 6-8 Jahre die selbe CPU nutzt, dafür ist der, ich nenne es mal Basteldrang, einfach zu groß.
Mein i9 soll mir noch mind. 5 Jahre reichen, eher länger. Außer, AMD kommt mit einem Zen4 mit DDR5, 4 Speicherkanälen und 100% IPC Leisutngssteigerung je Kern zum Zen2 um die Ecke (gerne als 16 Kerner auch für 1000€, hauptsache er ist auch lieferbar). Dann überlege ich mir das nochmal, ob mein i9-9900K früher abgelöst wird wie der i7-2600K davor (der mir ohne neue Kamera immer noch reichen würde).

Meinen i7-2600K konnte ich 2011 auch noch nicht wirklich ausnutzen. Hätte ich damals aber nur einen i5 für 70% des Preises gekauft, dann wäre der schon einige Jahre früher wieder ersetzt worden und es hätte mich insg. mehr Geld gekostet.
 
Ich bin selbst im reine Heimbereich froh über meine derzeit 8+8 Kerne und könnte dort auch 16+16 sinnvoll auslasten, wenn das Speicherinterface dann nicht zusammen brechen sollte. AMD kommt damit halt nur ein Jahr zu spät und hat offensichtlich nichts aus dem Lieferfiasko des 3900X gelert.

Zwischen "reichen" und "ausnutzen können" gibt es für mich einen himmelweiten Unterschied. Klar kann ich in meiner Freizeit einfach auf den PC warten und im Zweifel halt bei jedem Klick auf irgendeinen Regler bei der Bildentwicklung (oder bei jedem Clikc auf den "Compile" Button die Augen bewusst schließen.

Wenn ich aber schon locker das 5 fache an Geld für meine Kameraausrüstung wie für den aktuellen PC ausgebe (beides reines Hobby), dann sind mir nochmal 500€ zusätzlich für eine schnellere CPU vollkommen egal, sobald ich an den Punkt komme, an dem mich mein aktueller PC nur noch nervt. Wenn ich zusätzlich an meinen demnächst wohl nötigen Monitor denke, dann hoffe ich, dass ich beim Umstieg von WQHD auf 4K (5-8K gibt es leider noch nicht bezahlbar) in den Anwendungen nicht den selben Rückschlag erleide wie damals beim Wechsel von FullHD auf WQHD.

Mein i9 soll mir noch mind. 5 Jahre reichen, eher länger. Außer, AMD kommt mit einem Zen4 mit DDR5, 4 Speicherkanälen und 100% IPC Leisutngssteigerung je Kern zum Zen2 um die Ecke (gerne als 16 Kerner auch für 1000€, hauptsache er ist auch lieferbar). Dann überlege ich mir das nochmal, ob mein i9-9900K früher abgelöst wird wie der i7-2600K davor (der mir ohne neue Kamera immer noch reichen würde).

Meinen i7-2600K konnte ich 2011 auch noch nicht wirklich ausnutzen. Hätte ich damals aber nur einen i5 für 70% des Preises gekauft, dann wäre der schon einige Jahre früher wieder ersetzt worden und es hätte mich insg. mehr Geld gekostet.
Wenn du jetzt schon grossteils mehrkernoptimierte Anwendungen nutzt brauchts keine utopischen 100% IPC Steigerung. In dem Fall wäre dein 9900k jetzt schon die falsche Wahl gewesen.
Und man darf nicht vergessen, dass wir bei einem 16 Kernen+ schon von einer 900+ € CPU reden, da ist der Anwenderkreis der Heimanwender noch sehr klein, sodass sich der zusätzlich Programmieraufwand für die meisten Programme noch nicht bzw. beim Thema Textverarbeitung wohl nie lohnen wird...
Für reine Textverarbeitung sollten alle derzeitig aktuellen CPUs tendenziell schon Overkill sein. Ansonsten ist der Markt für hochparalellisierte und teure Software eher weniger von Heimanwendern abhängig die hier wohl den geringsten Umsatz bringen werden. Nur was den Punkt angeht magst du sicher recht haben.

Mfg
 
Zuletzt bearbeitet:
Eher unwahrscheinlich, es sei denn SC wird vor dem 31.10.2020 fertiggestellt! Denn unser aller Pannenflughafen soll an dem Tag eröffnet werden!
Und da glaubst du jetzt aber nicht wirklich dran. So viele Releastermine wie der hatte...
Aber b2t ich sehe auch nur Vorteile für alle. Dadurch das viele Kerne gekauft werden setzt AMD auch mehr mit der Thematik auseinander und wird auch so nach und nach die Probleme in Griff kriegen und auch die jetzigen drosseln immer weiter öffnen können ( IF-Takt, Latenzen etc. )
Die Software wird kommen und auch Spiele werden irgendwann mehr Kerne nutzen können. Nur müssen dafür halt auch jetzt schon viele Kerne gekauft werden. Weil es ist auch verständlich das die nicht mehr SW für HW aus der Zukunft entwickeln, sondern für bestehende Systeme.
Aber da müssen wir als Gamer sowieso auf ausreichend starke GPUs warten. WQHD und 144Hz setzt sich immer weiter durch und gebraucht sind da Monitore schon für um die 100€ zu ergattern, was das immer attraktiver macht, seh ich auch grade im bekannten Kreis. Nur kann man damit auch ne 2080ti klein kriegen wenn man will und die wird ja als Enthusiasten-Klasse angegeben

Gesendet von meinem SM-G950F mit Tapatalk
 
Zwischen "reichen" und "ausnutzen können" gibt es für mich einen himmelweiten Unterschied. Klar kann ich in meiner Freizeit einfach auf den PC warten und im Zweifel halt bei jedem Klick auf irgendeinen Regler bei der Bildentwicklung (oder bei jedem Clikc auf den "Compile" Button die Augen bewusst schließen.

Bildbearbeitung und Kompilieren sind keine Tätigkeiten eines durchschnittlichen PC-Nutzers! Für die gehört Office, Internet, Home-Banking, Steuererklärung etc. dazu.

Natürlich fallen deine Beispiele in einen Bereich wo man mehr Kerne besser gebrauchen kann. Aber - wie schon gesagt - du bist kein durchschnittlicher PC-Benutzer. Genau so wie ich oder viele andere hier im Forum.
 
Ich denke auch das mich mein Achtkerner noch länger begleiten wird.
Für meine Anwendungsbereiche reicht er vollkommen.
 
Bin gespannt was im nächsten Jahr der 4700X so an Mehrleistung mitbringt, sollte das passen wird mein 2700 ersetzt :daumen:. 16 Kerne - 32 Threads.....pffffff :schief:.
 
Zurück