in 2 Jahren gibt es CPU´s die den 3950X mal eben ohne größere Mühe in die Tasche stecken werde für 150-200€.
Die Praxis sagt eher, dass du den Programmierern massiv unrecht tust. Klar, es gibt immer noch einige Single-Thread Monstrositäten, die auf 20 Jahre altem Legacy Code aufbauen und deswegen weder mit mehr als 2 Kernen, noch mit mehr als 260 Zeichen in Strings rechnen.Mehrkernprozessoren gibt es seit nun fast 15 Jahren.
Seitdem höre ich den Spruch mit "die Programmierer müsse halt mal auf Multicore optimieren", dann wird alles anders.
Die Praxis offenbart, dass der Parallelisierung von Programmen wohl einfach strengere Grenzen gesetzt sind, als hier der Laie immer in den Raum wirft bzw. es sich ausmalt/wünscht.
Das ist falsch. GPUs können durchaus einige Anwendungen massiv beschleunigen. Aber es gibt eben auch eine ganze Menge Aufgaben, die sie nur schlecht ausführen können. Rekursive Algorithmen zum Beispiel. Oder noch trivialer, Algorithmen, die viel Speicher benötigen. Einem EPYC 64 Kerner kann man 4 TB RAM zur Seite stellen, bei GPUs ist im Moment bei 32 GB Schluss.Zudem werden wo immer massiv parallelisierbare Berechnungen zu tätigen sind, soweit als möglich Berechnungen auf GPUs verlagert. Da wirft man tausende von Kernen drauf und jede CPU ist der geballten Rechenpower hoffnungslos unterlegen.
Guck mal in die Top500 Supercomputerliste. Der überwältigende Anteil besteht aus Systemen bestehend aus Intel CPUs und nVidia GPUs. Einzige Ausreißer sind ein paar IBM (Power) Systeme, und ein paar chinesische Eigenbauten.Klar, für Atombomben-, Klima-, Erdbeben-, Vulkan- und Meteoriten-Forschung, kanns nie genug geben,
aber das sind Mainframe-Nischen, die meistens sowieso per RISC/MIPS oder CRAYs abgedeckt sind.
Abgesehen vom Verwaltungsaufwand für massive Parallelisierung. Irgendwann kippt die Sollkurve.
Ähnliche Aufgaben sind simpel zu parallelisieren, komplexe Aufgaben mit unterschiedlichsten Runitmes nicht.Die Praxis sagt eher, dass du den Programmierern massiv unrecht tust. Klar, es gibt immer noch einige Single-Thread Monstrositäten, die auf 20 Jahre altem Legacy Code aufbauen und deswegen weder mit mehr als 2 Kernen, noch mit mehr als 260 Zeichen in Strings rechnen.
Klar ist auch, dass selbst ein moderner Texteditor nur einen Thread nutzen wird. Aber der überwiegende Anteil der Programme, bei denen Performance auch wirklich eine Rolle spielt, weiß heutzutage mit vielen Kernen umzugehen. Spiele schneiden da eher schlecht ab, moderne Titel nutzen meist "nur" vier Kerne. Aber Produktivprogramme wie Blender, Photoshop, Solidworks, Premiere und GCC bringen auch einen 16 Kerner problemlos zum Glühen.
Klar ist auch, dass selbst ein moderner Texteditor nur einen Thread nutzen wird. Aber der überwiegende Anteil der Programme, bei denen Performance auch wirklich eine Rolle spielt, weiß heutzutage mit vielen Kernen umzugehen. Spiele schneiden da eher schlecht ab, moderne Titel nutzen meist "nur" vier Kerne. Aber Produktivprogramme wie Blender, Photoshop, Solidworks, Premiere und GCC bringen auch einen 16 Kerner problemlos zum Glühen.
Abgesehen davon gibt es Probleme, die sich wirklich beliebig skalieren lassen. Manche (wenige) Probleme zerfallen in quasi unabhängige Unterprobleme, und können deswegen problemlos parallelisiert werden.
Ich bin selbst im reine Heimbereich froh über meine derzeit 8+8 Kerne und könnte dort auch 16+16 sinnvoll auslasten, wenn das Speicherinterface dann nicht zusammen brechen sollte. AMD kommt damit halt nur ein Jahr zu spät und hat offensichtlich nichts aus dem Lieferfiasko des 3900X gelert.Der Kern-Wahnsinn grenzt an den Gigahertz-Wahnsinn vor einer und mehr Dekade/n.
Ersterer wird wie letzterer auf ein vernünftiges Maß in sich zusammenfallen.
Was den Consumer- und Semi-Pro-Bereich betrifft.
Zwischen "reichen" und "ausnutzen können" gibt es für mich einen himmelweiten Unterschied. Klar kann ich in meiner Freizeit einfach auf den PC warten und im Zweifel halt bei jedem Klick auf irgendeinen Regler bei der Bildentwicklung (oder bei jedem Clikc auf den "Compile" Button die Augen bewusst schließen.Natürlich wird der durchschnittliche Benutzer nicht im Office PC nicht 8 oder 12 Kerne ausnutzen können. Dort werden vermutlich für lange Zeit gut genutzte 4 oder 6 reichen.
Mein i9 soll mir noch mind. 5 Jahre reichen, eher länger. Außer, AMD kommt mit einem Zen4 mit DDR5, 4 Speicherkanälen und 100% IPC Leisutngssteigerung je Kern zum Zen2 um die Ecke (gerne als 16 Kerner auch für 1000€, hauptsache er ist auch lieferbar). Dann überlege ich mir das nochmal, ob mein i9-9900K früher abgelöst wird wie der i7-2600K davor (der mir ohne neue Kamera immer noch reichen würde).Das Problem ist nur, vor allem hier, dass kaum jemand 6-8 Jahre die selbe CPU nutzt, dafür ist der, ich nenne es mal Basteldrang, einfach zu groß.
Wenn du jetzt schon grossteils mehrkernoptimierte Anwendungen nutzt brauchts keine utopischen 100% IPC Steigerung. In dem Fall wäre dein 9900k jetzt schon die falsche Wahl gewesen.Ich bin selbst im reine Heimbereich froh über meine derzeit 8+8 Kerne und könnte dort auch 16+16 sinnvoll auslasten, wenn das Speicherinterface dann nicht zusammen brechen sollte. AMD kommt damit halt nur ein Jahr zu spät und hat offensichtlich nichts aus dem Lieferfiasko des 3900X gelert.
Zwischen "reichen" und "ausnutzen können" gibt es für mich einen himmelweiten Unterschied. Klar kann ich in meiner Freizeit einfach auf den PC warten und im Zweifel halt bei jedem Klick auf irgendeinen Regler bei der Bildentwicklung (oder bei jedem Clikc auf den "Compile" Button die Augen bewusst schließen.
Wenn ich aber schon locker das 5 fache an Geld für meine Kameraausrüstung wie für den aktuellen PC ausgebe (beides reines Hobby), dann sind mir nochmal 500€ zusätzlich für eine schnellere CPU vollkommen egal, sobald ich an den Punkt komme, an dem mich mein aktueller PC nur noch nervt. Wenn ich zusätzlich an meinen demnächst wohl nötigen Monitor denke, dann hoffe ich, dass ich beim Umstieg von WQHD auf 4K (5-8K gibt es leider noch nicht bezahlbar) in den Anwendungen nicht den selben Rückschlag erleide wie damals beim Wechsel von FullHD auf WQHD.
Mein i9 soll mir noch mind. 5 Jahre reichen, eher länger. Außer, AMD kommt mit einem Zen4 mit DDR5, 4 Speicherkanälen und 100% IPC Leisutngssteigerung je Kern zum Zen2 um die Ecke (gerne als 16 Kerner auch für 1000€, hauptsache er ist auch lieferbar). Dann überlege ich mir das nochmal, ob mein i9-9900K früher abgelöst wird wie der i7-2600K davor (der mir ohne neue Kamera immer noch reichen würde).
Meinen i7-2600K konnte ich 2011 auch noch nicht wirklich ausnutzen. Hätte ich damals aber nur einen i5 für 70% des Preises gekauft, dann wäre der schon einige Jahre früher wieder ersetzt worden und es hätte mich insg. mehr Geld gekostet.
Für reine Textverarbeitung sollten alle derzeitig aktuellen CPUs tendenziell schon Overkill sein. Ansonsten ist der Markt für hochparalellisierte und teure Software eher weniger von Heimanwendern abhängig die hier wohl den geringsten Umsatz bringen werden. Nur was den Punkt angeht magst du sicher recht haben.Und man darf nicht vergessen, dass wir bei einem 16 Kernen+ schon von einer 900+ € CPU reden, da ist der Anwenderkreis der Heimanwender noch sehr klein, sodass sich der zusätzlich Programmieraufwand für die meisten Programme noch nicht bzw. beim Thema Textverarbeitung wohl nie lohnen wird...
Teilweise sind die Studios ja auf nem guten Weg.
AC und BF zeigen wie es geht und andere werden sicher
folgen.
@Rotkaeppchen ich sage SC wird vor dem BER fertig.
Und da glaubst du jetzt aber nicht wirklich dran. So viele Releastermine wie der hatte...Eher unwahrscheinlich, es sei denn SC wird vor dem 31.10.2020 fertiggestellt! Denn unser aller Pannenflughafen soll an dem Tag eröffnet werden!
Zwischen "reichen" und "ausnutzen können" gibt es für mich einen himmelweiten Unterschied. Klar kann ich in meiner Freizeit einfach auf den PC warten und im Zweifel halt bei jedem Klick auf irgendeinen Regler bei der Bildentwicklung (oder bei jedem Clikc auf den "Compile" Button die Augen bewusst schließen.
Bin gespannt was im nächsten Jahr der 4700X so an Mehrleistung mitbringt, sollte das passen wird mein 2700 ersetzt . 16 Kerne - 32 Threads.....pffffff .