IPC bedeutet nicht singlecoreleistung
Sondern instruction per circle
das ist auf einen Takt fixiert z.B. 1,0 Ghz
Diese ist derzeit bei 0,5 mal Takt der CPU
Ergibt derzeit schnellste CPu in singleleistung bei 4,4ghz 2,2ipc
ich sehe von da aus eine Steigerung bis 20% in den nächsten 3 Jahren
macht aus 0,5+20% =0,6*4,4=2,64ipc
Wozu braucht es mehr singlecore?
Nahezu jede software ist durch seriellen Prozesse limitiert.
Nahezu alle games sind es aufjedenfall zwar lässt sich das per comand list auf maximal faktor 2 Kerne erhöhen was an singlecoreleistung gebraucht wird.
Aber alles jenseits dieser 2 threads entlastet nur mehr Kerne den I/O
Und da kommen wir zum echten Problem heutiger PC
Die Festspeicher sind zu langsam und oft durch antike seriellen zugriff limitiert
Das erbe der HDD
jede software geht nach diesen prinzip der daten abfrage abseits der benötigten berechnung eines Seriellen prozess
Etwas gleichzeitig aufzurufen und zu addieren funktioniert nur sehr umständlich
oft wird man durch das limit des Singlecoretaks begrenzt
Das ist teils Software und hardwarelimit
bei hardware limit können wir die Datentransferleistung vergrößern
SSD sind auf mittlerweile SDR geschwindigkeit begrenzt wegen dem standard pcie gen3 x4 ~4Gb/s
man könnte wenn ssd schneller werden also bis pcie gen3 x8 gehen und 8gb/s die geschwindigkeit von ddr1 erreichen
Bleiben die latenzen
ram kann bis zu 50ns herunterkommen abhängig von CPu und chipsatz ramtakt
SSd sind noch in 100-200ns bereich
Da geht noch mehr
Die HDd ist am langsamsten mit ihren 8-20ms
Faktor 100
DDr4 ram hängt derzeit bei speicherbandbreite bei etwa 35-60gb/s
Cpu cache hat lade entlade zeite von L1 1ns L2 6ns L3 10-20ns
Das Problem liegt also beim lade entlade zeiten von daten aus dem ram und vom festspeicher
Bedeutet die CPu muss leerlaufzeiten füllen.
Hier liegt noch viel potenzial für schnellere leistung ohne die CPu zu ändern.
Warum der nerv
Nun das Problem GPu haben ihre Leistung in den letzten 10 Jahren nahezu verfünffacht
Cpu dagegen nur um 40% mit viel Augenzudrücken
Man muss schon heute auf Wqhd ausweichen um die high end gpu nahe der max Leistung zu bringen
Die nächste gpu gen wird eine reine 4k gpu die man kaum auslasten kann ich denke da an 8k
Und das auch nur dann wenn man den bildinhalt künstlich pixel addiert also keine genauere positionberechnung neu erstellt werden muss für das Bild
Native 1080p design auf 8k hochgerechnet diese modus nannte man mal supersampling
Es spielt keine rolle ob ich downsampling an monitor Ausgang von den rop berechne lassen oder ich die shader direkt das Bild hochrechne
Was da effektiver ist hängt vom Programm ab die rop methode funktioniert bei allen games egal welcher engine
supersampling ist da picky
Nutzt man aber als entwickler 4k texturen also das design ist auf diese auflösung geformt nützt mir die gpu leistung nichts das steigert auch die CPu last an.
Womit man dann die gpu nicht ausgelastet bekommt.
Klares CPu limit
So ein limit geht auch wenn zuviele shader beschäftigt werden sollen aktuell 5120 bei nvidia
Wie soll man diese auslasten?
Derzeit ist theoretisch bei 4k design eine Cpu mit min 2,8ipc nötig oder die cpu ab 2021 0,6*5ghz=3,0ipc
aktuelle cpu min 0,5*6,0ghz cpu
Also finde mal so eine CPU
Die anzahl an kernen spielt da keine rolle sie entlasten lediglich den I/O
was dann die ruckler verschwinden lässt. je mehr cores desto geschmeidiger
Dazu kommt das amd und intel eine lösung für spectre brauchen und das wird vor 2028 nicht gefixt sein. bis dahin wird man workaround bringen bei amd eher optional anzuwenden bei intel optional anschaltbar aber leider ohne nicht zu empfehlen.
Was bei amd nicht der fall ist. Die bisherigen CPu bekommen kein patch oder bios update
Das thema ist durch
Die große frage bleibt wird das der wendepunkt für eine völlig neue pc technik werden oder wurschelt sich man das x86 nochmal zurecht.
Die Zukunft liegt in hardware vm.
Ein basis OS für Starts von Os Kernel mit single Programmen oder clienten
MCM gpu mit 3 gpu in einen gpu eins für basis os und start in 2d Oberfläche zwei weitere GPU als jeweils zu startetenden vm
mit mcm cpu in numa nodes (wie amd epic)
Könnte auch zu vr ar OS kommen
Außer man passt endlich die Software an und geht konsequent auf Parallelisierung des Programmcodes.
So viele Optionen