Ja, das verwundert mich nicht.
Du hattest auch schon fuer den Threadripper 1950x und auch 2950x kein Szenario, was diese CPU annähernd ausgelastet hat, wieso behauptest du es denn dann immer?
Doch, sogar auf einem Quad-Core. Aber es geht darum, was alles noch so nebenher läuft. .
Was laeuft denn nebenher? Visual Studio?
Ein Spiel unter Directx11, oder wahlweise 12?
Wenn viel parallel geöffnet ist, benötige i h Arbeitsspeicher, aber nicht viel Prozessorleistung.
Für das Kompilieren (meines Projektes im Speziellen) selbst ist eher die Singlecore Leistung wichtig, die der 3900X ja hat. Wie ich ja bereits schrieb, war ich selbst ein wenig verwundert, dass der 9900k da so abgekackt ist.
Na weil das dann nicht an der CPU liegt, sondern etwas anderes das Bottleneck ist.
Wenn du Multithreading Power benötigst wäre es doch unsinnig von einem 2950x auf einen 9900K umzusteigen, denn ein Kompilierungsvorgang bringt in der Realität nicht so viel Zeitersparnis, damit sich das nur ansatzweise lohnt.
Mach doch mal einen Auslastungsscreen, waehrend eines Kompilierungsvorganges.
Ich konnte teilweise nicht einmal mehr vernünftig im Browser scrollen, wenn alles lief, was ich für den Workflow benötige.
Was benötigst du denn alles? Jetzt bin ich aber gespannt.
Also sind letztlich moar cores hier wohl doch besser.
Glaub ich wenig bis gar nicht.
Ich kann das Verhalten von WPF a priori teilweise schlecht einschätzen, also muss ich es häufig testen.
Das kann man nachvollziehen, ergo, brauchst du da vor allem ST Leistung.
Das muss dann einfach schnell gehen. Da nervt tatsächlich jede zusätzliche Sekunde.
Die dir eben nur eine CPU schenkt, die hohe St Leistung bietet und da ist der Profit in Realtime zwischen 2950x, 9900K und 3900X einfach egal. Bei mir laeuft ein i7 mit 2c4t und reicht mir völlig, auch wenn groessere Änderungen erfolgen.
Außerdem kompiliere ich noch andere Sachen, z.B größere C++ Geschichten. CX ist ja nicht das einzige. Da ist der 3900X einfach schneller.
Müssen aber richtig große Projekte sein.
Fuer ein paar Änderungen an den data templates, sprich Visualisierungen deines Tools zu überarbeiten, glaube ich mal gar nicht, dass das irgendwie Performance kritisch wäre.
Und andere Geschichten waren gar nicht Thema.
Ja, ich lege die Dinge offen dar, bin völlig transparent. Mein Code ist auf GitHub einsehbar, da bin ich natürlich für Leute wie dich, die paranoid irgendwas aufdecken wollen, ziemlich angreifbar.
Ist doch absolut Top, aber verarsch hier doch nicht die Users haft mit deinen unoetigen Geschichten von wegen das kostet soviel Leistung. Das ist doch wirklich unnötig.
Ein Benchmarktool ist eine relativ schlanke Geschichte, vor allem dann wenn es mittels OCAT läuft.
Das dauert auf einem 9900k solange und auf einem 3900X solange. Hat einer von euch so ein Beispiel, oder vergleichbar?
Heutige Prozessoren sind so schnell, dass meist alles zur Laufzeit kompiliert werden kann.
Gaussmath wartet fuer einen klassischen Kompilierungsvorgang, schätzungsweise bei seinem Projekt 2 bis 5 Sekunden bis das durchgerattert ist und etwaige Fehler erkannt werden.
Sein 3900X wird von Visual Studio, Division und bisschen Kram mit 24 Threads zu 64% ausgelastet. Mhm... Ich hab auf meinem 6c12 T Ryzen 2600 nicht mal 60%. Aber gut lassen wir das, hat eh keinen Sinn.
Ein kleiner Kompierungsvorgang stoert die Gaming Performance gar nicht in Division und führt auch nicht zu rucklern, ausserdem glaube ich nicht dass er im Gefecht ist, während er Dinge ändert bzw verbessert.
Man kann sogar während The Division Cinebench St laufen lassen ohne irgendetwas zu merken, deshalb funktionieren heute Dinge wie TeamSpeak, Discord, Browser usw alles parallel. Das benötigt bei ausreichenThreads einfach nur RAM und sonst nichts.