Intel Core i9-9900KS: 5 GHz auf allen Kernen im Multicore-Load

Immer dieser Kleinkrieg hier :D

In Anwendungen ist eine CPU mit Quad Channel immer besser.

Deshalb ist der Vergleich zum 9900K sinnlos. Hinzu kommt das die Mainstream CPU's mehr auf Spiele abgestimmt worden.
 
Ja ja, Gauss ist ein Ketzer. :D Bin gespannt, wann der nächste mir den Jihad erklärt, weil ich den heiligen 9900k beleidigt habe. :ugly:
 
Immer dieser Kleinkrieg hier :D

In Anwendungen ist eine CPU mit Quad Channel immer besser.

Deshalb ist der Vergleich zum 9900K sinnlos. Hinzu kommt das die Mainstream CPU's mehr auf Spiele abgestimmt worden.
Eben, genau das stört mich an seinen Aussagen, denn das ganze hat nichts mit zu tun das ich den Prozessor anhimmle und es hat auch nichts mit irgendeiner Beleidigung zu tun. Ich gebe genau so mein Senf dazu wenn ich was nicht gut finde, aber dann vergleiche ich keine Äpfel mit Birnen.

Der Prozessor leistet genau das wozu er auch geschaffen wurde. ;)
 
Wenn der R9 3900X eine Gaming Krücke ist, dann werde ich das auch so formulieren. Doof wäre das allerdings schon, weil ich dann zwei Systeme brauche.

Der Prozessor leistet genau das wozu er auch geschaffen wurde.
zwinker4.gif

Ist das dein Mantra? :D

In Anwendungen ist eine CPU mit Quad Channel immer besser.

Ich habe mit 3866MT/s einen Durchsatz von fast 60GB/s. Meinst du wirklich, Bandbreite ist das Problem?
 
Zuletzt bearbeitet von einem Moderator:
Wie auch immer, wir haben alle unterschiedlichen Geschmack und schätzen auch alle alles etwas anders ein. Was mir gefällt muss dir nicht gefallen und umgekehrt.

Glaube da können wir auch nie was ändern. :D
 
Ob 60GB/s limitieren kann ich nicht beurteilen aber ein Quad Channel ist bei über 80GB/s und das kann in vielen Sachen entscheiden sein.

In Spielen wahrscheinlich nicht ^^

Was auch noch was ausmacht ist, das Intels HEDT Plattform die kerne anders belastet und daraus die Mehrleistung erzielt.
 
Zuletzt bearbeitet:
In meinem nächsten Beispiel habe ich mit und ohne HT getestet und hier kann man gut sehen das die Last ohne HT höher anliegt und somit die 100 Watt öfters überstiegen werden. In diesem Test habe ich auch mit Absicht 1,300v anliegen gehabt was unter Last etwa 1,280-1,290v ergeben hat.
Das ist interessant! Das hieße mit SMT könnte man (unter Teillast) Strom sparen, obwohl die gleichen Berechnungen durchgeführt werden. Das kann doch eigentlich nur ein Berechnungsfehler sein.
 
Das hat damit nichts zu tun und ist nur von der Anwendung abhängig.
Wie in diesem Beispiel:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Mit SMT teilt sich die Last auf mehrere Threads und somit liegen auch weniger Watt an.
Das kann natürlich nicht auf alle Anwendungen übernommen werden und ist nur eines der Anwendungsbeispiel.

Dennoch muss der Prozessor nicht immer die 95 Watt übersteigen und das selbst mit 5 GHz auf alle Kerne.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Das ist interessant! Das hieße mit SMT könnte man (unter Teillast) Strom sparen, obwohl die gleichen Berechnungen durchgeführt werden. Das kann doch eigentlich nur ein Berechnungsfehler sein.

Du sparst dir mit SMT halt einige Kontextwechsel, kannst die Recheneinheiten besser auslasten und somit bei gleicher Rechenleistung niedriger takten und mit entsprechend weniger Spannung arbeiten.
 
Plant ihr eigentlich eienn Test von den kommenden R0 non-k Prozzis?

Ich vermute, dass sich Daniel erstmal auf Zen2 konzentrieren muss und für den Sommer ist auch ein neuer CPU-Parcours angedacht. In dem müssen dann aber natürlich Intel-Mittelklasse-Modelle vertreten sein und wir werden sicherlich eher die neuen als die alten Steppings testen, wenn Intel Muster zur Verfügung stellt.
 
Zuletzt bearbeitet:
Ich habe mit 3866MT/s einen Durchsatz von fast 60GB/s. Meinst du wirklich, Bandbreite ist das Problem?

Na ja, die Inter-Die-Latenz spielt eine Rolle. Davon wissen wir seit Summit Ridge in Games wie Crysis 3, spezifisch von den Modellen, bei denen die Module bzw. Dies sich den Speichercontroller teilen. Aber die Speichertransaktionen zwischen Speichercontroller und Arbeitsspeicher werden es gewiss nicht sein, wie Du schon bestätigst. Zudem ist zeigte der damalige Benchmark von SiSoftware Sandra zwischen Pinnacle Ridge und dem Intel Core i7-6700K dass die Cache-Performance von enormer Differenz ist und deshalb auch hier die architektonisch bedingt große Latenz maßgeblich sein wird. Dieses Problem bekommt Intel in den nächsten Jahren aber ebenfalls, weil von dieser Seite schon angekündigt ist, dass die Bemühungen in die Modul-Bauweise gehen. Was wir also beobachten, das ist der Kampf zwischen monolithisch und modular. Es ist weniger ein Zweikampf zwischen Intel und TSMC bzw. AMD.
 
Wenn es um die Technik gehen soll, sollte man sich immer nur die Technik ansehen. Sonst macht man was falsch. :-)

Gerade bei Intel wird leider sehr oft der Preis und manchmal auch noch das Marketing/Hersteller-Verhalten mit in den Topf geworfen, wenn es eigentlich um das Potenzial der Technik geht.

Ja, das is mir noch mal so richtig bewusst geworden, dass ich mir so Lästersprüche, die nichts mit der Technik ansich zu tun haben, sondern eher mit den Begleitumständen, ab sofort klemme.

Wenn ich mir im aktuellen Beispiel(9900ks) nur die Technik ansehe, kann ich eigentlich nur sagen "Hut ab!" und geile Zocker CPU, denn 5 GHz allcore(möglich) von der Stange, ohne selbst großartig was ändern zu müssen, is ja schon nice.

Und ob ich das brauche, oder als overkill zum Zocken ansehe, oder als Geldverbrennung, interessiert ja nicht.

Die Technik is klasse(aus Zockersicht). Punkt.

Ganz nebenbei isses ja auch nicht schlimm, wenn es sich noch um ein älteres Verfahren in 14+++nm handelt, wenn es die Konkurrenz so gerade mit der neuesten Technik schafft, da ran zu kommen. Oder auch nicht.
Bin mal auf die Gamingbenches gespannt.


Btw: Passt der nich sogar in mein Board ? :D
Für den 8600k hätt' ich sogar n passenden Abnehmer(mit gtx 1060).
 
Nichts! Der ist genauso besonders, wie der i7 8086K, nur das dieser i9 9900K 8.Kerne und HT hat. Aber ehrlich, wenn juckt dieser i9 9900KS, der wohl wieder völlig überteuert auf den Markt geschmissen wird.

Wenn der Ryzen 7 3800X wirklich so schnell ist, wie der i9 9900K und 100,00 Euro weniger kostet, weiß ich nicht, was noch für den i9 9900K sprechen soll? Sollte der AMD Ryzen 7 3800X die angekündigte Leistung bringen, kann ich mir einen Wechsel auf AMD gut vorstellen und so meinen i5 8600K ersetzen. Und da ich nicht glaube, das Intel in seiner unendlichen Gier die Mondpreise für den i9 9900K so schnell senken wird, ist die Wahrscheinlichkeit sehr groß, demnächst einen AMD in meinen Rechner zu pflanzen. Ich würde nur bei Intel bleiben, wenn der i9 9900K zum gleichen Preis wie der AMD Ryzen 7 3800X angeboten wird, da ich ja ein entsprechendes MB schon besitze, wenn Intel stur ihre Mondpreise aufrechterhalten, dann sage ich spätestens im Herbst: Time say good bye! :hmm:

Der 9900KS hat einen Basistakt von 4 GHz, diese bleiben dir mit 95W Power Limit erhalten wenn er voll ausgelastet wird. Die anderen 9900k gehen dann auf 3,6 GHz zurück. Das heißt untenrum 400 MHz mehr bei gleichem Verbrauch. Damit kann angekommen werden das durch die starke Selektion einiges weniger Spannung für die üblichen Taktraten notwendig sind. Ergo könnte der KS die 5 GHz bei gleichem Verbrauch des K (4,7 GHz) fahren, also 300 MHz zusätzlich, ohne OC schwitzen.

Es gibt immer Gründe für CPU X oder Y, z.B. DX12 multi GPU mit iGPU, QSV, Ringbus Latenzen, dies und das was sich von der anderen CPU unterscheidet. Wenn du mehr als nur Spiele machst, also z.B. Audio (DAW), Video usw. solltest du zwingend Tests abwarten (auch in jenen Segmenten).

Der Wechsel von einem 8600k macht wenig bis gar keinen Sinn für NUR Gaming, weil egal in welche Richtung, die Kosten stehen in keinem Verhältnis zum Mehrwert. Da wärst du damals mit dem 8700k besser bedient gewesen, dann würde sich die Frage nach nem Upgrade nicht stellen, oder du hättest einen i3 8100 nehmen sollen, um entsprechend Anlass zu haben. Mit dem 8600k sind sowohl der 9900ks, als auch der 3800x weder Fisch noch Fleisch.
 
@IICARUS: Warum auch immer das so ist, aber du scheinst ein persönliches Problem damit zu haben, dass der 9900k kritisiert wird. Ist dir die CPU heilig? :D Mir ist sie das nicht. Ich spreche daher die Vor- und Nachteile für meine Anwendungsfälle ganz klar aus, ohne dass mein Selbstwertgefühl darunter leidet. Ich musste ja auch dem Fakt ins Auge sehen, dass Threadripper eine Gaming Krücke ist.

Der 9900k ist nunmal, was meine Workloads betrifft, teilweise schwach, ohne dass großartig starke multithreaded Last anliegt. Mitunter sogar weit mehr als ich dachte. Aber was soll's, ich werde zweigleisig fahren und eine Workstation mit einem R9 3900X betreiben. Vielleicht sind es auch die ganzen Sicherheitspatches, die mittlerweile ihren Tribut fordern.

Wenn der R9 3900X bei der Gaming-Leistung überrascht, dann fliegt der 9900k. Traurig wäre ich nicht. Ist leider nicht die geilste CPU ever. :D Nachdem ich die Leistung gesehen habe, ist halt Bescheidenheit angesagt... ;)

Hier mal ein Beispiel mit Zugriffen auf die gesamte Speicherhierachie: Benchmarkergebnisse, Teilnehmer Benchmark gesucht

Der 9900k stinkt hier komplett ab und das sogar gegen einen 2700X. Der Benchmark ist mit .NET Framework 4.72 kompiliert, welches auf die Zen Architektur optimiert ist. Ich programmiere übrigens fast nur mit .NET.

Ich liebe zwar .NET, aber eine CPU zu bewerten anhand eigener Programme, die in einer Laufzeitumgebung ausgeführt werden, kann ich nicht für ernst nehmen.
Egal worauf was optimiert wurde, die CLR ist immer langsamer als ein Programm geschrieben im unmanaged Code. Du weißt auch nie genau wann die GC anfängt aufzuräumen, selbst wenn du iDisposable implementierst.

Schreib deinen zu messenden Code in eine native C++ dll. Die Ergebnisse kannst du ja gleich in den Funktionen als Rückgabewert liefern lassen. Danach überführst du diese per Wrapper dll in C++/CLI per Referenz in dein C# Projekt. Erst ab hier können wir über CPU Leistung sprechen.

.Net ist ein Flaschenhals wenn es um zeitkritische Anwendungen geht, deshalb gehört der kritische Code in C oder C++ geschrieben, damit der Compiler direkt Maschinencode generiert und nicht erst noch Bytecode, der zur Laufzeit Just in Time übersetzt werden muss.
 
Netter Versuch Buggi. :D Natürlich bewerte ich eine CPU nach den Anforderungen, die für mich wichtig sind. Wonach denn sonst? C# ist einer der modernsten Programmiersprachen überhaupt. Ich kann damit sehr schnell entwickeln. Im übrigen ist Entwicklungszeit auch kritisch/ eine kritische Ressource. Warum sollte ich Code doppelt schreiben, wenn der .NET Code auf einem Ryzen System super performt?

Ich werfe den digitalen Handschuh, Buggi. :D Lass uns ein Bench-Battle starten. Du programmierst was in C++ und ich bilde es in C# ab. Dann messen wir die Laufzeiten auf unseren Systemen.
 
Sieht ja immer alles ganz nett aus, auf dem Papier. Ohne praktische und vergleichbare Tests kann man aber nur viel spekulieren. In den letzten Monaten sehe ich aber zunehmend nicht gehaltene Werbeversprechen, Lieferschwierigkeiten und viel billiger wurde auch nichts. Der Boost-Takt wird nur mit viel zusätzlichen Strom zum Standart-Takt/Watt erst wahr. Alles nur, um den Konkurenten zu übertreffen? Für die Hate und Fanboy "commentarius" Schreiber, das meine ich für beide, das ist bei Intel und AMD vergleichbar nahe beieinander.
 
Zurück