32 Mal Intel Comet Lake-S: Kometeneinschlag der Core i-10000-Prozessoren

@Duvar @Esenel @Bl4ckR4v3n

Hab nun Neuigkeiten: CCX1 vom CCD0 (Core 4-6, vorher 4.4GHz) sind nun alle 3 auf 4.5GHz bei den gleichen 1.35V. :)

Cinebench R20 MC Score ist jetzt ebenfalls über 7900 Punkte. :)

Vielen Dank für eure Hilfe(n) :)

Die 8000 Punkte packste auch noch :daumen: :devil:.

Naja, nix für ungut, aber der Hype ist das nicht.
Kann man ja auch nicht erwarten. Das Leistungsplus in Anwendungen wird durch die 2 Kerne überschaubar sein und in Spielen wird noch weniger rumkommen. Ein i9 9900K/KS ist optimiert nun ja auch keine Krücke.
Auf der anderen Seite ist dann ja auch noch AMD mit seinen guten CPUs in jeder Klasse. Für einen Hype passiert da momentan viel zu wenig.
 
Zuletzt bearbeitet:
Wenn das ein Intellaner liest.....das ist in der Kirche des heiligen Intel, Schutzpatron der globalen Erwärmung, schon fast Gotteslästerung. :)

Irgendwie muss ich die Balance zwischen Angriffen von AMD- und Intel-Fanboys ja ins Gleichgewicht bekommen, erstere waren die letzten Monate deutlich lauter. :-)


Ja, man kann ein System A bis zum letzten ausoptimieren und stellenweise (RAM, Cache,..) weit über den Spezifikationen betreiben und schon hat man gegenüber einem vergleichbaren System B das @stock läuft einen Vorteil. Wer hätte es geahnt.

Der Punkt ist nur ob jetzt A oder B Intel oder AMD ist ist beliebig austauschbar. Ich kann auch nen 3700X nehmen, dem 3800er RAM mit hart optimierten Subtimings reinklatschen und den IF auf 1900 MHz takten und den dann gegen nen 9900er @stock mit DDR4-2666 antreten lassen. Dann ist der Ryzen im Gaming auch schneller. Das ist halt derselbe Unsinn wie andersrum. Genau deswegen werden die Tests (zumindest hier) ja mit den offiziellen Werkseinstellungen gemacht, sowohl bei Intel als auch bei AMD. Dann ist Intel im mittel in Spielen noch etwas schneller das stimmt. Aber keinesfalls derart dominant wie du es hier darstellen willst. Du kannst auch beides optimieren wie verrückt - dann werden beide Systeme schneller - der Abstand bleibt aber etwa gleich.

Bei reiner Effizienz hättest du recht, aber Duvar scheint es um Leistung bei relativ hoher Energieaufnahme geben.
Da ist Intel in Spielen klar im Vorteil und auch bei Anwendungen würde ich auch erst einmal auf Wetten verzichten. Man darf nicht vergessen, dass AMD circa 80 Prozent des machbaren Speichertaktes schon spezifiziert, während Intel jetzt von 55 auf geschätzt 60 Prozent hochgeht. Da sind einfach mehr Reserven für Leistungstuning vorhanden und spätestens beim CPU-Takt hat AMD ab einer gewissen Grenze gar keine Chance mehr. PBO reizt die Ryzens ab Werk ziemlich gut aus und Zen2 steigt hart bei Taktfrequenzen nur wenige 100 MHz über dem normalen Allcore-Turbo aus. Für noch einmal 50 MHz mehr zahlt man schnell mit einer Verbrauchsverdoppelung, während Coffee Lake und mutmaßlich auch Comet Lake ein erweitertes Power Limit und mehr Vcore relativ lange in mehr Takt umsetzen können.

Wer Cherry Picking betreiben will, kann also leicht Rahmenparameter finden, die für Ryzen nahezu unmöglich sind und dann mit einer miserablen Effizienz einhergehen. Das klappt sogar für gut AMD-optimierte Software: Selbst wenn ein 3900X in der gewählten Anwendung/dem gewählten Spiel 10 Prozent IPC-Vorsprung hat, muss man nur eine Gesamtperformance fordern, für die der Haupt-Thread mit 4,7 GHz (AMD) beziehungsweise 5,2 GHz (Intel) laufen müsste. Der Core i wird dann, wenn auch andere Kerne intensiv belastet werden, vielleicht 100-150 W mehr als innerhalb seiner Spezifikationen ziehen, aber den 3900X muss man gegebenenfalls bei +300, +400 W grillen (beziehungsweise mit Trockeneis versorgen), damit er überhaupt über mit mehreren Kernen die 4,5 überspringt.


Was da heißt man könnte 4 Kerne ohne HT betreiben und 6 Kerne mit HT, kombiniert? Könnte man dann optimieren auf das HT on/off Dilemma in Games? Potential für mehr Leistung.

Für eine Game-Optimierung wäre es zusätzlich erforderlich, dass Windows die Threads auch dem richtigen Kern zuweist. Ohne Zusatz-Tools geht das meinem Wissen nach nicht. Aber es wäre denkbar, dass Windows in der Hinsicht intelligenter wird, sobald Lakefield die Unterscheidung von schnellen und langsamen Kernen erfordert. Normalerweise investiert Intel im voraus viel in Software-Unterstützung für neue Features. Auch dann sehe ich für Spiele nur geringe Vorteile in der Hardware-Funktion, gegenüber einer reinen Software-Zuweisung – ein ungenutzter zweiter logischer Kern sollte die Performance des ersten praktisch nicht beeinträchtigen. Aber für sicherheitskritische Produktivumgebungen ist es möglicherweise von Vorteil, wenn man einzelne Recheneinheiten vor SMT-basierten Side-Channel-Angriffen schützen kann, ohne die möglichen Performance-Vorteile auch für alle anderen Prozesse aufgeben zu müssen. Dann hat zum Beispiel in Server der Hypervisor seinen eigenen HT-freien Kern.


Man könnte schon mit einem 220V Trafo die Aufnahme des Systems begrenzen. Die Auswirkung wäre die gleiche, man könnte einen Aussage über Leistung pro Watt treffen während ein Limit gesetzt ist.

Gleiches Netzteil, gleicher Speicher, gleiche Grafikkarte (halt eine nvidia 710 Office). Dann würden sich nur Mainboard und CPU unterscheiden, aber man könnte messen aus welchem System mehr Leistung pro Watt zu ziehen ist.

Vermutlich würde 5 Minuten später die PR von Intel anrufen und behaupten es gäbe ein Problem mit dem Testmuster und man möge es wieder zurückschicken und der Ersatz würde komischerweise erst zwei Wochen nachdem man die CPU im Laden kaufen kann wieder eintreffen. Aber möglich wäre so ein Vergleich.

Ich glaube nicht, dass moderne Elektronik positiv auf eine Strombegrenzung via Netzteil reagiert. :-)
Und im Duell um den Gesamtsystemverbauch hat Intel in Alltagsanwendungen auch deutlich bessere Karten, als du annimmst. Reale Software lastet einen Prozessor selten über längere Zeit zu 100 Prozent aus (deswegen haben wir ja Turbomechanismen) und ein X570-System geht in der Regel mit 5-15 Watt Nachteil beim Leerlauf-Grundverbrauch ins Rennen. Das ist relativ viel, wenn man die CPUs, wie gefordert, auf 95 W Spitzenverbrauch limitiert und muss durch höhere Volllast-Effizienz erst einmal wieder reingeholt werden.
 
also richtige Kracher sind die Preise aber auch nicht ...

$488 vor Steuern für den Großen - macht etwa 590€ oder eher 600€
der 10700K für seine $374 wird bei knapp oberhalb 450€ landen

Effizienz hin oder her, 4,9GHz auf 10 Kernen direkt aus der Fabrik ist schon eine Ansage

Für Leute wo das schnellste gerade gut genug ist sicher eine entsprechende Option


Ich zitiere mich mal selbst und klopfe mir auf die Schulter.
Der Käsekönig listet die Prozessoren wie folgt:
10900K: 589€
10700K: 459€

Preislich stellt sich der 10700K also (mal wieder, siehe 9900K) dem aktuell 450€ teuren 3900x gegenüber.

schlaf weiter Intel, schlaf weiter...
 
Zurück