Intel Comet Lake-S: Mit länger andauerndem 250-Watt-Lastverbrauch als Benchmark-König?

Da kann Intel ja locker ne gleich Angebote mit speziellen Netzteilen machen kauf ne 10???? CPU und nen 1000 Watt Netzteil gibt es dazu :-)
 
Intel gönnt AMD auch gar nichts. Nicht einmal das Prestige der peinlichsten Missgeburt der Halbleitergeschichte, das zuvor dem FX-9590 anhaftete.

Ich glaube nicht, dass der Erfinder von Kaby Lake X, Pentium III doch-nicht-1000, Pentium D 840 und des fdiv-Bug seiner Geschichte einen neuen Tiefstpunkt hinzufügt, in dem er den vermutlich trotz allem schnellsten Gaming-Prozessor 2020 herausbringt. ;-)


Also wenn man sich manche Anzeigen für Gebrauchtsysteme anschaut: doch werden sie.
Das sind dann eher pseudo-informierte Käufer die nur danach gehen, was am höchsten in Tests abschneidet. Weil ein 9900K entsprechend teuer ist machen sie halt dann Abstriche bei den "irrelevanten" Sachen wie Netzteil, Mainboard und RAM.
Das schlägt dann in die selbe Kerbe wie Leute die Netzteile nach maximaler Wattzahl oder Autos rein nach PS kaufen.

Und auch bei Retailsystemen geht es ja oft nur um Zahlen/Komponenten, die den Kunden zum Kauf anregen, also GPU und CPU, und beim Rest wird schön gespart.

Bei Retailsystemen ist die Lage grundsätzlich anders, da hier die Mainboards gezielt und zum Teil mit deutlich anderen Balancen designt werden. Da ist es genausogut möglich, dass eine H410-Platine den 10900K weit jenseits seiner Specs verkraftet, wie das ein Z490-Design schon einen i5 limitiert. Letztlich verkaufen OEM-PC-Hersteller eben Komplettpakete, die auch am Stück gebencht und am Stück bepreist werden. Da lohnt sich eine feinfühlige Abstimmung auf das wie auch immer geartete Ziel.

Bei Retail-Mainboards sieht die Sache anders aus, die müssen für sich alleine stehend überzeugen. Und einige machen das durch Qualität, andere sind im ganzen Sinne des Wortes billig. Ich war mir aber zugegebenermaßen nicht bewusst, dass die Billig-Platinen öfters mit High-End-CPUs kombiniert werden. Vermutlich sind die Eigenschaften des Ergebnisses der Grund für Gebrauchtverkäufe, denn eigentlich hat bislang niemand einen Grund, einen i9-9900K abzustoßen.
 
Ich glaube nicht, dass der Erfinder von Kaby Lake X, Pentium III doch-nicht-1000, Pentium D 840 und des fdiv-Bug seiner Geschichte einen neuen Tiefstpunkt hinzufügt, in dem er den vermutlich trotz allem schnellsten Gaming-Prozessor 2020 herausbringt. ;-)

Ich denke Ende des Jahres mit Ryzen 4000 wird das die schnellste Gaming CPU der Welt werden.
 
"Der Core i9-10900K etwa soll sich im Lastzustand PL2 satte 250 Watt genehmigen können - was nicht nur in puncto Verbrauch eine Verdoppelung gegenüber dem Core i9-9900K entspricht."

www.nurnochpeinlich.de

MfG Föhn.
 
Man kann durchaus sagen, dass Intel aus dem was sie nunmal haben wirklich das bestmögliche rausholen - ihr Problem ist nur, dass man in der Branche nunmal so nicht dauerhaft mitspielen kann. Sie schaffens aber schon länger, als ich erwartet hätte.

Ich denke, das wird aber spätestens mit Ryzen 4000 aka ZEN3 vorbei sein. Dann wird Intel auch die größte und massivste Brechstange wohl nicht mehr helfen. Zu was schon jetzt ein Ryzen 3000 möglich ist, wenn man die verfügbaren Cores in nur einem CCX unterbringt, zeigt eindrucksvoll der neue Ryzen 3300X. Im Gaming trotz seiner nur 4 Kerne+SMT schneller als der R5 3600. Wenn AMD nun wie angekündigt bei Ryzen 4000 bis zu 8 Cores in einem CCX unterbringt und dazu noch ein wenig am Takt als auch an der IPC zulegt, was ja zu erwarten ist, dann helfen Intel auch diese Brechstangen nicht mehr und AMD wird vorbei ziehen und dabei wohl auch deutlich effizienter zu Werke gehen.

Die Frage wird dann sein, wann Intel endlich mit einer konkurrenzfähigen Fertigung nachziehen kann. Wird es erst 2022 sein, dann müßte man AMD das Feld das ganze nächste Jahr überlassen. Und das wird Intel schon weh tun, nachdem man gefühlt eine Ewigkeit seit dem Core2Duo schalten und walten konnte wie man wollte, da AMD nicht mehr wirklich konkurrenzfähig war.
 
Ich habe mir gerade mal die Benchleaks zum 10900K beim CB15 angeschaut. Intels 10900K schafft es mit 5,4GHz Allcore an einen 4GHz Allcore 3900X ran. Also mit 26% mehr Takt =1400MHz kann er 16,7% mehr Kerne = 2 vom 3900X ausgleichen und das nur bei 342Watt Intel zu 142Watt 3900X :D 200W mehr um 2 AMD Kerne auszugleichen :daumen:läuft. Schnellster Gaming CPU und so. Ehrlich bei der Leistungsaufnahme würde ich einen 32Kern Threadripper bevorzugen.
 
Zuletzt bearbeitet:
Weil in den Benchmarks, die automatisch zu Marketing werden, fast immer nicht die realen Bedingungen abgebildet werden (99% aller Spieler dürften im GPU-Limit sein wo es völlig egal ist ob ohre CPU mit 4, 5 oder 6 GHz läuft) sondern prinzipbedingt die Extremsituationen.

In manchen Anwendungen ist das auch sinnvoll - ein auf 125W limitierter 10-Kerner dürfte im HEVC-Encoding beispielsweise deutlich langsamer sein als mit 250W (ich hoffe mal Dave erzählt uns demnächst genau wie viel...). Nur sind das eben Fälle die bei den meisten Kunden so (noch) nicht auftreten da kaum jemand 10+ Kerne voll auslasten kann ohne Prime und Cinebench, obwohl der Anteil seit dem großen YT/Twitch bzw. streaming Hype zugenommen haben dürfte.

Ja in meinem Fall spuckt er ja in Games eben mit weniger Watt/Volt/Mhzgenauso viel aus, wie Stock oder mit 150w limit und GSync Cap auf 120 FPS. Im Umkehrschluss frage ich mich dann schon, ob die Technik wirklich richtig eingestellt ist, da die Boostechnik ja im Prinzip ins leere Boostet, weil eben gar nicht soviel Rechenleistung abgefragt wird... Da spielt die GPU ja keine Rolle, zumindest in dem von mir angesprochenen Fall...
 
mal sehen wie dann später die realen leistungen und verbräuche etc aussehen und wie getestet wird.
auch interessant wird, wenn man den mutmaßungen glauben kann,
wie die leute dann auf einen eventuellen mehr-verbrauch reagieren, gerade im hinblick darauf das bei AMD ja gerne zb 50w mehrverbrauch schon als 'der genickbruch schlecht' hin dargestellt/angesehen wurde bzw man dann darauf rumreitete wie denn ein 'unter lastverbrauch' ja furchtbar viel mehr sei als TDP odr andere angaben sugerrierten,
was man aber zb bei einem fx9590 schon verstehen konnte.
wir werden sehen.......
 
Ich finds gut. Auch in Games schwankt die CPU Last. Erhöht z.B. bei BF V z.B. immer beim Rundenstart, beim Respawn, bei Plane crashes im Spielersichtfeld usw. das wird locker innerhalb der 56sec. abgefangen. Dazwischen der cooldown, wo ein paar Kerne entspannt runtertakten können, ohne dass die FPS dropen, da man sowieso die meißte Zeit im GPU Limit hängt. Mit den 56sec kann man jetzt wirklich was anfangen und der Vorteil des OC auf permanent konstante Taktraten geht künftig gegen null.
 
1 Minute @250 W wäre da ein Klacks, ich habe eher Bedenken dass die meisten 250-W-so-lange-wie-man-will und einige auch 350+ W hinterlegen.

Warum Bedenken?

Dann bringt das ganze wenigstens etwas und das nicht zu knapp. Wer es nicht möchte, der kann es ja abschalten und wer nicht weiß, wie das geht, der weiß auch in den wenigsten Fällen etwas von den 125W TDP.

Das Argument, mit den Kühlern, ist aus zwei Gründen nicht stichhaltig. Einerseits legen sich auch viele, mit wenig oder mittlerem Wissen, AiOs oder gute Kühler (die mit dem Award) zu und andererseits, werden die CPUs bei unzureichender Kühlung sowieso gedrosselt.

Die 56 Sekundenregel ist das schlechteste, sie führt die Nachteile aus beiden Welten zusammen. Die CPU zieht immer noch lange genug Strom, um dem Netzteil das Licht auszublasen, das ist ein richtiger Nachteil, der es auch rechtfertigen würde, die CPU auf 125W zu begrenzen (250-350W können bei einem 450-550W Netzteil übel reinspielen, wenn man die CPU 125W veranschlagt hat). Andererseits ist der Leistungsvorteil nichtmehr praxisrelevant, was hat man denn davon? Im Gegenteil, das sorgt für Verwirrung, wenn man die Leistung im Spiel nichtmehr hat, während im Benchmark noch alles in Ordnung war. Auch bei der Videowiedergabe dürfte es für dumme Gesichter sorgen, wenn das Video (nicht GPU beschleunigt, da h.266 o.ä.) nach einer Minute das Ruckeln anfängt.

Ich persönlich finde die Entscheidung jedenfalls richtig, ich darf das bei meinem i7 3770 noch alles von Hand einstellen (geht zum Glück).
 
Was hier wohl nicht bedacht wird ist, dass diese 250W über 56 Sekunden ja auch Wärme produzieren...VIEL WÄRME!
 
Was hier wohl nicht bedacht wird ist, dass diese 250W über 56 Sekunden ja auch Wärme produzieren...VIEL WÄRME!

Über die regulären 56 Sekunden dürfte das ein geringeres Problem sein, die thermische Trägheit hilft da enorm.

Die Herausforderung ist, das ganze dauerhaft zu kühlen, damit das auch in der Praxis etwas bringt. Da muß man schon zu einem extrem guten Luftkühler greifen oder gleich zu einer echten Wasserkühlung (wenn man die 300W durchbrechen will, dürfte letztere Pflicht sein).
 
Definitiv nichts für mich...

Mein PC heizt jetzt schon die Wohnung besonders im Sommer viel zu stark, während diesen Winter ich die Heizung, so gut das in einer Mietwohnung geht, auch komplett aus lassen konnte und musste trotzdem ab und zu die Sitzplatztüre offen lassen, um die Temperatur wieder unter 22°C zu kriegen :ugly:
Nä... Wenn der Ryzen 4700X mit mehr Leistung und weniger Stromverbrauch als der 3700X daher kommt, wie schon der 3700X zum 2700X, freu ich mich viel mehr auf diesen möglichen Wechsel und lass mir lieber bei der nächsten GPU noch bisschen TBP-spazig.
 
Das stimmt so nicht. Intel ist nur noch beim Takt besser, die IPC also die Informations Per Cycle ist bei AMD besser.

In Spielen ist Intel bei den IPC (Instructions per Cycle) durchaus vorne.
Das liegt einerseits mit der Cache-Struktur im Rahmen des IF zusammen, wo Intel mit dem monolitischen Design einfach einen Vorteil hat.
Liegt aber wohl auch an 10 Jahren Optimierungsfokus auf die Core-Baureihe.
Bei Retail-Mainboards sieht die Sache anders aus, die müssen für sich alleine stehend überzeugen. Und einige machen das durch Qualität, andere sind im ganzen Sinne des Wortes billig. Ich war mir aber zugegebenermaßen nicht bewusst, dass die Billig-Platinen öfters mit High-End-CPUs kombiniert werden. Vermutlich sind die Eigenschaften des Ergebnisses der Grund für Gebrauchtverkäufe, denn eigentlich hat bislang niemand einen Grund, einen i9-9900K abzustoßen.

War jetzt nicht rein auf den 9900K bezogen. Aber ich hab schon einige Male bspw. K-Chips mit Chipsatz gesehen, der Übertakten nicht unterstützt.
 
Mir persönlich wäre in diesem Zusammenhang einfach nur wichtig, dass man Mal Benches nutzt die auch eine Laufzeit haben, die 30 Sekunden sind ja schon lange nicht mehr das was die Realität abbildet. Eigentlich braucht man Benches, die 10 Minuten oder mehr laufen und gewertet werden dann nur die letzten 5 Minuten. Ich spiele ja nicht 30Sekunden und mach den Rechner dann aus, bin schon schnell, aber so schnell auch wieder nicht.
 
In Spielen ist Intel bei den IPC (Instructions per Cycle) durchaus vorne.

Das bezweifel ich doch stark. Ich würde sogar sagen, das Ryzen 3000 bei der IPC vorne ist. Die Ryzen sind Games meist langsamer, weil bei den allermeisten CPUs die Kerne auf 2 CCX verteilt sind und diese via IF miteinander agieren. Dazu dann eben noch der geringere Takt. Beim neuen 3300X hat AMD aber 4 Kerne in einem CCX gepackt, die IF fällt weg. Und siehe da: der 3300X mit seinen 4 Kernen+SMT ist schneller als ein Intel i5 9400, der auf 4 Kernen immerhin einen Boost von 4,0 GHz besitzt, aber trotzdem keinen Stich gegen den 3300X sieht.

Intel liegt nur deshalb noch (minimal) vorne, weil sie den deutlich höheren Takt fahren können, und die IF mit ihren Latenzen AMD an mehr Performence hindert. Denn in Games ist der 3300X auch schneller als der 3600. Bei Ryzen 4000 kommen aber bis zu 8 Kerne in einem CCX und die IF fällt hier dann weg. Alleine das dürfte dann schon reichen, um an Intel auch in Games vorbei ziehen zu können. Dazu dann noch ein wenig mehr an Takt und IPC und intel ist dann vollends geschlagen. Erst mit neuer Architektur und endlich konkurrenzfähiger Fertigung bei Intel werden die Karten dann neu gemischt werden. Aber Takte von über 5 GHz werden dann auch bei Intel Geschichte sein. Wird interessnt dann.
 
Zurück