In Zukunft am besten unter jeden Artikel 2 Kommentarbereiche einbinden:
1. normale Kommentare
2. flame/hate/fanboy-Gelaber
********, sorry 4 OT!
1. normale Kommentare
2. flame/hate/fanboy-Gelaber
********, sorry 4 OT!
Kurz nach Mittag schon besoffen?nochmal... es sind punkte in cinebench.. das heisst nicht das die cpu 28% mehr leistet...
dann würd ich deine GPU mal aufrüsten damit da davon überhaupt was merkst... man wann die Kinder das endlich kapieren - alleine das "Kommt mir nihct ins aus " entlarvt dich als evolutionsbremse - dazu gehören nämlich immer zwei
ohne amd wäre dein 7700 noch highend auf Jahre hinweg
Ist das Übertakten ist bei den eh schon beeindruckenden Taktraten überhaupt noch sinnvoll, ob gibt es hier nur noch 2% Mehrleistung bei 20% mehr Verbrauch und Wärmeentwicklung?
Es ging hier um die angeblichen 2% Mehrleistung die man sich kurz mal aus den Fingern gesogen hat. Bei dem Test sind es eben ~28% bestätigte Mehrleistung zu stock und nicht blos die 2% aus dem Märchenwald.
Frage: Würdet ihr ein CineBench-Ergebnis des 10900K von PCGH akzeptieren, welches in CineBench R15 unter Windows 8 festgehalten wurde? Ich denke eher nicht
dann würd ich deine GPU mal aufrüsten damit da davon überhaupt was merkst... man wann die Kinder das endlich kapieren - alleine das "Kommt mir nihct ins aus " entlarvt dich als evolutionsbremse - dazu gehören nämlich immer zwei
ohne amd wäre dein 7700 noch highend auf Jahre hinweg
Eben 5.4GHz auf CPU und Uncore ist doch ein fabelhaftes Ergebnis. I.d.r liegt ja der Uncore 200-300Mhz unterhalb des Core Taktes, hätte man dies beibehalten wäre sicher noch etwas mehr drin gewesen.
Ist für ein frühes Sample doch eigentlich vom Ergebnis ganz okay. Wenn man mal die ersten 9900K sieht, die teils keine 5GHz Allcore geschafft haben...
Ein sehr wichtiger Punkt fehlt hier, wurden 5,4 Ghz AllCore mit oder ohne AVX Offset erreicht? Mein 9900K schafft problemlos 5,1 Ghz AllCore, aber mit AVX nur 4,8 Ghz. (mit LLC Spitzen bis 1,35 Vcore)
Und wie ist die Spannung angesetzt - Vcore 1,3 V und LLC bis 1,35? oder VCore 1,35 und die LLC treibt dann Spannungspitzen über ungesunde 1,4 VCore?
Und ein weiterer Punkt, wurden die Werte auch stabil erreicht? z.B. Primestable? Cinebench sehe ich da eher kritisch.
Naja AMD und Intel rein am Takt zu vergleichen ist so auch nicht richtig, da zwei völlig unterschiedliche Architekturen. AMD packt seine Chips viel dichter als Intel, dadurch spart man teuere Fläche auf dem Wafer, im Gegenzug kann man den Takt aber nicht so hoch ansetzen. Würde AMD sein Design breiter auslegen würden die Chips auch höher takten.
Intels protzen mit Takt kommt eher einer Verzweiflungstat gleich weil man sonst nix zu bieten hat bevor die neue Gen in 10nm erscheint
Und wie sieht es da außerhalb von synthetischen Benchmark, quasi im Real Life aus?Immerhin sind es ~28% mehr Punkte in dem Test von stock zu oc. Nicht 2%.
CB20 (non AVX) @5.1GHz allcore 347W.
MSI discusses Intel Comet Lake-S processors binning and overclockability - VideoCardz.com
Für 28% muss aber ziemliches binning betrieben worden sein. Den meisten Nutzer dürften von also von 28% träumen dürfen....On the other hand Core i9-10900(K/F) quality appears to be better for overclocking. Up to 27% of the samples tested by MSI were offering more overclocking headroom.
In meiner Sig ist doch ne CPU und ich bin mir sicher da steht kein i7 7700 .@DaHell63: darum packt man seine Signatur in die CPU oder so ähnlich
Nichts neues, ist doch schon länger so.
So langsam werden die CPUs eben am Ende des machbaren verkauft, da ist nicht mehr viel Luft nach oben.
Zeiten wo man eine kleine CPU locker auf das Niveau einer großen bekommen hat, sind schon lange vorbei.
Powerlimit schadet nicht
Obwohl, eigentlich schon; aber ohne Powerlimit nehmen sich die Hardwarehersteller alle nicht viel. Der 3950x als Gegenbeispiel könnte sicher auch die 300W knacken, wenn man ihn lässt und er nicht direkt überhitzt. Limits weg und ab die Post.
Ich bekomme die 24 Kerne des 3960x problemlos auf 280W, und da ist er ziemlich nahe am Basistakt. Wenn ich will, wären da locker 400-500W drin; bei einem 16c mit 2/3 der Kerne sind da auch locker 300W drin.
In der Praxis betreibt aber (fast) niemand seinen Prozessor mit offenen Limits, der 3950x macht ja normalerweise auch bei ~140W zu, lass den 10900k doch auch bei meinetwegen 180W zumachen oder bleib bei den vorgegebenen Powerlimits. In Spielen verlierst du genau nichts, weil die Cpu deutlich drunter bleibt, in Anwendungen, die Multicore entsprechend nutzen, hast du bei beiden Herstellern das Problem. Als ob Ineffizienz ein einseitiges Problem von Intel wäre und Amd Cpus mit Luft und Liebe laufen.
Derzeit hat Intel in Anwendungen bei gleichem Takt aber meist den Nachteil, wenn man sich nicht durch hohe Singlecoretaktraten retten kann (was hin und wieder dennoch vorkommt), ist Amd wirklich meist die bessere Wahl. In Spielen sieht die Sache aber anders aus, Intels weit höherer Spielraum beim Core-, Cache- und RAMtakt sorgt bei Optimierung sogar für noch größere Unterschiede als @stock.
Die Frage ist was versteht man unter Real Life Anwendung?
Für den einen ist Real Life Anwendung Office, für andere Spiele, Foto / Video Bearbeitung und für wieder andere Wissenschaftliche Berechnungen.
Ich z.B. gehöre zu den wenigen verrückten die Boinc z.B. täglich für mehrere Stunden laufen lassen, das heißt 100% Last zum Teil auch mit AVX. Da wären mir über 300W definitiv zuviel, für den Alltag.
Man bekommt die CPUs quasi alle ans Saufen, das ist klar. Aber ich glaube nicht, dass das hier irgendwo Thema des Threads war. Kernaspekt ist der neue 10900K und das dieser @Stock schon ziemlich an der Belastungsgrenze performt. Dies ist bei AMD aktuell genau so, die CPUs laufen bereits ab Werk weit außerhalb ihrer SweetSpots wo sie die höchste Effizienz haben. Nimm deinem 3960X die 280W PL und setze es mal auf 180W fest, du wirst sehen, dass die Leistung kaum wegbrechen wird, @Stock werden die Kerne alle immer noch laufen, nur eben mit 40% weniger Verbrauch. Gab hier doch mal den kurzen Test, 40% weniger Verbrauch und keine 10% Verlust, da hatte man dann ziemlich den SweetSpot der Architektur gesehen.
@Pu: Deine These mit dem Mehrverbrauch in allen Ehren, aber ich glaube so einfach ist das nicht. Vor allem da Spannung und und Leistung in der Elektronik nicht so ganz über einen Kamm zu scheren sind. Wenn die Leistung quadratisch zur Spannung steigen sollte, wüsste ich nicht einmal wie man das rechnerisch darstellen sollte. Ausgangsspannung 1 V, Erhöhung um 0,1V, dann würde die Leistung quadratisch hierzu anwachsen? Was dann 0,01 wäre, nur die Einheit würde mir fehlen, Watt? Ampere?
BOINC sollte eine sehr konstante Last erzeugen. Das heißt wenn du das long term Power Limit im UEFI auf zum Beisiel 150 W stellst, dann verbraucht die CPU in diesem Szenario 150 W. Trotzdem hast du in Spielen für kurze Boost-Phasen auch deutlich mehr Leistung zur Verfügung.
Quadratwurzel aus (1,1² V² - 1,0² V²) und das ganze Multipliziert mit der Stromstärke ist gleich dem (Faustformel-)Energie-Mehrumsatz durch die Erhöhung der Spannung; als Einheit ergibt sich ganz normal V * A = W.
In der Praxis ändert sich aber auch die Stromstärke deutlich durch die Spannungsänderung, weswegen man sich ein Ausrechnen des Absolutwertes gleich sparen und nur den Faktor betrachten kann: Spannung * Faktor 1,1 (z.B. 1,0 V * 1,1 = 1,1 V) => Leistung * 1,1² = Leistung * 1,21. Entspricht +21 Prozent.
Mein 3900X@Stock ist bei CB 15 trotzdem noch schneller als der 10900K@OC. Wenn Mein Gigabyte-Board mehr als die 140W zulassen würde, dann könnte ich mich auch mal ans OC wagen.
Ja wenn Cinebench der Performance Indicator wär, dann würde ich den i9 10900K @5.4GHz auch mit meinem alten i9 7920X versenken. Mit dem R9 3900X sowieso. Aber irgendwie hat das schon beim i9 9900K mit dem versenken nicht ganz so geklappt und ich habe den leisen Verdacht, daß das mit dem i9 10900K erst recht nicht hinhaut . Ich meine jetzt schon Games.Absolut betrachtet, hat der 3900X eben noch zwei Kerne mehr und alle Zwölf sind auch starke Kerne. Beide Architekturen haben ihre Stärken und Schwächen.
Ja wenn Cinebench der Performance Indicator wär, dann würde ich den i9 10900K @5.4GHz auch mit meinem alten i9 7920X versenken.
Ja wenn Cinebench der Performance Indicator wär, dann würde ich den i9 10900K @5.4GHz auch mit meinem alten i9 7920X versenken. Mit dem R9 3900X sowieso. Aber irgendwie hat das schon beim i9 9900K mit dem versenken nicht ganz so geklappt und ich habe den leisen Verdacht, daß das mit dem i9 10900K erst recht nicht hinhaut . Ich meine jetzt schon Games.
Ich denke die ganze Zeit, was rechnen die da. Ihr meint die Leistungsaufnahme, nicht die Leistung.
Bin gespannt, wenn man mit einer starken Wakü, oder Chiller den Hitzkopf auf 5,5GHz bekommen kann, oder gar noch mehr, dann wäre das schon fast ein Grund... Zen 3 soll bitte nicht mehr zu lange dauern und bitte direkt zum Start einen 8 Kerner, der die Kerne alle in einem CCX hat, so wie der 3300X die 4 Kerne. Vielleicht könnte AMD so mal in den Games Intel überholen, wenn man sich ansieht, wie gut der 3300X sich schlägt, im Vergleich zum 7700K.
Genau so ist es halt.
Wenn ein theoretischer R3 4300X, mit theoretischen 8 Kernen in einem CCX, im Vergleich zu einem 4+4 Design, auch so wie schneller wäre, wie der 3300X gegenüber einem 2 + 2 Design (3100X), dazu die gesteigerte IPC Leistung und etwas mehr Takt. Dann wäre diese CPU für Spiele der Reißer und das bei vermutlich sehr niedrigem Preis.
Drei PC´s Ich werd verrückt...