AMD Ryzen 3000 vs. Intel Coffee-Lake-S-Refresh: Benchmarks ohne MCE, Scheduler-Fix und Spectre-Updates

Die Slots mit x16 elektrisch anzuschließen hat keinen Sinn.
Physisch können nur maximal 16/8/4 zur Verfügung gestellt werden.
Die anderen Leitungen wären immer tot und damit vollkommen sinnfreie Materialverschwendung.

Ja eben schon, weil die GPU immer noch im 1. Slot werkeln darf oder m.2 Quad Karten dort rein müssen. Ich finde das unflexibel und gehört schon lange angepasst, ganz gleich wie viele Lanes die CPU bereitstellt. Außerdem, was wäre wenn AMD die Lanes in der 4. Gen. erhöht, dann stehste da mit mechanischer Kompatibilität und elektrisch haste Pech gehabt.
 
×16/×0/×4 <-> ×8/×8/×4 ist das Maximum in der Mittel- Oberklasse.



Interesting. Als ich das Gaming M7 AC getestet habe, verbrauchte das System im Volllasttest noch 10 bis 14 Watt mehr als die High-End-Konkurrenz von Asus und Gigabyte (lieferte aber nicht mehr Spieleleistung). Mal im Auge behalten, wenn neue UEFI-Versionen jetzt auch bei AMD für Chaos sorgen, werden wir den nächsten CPU-Test-Parcours entsprechend anpassen. Eine Erneuerung steht sowie für den Sommer auf dem Plan. Bis zum Ryzen-3000-Launch hätten wir die einhergehenden Nachtests leider nicht mehr geschafft, weswegen dies der letzte Durchgang im alten Rahmen wird. Ich hoffe nur, ich muss nicht alle Mainboards erneut ausgraben... . :-(

Macht ihr nicht Softwaremessungen/Systemmessungen?
Igor misst halt wirklich an den Kontakten mit teurem Equipment. Meine Vermutung ist ja bis heute, dass die Asmedia Chips fressen wie die Scheunendrescher.
Das schon, nur hätte man auch die Slots zumindest elektrisch mit x16 anbinden können, so dass die Lanes auf jeden geschaltet werden können. Gigabyte hatte das mal beim z97 gemacht. Ist doch Käse wenn man volle 16 Lanes nur am 1. Slot abgreifen kann oder nur x4 am 3. Slot.
Und was soll das bringen außer mehr Kosten? Das ist ein Feature, dass vielleicht 0.01% der Käufer nutzen würden.
Wo ist jetzt das Problem, die GPU in den ersten Slot zu stecken?
 
Es sind je nach Spiel durchaus auch mal mehr, am Ende ist es völlig normal Herstellerbenchmarks kritisch zu sehen, denn meistens ist es so, dass in der Realität dann ein bisschen was anderes herauskommt. Es gibt da immer 5 bis 10% Schwankungen.
AMD gibt sich mit ihren Angaben da durchaus zugeknöpft, wie das alles genau aufgebaut war, oder gibt es eine Angabe zu den genauen Testbedingungen?


Ja, du Schwätzer solltest dich weniger weit aus dem Fenster lehnen, für das das du jeden sofort immer persönlich unter der Gürtellinie angehst, wenn dir mal wieder etwas nicht passt, anstatt zivilisiert zu diskutieren.
Wenn das nicht stimmt, was ich sage, dann kannst du es doch widerlegen, oder die Ignore-Funktion nutzen

Du solltest mal reflektieren was du so schreibst!
Seit Monaten hören wir von dir Thread rauf und runter, dass der i9 9900k in Games < 95Watt verbraucht, da er ja nicht ausgelastet wird, CB bestätigt das mit einem Test und jetzt wo es in die andere Richtung geht sind es plötzlich bei dir 5-10% Abweichung bei der Performance, wem willst du das hier eigentlich verkaufen, glaubst du hier sind alle blöd?

Was man an dem Test zugunsten Intels sicher auslegen muss ist der RAM, der dürfte bei beiden mit den öffentlichen Spezifikationen gelaufen sein, also hat hier Intel mehr Luft nach oben, was sich allerdings in keinem Review niederschlagen wird, da dort 90% mit den offiziellen 2666 MHZ gegen AMDs neue 3200 MHZ Spezifikation messen werden.
Ansonsten sind deine Verbaltricks gegen AMD einfach nur Fake Schwätzerei, weil du je nach Situation jeglichen Fakt zugunsten Intels auslegst.
 
Kleine Präzisierung der News:
PC World zitiert AMD mit "without the latest" patches. Passend zur alten Windows-10-Version fehlten also nur die jüngsten Updates – vermutlich wurden die Tests schlichtweg schon vor einigen Wochen durchgeführt – die großen, sich potenziell auf die Leistung auswirkenden Änderungen aus dem letzten Jahr waren aber aktiv.

Guten Tag Torsten,

die CT behauptet aber etwas anderes!:nicken:
 
Ja eben schon, weil die GPU immer noch im 1. Slot werkeln darf oder m.2 Quad Karten dort rein müssen. Ich finde das unflexibel und gehört schon lange angepasst, ganz gleich wie viele Lanes die CPU bereitstellt. Außerdem, was wäre wenn AMD die Lanes in der 4. Gen. erhöht, dann stehste da mit mechanischer Kompatibilität und elektrisch haste Pech gehabt.

Dann brauchst du andere Chipsätze und ein anderes BIOS.
Wenn du schon mit m.2 Quad Karten arbeitest, geh doch gleich auf HEDT. Da gibt es mehr als genug Lanes dafür.
Für diese Einsatzzwecke ist mainstream Desktop schlicht nicht gedacht.
 
Also meinst du, MCE ist das Pendant zu AMD´s PBO?
Mit MCE würde der 9900K dann auf allen Kernen mit 5Ghz laufen?
PCGH schreibt in ihrem Bericht, beide CPU´s liefen innerhalb ihrer TDP Grenzen, is für mich jetzt unklar, was AMD da genau gemacht hat.
Wie sieht es mit der Angabe der Speichergeschwindigkeiten aus?

BTW. Ich hab auch nichts von MCE geschrieben, oder doch, nein hatte ich nicht.^^
PBO ist nich gleich MCE, weil es abhängig von mehreren Faktoren (VRM Stromlimit, VRM Temp-Limit, Taktlimit, CPU Temp-limit usw.) ist. MCE erhöht (imho) die Spannung und taktet die Cores höher. Kurz, sie funktionieren nach anderen Prinzipien. Abgesehen davon, gibt es beim Ryzen kein Stufensystem für Cores, denn das wird dynamisch geregelt.
Die TDP legt erstmal nur die Werte für das benötigte Kühlsystem fest. In der Praxis wird das durch die derzeitige Temperatur geregelt. Die Taktfrequenz des Arbeitsspeichers ist davon komplett unberührt.

MCE ist je nach Board komplett unterschiedlich aggressiv, deshalb würde man immer die Kombi Board+CPU messen und nicht nur die CPU. Das gleiche gilt für PBO, weil dort auch die VRMs in die Rechnung einfließen.
 
Die Speichergeschwindigkeiten würden mich auch interessieren. Ich vermute Intel hat 2666er Ram bekommen und AMD 3200er, was der Hersteller halt offiziell supportet.

Soweit ich weiß, lief der 9900k mit 3200er RAM.

Ich wüsste jetzt nicht, wer das je behauptet hat. Das ist wohl auch eher das Gegenteil von einem Limit.

Es geht im Thema um MCE und die Patches. Dazu noch:
Also AMD hat ihre 105 Watt TDP CPU, gegen Intels 9900K mit hartem 95 Watt Limit gestellt, was grundsäzlich einen Vorteil für AMD darstellt.
 
Seit Monaten hören wir von dir Thread rauf und runter, dass der i9 9900k in Games < 95Watt verbraucht, da er ja nicht ausgelastet wird, CB bestätigt das mit einem Test und jetzt wo es in die andere Richtung geht sind es plötzlich bei dir 5-10% Abweichung bei der Performance

Du lügst dir mal wieder komplett alles zusammen, komplett erfunden, ich habe nie gesagt, dass er in Spielen immer weniger als 95 Watt verbraucht und genausowenig habe ich die fehlende Leistung mit 5 bis 10% Abweichung beziffert, sondern mit höchstens 3%.
Weil das mehrere Ratings so ermittelt haben und du nicht in der Lage bist zu lesen. 5 bis 10% Abweichung bezogen sich generell auf Herstellerbenchmarks, die gerade bei Spielen sehr viele Einflüsse haben können.

, wem willst du das hier eigentlich verkaufen, glaubst du hier sind alle blöd?

Du täuschst dich ja selbst, indem du dich selbst mit Dingen belügst die nicht der Wahrheit entsprechen.
Zeig mir bitte entsprechende Kommentare und Zitate, wo das steht.
Was man an dem Test zugunsten Intels sicher auslegen muss ist der RAM, der dürfte bei beiden mit den öffentlichen Spezifikationen gelaufen sein, also hat hier Intel mehr Luft nach oben, was sich allerdings in keinem Review niederschlagen wird, da dort 90% mit den offiziellen 2666 MHZ gegen AMDs neue 3200 MHZ Spezifikation messen werden.

In den Reviews wird sicher mit dem Standardram und auch mit schnellerem RAM getestet, so wie es bei Ryzen auch getan wurde.

Ansonsten sind deine Verbaltricks gegen AMD einfach nur Fake Schwätzerei, weil du je nach Situation jeglichen Fakt zugunsten Intels auslegst.

Für mich hast du sie teilweise nicht mehr alle, Don, ich empfehle dir mal einen Spaziergang mit Hund, oder wahlweise mit Katze, damit du mal wieder runterkommst.

MCE ist je nach Board komplett unterschiedlich aggressiv, deshalb würde man immer die Kombi Board+CPU messen und nicht nur die CPU. Das gleiche gilt für PBO, weil dort auch die VRMs in die Rechnung einfließen.

Aber wie kommst du auf MCE? Ich habe doch davon gar nichts geschrieben.
Gibt es denn konkrete Angaben dazu was AMD genau genutzt hat? Also welche TDP Einstellungen für den 9900K?
 
Zuletzt bearbeitet:
Infwiefern solche Tests noch sinnvoll sind frage ich mich gerade...

Wer hier im Forum kann denn während dem Spiel noch zwischen 100 oder 300 fps unterscheiden???
Das sind doch bereiche wo es uns ohnehin aushängt. :wall:

Also ich behaupte von mir dass ich das kann allerdings braucht man dazu einen klassischen Röhrenmonitor. Ich denke da an die Zeiten von Call of Duty 2 was man damals von Dx9 auf Dx7 gestellt hat um 333fps zu haben. Damit konnte man besser auf Glitches springen als mit 250 fps oder 125fps. Und vom Feeling hat man es auch gemerkt... Alle Leute die behaupten das Auge sieht eh nicht mehr als 24 oder 25 Bilder pro Sekunde sind Idioten...
 
Das klingt alles sehr gut, und ich freue mich für AMD.

Trotzdem reicht mir mein 4770K (die erste Intel CPU in meinem Leben) noch locker aus, und ich habe da kein Aufrüstdruck.
HT ist aktiviert, und die 8 Threads werden bei der von mir genutzten Software nur ganz selten genutzt.

Viel wichtiger wäre für mich eigentlich endlich einmal eine neue GPU zu kaufen.
 
Das schon, nur hätte man auch die Slots zumindest elektrisch mit x16 anbinden können, so dass die Lanes auf jeden geschaltet werden können. Gigabyte hatte das mal beim z97 gemacht. Ist doch Käse wenn man volle 16 Lanes nur am 1. Slot abgreifen kann oder nur x4 am 3. Slot.

In der Preisklasse darf man flexibles Routing erwarten.

Ein ×16/×0 <-> ×8/×8 <-> ×0/×16-Routing habe ich mir zwar auch schon gewünscht, aber noch nie gesehen. Das ist ein deutlicher Zusatzaufwand und zumindest auf keinem Board der letzten 5 Jahre zu finden – mag sein, dass mir davor eins durch die Lappen gegangen ist, das wäre ein genauer Produktname interessant.


Macht ihr nicht Softwaremessungen/Systemmessungen?
Igor misst halt wirklich an den Kontakten mit teurem Equipment. Meine Vermutung ist ja bis heute, dass die Asmedia Chips fressen wie die Scheunendrescher.

Wir geben die per Tool ausgelesene Package Power aus, genauso wie Igor im verlinkten Test. Dass er je direkt die Leistungsaufnahme einer CPU gemessen hat, wäre mir nicht bekannt. Man kann im Sockel zwar direkt die Versorgungsspannung abgreifen, wie wir es in der aktuellen PCGH 07/19 gemacht haben, aber diese weicht bereits von der Vcore ab und zur Leistungsbestimmung braucht man zusätzlich die Stromstärke. Die Oszilloskope und teuren Messfühler aus Igors GPU-Loops helfen ihm da nicht weiter, man braucht entweder einen Mess-Interposer für den Sockel (habe ich seit über einem Jahrzehnt nicht mehr gesehen, die Daten-Schnittstellen stellen zu hohe Anforderungen an die Signalqualität) oder man muss alle Spulen aus einem Mainboard einseitig auslöten und ihre Ausgänge über ein Stromstärkemessgerät umleiten. Auch diesen Aufwand habe ich schon lange nirgendwo mehr gesehen und Rückkoppelungen auf die Spannungsregler oder die Leistungsaufnahme selbst wären nicht aussgeschlossen.


Guten Tag Torsten,

die CT behauptet aber etwas anderes!:nicken:

Link or it didn't happen!
Naja – zumindest wird kein Kommentar von mir folgen, wenn ich nichts nachlesen kann. ;-)


PBO ist nich gleich MCE, weil es abhängig von mehreren Faktoren (VRM Stromlimit, VRM Temp-Limit, Taktlimit, CPU Temp-limit usw.) ist. MCE erhöht (imho) die Spannung und taktet die Cores höher. Kurz, sie funktionieren nach anderen Prinzipien. Abgesehen davon, gibt es beim Ryzen kein Stufensystem für Cores, denn das wird dynamisch geregelt.
Die TDP legt erstmal nur die Werte für das benötigte Kühlsystem fest. In der Praxis wird das durch die derzeitige Temperatur geregelt. Die Taktfrequenz des Arbeitsspeichers ist davon komplett unberührt.

MCE ist je nach Board komplett unterschiedlich aggressiv, deshalb würde man immer die Kombi Board+CPU messen und nicht nur die CPU. Das gleiche gilt für PBO, weil dort auch die VRMs in die Rechnung einfließen.

Multi Core Enhancement und ähnliche Funktionen anderen Namens anderer Hersteller erweitern einfach nur den Single-Core-Turbo auf alle Kerne. Power-Limit-Erweiterungen, damit das überhaupt funktionieren kann, sowie optimistische Spannungsanhebungen können gleichzeitig aktiviert werden, sind aber kein direkter Bestandteil und oft auch an andere Funktionen gekoppelt. Bei einigen Asus-Mainboards wurde das "Auto"-Power-Limit beispielsweise bei XMP-Aktivierung deutlich angehoben.
 
Das klingt alles sehr gut, und ich freue mich für AMD.

Trotzdem reicht mir mein 4770K (die erste Intel CPU in meinem Leben) noch locker aus, und ich habe da kein Aufrüstdruck.
HT ist aktiviert, und die 8 Threads werden bei der von mir genutzten Software nur ganz selten genutzt.

Viel wichtiger wäre für mich eigentlich endlich einmal eine neue GPU zu kaufen.

Ich merke, ein normaler Verstand arbeitet hier. :D
Ich habe ihn nicht, ich denke ich brauche 8 Kerne mit HT.:daumen:

Ich war schon immer der Meinung, PC-Hardware muss Spaß machen egal welche Marke oder Leistungsklasse.
 
Zuletzt bearbeitet:
Multi Core Enhancement und ähnliche Funktionen anderen Namens anderer Hersteller erweitern einfach nur den Single-Core-Turbo auf alle Kerne. Power-Limit-Erweiterungen, damit das überhaupt funktionieren kann, sowie optimistische Spannungsanhebungen können gleichzeitig aktiviert werden, sind aber kein direkter Bestandteil und oft auch an andere Funktionen gekoppelt. Bei einigen Asus-Mainboards wurde das "Auto"-Power-Limit beispielsweise bei XMP-Aktivierung deutlich angehoben.

Cool, danke! Ich wußte nur, daß es je nach Hersteller anders gerregelt wird und über das von Intel festgesetzte Powerlimit geht.
 
Macht ihr nicht Softwaremessungen/Systemmessungen?
Igor misst halt wirklich an den Kontakten mit teurem Equipment. Meine Vermutung ist ja bis heute, dass die Asmedia Chips fressen wie die Scheunendrescher.

Und was soll das bringen außer mehr Kosten? Das ist ein Feature, dass vielleicht 0.01% der Käufer nutzen würden.
Wo ist jetzt das Problem, die GPU in den ersten Slot zu stecken?

Du wirst Lachen, aber es gibt leider so große CPU Kühler, die bei gewissen Layout auf Mainboards ebend mal den ersten PCI Slot belegen oder blockieren.... Noctua sage ich nur dazu...
Siehe das Bild hier :

IMG-20190105-WA0007.jpg

Der Vorteil ist hier bei dem Board, das 16fach auch bei den anderen Slots verfügbar ist.
 
Alle Leute die behaupten das Auge sieht eh nicht mehr als 24 oder 25 Bilder pro Sekunde sind Idioten...

Das Auge sieht gar keine Bilder. Es kann eine enorme Menge an visuellen Informationen aufnehmen und das Hirn kann eine gewisse Menge dieser Informationen unterbewusst und eine noch geringere Menge bewusst verarbeiten.

Ab ca. 15 Standbildern pro Sekunde entsteht für das Hirn der Eindruck von Bewegung. Ab ca. 23 Bildern entsteht der Eindruck von flüssiger Bewegung. Aber 23 fps sind noch lange nicht flüssig, da in datenverarbeitenden Systemen erst ganz zum Schluss das menschliche Hirn auf Informationen wartet.

Kurz: Bildfolgen in der analogen Welt und fps sind nicht dasselbe.
 
Zurück