Intel Core i9-10980XE: Anwendungs- und Spielebenchmarks von Cascade Lake X gegen Ryzen

Niedrigste Latenz erreichst Du - wenn der Takt dem I/O Takt (Speicherzelle) entspricht (1:1), die eigentliche Taktangabe wird bei DDR von einen 4-fach Prefetch abgeleitet. Den Rest habe ich doch geschrieben.

1600 gegen 1866 IF Taktung - macht bei Spielen 1fps aus, was soll das? Die Luxx'e haben das getestet, ist ja bald Messungenauigkeit! Warum soll ich dann Geld dafür rausschmeißen? Kauft lieber Riegel mit niedriger Latenz, dann prügelt ihr nicht so auf die IF ein.

3800 MHz RAM kann synchron laufen, wenn man manuell den IF Takt vorgibt, gleiches mit 3733 MHz
Und wegen dem Preis. Ich hab 214€ für 32 GB 2800CL14 ausgegeben (wow auch schon wieder ein 3/4 Jahr her)
Läuft mit 3733 CL16, synchron natürlich. Mit 3800MHz RAM bzw 1900 MHz IF bootet mein System einfach nicht mehr:(
 
Was ich einfach nur erstaunlich finde, ein Intel 18! Kerner, hat Probleme schneller zu sein als ein AMD 12! Kerner. Da liegen 6 Kerne und 12 Threads zwischen. 50% mehr Kerne, aber kaum schneller!

Zeigt deutlich, dass eben mehr als 8 Kerne so im allgemeinen noch nicht viel Sinn machen.

Klar, man bekommt auch die 16 Kerne oder 32 Kerne es TR voll ans Limit, aber sind eben die wenigsten Leute die so etwas machen.

Bin auf Benchmarks gespannt Cascade Lake vs 3950X und später eben den 64 Kerner TR der kommt.

Wofür hatte Intel noch den 3175X? Octa- Channel bekommt TR4+ und 3647 hat gerade einmal Hexa- Channel.
 
Warum sind so "Leak-Benchmarks" immer so schön nichts sagend? Gibt doch bestimmt noch ein NDA dafür oder hab ich schon wieder das Ende des NDAs verpasst? Komisch gibt aber keine anderen Reviews...

Mal nur was mir so beim Durchklicken der Google-Übersetzung diese haarstäubenden "Tests" ins Auge gefallen ist:
Wenn das alles da so geile "Extreme-Overclocker" sind, wieso hat da Keiner nen 9980XE in der Hosentasche, Schublade oder was weiß ich, den man mal eben aufs Brett schnallen kann um ihn mitzutesten? (War das nicht der gleiche Typ der nen Threadripper übertaktet hat und in Cinebench gegen eine ebenfalls übertakteten 7900X laufen lassen, wo ich mich noch fragte: Sinn? Wo unter dem Stein hier? Nee... Hm... Was?)
Dann mein erster Facepalm-Moment des heutigen Tages, steht da im Review sinngemäß: Jo, hab ich den Prozis in Board geklatscht und Überraschung kam kein Bild. Bios nicht aktualisiert... Klar kann vorkommen, aber wieso steht das im Review? Sollte man doch eigentlich auch als Übertakter wissen, oder sollte das lustig sein? Komm ich grad nicht drauf klar.
Und dann wird sich die Mühe gemacht Windows auf den letzten Stand zu bringen und dann nimmt man einen 5 Monaten alten Grafikkartentreiber? Stimmt dass mit dem Windows überhaupt? Hm, sind da die Updates für Cascade Lake überhaupt schon drin? Ich meine von der offizielen Ankündigung bis zum letzten Patchday waren es weniger als 5 Werktage...
Wieso verschiedene Plattformen für kompatible CPUs (Z370 für 8700K, X470 für 2700X), von denen dann anscheinend die Hälfte mit Core-Enhancement laufen? (9900K max. 300 Watt, 8700K max. 267 W - Ein Watt mehr als der 10980XE? WTF? Facepalm Nr. 2..) So test ich für mich, wenn ich um 2 Uhr nachts mal wieder besoffen bin, aber nicht im nem Review in 2019... (Ja, sry, aber ist doch so...)
Wieso 4K und 1440p Benchmarks in nem CPU Review? Schon bei den gewählten Einstellung in 1080p hängen die meisten Spiele hier im GPU-Limit. Halt ich persönlich für Zeitverschwendung - für beide Steiten.

Mein Fazit: Zu Vergleichszwecken absolut unbrauchbar.
 
3800 MHz RAM kann synchron laufen, wenn man manuell den IF Takt vorgibt, gleiches mit 3733 MHz
Und wegen dem Preis. Ich hab 214€ für 32 GB 2800CL14 ausgegeben (wow auch schon wieder ein 3/4 Jahr her)
Läuft mit 3733 CL16, synchron natürlich. Mit 3800MHz RAM bzw 1900 MHz IF bootet mein System einfach nicht mehr:(
Das kann man - ich hab das ja nicht ausgeklammert. Ich wollte nur andeuten das 1 zu 1 genauso schnell sein kann und es nicht super duper OC Taktraten beim RAM braucht. Man konnte Ryzen schon immer über den Takt oder eben Timings/Latenz beschleunigen.

Man sollte immer im Kopf behalten das die DataFabric (SDF) aus IFOP und IFSP besteht - und das IFOP inklusive Anpassungen beim Driverpullup schon Stock overprovisioned ist - um bei der Übertragung von Bits zu sparen. Die Bandbreite die man erreichen kann - hängt also nicht allein vom Takt ab. Auch ein Grund warum man bei 1633MHz grundsätzlich die schlechtesten Latenz Ergebnisse einfährt? Ich kann das Ganze also auch an die Wand fahren. Aufgrund der bidirektionalen Bandbreite läuft sie dann genauso schnell wie der empfohlene Speichertakt, bei besonderer Effizienz. Die On-Package-Links sind zudem sehr empfindlich.
 
Jetzt hör aber mal auf.
Das ist doch nicht ernstzunehmen, was du hier von dir gibst... Game over?

Wir haben hier 2 CPU Anbieter, die miteinander absolut auf Augenhöhe liegen und ihre spezifischen Stärken und Schwächen (wenn auch beides auf recht hohem Niveau) haben.

Und eines ist auch sicher: Intel hat, wie in der Vergangenheit oft bewiesen, das Potenzial bärenstark zurückzukommen und wieder ordentlich vorzulegen..

Gesendet von meinem HRY-LX1 mit Tapatalk

Wird wohl etwas dauern und wenn Intel nicht wieder mit schmutzigen Mitteln kämpft noch etwas länger...
Oder meint hier wirklich jemand das es damals AMD nicht massiv geschadet hat das keine AMD CPU bei Dell/HP/MediaMarkt und Co verkauft wurden?
Ja, so sieht ein bärenstarkes Comeback aus...Erpressung und unlauterer Wettbewerb....

AMD hat momentan eine richtig gute Architektur wie es scheint, die Intel nicht hat. Schon lustig wie die mit den Kernen skalieren können...
Im Desktopbereich hat Intel grad gar nichts entgegenzusetzen. Da muss der altbackene i9 9900k bald gegen einen 3950x anstinken und schaut gegen den 3900x schon richtig schlecht aus.
In Spielen im normalen Alltag nicht schneller und in Anwendungen viel langsamer. Die arme Sau könnte einem fast leid tun...
Bin auf TR gespannt damit man mal wieder Äpfel mit Äpfeln vergleichen kann.

Ich bin auch der Meinung...Intel hat erstmal Game Over. Mich freuts
 
Also ich finds gut so wie es momentan ist. Soviel Leistung pro Euro gabs noch nie. Durch den gewaltigen Preisrutsch wird auch die Intel HEDT Plattform nochmal für den ein oder anderen interessant.
Auf der anderen Seite steht AMD, die mit ihrem Lineup den CPU Markt durcheinander gewirbelt haben und ebenso brachiale Leistung liefern. Der Verbrauch spricht da für AMD.
Für Neukäufer die besten Aussichten:daumen:.

Ob Intel jetzt 2 oder 3 Jahre braucht um was Neues zu bringen ist mir persönlich egal. So lange wird mein i9 7920X sicher noch reichen. dann wird man sehen ob jetzt Intel oder AMD ins Case einzieht ;).
 
Wird wohl etwas dauern und wenn Intel nicht wieder mit schmutzigen Mitteln kämpft noch etwas länger...
Oder meint hier wirklich jemand das es damals AMD nicht massiv geschadet hat das keine AMD CPU bei Dell/HP/MediaMarkt und Co verkauft wurden?
Ja, so sieht ein bärenstarkes Comeback aus...Erpressung und unlauterer Wettbewerb....

AMD hat momentan eine richtig gute Architektur wie es scheint, die Intel nicht hat. Schon lustig wie die mit den Kernen skalieren können...
Im Desktopbereich hat Intel grad gar nichts entgegenzusetzen. Da muss der altbackene i9 9900k bald gegen einen 3950x anstinken und schaut gegen den 3900x schon richtig schlecht aus.
In Spielen im normalen Alltag nicht schneller und in Anwendungen viel langsamer. Die arme Sau könnte einem fast leid tun...
Bin auf TR gespannt damit man mal wieder Äpfel mit Äpfeln vergleichen kann.

Ich bin auch der Meinung...Intel hat erstmal Game Over. Mich freuts

Deine Einschätzung bezüglich der Leistungen der CPUs deckt sich nicht mit den Tests die man finden kann ;) Komisch

Für den 9900K, bzw. jetzt quasi dem KS sieht gar nicht so schlecht aus gegenüber dem 3900X. Es hängt einfach zu stark an den verwendeten Anwendungen, als das man ernsthaft pauschal sagen kann, der oder der sind eindeutig schneller.
Alles andere ist doch wieder nur eine selektive Wahrnehmung.
In Spielen ähnlich, beim 2700X haben alle AMD User aufgeschrien und forderten den nur mit schnellem Speicher zu bewerten.
Warum dann nicht auch jetzt beim 9900k. Dann liegt der sogar quasi immer, vor dem 3900X. Auch wenn es keine super großen Unterschiede mehr sind (zum Glück).

Also für jeden der nur Anwendungen benutzt, die beim 9900k schneller laufen und auch zocken will, ist der 9900k doch die bessere Wahl, als der 3900x. Genau so umgekehrt. Also Schluss mit den Pauschal- Propaganda- Aussagen.
 
Link? Ein bisschen OC geht immer.



Das war eine Metapher, gemeint sind da zum Bespiel im Vergleich zu den Werten des 3DC und Computerbase und zu meinen eigenen Benches.
Zu CB sind es zum Bleistift rund 10% Unterschied und auch die verwenden Gammel-RAM für die restlichen CPU´s, damit sind auch Ryzen 1000 und 2000 gemeint.
2600 zu 3600 sind mit 30% too much. Da muss man kein Hellseher sein.

Also ich hatte vorher einen R5 1600 und die Steigerung durch den 3600 ist schon deutlich spürbar.

OT: Wann gibt es endlich ne gescheite, neue Forensoftware?
 
Zuletzt bearbeitet:
Ich liebe es Dateien mit 7-Zip zu komprimieren, ich finde es einfach cool, mache es immer wieder, den ganzen Tag, jedes Mal mit anderen Dateien. Deshalb habe ich mich für einen 18-Kerner entschieden.

Also mir ists lieber, wenn ich alle Gelegenheit mal was (ent-)zippe, kompiliere, Handbrake nutze, etc. und dort mit 40-50% merklich schneller als potentiell 5 fps mehr in 720p mit einer Titan zu haben. Denn das ist in der Regel "Arbeitszeit" und da verschwende ich ungern Zeit mit warten.
Mal davon abgesehen: bei meiner GPU Ausstattung und Grafiksettings ist ein CPU-Limit wie wohl bei 99% aller Nutzer eher unwahrscheinlich. Außer vielleicht in Außnahmetiteln wie WoW wo es eh nicht besonders ins Gewicht fällt. Und bevor wer mit Zukunftsträchtigkeit kommt: 1. Setzt man da voraus das zukünftige Titel genauso gut/schlecht für viele Kerne optimiert sind wie heute. 2. Wer sich solche Teile kauft upgradet sowieso seine CPU regelmäßig bevor sie ein Bottleneck werden kann.

Also, ja Tests mit 7zip und Co. machen durchaus Sinn sofern man seinen PC nicht wirklich 100% fürs Gaming verwendet.
 
Man sollte immer im Kopf behalten das die DataFabric (SDF) aus IFOP und IFSP besteht - und das IFOP inklusive Anpassungen beim Driverpullup schon Stock overprovisioned ist - um bei der Übertragung von Bits zu sparen. Die Bandbreite die man erreichen kann - hängt also nicht allein vom Takt ab. Auch ein Grund warum man bei 1633MHz grundsätzlich die schlechtesten Latenz Ergebnisse einfährt? Ich kann das Ganze also auch an die Wand fahren. Aufgrund der bidirektionalen Bandbreite läuft sie dann genauso schnell wie der empfohlene Speichertakt, bei besonderer Effizienz. Die On-Package-Links sind zudem sehr empfindlich.

Ich muss jetzt sagen, ich hab nichts verstanden.
Ich wollte nur andeuten das 1 zu 1 genauso schnell sein kann und es nicht super duper OC Taktraten beim RAM braucht.
Nur unter zwei Bedingungen kann 3200 Sync genauso schnell sein, wie 3800 Sync.
1. CPU/RAM ist nicht der limitierende Faktor
2. Die Anwendung reagiert auf Latenz stark und auf Bandbreite sehr schwach und der 3800 hat effektiv die selben Timings, wie der 3200er.

Die Bandbreite die man erreichen kann - hängt also nicht allein vom Takt ab
Doch so ziemlich. RAM Copy Tests sind praktisch 1:1 IF Takt Benchmarks
Auch ein Grund warum man bei 1633MHz grundsätzlich die schlechtesten Latenz Ergebnisse einfährt?
1633 MHz IF oder RAM? 1:1 oder 2:1 oder Async?
Wenn du nur halb so schnell taktest, dann kannst du auch nur halb so viele Anfragen in der selben Zeit absetzen und damit wartest du halt länger. Die Übertragung ist auch nur noch halb so schnell, also wartest du da auch nochmals länger.
Aufgrund der bidirektionalen Bandbreite läuft sie dann genauso schnell wie der empfohlene Speichertakt, bei besonderer Effizienz.
Was?:huh:
Die On-Package-Links sind zudem sehr empfindlich.
Ja, leider. Und der IF ist stärker belastet mit zwei CCDs.
 
gastello versucht mal wieder hinter komplizierten Formulierungen irgendwas zu verschleiern. Aber was und vor allem warum? Ich weiß auch auch nicht, wo das Problem ist. Man kann den 1:2 Drop ab 1600MHz doch durch manuelle Settings umgehen. Und welche Kampfthese verfolgt gastello hier überhaupt? Dass ein synchrones Setting ab 1600MHz nicht mehr skaliert? Mir wird das zu blöd allmählich.
 
Ich werde auch diese Generation auslassen denn es ist keine neue Generation sondern nur ein Aufguss von Skylake.

Mein i9-7900X@5GHz tut es noch sehr gut.
 
Übermütig? Häh? Weil ich jetzt ein 3900X Resultat gezeigt hab oder den WCCFtech Link?

@ Cyrix, oder auch alle anderen, könnt ihr mal Gears 5 720p Low testen (integrierten Benchmark) und dann eure AVG FPS und 5% Low FPS posten?

Hi, sorry hab heute erst Zeit gefunden das mal kurz zu testen. Hier die Ergebnisse. Grafikkarte lief bei allen Tests mit 2115 MHz und CPU gebundene Last ist jetzt 35%. Ich habe ja zuvor in Full HD getestet mit eigenen Presets.

Gears 5 @720p low

STOCK: 207,8 FPS (CPU Spiel + Render: 325 FPS) – Minimale 5%: 160 FPS

SMT OFF: 225 FPS (CPU Spiel: 340 FPS // Render 331 FPS) – Minimale 5%: 179 FPS

4,5 GHz + Precision Overdrive FULL:
227 FPS (CPU Spiel: 339 FPS // Render 344 FPS) – Minimale 5%: 166 FPS

Wie man gut sehen kann bringt das eigene Übertakten nichts. 2 FPS mehr im Durchschnitt beim OC, gegen 13 höhere FPS bei den Min. FPS mit SMT OFF. Da würde ich persönlich zur SMT OFF greifen.
Die Temperaturen sind natürlich auch geringer. Bei Stock und SMT OFF sind wir bei ca. 80°. Beim übertakten bei 85°. Spannung hatte ich mir jetzt leider nicht angeschaut. Klappt aber auch am besten wenn man sie auf AUTO lässt, anstatt selbst einen festen Wert einzugeben.
 
Den R9 3900X zu übertakten bringt also für Games Null. Wenn dann SMT off. Da sieht man, daß AMD schon einen guten Jop gemacht hat:daumen:.
 
Den R9 3900X zu übertakten bringt also für Games Null. Wenn dann SMT off. Da sieht man, daß AMD schon einen guten Jop gemacht hat:daumen:.

Ach DaHell, ein Tester, ein Game und du lässt dich zu so einer Aussage hinreißen...

@cyrix: Ich finds gut, dass du die Min-FPS besonders hervorgehoben hast. Ich versuche stets genau das ins Bewusstsein der Leute zu holen, dass Average FPS sekundär sind. Deshalb habe ich meine Analysesoftware so konzipiert, dass ein reichaltiges Angebot an aussagekräftigen Metriken zur Verfügung steht.
 
Zuletzt bearbeitet von einem Moderator:
Zurück