Core i9-7920X: Intel tritt mit 2,9 GHz gegen AMDs Ryzen Threadripper 1920X an

naja - ist ja nicht so als könnte man einen i9 7900X (3,3 Ghz Base) nicht um etwa 1 Ghz OC betreiben (4,3 Ghz) - auf allen Kernen. Und bei 4,3 Ghz vermutlich sogar AVX Last. Klar frisst er dann 300-400W weg, aber es geht. Wenn man den AVX Multi im Board noch runter setzt macht man auch 4,5-4,7 Ghz bei <100°C trotz TIM, zb in Cinebench. Wirft man Linx oder Prime an muss die CPU aber runtertakten. Würde mich jetzt aber wenig stören.

Die 100°C durch TIM scheinen da oft weniger zu limitieren als die Spannungsversorgung der Mainboards.

Aber klar, verlötet wäre 10x besser. Gerade dann wenn man zb die Spannungswandler auch noch mit Wasser kühlt könnte man so vielleicht 5 Ghz rauspressen.
 
5ghz? Wie hoch wohl der TDP sein dürfte? 2066 ist nicht das was sich viele einspinnen, man hat 2066 total verkackt, die mofset Chips sind unzureichend gekühlt, ein heitz Kraft Werk zum verdonnert verurteilt, ganz einfache Rechnung Freunde.
 
oder irreführende Werbung? :D

Gab mal einen Ganz guten Dilbert Comic dazu, ich glaube ich kann mich noch einnern:

Boss: "Ich möchte, dass sich sich verstärkt mit Marketing beschäftigen."
Dilbert: "Marketing? Was genau meinen sie damit?
Boss: "Es bedeutet dem Kunden zu vermitteln, dass ein Produkt etwas kann, was es nicht kann, damit der Kunde glaubt er kauft etwas, das es in Wirklichkeit nicht ist."
Dilbert: "Das ist Betrug!"
Boss: "Sehr schön und jetzt möchte ich, dass sie Betrug in Zukunft Marketing nennen."

5ghz? Wie hoch wohl der TDP sein dürfte? 2066 ist nicht das was sich viele einspinnen, man hat 2066 total verkackt, die mofset Chips sind unzureichend gekühlt, ein heitz Kraft Werk zum verdonnert verurteilt, ganz einfache Rechnung Freunde.

Das ist aber eher die Schuld der Boardhersteller als die von Intel, die hätten sich um ausreichend Kühlung kümmern müssen, anstatt lustige Schriftzüge auf Fake Kühlkörper zu setzen.
 
Das schon, aber Intel hätte die tdp auch auf 95w trimmen können, das ganze Konzept ist im Prinzip halb fertig aufm Markt gekommen, Intel traut sich sogar im Jahre 2017 mit einer 2,9ghz cpu zu kommen, also ich sehe die 2066 die bach runter fließen und am4+ im Aufwind..
 
Die Boardhersteller werden sich an das gehalten haben, was die Vorgabe von Intel war.
Intel hat dann die Taktrate in einer Panikreaktion wegen Threadripper hoch gezogen, da ist der Verbrauch explodiert.

Ähnlich wie bei Polaris, die Karten waren sicher mit geringerem Takt geplant, weil sie ja eigentlich ca. ein jahr früher hätten kommen sollen.
 
@KonterSchock

95W macht gar kein Sinn da eben AMD bis 180W fährt, kurzzeitig sicher >200W (Ryzen darf 128W ziehen wenn es die Temp zulässt). Wie soll man da mit 95W gegen ankommen?
Intel reizt beim i9 7900X die TDP aus, die Boardpartner lassen sogar deutlich mehr zu und erst dann trifft Poor_Volta Kommentar zu (nicht die Panikreaktion, sondern dass die Taktrate und Verbrauch explorieren).

Panikreaktion war eher dieser unnötig frühe Release mit halbem Portfolie und jede menge Bugs.

Wenn man Non AVX Last verursacht (was wohl für 99% der Anwendungen und Anwender im HEDT Markt zutrifft) - dann gehen mit dem i9 7900X schon jetzt mit TIM > 4,6 Ghz. Auch die Boards knicken erst ein wenn man diesen Takt ohen AVX Offset halten will.

THG schreibt
Allerdings ließ sich der Core i9-7900X zumindest mit Cinebench R15 (Multi- und Single-Core) noch bis 4.8 GHz sicher übertakten, was natürlich auch an der verwendeten Kühllösung liegen dürfte. Realistisch dürften für eine All-In-One-Lösung wohl eher 4.5 GHz sein, solange man nicht mit einem Power-Virus das System in den Himmel schießt. Betrachten wir nun einmal die Vergleichskurven für Cinebench R15 beim Betrieb aller Kerne:

Leider liefern sie keine Temps für Cinebench bei 4,8 Ghz. Aber das ist wohl auch etwas zuviel des guten. Mit ner normalen Wakü machen den Foren nach so gut wie alle i9 7900X 4,5 bis 4,7 Ghz. Das ist doch anständig. Und da es AVX gibt reicht es oft hier einfach den Multi zb -4 zu setzen.

Klar würde verlötet mehr geben, aber dann wird das Board wieder schnell das Bottleneck. 5 Ghz dürften denke ich non AVX geköpft kein Problem sein wenns das Board mitmacht.
 
Die Boardhersteller werden sich an das gehalten haben, was die Vorgabe von Intel war.

Hätten sie das alle getan gäbe es kein Problem.

Die Vorgabe der TDP hat sich nicht geändert, entsprechend wussten die Boardhersteller sehr genau was die Spawas liefern müssen. Dass da stellenweise Mosfets zu heiß werden liegt an zwei Hauptpunkten die beide zu lasten der Boardpartner gehen:
1.) Die Kühler werden seit Jahren immer kleiner (von der Oberfläche her) und ineffizienter damit sie "besser aussehen" und auch billiger sind
2.) Die SKL-X CPUs werden ab Werk mit Einstellungen betrieben die weit oberhalb von den offiziellen Specs sind - bei MSI beispielsweise auf Stock-Einstellungen weit über 200W. Wenn die CPUs mit korrekten Settings laufen und entsprechend die 165W nie überschreiten gibts kein Hitzeproblem, weder bei der CPU noch bei den Mosfets.

Den einzigen Vorwurf den man Intel machen kann (muss) ist der zu hart vorgezogene Start und entsprechend extrem kurze Testzeiträume. Wäre das nicht gewesen hätte man die Boards 4 Wochen länger testen können und hätte gemerkt dass die Programmierung geändert werden muss und ggf. die Mosfetkühler stärker werden müssen - bevor die Kunden das merken.
 
Das Benutzen von WLP statt Lot, wodurch sich die CPU und die umliegenden Bauteile unnötig aufheizen, ist kein Faktor in der Geschichte?
 
Die Schuld trifft definitiv auch Intel. Intel soll bei den MB-Herstellern falsch TDP Werte vermittelt haben. Die Schuld allein bei den MB-Herstellern zu suchen, ist auf jeden Fall falsch.

Hach ja, es trifft genau so zu, wie ich es gesagt habe: HEDT ist tot. Den Taktraten nach könnte man sich auch Xeons kaufen, macht taktmäßig eh keinen Unterschied mehr und man bekommt die ganzen Server-Features. Ebenso fällt das OC bei Intel flach, da nicht mehr kühlbar. Intel sollte meiner Meinung nach die HEDT-Plattform mit Core-X einstampfen. Da sparen sie sich den ganzen Shitstorm und die Probleme von Skylake X.

Ein 6 Kerner mit hohem Takt auf 1151 ist für die Desktopnutzer ohnehin wesentlich besser, als ein 18 Kerner, der kaum takten kann und aufgrund des hohen Stromverbrauchs und der Hitzeentwicklung im Sockel schmilzt.
 
Intel soll bei den MB-Herstellern falsch TDP Werte vermittelt haben.

Selbst wenn dem so ist - inwiefern können dann die Hersteller mit bunten Hypersuperleet1337!!!-OC - Aufklebern werben wenn die Boards nicht mal 200W dauerhaft schaffen ohne zu drosseln?

Ganz ehrlich, bei Boards die viele Hundert Euro kosten und mit ihren super-Übertakterfunktionen werben erwarte ich, dass die Spannungsversorgung auch 500+W problemlos dauerhaft bereitstellen kann. Völlig unabhängig davon, ob die CPU mit 140, 165 oder 200W TDP gelabelt ist. Das war über gefühlt Jahrzehnte absolut kein Thema bei Intel-Brettern obwohl seinerzeit die Mosfets noch deutlich ineffizienter waren und noch weit besser gekühlt werden mussten als heutzutage. Ich hatte niemals auch nur annähernd Probleme mit der Stromversorgung beim OC. Beim 5960X nicht, beim 3930K nicht, bei 920er nicht, beim C2Q6600 nicht, beim Pentium 3 und 1 auch nicht (übrigens auch bei allen AMD-CPUs dazwischen nicht - ich hatte nie nen FX^^). Egal wie weit ich da aufgedreht habe war IMMER die Stabilität oder CPU-Temperatur der limitierende Faktor. Jetzt auf einmal ist das anders und Intel solls Schuld sein? Nö.

Das Benutzen von WLP statt Lot, wodurch sich die CPU und die umliegenden Bauteile unnötig aufheizen, ist kein Faktor in der Geschichte?
Das hat diverse andere Nachteile, für die Mosfets spielts aber keine Rolle.
 
kleiner Einwand, wer dicke CPUs nutzt hat dafür auch oft einen bestimmten Anwendungsfall. Insbesondere bei 8Core und mehr.
Da macht die Software eher die Musik und die meisten Benches haben leider null Relevanz.

Beispiel Rendering, überall wird meist CB benutzt, welches einen alten (!) Cinema4D Renderer benutzt.

In Realität ist aber Vray der Industriestandard. Dazu gibt es übrigens auch einen kostenlosen Bench inkl. Upload.
V-Ray Benchmark | Chaos Group

Dort sind schon aktuelle Skylake X und deren Xeon Pendants, und sogar AMD Epyc in der Datenbank

Adobe ist noch immer ein Trauerspiel, für die 2D Brotundbutter Kombination Photoshop, Illustrator, Indesign
ist wohl der 7700K das Optimum.

Lightroom ist egal womit rotzelangsam und kann nicht mehr als 6 Core -
Da ist es interessanter zur Konkurrenz zu schauen, CaptureOne Pro kann auch 12 Core und mehr und rechnet bei Bedarf auf allen GPUs im System und ist dann auch mal um einen Faktor 10 schneller als Lightroom.

Gerade bei mehr als 4Cores muss man sich einfach auch die Software ansehen die man benutzt und evtl. nutzen könnte.
 
Beispiel Rendering, überall wird meist CB benutzt, welches einen alten (!) Cinema4D Renderer benutzt.

In Realität ist aber Vray der Industriestandard. Dazu gibt es übrigens auch einen kostenlosen Bench inkl. Upload.
V-Ray Benchmark | Chaos Group

Richtig... und da sind 18 Skylake-Kerne schneller als 32 Threadripper-Kerne... weil modernes rendering eben AVX nutzt. :schief:

Der alte Cinebench ist eben verbreitet und testst ohne (neu) AVX-Instruktiuonen, was den "Normalfall" vergleichbarer macht. Wer aber auf moderne Software zurückgreift und entsprechenden Workload hat sucht sich entsprechend passende Benchmarks. Wenn es rein um Rendering oder HEVC-Encoding beispielsweise geht zieht der Skylake jedem Ryzen oder Threadripper die Schuhe aus, einfach weil AVX hier sehr große Vorteile bietet und die Intels bei AVX-Ausnutzung wirklich unmenschlich schnell (und heiß) sind. Das Szenario hat für andere Nutzer wiederum ggf. gar keine Bewandnis.
 
@Incredible Alk
Ich weiß zwar nicht welche Benchmark Ergebnisse du dir angeschaut hast, aber der E7-8890 v3 ist kein Skylake und das x144 am Ende lässt auf ein 8 Socket System schließen.
 
Der E7-8890 v3 nutzt aber bereits AVX2 was Epyc nicht kann.
Die x144 da kann ich mir ehrlich gesagt nicht ganz erklären, denn ein 8-SockelSystem wäre viel schneller als ~20 Minuten in dem Benchmark. Manchmal siehts aus nach "Kernzahl", manchmal nach "Multiplikator", manchmal "Threads", keine Ahnung. :ka:

Ein 8-Kerner ohne AVX braucht rund 1:15h für den Bench (etwa ein Ryzen7), einer mit AVX2 etwa eine Stunde (beispielsweise ein 5960X).
Bei den 18 Kernen mit AVX2 eines 8890ers sind 20 Minuten daher realistisch, als einzelne CPU, ebenso wie die grob gleiche Zeit bei 32 Kernen ohne AVX2 von AMD.
 
Zuletzt bearbeitet:
das xNNN sind die Threads - der E7-8890 v3 hat 18 Cores und 36 Threads - also waren das 8 CPUs ohne SMT oder 4 mit.

btw das sind Minuten und nicht Stunden.

Kannste selber testen. Da sieht man auch wie nah die wirklich bei einander sind und wie gut die AMD für den Preis rechnen. Eine Intel Cpu kostet 7400 Euro alleine, plus extrem teure Boards etc -dafür bekommt man mehrere Epyc dualsysteme oder noch schneller nen Haufen Ryzen Renderclients
 
Eines muss man AMD lassen: Die CPU "zusammen zu kleben" war die beste Idee die sie seit langem hatten. Jedenfalls hinsichtlich der Taktraten und Temperaturen.

Diese aus einem, vermeintlichem Fertigungs und Ressourcen Nachteil entstandene Umsetzung, scheint mal eben die eigentlich schier unerreichbare Leistungskrone einzubringen - Intel mit +2 Kernen und Mesh Design, gesteht dies offensichtlich ein. Verrückt gute Zeiten... - für AMD und dem Markt...


AMD hat Intel da angeriffen, wo es weh tut - Takt und IPC technisch ist Intel weit überlegen - es sei denn es gibt mehr als 8 Kerne... Eine gut gezielte Attacke...Und dass Intel sich derart erschüttern lässt, von einem eigendlich weit unterlegenen Gegner - nun, bin gespannt wann dieser Riese wieder erwacht und womit....
 
Zuletzt bearbeitet:
Ok, wenn das son minibench ist und es um Sekunden geht könnens Zig CPUs sein - in dem mini-Workload haben die gar keine Chance was zu parallelisieren bevor die Aufgabe fertig ist (in dem Falle ist der benchmark für solche Systeme völliger Quatsch^^).

Dass AMD was P/L angeht beim Kauf Welten besser dastehen wird braucht man kaum zu diskutieren. Sie sind aber bei der Marktlage auch gezwungen das zu machen. So wie sich "AMD lahm Intel schnell" die letzten 5 Jahre in die Köpfe der Kunden gebrannt hat musste die gleiche Leistung zum halben Preis liefern um überhaupt ne Chance zu haben dass die Leute es erwägen sich dein produkt nochmal anzusehen.
 
irrationaler weise könnte man auch umgekehrt sagen "Vom Taktunterschied schaut es nicht gut aus für AMD" :schief:

Stand jetzt geh ich bei Intel von etwa 400 Mhz mehr Boot auf zwei Kernen aus sowie etwa identischer Base Clock bei gleicher Kernzahl (Non AVX Load).
Aber ja, ich bin auch gespannt. Auch ist AMDs Konzept super. Der wirtschaftliche Ansatz mit mehreren Die gefällt mir.

Ja 400 Mhz bei (fast) gleicher IPC auf 2 Kernen - super, wirklich - dieser 2 Threatboost ist erstrebenswert angesichts der vielen single Threat Anwendungen - aber mh, wer immer dies anstrebt, ist wohl auch kein 18 Kerne Kandidat - eine solche CPU ist wohl für Multithreader gedacht. Und wenn jene, das Doppelte eines TR Flaggschiffs zahlen wollen, nur um in Single Threat Anwendungen hinter einem 7700K zu liegen, welcher ~330€ und nur die Hälfte beim Board, statt 2000€ (+ sehr gutem Openloop ~ 300€ min) kostet, ja dann hats Intel richtig gemacht...

In der viel Kerne Paradedisziplin und schlimmer, in Alltags Situationen ohne AVX, allerdings permanent am Temp bedingtem drosseln - wenn nicht vorher die Boardversorgung dicht macht und bei ca. 2,5 Ghz (bestcase so glaube ich) Allcore versuchen die (easy Luftkühlbaren) 3,7 Allcore vom TR einzuholen.

jaey...
Intels 10 Kerner - Drosselbart
Intels 12 Kerne - Drosselbart minus 300 Mhz Grundtakt im Vergleich zum 10 Kerner
Intels 18 Kerne - Drosselbart minus ??? - gegen sicherlich min 3,8 Ghz vom 16 TR Kernen...???
 
Zuletzt bearbeitet:
Richtig... und da sind 18 Skylake-Kerne schneller als 32 Threadripper-Kerne... weil modernes rendering eben AVX nutzt. :schief:

Nützt dir aber nichts, wenn dein Rechner dabei abschmiert und du von vorne anfangen kannst, eben weil die Boards dabei die Grätsche machen.
Und kein normaler User kommt auf die Idee, im Bios irgendwas einzustellen.
 
Nützt dir aber nichts, wenn dein Rechner dabei abschmiert und du von vorne anfangen kannst, eben weil die Boards dabei die Grätsche machen.

Ich hoffe ja dass es irgendwann wer gepeilt bekommt die korrekten Taktraten auch bei AVX-Nutzung ins BIOS zu packen. :ugly:
Ich schiebe die Nummer ja noch auf den vorgezogenen Start - die nächsten Boardrevisionen sollten das alles im Griff haben.
 
Zurück