Kaby Lake: Benchmark eines Core i7-7700K zeigt minimale IPC-Steigerung

Irgendwie wird OC mit diesen hochtaktenden CPUs immer witzloser... Wenn bei Kaby Lake die sinnvolle Grenze aus Mehrtakt zu Mehrspannung weiterhin bei etwa 4.5GHz liegt, kann man sich das OC gleich sparen. Dann kann man sich den Aufpreis für ein empfehlenswertes Z-Board auch sparen...
 
höher getackteter ram bringt schon was, zumindest bei den mini fps. für höher getackteten ram benötigt man aber ein z board. daran wird sich in kaby lake nicht viel ändern!
 
Mein alter Xeon 5650 Octa-Core läuft unter mittelklasse Luftkühlung problemlos auf 6 x 4,4 ghz (stock 2,6 ghz) und in Sachen Temperatur und Spannung wäre trotzdem noch Luft nach oben. Das sind ganze 40% Mehrleistung, ohne überhaupt an's Limit zu gehen. 50 Euro auf eBay und damit laufen aktuelle Titel wie Battlefront oder Quantum Break problemlos auf 60 bis 90 fps in Ultra Settings und 1080p, in Verbindung mit der passenden Graka. In Cinebench zersägt er durch seine 12 Threads natürlich locker meinen 4790k, selbst mit OC. Wenn ich das mit aktuellen CPUs vergleiche...

Aus Gamer Sicht finde ich OC bei aktuellen CPU Modellen auch eher uninteressant. In Cinebench & Co mag das mal toll aussehen und für gewisse Anwendungen hat es auch durchaus seine Vorteile, aber in der Spielpraxis bringt es meist kaum noch nennenswertes Leistungsplus...vor allem ist unter normalen Umständen so viel gar nicht mehr drin.

Wenn ich meinen 4790k oder 6700k an die vertretbare Grenze bringe (trotz gutem Noctua NH-D15), dann sind die Taktraten überschaubar und in Spielen bringt es mir drei oder vier FPS. Das meiste macht idR sowieso die GPU und die OC Geschichte mit Spannungs- und Temperaturplus, steht kaum mehr im Verhältnis zum Leistungsplus.

Habe für mich ausführlich getestet und muss sagen, dass sich CPU OC für mich nicht mehr gelohnt hat...da sie von Werk auch schon recht hoch getaktet laufen und mein Fokus auf dem zocken liegt. Da schraube ich lieber in Afterburner kurz die GPU hoch und habe davon weitaus mehr. Die K Modelle kann man sich als Gamer fast sparen.
 
lächerlich für intel paar prozent mehr leistung aber gleich 100 euro mehr haben wollen ihr werdet es sehn

Achso, wie schon bei vergangenen Generationen wo immer ein irrer Aufschlag verlangt wurde... Releasepreise 4-Kern CPU mit SMT:
2600K - 319 $
3770K - 329 $
4770K - 339 $
6700K - 339 $

oh, wait.

Die Preise für die jeweils gleiche CPU-Klasse haben sich bei Intel über viele Jahre hinweg nur in den Grenzen der Inflation (und sogar darunter) bewegt. Dass die CPUs in Deutschland und Umgebung so viel teurer geworden siend liegt an der Währungspolitik der EU und einem immer schwächer werdenden Euro (schließlich muss man immer alle Banken retten und Billionen von Euronen ohne realen Gegenwert neu drucken...). Da kann Intel ausnahmsweise nix für, die verlangen seit Jahren dasselbe (schätze mal der 7700K wird auch wieder 339$ kosten). Nur halt in Dollar. :ka:
 
+3% mehr Leistung. Der Wahnsinn!

Wer den Mist kauft ist selber Schuld! Selbst mit OC ist bei den Teilen nichts mehr zu reißen! Ein 6700K mit seinen 4GHz geht vielleicht noch auf 4,4-4,7GHz was auch nur läppische 10-17,5% sind!

Also weder OC, noch ein Neuanschaffung seid Sandy Bridge lohnt sich!

Traurig aber wahr, für den Normalen PC User lohnt es sich seid 6 Jahren NICHT sich etwas neues zu kaufen.
 
Traurig aber wahr, für den Normalen PC User lohnt es sich seid 6 Jahren NICHT sich etwas neues zu kaufen.

Kommt darauf an, was du als "normalen PC-User" definierst. Wer nur auf Facebook Browserspiele spielt und dergleichen benötigt eigentlich ohnehin nicht mehr als einen Core2Duo von *vor 9 Jahren* oder einen Celeron/eine kleinere AMD-APU.

Als Gamer hättest du dennoch mit Skylake Vorteile im Vergleich mit Sandy Bridge; in Verbindung mit High-End-Grafikkarten sind vor allem die minimalen FPS höher und, auch wenn dieser Punkt nicht direkt mit den CPUs zu tun hat, so bringt eine modernere Plattform wie der Sockel 1151 immer noch neuere/bessere Features mit sich.
 
Wenn das so weitergeht, hält mein i7-4770k noch laaaaaaange durch. Erst recht mit OC... Mein alter Unterbau (Q9550@3,6Ghz) hat ja auch 5 Jahre mitgemacht. Und wirklich nötig (für meine Belange zumindest) war damals der Umstieg auf Haswell auch noch nicht:D

Mal schaun, was Zen so kann. Ich hoffe inständig auf ein wirkliches Comeback AMD`s:hail:

Gruß
 
Also weder OC, noch ein Neuanschaffung seid Sandy Bridge lohnt sich!

Traurig aber wahr, für den Normalen PC User lohnt es sich seid 6 Jahren NICHT sich etwas neues zu kaufen.
Dazu passt das ganz gut:

das Fazit fasst es ganz gut zusammen:

In der Summe der Dinge läßt sich somit eine klare Empfehlung aussprechen: Alles ab einem Sandy-Bridge-Prozessor ist derzeit noch gut konkurrenzfähig und muß nicht wirklich ersetzt werden. Ob man es mit HyperThreading oder/und mit Übertaktung betrachtet, ändert nichts an dieser Einschätzung: In jeder einzelnen Wertung liegt Skylake weniger als 40% entfernt, unter Übertaktung sind es dann meist weniger als 20% Differenz – zu wenig für einen Umbau des kompletten Grundsystems aus CPU, Mainboard und Speicher. Klar ersatzfähig sind dagegen alle Systeme mit Core-2- oder Nehalem-Architektur – sowie alle AMD-Prozessoren außer dem FX-9590, welcher aufgrund seiner hohen Taktraten noch halbwegs auf Ivy-Bridge-Niveau kommt.

Gruß
 
Bei den i3 geht intel ja den Weg und bietet inzwischen hoch taktende Prozzis mit 3,8 GHz an, vielleicht gibt es mit Kaby oder sonstwas Lake auch mal einen i3 mit 4,0 GHz?
Machen die aber wahrscheinlich deshalb, damit für die "Dreier" noch ein Verkaufsargument da ist, weil die nur zwei Kerne und keinen Turbo haben.
Bei den i5 ist die Ausgangslage etwas anders, die haben zwei Kerne mehr (damit auch mit 3,3 GHz potenziell mehr Rechenleistung als ein i3 mit 4 GHz) und den Turbo. Intel sagt sich halt, wem der Takt eines i5 nicht reicht, soll eben einen i7 kaufen oder das teurere K-Modell zum Übertakten.

Da wiederum stelle ich mir allerdings die Frage, wann Intel her geht und so eine CPU im Notebook-Sektor als i7 vermarktet? Ein Notebook-Dualcore mit 4 GHz+ hätte schon was ;)
 
Was mich wundert ist, dass sowohl Smartphone SoCs als auch GPUs scheinbar primär durch die Fertigunsverfahren und somit der höheren Anzahl an Transistoren bei gleicher Fläche an performance gewinnen.

Warum ist sowas bei X86 CPUs nicht möglich? Bzw. nicht sichtbar. Hier Skaliert die Leistung in Verbindung mit der Miniaturisierung über die Anzahl der Kerne, vor allem im Server Bereich für teuer Geld.
Was aber auch suboptimal ist, da davon nur Multithreaded Anwendungen profitieren.
Warum kann man nicht einfach die einzelnen CPU Cores "dicker" machen, mit mehr Transistoren die Leistung nach oben skalieren lassen. Mehr Recheneinheiten ALUs oder was weiß ich, was nötig wäre.

Kann man X86 wirklich so schlecht skalieren oder gehen die zusätzlichen Transistoren neuer Fertigungsverfahren wirklich nur für IGP, SRAM Cache und neue Befehlssätze drauf?


Ich finde das irgendwie schade, denn man hat das Gefühl, wir bleiben technisch stehen. als würde man einen Zug bauen, der mit fortschreitender Entwicklung einfach nicht schneller wird.
Stattdessen baut man lieber zusätzliche Gleise und zusätzliche Wagons.

Dummer Vergleich, aber zumindest treffend, wie ich finde.
 
Zuletzt bearbeitet:
Du meinst eine neue Architektur, die aus dem Stand besser sein soll als eine die seit 40 Jahren optimiert wird, dabei naturgemäß inkompatibel zu allen bestehenden Programmen ist und trotzdem wirtschaftlich Verbreitung finden soll?
Ich denke nicht dass sowas passiert, da müsste jemand den heiligen Gral des Computing finden. :ugly:

Intel hat es ja vor 15 Jahren mal mit dem Itanium versucht und ist gescheitert. Mittlerweile werden die nach und nach wieder durch normale Xeons ersetzt.
 
Was mich wundert ist, dass sowohl Smartphone SoCs als auch GPUs scheinbar primär durch die Fertigunsverfahren und somit der höheren Anzahl an Transistoren bei gleicher Fläche an performance gewinnen.

Warum ist sowas bei X86 CPU nicht möglich? Bzw. nicht sichtbar. Hier Skaliert die Leistung in Verbindung mit der Miniaturisierung über die Anzahl der Kerne. Was aber auch suboptimal ist, da davon nur Multithreaded Anwendungen profitieren.
Warum kann man nicht einfach die einzelnen CPU Cores "dicker" machen, mit mehr Transistoren die Leistung nach oben skalieren lassen. Mehr Recheneinheiten ALUs oder was weiß ich, was nötig wäre.

Kann man X86 wirklich so schlecht skalieren oder gehen die zusätzlichen Transistoren neuer Fertigungsverfahren wirklich nur für IGP, SRAM Cache und neue Befehlssätze drauf?



Der Phenom II hatte 3 Pipelines und der FX 4 Pipelines. Die Effizienz wurde nicht besser. Der Pentium 4 hatte 20 Pipelines, die ihre Stärken und Schwächen hatten.

"Jede Einheit verfügt über einen vierfach skalaren Scheduler und vier Pipelines (statt jeweils drei wie beim Phenom II), wenngleich die ausführenden ALUs nur doppelt vorhanden sind und sich leicht unterscheiden"

Quelle: [Review] AMD FX-4100, FX-6100 und FX-8150 im PCGHX-Overclocking-Check
 
Was mich wundert ist, dass sowohl Smartphone SoCs als auch GPUs scheinbar primär durch die Fertigunsverfahren und somit der höheren Anzahl an Transistoren bei gleicher Fläche an performance gewinnen.

Warum ist sowas bei X86 CPUs nicht möglich? Bzw. nicht sichtbar. Hier Skaliert die Leistung in Verbindung mit der Miniaturisierung über die Anzahl der Kerne, vor allem im Server Bereich für teuer Geld.
Was aber auch suboptimal ist, da davon nur Multithreaded Anwendungen profitieren.
Warum kann man nicht einfach die einzelnen CPU Cores "dicker" machen, mit mehr Transistoren die Leistung nach oben skalieren lassen. Mehr Recheneinheiten ALUs oder was weiß ich, was nötig wäre.

Kann man X86 wirklich so schlecht skalieren oder gehen die zusätzlichen Transistoren neuer Fertigungsverfahren wirklich nur für IGP, SRAM Cache und neue Befehlssätze drauf?

Ich finde das irgendwie schade, denn man hat das Gefühl, wir bleiben technisch stehen. als würde man einen Zug bauen, der mit fortschreitender Entwicklung einfach nicht schneller wird.
Stattdessen baut man lieber zusätzliche Gleise und zusätzliche Wagons.

Dummer Vergleich, aber zumindest treffend, wie ich finde.
Intel macht fast die ganze Zeit die Kerne dicker, teilweise ist es extrem was ein Skylake gegenüber einem alten Sandy-Bridge an der Cache-Bandbreite und Register-Anzahl zulegt, allerdings ist die Performance gerade mal ein Viertel gestiegen.
Von Sandy-Bridge zu Skylake hat Intel z.B. die Datenleitungen von den Caches verdoppelt, Intel hat unzählige Register und Buffer für die Ausführung vergrößert:
http://images.anandtech.com/doci/9582/24 - OnTheFly.jpg

Es gibt auch mehr Ports pro Kern, um weniger Konflikte bei der Ausführung zu besitzen, gleichzeitig wurde die Maschine um eine vierte ALU (ab Haswell) und zusätzliche Load/Store-Einheiten erweitert.
Ebenso kann ein Kern von Intel die Maschine im Schnitt mit mehr decodierten Instruktionen füttern, als früher.

Intels Maschine scheint den Großteil vom ILP (Instruction-Level-Parallism) schon extrahieren zu können, insofern liegt der Flaschenhals vermutlich bei einzelnen Instruktionen, die man nur noch nennenswert beschleunigen kann, wenn die Ausführungslatenz sich stark verringert oder der Takt sich erhöht.
Beide Dinge sind stark mit logischen Grenzen und Kompromissen verbunden, man kann viele Schaltungen und Operationen kaum noch zügiger gestalten bzw. das hat dann andere Nachteile.
Genauso wie man den Takt nicht fröhlich hochdrehen kann, ohne eine ganze Reihe anderer Dinge in Kauf nehmen zu müssen.

Das beschränkt sich natürlich nicht nur auf x86, sondern auf jede andere ISA auch.
Egal ob ARM, MIPS, Power, GCN ISA, Maxwell ISA usw.

Hilfe kann man nur noch dort finden, wo man noch Luft hat und die liegt häufig auf Thread-Level-Ebene.
Will man gute Ergebnisse erzielen, dann kommt man auch nicht mehr daran vorbei effizienten Code zu schreiben und selbst dann wird man an eine Grenze stoßen, da nicht jeder Code und nicht jede Berechnung unendlich parallel ausgelegt werden kann.

Der Phenom II hatte 3 Pipelines und der FX 4 Pipelines. Die Effizienz wurde nicht besser. Der Pentium 4 hatte 20 Pipelines, die ihre Stärken und Schwächen hatten.

"Jede Einheit verfügt über einen vierfach skalaren Scheduler und vier Pipelines (statt jeweils drei wie beim Phenom II), wenngleich die ausführenden ALUs nur doppelt vorhanden sind und sich leicht unterscheiden"

Quelle: [Review] AMD FX-4100, FX-6100 und FX-8150 im PCGHX-Overclocking-Check
Das sind zwei unterschiedliche Dinge, einmal die grobe Anzahl an verfügbaren Ausführungseinheiten (Pipelines), man könnte hier auch von der "Breite" des Designs sprechen und das andere bezieht sich auf die Pipeline-Länge vom Design, also wie viele einzelne Arbeitsschritte im Design vorkommen und je mehr man hat, desto leichter lässt sich ein Design im Schnitt takten.

Der Phenom II hatte 3 ALUs bzw. 3 Pipelines um arithmetische Berechnungen auszuführen, der FX besitzt pro Integer-Kern aber nur 2 ALUs und insgesamt 4 pro Modul/zwei Threads.
Beim alten Phenom würde man mit zwei Kernen für zwei Threads rechnen, also 6 ALUs insgesamt.
Neben den Einheiten für arithmetische Berechnungen gibt es Load/Store-Einheiten oder auch AGUs, dann noch die Pipelines auf Seiten der FPU für Floating-Point-Berechnungen.
Das ist jetzt nur eine grobe Ansicht, aber wenn man stupide von den Schaubildern ausgeht, dann war ein Bulldozer-Modul 10 Pipelines "breit" (4x ALU, 4x AGU, 2x FMA).
Ein alter Phenom-Core 9 (3x ALU, 3x AGU, 3x FP)
Ein Pentium 4 lag bei 2 ALUs (+ eine komplexe), 2 AGUs, 2 FP, wobei hier war die Ausführungsmaschine doppelt so hoch getaktet wie der Rest der Logik, man könnte die Zahlen auch doppelt zählen.

Von der Pipelinelänge liegt ein Phenom glaube ich grob bei 10-15, Bulldozer bei 15-20 und der Pentium 4 mit unterschiedlichen Versionen bot 20-30 Pipeline-Stages an.
 
Zuletzt bearbeitet:
Schlussendlich bin ich ja beruhigt, das mein Umstieg Anfang des Jahres von einem FX8120 auf einen 6700k völlig ok war. Warten hätte also nichts gebracht. (Ich war unsicher ob man lieber bei tick oder bei tock umsteigt)
 
Irgendwie hat das alles was von einem Rennen, wo der Eine Wagen knapp vor der Ziellinie wartet und in Schrittgeschwindigkeit fährt während der andere Wagen, der auf halbem Weg einen Platten hatte mit einem Affenzahn angefahren kommt. Im letzten Moment gibt er dann aber doch Gas und kommt als erstes über die Ziellinie.......:ugly:
 
Intel hat sich nicht umsonst vom Mooreschen Gesetz verabschiedet, die Leistungssprünge sind bei der Baugröße (14 nm) nicht mehr machbar. Die ersten i's (zB Nehalem) waren noch 32 nm und das ist gerademal ~8 Jahre her....

Was bei den bisherigen News fehlt: Leistung/Watt - immerhin haben die Refreshs da meist einen kleineren Sprung geliefert.
 
Zuletzt bearbeitet:
Intel hat sich nicht umsonst vom Mooreschen Gesetz verabschiedet, die Leistungssprünge sind bei der Baugröße (14 nm) nicht mehr machbar. Die ersten i's (zB Nehalem) waren noch 32 nm und das ist gerademal ~8 Jahre her....

Was bei den bisherigen News fehlt: Leistung/Watt - immerhin haben die Refreshs da meist einen kleineren Sprung geliefert.


Nehalem war ein 45nm-Prozessor, erst die Sechskerner-Topmodelle kamen in 32nm.

Ansonsten hast du aber recht, Die Leistungssprünge sind in der Form von früher einfach nicht mehr machbar. Zwar könnte Intel sicherlich noch mehr Leistung rausschlagen, wenn sie unbedingt wollten. Der Fokus liegt im heutigen Umfeld aber eben auf Energieeffizienz, auf die man die x86-Architektur mehr und mehr zu optimieren versucht. Leistungshungrige bekommen dafür weniger Fortschritt - auf der Habenseite stehen aber immerhin weit langlebigere Plattformen, was, finde ich, auch nicht zu verachten ist.
 
Zurück