Du vergleichst einen 6 Kerner mit einem 4 Kerner. Den 6 Kerner bis an die Kotzgrenze übertaktet.
Und nö pro Takt ist der Haswell schneller bis 8 Threads.
Somit natürlich auch in jedem Game.
In jedem Game? Wo das denn? Alleine schon weil er nur 4 Kerne hat kann es nicht sein! Bis an die Kotzgrenze? Wo ist denn bitte ende bei einem 4790K? Etwa bei 4,7GHz Und 13% mehr Takt! Ein 3960X ist in einigen Spielen schneller als ein 4790K! In Games werden der 4790K und der X5650 (beide mit OC) in etwa gleich auf sein. Warum also 3 mal so viel Geld für eine CPU zahlen?
Native unterstützung von USB 3, Sata 3, PCI-E 3.0 usw...
Was interessiert mich das wie USB 3 und Sata 3 zustande kommen? Bin ich dadurch spürbar langsamer? Nein! Alles bis auf PCI-E 3.0 hat mein Board. Und der Unterschied zwischen 3.0 und 2.0 ist kaum zu messen! Das geben auch Tests von Namen haften Seiten wieder! (inkl PCGH)
Erzähl doch nicht so einen Bullshit. Ja sie werden wärmer aber es bleibt im Rahmen.
Im Rahmen? Wenn eine CPU mit einem Dark Rock Pro 3 schon 80° erreicht? Da ist nicht mehr viel Luft nach oben! Im vergleich dazu mal ein Sandy Bridge! Höhere TDP (ohne iGPU jetzt) und bleibt Kühler bei gleichem Takt. Sandy Bridge wurde aber verlötet und Haswell hat nur so ein Müll von WLP drunter. Ich hatte selber mal einen 3570K und habe gesehen wie heiß die dinger werden, obwohl noch lange nicht das Ende des machbaren Taktes erreicht war, mit moderaten Spannungen versteht sich!
Für was denn sonst den 6 Kerner? zum Zocken?
Klar, für was denn sonst? Vor allem kostet der 4790K mal eben 3 mal so viel Geld! Da überlegt man nicht, sondern kauft das was günstiger ist! Und bis ich die 200€ die ich weniger gezahlt habe mit dem Verbrauch raus habe, muss ich meine CPU 5 Jahre nutzen! Dabei wird 2016 sowieso wieder was neues in PC kommen.
Pauschalisiere doch nicht alles. Wenn du sagst MEHR LEISTUNG sollte er auch IMMER schneller sein. Ist er das? Nö
Und zählst du gerade "mehr Stromverbrauch" als Vorteil auf?
Die Aussage nicht ganz richtig. Denn selbst ein 8350 kann schneller sein als ein 4790K! Deiner Aussage nach dürfte man dann nicht von mehr Leistung beim 4790K sprechen. Natürlich ist er nicht immer schneller! Aber im Durchschnitt wird er es sein. Ich würde gerne einmal einen 1 zu 1 Test machen wollen, kenne aber leider so keinen mit einem 4790K. Ich hoffe ein Kumpel von mir holt sich bald einen 4690K und dann will ich mal gucken wie groß der Unterschied ist.
69% mehr Takt wären aber nicht 4 Ghz sondern 4,5 Ghz.
Nochmal fang nicht an zu Pauschalisieren oder kannst du jedem Garantieren auf 4Ghz zu kommen? Nö! Und wenn ja mit welcher Spannung?
Ich weis was jetzt kommt: ist doch egal! Hau raus das Pulver!
Alle X5650 die ich kenne, laufen ALLE mit unter 1,3Vc mit 4GHz. Ich kann mich aber so weit aus dem Fenster Lehnen und sagen:"90% aller 5650 laufen auf 4GHz und vielleicht mehr" Die Xeon sind Selektiert noch bei dem Sockel. Die haben eine TDP von 95W! Im Vergleich dazu, der 920 und 930 haben eine TDP von 130W und haben nur 4 Kerne.
"Abgesehen von" wenn ich das schon lese
. Schön die Rosinen raus picken und für allgemein gültig erklären?
Ich denke bis 8 Threads wird dieser auch schneller sein.
Dich kann man echt nicht für voll nehmen. Alle negativen Aspekte redest du schön, stellst diese als irrelevant dar oder sonst was.
Wenn es deine Sachen sind, sind diese super toll und schnell wie nichts anderes, wie hier:
Bis 8 Threads magst du recht haben ja! Aber was hat das mit Rosinen raus picken zu tun?
Aber dann korrigiere ich meine Aussage mal dem hingehend und sage:"Der Unterschied zwischen einem X5650 OC und einem 4790K OC sind sehr gering im Durschnitt"
Das es hier und da Anwendungen gibt, wo der eine oder auch mal der andere deutlich schneller ist, sollte wohl klar sein.
Bezeichnest eine 770 als "etwas schneller" 40-50% sind für dich etwas?
Evtl solltest du mal ein wenig neutraler bleiben und deinen Kram nicht als Perfekt und unantastbar hinstellen.
Das ist gerade etwas aus dem Zusammenhang gerissen. In dem anderen Thread ging es darum ob die CPU es schafft die GPU auszulasten. Und für mich ist der Unterschied bei GPUs von 50% nicht die Welt. Das ist auch mit der Grund warum die 900er von Nvidia für mich ein Flopp ist. Den Unterschied beim Vergleich merkt keiner! Und was auch alle vergessen, Zocken ist ein Hobby und Hobbys kosten alle irgendwo Geld. Und ob man jetzt mal 20€ im Jahr mehr ausgibt, tut auch keinem weh. Vor allem ist die 980 nur knapp bis gar nicht schneller.
GeForce GTX 980 im Taktvergleich mit der GeForce GTX 780 Ti