Intel Ivy Bridge EP als Core i7 mit maximal sechs Kernen und schnellerem Speicher

Dann brauchst du es auch nicht, weil deine Ansprüche eben nicht "High-End" sind. Freu dich doch übers gesparte Geld.

Das ist halt heut nunmal so, dass die normalen Anwendungen (Spiele), die die meisten hier nutzen, eben nicht sonderlich fordernd sind für heutige CPUs.

Selbstverständlich sind meine Ansprüche High End oder kennst du einen 6/8 Kerner für Sockel 1155 oder kommt einer für Sockel 1150?
 
eben was interessiert mich nativ USB3.0 ist auch nicht schneller ???? technisch PCI-E3.0 heißt für mich gleich PCI-E3.0 kann ich mit ATI und NV bei mir nutzen ! und ein gutes GAME z.B. BF3 läuft auf einem 6er Sandy ohne SMT immer noch besser als auf einem 4er IVY mit SMT bei gleichem Takt
was hätten wir denn da noch Dual Channel denn gibt es ewig also Asbach :) gut Quad Channel wird bei Games kaum Vorteile bringen ist aber High End und und und
 
Roadmaps, also das was du als Timeline bezeichnest, sind idR nicht für Endkunden gedacht, sondern für die Presse oder Großkunden und leaken nur. Und auf keiner mit bekannten Roadmap wird ein Core i7 auf IVB-EP-Basis benannt.

Ja, Roadmap...mir ist der Begriff nicht mehr eingefallen. :D

Wenn da aber nun mal steht:
"Ivy Bridge EP: High-End-CPUs für den Sockel 2011 im 22 Nanometer-Verfahren; bis zu zehn Kerne.", da denke ich mir schon meinen Teil zu. ;)
 
Aha, wer definiert denn was "High-End" ist?
Du?
Gamer?
Wohl eher nicht.

Nein, du aber auch nicht:D

SB-E ist durchaus High-End auch als Core ix. Du hast 6 vs 4 Threads, du hast größere Caches, du hast ein DOPPELT! so breites Speicherinterface, du hast 40 PCI-E Lanes (mit Xeon sogar offiziell PCI-E 3.0), du hast mit den Xeons SAS bzw. massig SATA Ports, du hast je nach Board bis zu 8 Speicher-Bänke usw.
Was soll denn "High-End" ausmachen wenn nicht das?

Acht Kerne (die möglich wären), aktuelle Architektur, 22nm Fertigung und, und, und

USB 3.0? Das wird eh fast überall nur per Zusatzcontroller nachgerüstet.

Nö. Beim Sockel 1155 braucht man dafür keine Zusatzcontroller:schief:
Warum? Intel macht doch genau das alles, was für eine High-End Platform wichtig ist.

Nein, genau das tun sie eben nicht.

Sie schieben den Core ix Käufern nur halt nicht alles in den Poppes, bzw. sehen halt mehr Takt auf weniger Kernen dort als wichtiger an, was durchaus richtig ist. Bei den Xeons können Sie halt GANZ andere Preise verlangen, daher macht es auch keinen Sinn, sich den eigenen Markt kaputt zu machen.

Intel würde sich wohl kaum den Markt selber kaputt machen wenn sie

1. Die Plattform mit aktuellen Technologien ausstatten und
2. Die CPUs mit aktuellen Architekturen fertigen und
3. Den Shrink auch auf der "High End" Plattform vollziehen.

Und ansonsten kann ich halt nur sagen: "Tja wenn deine Anwendungen überhaupt keinen Nutzen aus den Core i7 SB-E ziehen können, dann nutzt du halt wahrscheinlich einfach keine fordernden Anwendungen, oder sehr spezielles Sach. Was kann Intel dafür, dass du keine "High-End"-Anwendungen hast, die wirklich fordernd sind?

"Meine" Anwendungen spielen hier überhaupt keine Rolle! Man kann auch über so was diskutieren, wenn man nicht zu denjenigen gehört, die einen Sechskerner tagtäglich ausreizen (die sich aber über einen Achtkerner ums so mehr freuen würden:ugly: )

(Und ja, ich weiß dass das gerade provokatisch geschrieben ist, aber das solls auch, weil sich hier eine Aufführen wie der Nabel der Welt....)

Na da bin ich ja froh, dass du dich nie aufführst als wärest du der Nabel der Welt.

:D

-----
eben was interessiert mich nativ USB3.0 ist auch nicht schneller ????

Mich interessiert das schon, denn es ist beschämend, dass man Intel's High-End Plattform immer noch mithilfe von Zusatzcontrollern bei solchen Sachen auf die Sprünge helfen muss.

und ein gutes GAME z.B. BF3 läuft auf einem 6er Sandy ohne SMT immer noch besser als auf einem 4er IVY mit SMT bei gleichem Takt

Nö. In Bf3 bringt einem der Sechskerner keine spürbaren Vorteile. Ich weiß es, denn ich habe beides hier:D
 
Zuletzt bearbeitet:
Keine Ahnung, wo ich das mal gelesen habe - aber auf alle Fälle mehr als einmal. Es erscheint mir auch logisch, wenn man den bisherigen Abstand zwischen EP und EX (respektive deren Vorläufern) betrachtet: 6 zu 10 bei Westmere, 4 zu 8 bei Nehalem, 4 zu 6 bei Penryn.
12 zu 14 für Ivy wäre ein extrem geringer Abstand und da die EP jetzt Quad-Sockel tauglich sind, braucht Intel eher noch zusätzliche Argumente für -EX. Im Konkurrenzkampf mit den Opterons würden ein paar plakative Kerne extra auch nicht schaden. 15 Kerne halte ich für komplett absurd, das ist weder layout- noch organisationstechnisch praktisch.
Hätte ich bei den 15 SMX von GK110 auch zuerst gesagt. Als ich dann den DIE-Shot gesehen hab wusste ich aber, dass das Sinn macht ;)

Ich bin da inzwischen auch vorsichtiger geworden nach GK110. Es kann durchaus sein das man "nur" 15 Kerne bekommt. Kommt ja vor allem auch darauf an, was man so alles noch mit auf den Chip drauf packt und wieviel Platz das braucht.

Waren die EP nicht bisher auch Quad-Sockel tauglich??? Ich meinte mich daran zu erinnern, leg aber nicht meine Hand dafür ins Feuer.

EX hat aber auf jeden Fall noch den Octa-Sockel-Vorteil, der auch bestehen bleiben wird. Zudem hat EX halt die ganzen RAS-Features, und die reisen es mit den sehr großen Caches, dem Octa-Sockel und eben dem sehr üppigen Speicherausbau am Ende raus. Die 1567er sollten eigentlich bis zu 4 Speicherriegel pro Channel ansprechen können. Da brauchts aber noch nen Zusatzchip, oder speziellen RAM. Solche Boards/Systeme finden sich nur schwer. Hab auf jeden Fall aktuell kein Beispiel gefunden, außer halt hier den Link zur Beschreibung: System Architecture - Intel QPI
(PS: Müssten Buffered RDIMS glaub sein, die man dafür einsetzt)

eben was interessiert mich nativ USB3.0 ist auch nicht schneller ???? technisch PCI-E3.0 heißt für mich gleich PCI-E3.0 kann ich mit ATI und NV bei mir nutzen !
ähm... Da haste dich aber geschnitten :ugly:

Eben das heißt es NICHT!!! Die Diskussion hatten wir schon ellen lang... Bei nVidia stehst du dann eben mit einer PCI-E 3.0 Karte da, steckst Sie rein und bekommst eben nur PCI-E 2.0 geliefert... Tja und was machst du jetzt mit deiner tollen "aber..."-Aussage? Richtig, in die Tonne treten und in den Arsch beisen.

Die HD7k Serie von AMD funktioniert zwar aktuell, aber jede neue Karte bedeutet für dich dann wieder Bangen, ob denn die Karte PCI-E 3.0 liefert, oder nicht. Tolle Ausgangssituation nicht?

und ein gutes GAME z.B. BF3 läuft auf einem 6er Sandy ohne SMT immer noch besser als auf einem 4er IVY mit SMT bei gleichem Takt
was hätten wir denn da noch Dual Channel denn gibt es ewig also Asbach :) gut Quad Channel wird bei Games kaum Vorteile bringen ist aber High End und und und
Nur das die normal eben nicht den gleichen Takt haben, und über den Preis reden wir lieber auch nicht :schief:

Meinste nicht, das es seine Gründe hat, warum im PCGH-Spieleindex die Desktop-Topmodelle für S2011 und S1155 gleich auf sind?

Ja, Roadmap...mir ist der Begriff nicht mehr eingefallen. :D

Wenn da aber nun mal steht:
"Ivy Bridge EP: High-End-CPUs für den Sockel 2011 im 22 Nanometer-Verfahren; bis zu zehn Kerne.", da denke ich mir schon meinen Teil zu. ;)
Welchen Teil?

Das es CPUs geben wird mit 10 Cores? Ja das ist richtig.

Das es Core ix CPUs geben wir mit 10 Cores? Nein, das ist falsch und hat auch NIEMAND gesagt. So entstehen eben Gerüchte. A sagt etwas und B intepretiert etwas hinein, was er gern hören würde

Nein, du aber auch nicht:D
Nein nürlich nicht, aber ich versuche Intels sichtweise klar zu machen. Die sehen halt, das normale Desktop-Anwender die Leistung nicht brauchen und man seinen Fokus eben auf die legt, die die Sachen brauchen.

Am Ende ist das eh nur Politik. Die CPUs gibt es ja weiterhin zu kaufen, nur eben nicht als Core iX, und das hat eben seine politischen Gründe.
Was würde es denn für einen Aufschrei geben, wenn der 8er Core iX plötzlich 2k€ kosten würde? Wobei 2k vielleicht noch tief gegriffen sind.
Was würde es denn für einen Aufschrei geben, wenn eben dieser Core iX auch noch langsamer wäre in Games usw. als der Hexacore, weil sein Takt eben niedriger ist, um wenigstens innerhalb der 150W zu bleiben?
usw.

Dazu kommt dann eben noch, das man mit den Core iX sich selbst den Markt kaputt macht. Intel verkauft halt lieber ne CPU, wenn da Xeon statt Core iX drauf steht. Auch wenn das Selbe drin ist. Das liegt einfach daran, das man für den Xeon einfach einen gewissen "Narkenaufschlag" nehmen kann. Ganz gleich ob der Kunde die zusätzlichen Features braucht oder nicht. Er zahlt erst mal kräftig...

Acht Kerne (die möglich wären), aktuelle Architektur, 22nm Fertigung und, und, und
Die 8 Kerne gibts doch auch, und bzgl 22nm, die großen DIEs sind da halt wohl einfach noch nicht fertigbar. Man hat gesehen, was für Probleme Intel mit dem SB-E hatte. Auch Intel kann nicht alles möglich machen, was Sie gerne hätten...

Man muss daher wohl davon ausgehen, dass du/ihr einfach nicht bereit seid, eben den entsprechenden Preis für ein Produkt zu zahlen. Das Produkt, das ihr wollt, gibt es ja zu keufen, steht halt nur nen anderer Name drauf und kostet halt das zichfache von dem was ihr zahlen wollt/könnt. Wie gesagt, das ist aber nicht Intels Schuld/Problem.

Zu einem gewissen Teil kommt hier halt einfac die Schwäche von AMD zum tragen, bzw. ihr Konzept von vielen echten Cores. AMD fängt halt gar nicht erst an ihre Many-Cores auf dem Desktopmarkt zu werfen, so wie es Intel macht, sondern stellt sich gleich nur auf dem Servermarkt den S2011 Xeons. Da sinds dann auch wieder gleichere Waffen. 16 Threads vs 16 Threads Quadchannel vs Quadchannel usw.

Nö. Beim Sockel 1155 braucht man dafür keine Zusatzcontroller:schief:
Ok danke, dann muss das mit den neuen IB Chipsätzen gekommen sein. Bei SB wars aber meines Wissens nach jedenfalls nicht dabei. Danke für die Info, ich versuch es mir zu merken :daumen:

Nein, genau das tun sie eben nicht.
Wie kommst du drauf?

Schau doch mal auf die Verkaufslisten. Da finden sich viele schöne CPUs/Systeme. Ich hab jetzt zum arbeiten auch nen S2011 System bekommen, einfach weil ich die Platform brauch zum entwickeln, aber ich hab von mir aus gesagt, packt die kleinsten CPUs rein, das langt mir. Der Preis haut dich trotzdem aus den Socken. Wenn man das aber vorher mit dem 2x 8Core Topmodell System vergleicht, dann wars schon fast "billig", und selbiges kann eben wieder in für andere Dinge genutzt werden. Nen großen Aufriss wegen dem Preis gabs deswegen aber nicht. Die Alternative war halt noch blöder/teurer.

Und genau das verstehen halt hier manche wohl nicht. Sie können sich alles kaufen was Sie wollen, müssen dann aber halt den Preis dafür auch zahlen. Und wenn man das nicht ist, dann sollte man auch nicht das Meckern darüber anfangen, denn dann muss man ja zu der Überzeugung gekommen sein, das man das doch nicht wirklich braucht, oder nicht?

Intel würde sich wohl kaum den Markt selber kaputt machen wenn sie

1. Die Plattform mit aktuellen Technologien ausstatten und
2. Die CPUs mit aktuellen Architekturen fertigen und
3. Den Shrink auch auf der "High End" Plattform vollziehen.
Machen Sie doch auch alles. Es braucht halt nur etwas länger, weil die Chips eben viel schwieriger zu fertigen sind als die kleinen S1155 Chips.

Dazu kommt noch der ganze Validierungsaufwand, der dort viel größer ist. Intel kann halt auch nicht hexen...

Und wenn Sie ein fertiges Produkt haben, dann bringen Sie das auch, wenn es sich für diese lohnt. Wenn nicht, dann nicht.

"Meine" Anwendungen spielen hier überhaupt keine Rolle! Man kann auch über so was diskutieren, wenn man nicht zu denjenigen gehört, die einen Sechskerner tagtäglich ausreizen (die sich aber über einen Achtkerner ums so mehr freuen würden:ugly: )
Aber denn kann man ja KAUFEN! Niemand hindert einen daran...

Na da bin ich ja froh, dass du dich nie aufführst als wärest du der Nabel der Welt.

Entschuldigung das wir uns erdreisten an Intel's High-End Plattform Kritik zu äußern, ohne uns vorher bei dir deinen hochheiligen Segen erteilen zu lassen :D
:P

Es geht doch nur darum, dass die Leute hier so tun, als gäbe es das, über was Sie reden, nicht zu kaufen gäbe, was halt einfach falsch ist...

Für mich ist das nur ein "Mimimimi die Octacores sind mir VIEL zu teuer, ich will die für maximal nen tausender... Ok, den würde ich mir dann immer noch nicht kaufen, weil ich so viel Geld für so wenig Mehrleistung in Games im Vergleich zu IB nicht ausgebe, aber vielleicht wird dann der Hexa so billig, das ich da dann zuschlage...."

Sorry, aber mehr hör ich aus den vielen Klagen hier nicht raus...

Jetzt aber nicht falsch verstehen. Ich hätte auch absolut nichts dagegen, wenn es den Octa für 250€ geben würde. Den würde ich mir dann auch holen, wahrscheinlich sogar als Dual-Sockel um damit rum zu spielen. Das wird aber nicht passieren, und damit habe ich mich abgefunden, auch wenn ich es mir anders wünsche.

Das Leben ist halt kein Wunschkonzert.
 
Die sehen halt, das normale Desktop-Anwender die Leistung nicht brauchen und man seinen Fokus eben auf die legt, die die Sachen brauchen.

"brauchen" war wohl noch nie (bzw nur in seltenen Fällen) wirklich das entscheidende Kaufargument bei den Extreme Edition, und früher FX, CPUs. Bekanntlich war der offene Multi zeitweise das einzige was eine Extreme Edition von eine non EE unterschied. Da gehts mehr um das "haben wollen" bzw um das übertakten(man blicke nur mal kurz auf HwBot). Und genau letzeres scheitert bekanntlich mit allen aktuellen Xeons.

Es geht doch nur darum, dass die Leute hier so tun, als gäbe es das, über was Sie reden, nicht zu kaufen gäbe, was halt einfach falsch ist...

Das ist aber in meinen Augen kein Argument - Denn da könnte man jetzt weiterspinnen und sagen "Was holst du dir keinen 1567er 10 Kerner für 2200€" wenn du ihn haben willst. Dazu kommt das ein übertakteter 3930K jeden 2687W stehen lässt. Also wozu das dreifach ausgeben wenn man dafür keine merhleistung oder gar weniger bekommt? Die High End CPU schlechthin mit der man alles glattbügeln kann wenn man will gibt es schlicht nicht zu kaufen, die Zeiten sind offensichtlich, leider, vorbei. Schließlich muss eine heutige EE schon teilweise (Games) vor einer aufgebohrten Notebook CPU den Hut ziehen.

Man muss daher wohl davon ausgehen, dass du/ihr einfach nicht bereit seid, eben den entsprechenden Preis für ein Produkt zu zahlen.

Würde ich sofort wenn es auch etwas bringen würde - tut es aber nicht, mein 3930k läuft mit 4,5Ghz wenn es sein muss - damit ist er schneller als ein 2687W - vor allem wenn keine 8 Kerne genutzt werden. Wäre der 2687W übertaktbar, würde ich dem Argument sofort zustimmen - so aber nicht.
 
Zuletzt bearbeitet:
Die Xeons sind durchaus "übertaktbar", nur eben nicht von jedem ;) Bzw. ums genau zu ist IBM sogar der einzige Hersteller :(

X85, was du beschreibst, zeigt aber ganz eindeutig, das dein "Problem" halt nicht gut zu der Architektur passt, bzw eben schlecht parallelisierbar ist, kein Speicherbottleneck vorhanden ist usw.

Da zählt fast nur die Leistung auf wenigen Threads, und das wars. Dann nimmt man halt auch die Architektur/Platform, die gut zu dem Problem passt, und nicht eine die anderen Zielgebiete mit abdeckt.

Und bzgl theoretischem 8Core EE. Glaubst du, man würde auf allen 8 Cores die gleichen Taktraten erhalten, wie aktuell auf 6?

Ich habe da ziemlich stark Zweifel. Die Leistungsaufnahme würde einfach noch weiter explodieren, und das Ding nur schwer kühlbar machen. Ganz zu schweigen davon, das man eventuell/wahrscheinlich nicht mal die Taktraten erhalten würde, da es eben wahrscheinlicher ist, das irgendwas vorher zumacht.

Nicht ohne Grund sind die extrem OC-Weltrekorde nur mit einem Kern ;)
 
...Welchen Teil?

Das es CPUs geben wird mit 10 Cores? Ja das ist richtig.

Das es Core ix CPUs geben wir mit 10 Cores? Nein, das ist falsch und hat auch NIEMAND gesagt. So entstehen eben Gerüchte. A sagt etwas und B intepretiert etwas hinein, was er gern hören würde...

Glaub jetzt nicht das ich, wenn da etwas mit 10 Cores steht, das für voll nehme. Aber einen gewissen Richtwert (8 Cores für ix) sollte man sich schon daraus setzen dürfen.
Wenn ich mich noch nicht einmal auf solche Quellen beziehen kann, auf welche dann?
Dann brauch ich ja gar keine Magazine und Webseiten zu lesen wenn´s danach geht.

Und bevor du jetzt wieder darauf antwortest, ja ich hab´s seit dem ersten Post den ich dazu geschrieben hab verstanden was und wie ihr/du das meinst.

Trotz allem finde ich so etwas dann enttäuschend.
6 Kern Prozessoren von Intel gibt es jetzt seit fast 3 Jahren für den Desktop Markt.
Wenn die Grafikkarten Sparte genauso fahren würde (Tut Nvidia ja schon mit den GK110) na da wäre ja was los. ;)

Ich hab mich schon damit abgefunden das sogar Haswell DP "nur" mit max. 4 Cores + SMT erscheinen wird.
Ist ok, aber man sollte doch den anderen die mehr wollen etwas vom Kuchen abgeben.
Das ist so als wenn Mercedes nur noch VW Autos baut und meint, ja dann müsst ihr euch eben Ferrari kaufen, wenn ihr mehr wollt. (EP zu Xeon)
 
Zuletzt bearbeitet:
Die Xeons sind durchaus "übertaktbar"..

Ich denke es ist klar was gemeint ist, man muss jetzt hier nicht anfangen Erbsen zu zählen.

X85, was du beschreibst, zeigt aber ganz eindeutig, das dein "Problem" halt nicht gut zu der Architektur passt, bzw eben schlecht parallelisierbar ist, kein Speicherbottleneck vorhanden ist usw.

Da zählt fast nur die Leistung auf wenigen Threads, und das wars.

Wenn ich 1000€ oder mehr ausgebe dann will ich überall die maximale Leistung und nicht nur da oder dort. Und nur das verstehe ich unter einer Extreme Edition - bis zu Gulftown wurde das auch erfüllt.

Und bzgl theoretischem 8Core EE. Glaubst du, man würde auf allen 8 Cores die gleichen Taktraten erhalten, wie aktuell auf 6?

24/7 sicher nicht, ist auch nicht notwendig - selbst wenn man "nur" 3,7, 3,8 GHz auf allen Kernen erreicht, also das was der 2687W als maximalen Turbo hat, würde man mit einem 3930K schon über 5Ghz benötigen um die 2 Kerne auszugleichen und ihn (überall) zu schlagen - das ist dann schon eher selten unter Wakü machbar.

Nicht ohne Grund sind die extrem OC-Weltrekorde nur mit einem Kern ;)

Nur 2 Benchmarks werden mit nur einem Kern gebencht, nämlich jener wo es nur um den Takt geht - hier führt aktuell bekanntlich AMD - und super Pi.
 
Zuletzt bearbeitet:
Tja XE85, dabei vergisst du aber mal gekonnt das, was du vorher selbst noch gesagt hast.

Die zusätzlichen Kerne (>4) bringen einem halt in Games, um was es den meisten hier halt geht, eben nichts. Da entscheidet eigentlich nur noch der Takt bei gleicher Architektur. Daher wäre dein 5GHz 3930k auch deutlich schneller als dein 3,8GHz 8Core ;)

Freut euch doch darüber, das billige CPUs von Intel entwickelt werden, die ziemlich gut euer Anwendungsprofil treffen. Dafür müsst ihr halt an einigen Stellen mit den Einschränkungen leben, aber so ist halt das Leben...

Man kann nicht alles gleichzeitig haben.
 
Die zusätzlichen Kerne (>4) bringen einem halt in Games, um was es den meisten hier halt geht, eben nichts.

In den Games entscheidet erstmal so oder so die GPU mehr als alles andere. Zum anderen ginge es hier über den Turbo - ein frei konfigurierbarer Turbo wäre auch soetwas was eine EE CPU von anderen abheben würde. Offenen Multi gibt es schließlich auch schon für 100€.

Daher wäre dein 5GHz 3930k auch deutlich schneller als dein 3,8GHz 8Core ;)

Es ging mir hier um den Vergleich zu den kleineren CPUs - das man mit übertakten immer mehr bekommt ist klar. Ein 8 Kerner mit 3,8GHz Turbo auf 4 Kerne wäre auch in Games einem 3770k überlegen.

Freut euch doch darüber, das billige CPUs von Intel entwickelt werden, die ziemlich gut euer Anwendungsprofil treffen.

Tu ich ja, der 3930k ist ja ansich ein sehr gute CPU, aber als Nerd hätte ich halt doch gerne das gewisse etwas.

Edit:

Glaub jetzt nicht das ich, wenn da etwas mit 10 Cores steht, das für voll nehme. Aber einen gewissen Richtwert (8 Cores für ix) sollte man sich schon daraus setzen dürfen.

Stimmt, vom 10 Kerner 2 Kerne (wie jetzt auch) weg für das ix Modelle wäre zumindest in gewisser Weise naheliegend gewesen. Wenn das so weitergeht bekommt man bei Haswell-E wohl nurmehr ein halbes Die für den Desktopmarkt.

mfg
 
Zuletzt bearbeitet:
Nein nürlich nicht, aber ich versuche Intels sichtweise klar zu machen. Die sehen halt, das normale Desktop-Anwender die Leistung nicht brauchen und man seinen Fokus eben auf die legt, die die Sachen brauchen.

Und da stimmt Intel's Sichtweise halt einfach nicht. Wenn es z.B. um Video-Rendern geht, dann können zusätzliche Kerne nicht schaden.
Ich glaube aber viel eher, dass Intel es so sieht, dass sie diese Leistung im Vergleich zu AMD nicht brauchen.

Am Ende ist das eh nur Politik. Die CPUs gibt es ja weiterhin zu kaufen, nur eben nicht als Core iX, und das hat eben seine politischen Gründe.
Was würde es denn für einen Aufschrei geben, wenn der 8er Core iX plötzlich 2k€ kosten würde? Wobei 2k vielleicht noch tief gegriffen sind.
Was würde es denn für einen Aufschrei geben, wenn eben dieser Core iX auch noch langsamer wäre in Games usw. als der Hexacore, weil sein Takt eben niedriger ist, um wenigstens innerhalb der 150W zu bleiben?
usw.

Keine Ahnung welche Leistung zu welchem Preis für den Desktop möglich wäre. Das weiß wohl nur Intel.

Dazu kommt dann eben noch, das man mit den Core iX sich selbst den Markt kaputt macht. Intel verkauft halt lieber ne CPU, wenn da Xeon statt Core iX drauf steht. Auch wenn das Selbe drin ist. Das liegt einfach daran, das man für den Xeon einfach einen gewissen "Narkenaufschlag" nehmen kann. Ganz gleich ob der Kunde die zusätzlichen Features braucht oder nicht. Er zahlt erst mal kräftig...

Ja, ist halt das selbe Prinzip wie bei den professionellen GPUs. Alles was für den professionellen Bereich angedacht ist, kostet ordentlich Aufschlag.

Die 8 Kerne gibts doch auch, und bzgl 22nm, die großen DIEs sind da halt wohl einfach noch nicht fertigbar. Man hat gesehen, was für Probleme Intel mit dem SB-E hatte. Auch Intel kann nicht alles möglich machen, was Sie gerne hätten...

Ja, natürlich hatten sie Probleme. Meine eigentliche Kritik ist halt (hatte ich etwas weiter vorne schon erwähnt), dass 2014 schon der 14nm Broadwell kommt, während der High-End Käufer tief in die Tasche greifen muss für eine CPU, die "nur" auf der dann bereits zweimal überholten Ivy Bridge Architektur basiert und sich in Anwendungen und Spielen, die nicht sechs Kerne unterstützen vermutlich deutlich geschlagen wird. Und da stimmt das Verhältnis einfach nicht mehr. Intels "beste", "schnellste" und teuerste Desktop-CPU kann dann was die reine Kernleistung angeht nicht mehr mit CPUs mithalten, die weniger als ein drittel kosten. Das ist doch bitter für das Geld, was Sockel 2011 Hardware kostet (und kosten wird).

Man muss daher wohl davon ausgehen, dass du/ihr einfach nicht bereit seid, eben den entsprechenden Preis für ein Produkt zu zahlen. Das Produkt, das ihr wollt, gibt es ja zu keufen, steht halt nur nen anderer Name drauf und kostet halt das zichfache von dem was ihr zahlen wollt/könnt. Wie gesagt, das ist aber nicht Intels Schuld/Problem.

Nein, ich für meinen Teil würde mir zunächst mal eine Desktop-CPU mit acht Kernen als Extreme Edition für 2013 wünschen. Ein Jahr später dann den ersten bezahlbaren Achtkerner.
Und das ist halt nach dieser Roadmap immer noch nicht von Intel geplant. Somit wird mMn der Fortschritt von Intel künstlich ausgebremst.

Und genau das verstehen halt hier manche wohl nicht. Sie können sich alles kaufen was Sie wollen, müssen dann aber halt den Preis dafür auch zahlen. Und wenn man das nicht ist, dann sollte man auch nicht das Meckern darüber anfangen, denn dann muss man ja zu der Überzeugung gekommen sein, das man das doch nicht wirklich braucht, oder nicht?

Nein. Es gibt Privat- oder Semi-professionelle Anwender die einen Desktop-Achtkerner durchaus gebrauchen könnten. Aber 1600 € für die einzige brauchbare Xeon CPU, den E5-2687W (3,1/3,8 GHz), ist dann doch etwas heftig. :D
Wenn Ivy-E auf den Markt kommt, sind diese CPUs aber schon seit vielen Monaten hergestellt und verkauft worden. Da sollte es doch möglich sein einen Desktop-Ableger für rund 1000 € zu bringen.

Das Leben ist halt kein Wunschkonzert.

Da hast du natürlich recht ;)
 
Zuletzt bearbeitet:
Tu ich ja, der 3930k ist ja ansich ein sehr gute CPU, aber als Nerd hätte ich halt doch gerne das gewisse etwas.

Ich für meinen Teil muss da gar kein Nerd sein. Ich nutze die 6 Kerne des 3930k häufig für das was ich mache.
Und ich würde es z.B. begrüßen wenn es bald einen bezahlbaren 8 Kerner in 22nm geben würde.

Aktuell müsste ich mir jetzt einen Xeon kaufen wenn ich 8 Kerne haben will und die hoch getakteten 8 Kerner kosten eine Menge und sind trotzdem nicht wirklich schneller als mein 3930k mit 4,5GHz.
Aber inzwischen bezweifel ich dass 2013 bezahlbare 8 Kerner in 22nm geben wird -- die einen freien Multi haben und genügend Grundtakt besitzen. :(
 
Ja, natürlich hatten sie Probleme. Meine eigentliche Kritik ist halt (hatte ich etwas weiter vorne schon erwähnt), dass 2014 schon der 14nm Broadwell kommt, während der High-End Käufer tief in die Tasche greifen muss für eine CPU, die "nur" auf der dann bereits zweimal überholten Ivy Bridge Architektur basiert und sich in Anwendungen und Spielen, die nicht sechs Kerne unterstützen vermutlich deutlich geschlagen wird. Und da stimmt das Verhältnis einfach nicht mehr. Intels "beste", "schnellste" und teuerste Desktop-CPU kann dann was die reine Kernleistung angeht nicht mehr mit CPUs mithalten, die weniger als ein drittel kosten. Das ist doch bitter für das Geld, was Sockel 2011 Hardware kostet (und kosten wird).
Man hat aber entweder Anwendungen, die SingleThread sind, dann kauft man sich halt die kleine Platform und freut sich, das man recht günstig weg kommt, brauch aber nicht DIE unglaubliche Gesamtleistung, oder man braucht eben extrem viel Leistung, und es juckt einen nicht, wenn der einzelne Core etwas weniger Leistung hat. Masse statt Klasse halt ;)

Wie gesagt man kann einfach nicht alles haben. Ok, man versucht natürlich alles unter einen Hut zu bekommen, aber auch Intel hat halt immer mehr Probleme damit die Fertigung in so kleinen Strukturen im Griff zu haben. Allein das es solche Verschiebungen wie bei SB-E gab, sagt schon viel aus. Intel ist der Hersteller, der am schnellsten Probleme aus dem Weg räumen kann, weil die alles aus einer Hand haben. Die Möglichkeiten hat sonst eigentlich keiner außer vielleicht noch IBM.

Und wenn du dann noch keinen Druck hast, dann lässt dir doch klar etwas mehr Zeit, als dass du auch biegen und brechen da aufs Gas trittst.
 
Skysnake schrieb:
Man hat aber entweder Anwendungen, die SingleThread sind, dann kauft man sich halt die kleine Platform und freut sich, das man recht günstig weg kommt, brauch aber nicht DIE unglaubliche Gesamtleistung, oder man braucht eben extrem viel Leistung, und es juckt einen nicht, wenn der einzelne Core etwas weniger Leistung hat. Masse statt Klasse halt ;).

Ich denke halt, bei einer teuren High-End Plattform sollte eigentlich Masse und Klasse drin sein! :D
 
Skysnake schrieb:
nicht wirklich. Das schließt sich teilweise gegenseitig aus. Gerade bei den Octas usw bist du einfach powerlimited

Das ist aber keine Begründung dafür, dass Intel erst in einem Jahr Ivy-E bringt, wo die Mittelklasse dann aber schon auf der Haswell Architektur basieren wird. Und das ist auch keine Begründung dafür, dass die Plattform als solches kein zeitgemäßes Update mit PCIe 3.0 und USB 3.0 bekommt. Und ein Powerlimit hat ja auch nichts mit der Qualität bzw. der Aktualität der Kerne als solches zu tun.
 
Hätte ich bei den 15 SMX von GK110 auch zuerst gesagt. Als ich dann den DIE-Shot gesehen hab wusste ich aber, dass das Sinn macht ;)

Nvidia hat auch ne etwas längere Tradition asymetrischer Aufteilungen ;)

Waren die EP nicht bisher auch Quad-Sockel tauglich??? Ich meinte mich daran zu erinnern, leg aber nicht meine Hand dafür ins Feuer.

Quad-CPU im mitteleren Segment gibt es erst seit Sandy Bridge. Davor musste man -EX kaufen

EX hat aber auf jeden Fall noch den Octa-Sockel-Vorteil, der auch bestehen bleiben wird.

Das ist und bleibt aber ein ziemlicher Nischenmarkt. Damit sich die Plattform rechnet, sollte man auch @Quad-Sockel schon deutlich mehr Leistung bieten, als -EP.

Zudem hat EX halt die ganzen RAS-Features, und die reisen es mit den sehr großen Caches, dem Octa-Sockel und eben dem sehr üppigen Speicherausbau am Ende raus. Die 1567er sollten eigentlich bis zu 4 Speicherriegel pro Channel ansprechen können. Da brauchts aber noch nen Zusatzchip, oder speziellen RAM.

Für IB-EX habe ich noch nichts von drastisch größeren Caches gehört (30 MB für -EP sind ja auch schon nicht soviel) und bei der Speicheranbindung sind die Unterschiede mit der Einführung von Quad-Channel für -EP auch deutlich kleiner geworden. (Glaube mich sogar zu erinnern, dass SB-EP ebenfalls diese Speicherhubs für 4 statt 3 Modulen pro Kanal unterstützt, falls es denn sonst wirklich nicht reicht. Kann da aber spontan auch nichts zu finden.)
 
Zurück