Intel Haswell: Sockel 1150 mit Z87-, H87- und B85-Chipsatz in 32 Nanometer ab Q2/2013

Vielleicht löst ein Haswell meinen i7 920 ab. Aber denke nicht. Der ist mit etwas OC noch leicht schnell genug.

Trotzdem wäre ein Intel 6 Kerner für etwa 250-300 Euro schon toll. Muss ja nicht unbedingt viel Sinn haben. Ich meine nicht alles hat Sinn bei Hardwarekäufen. Das ist ein Hobbie und um 12 Tasks im Taskmanager zu sehen zahle ich gerne. :ugly:
Wenn die Leistung PRO KERN ordentlich zulegt und eventuell die Kerne selbst, dann wärs für mich trotz i7 in Zukunft eine Überlegung wert.
Wenn die Leistung der CPU selbst wenig zunimmt, ist die 4 Jahre alte i7 Plattform immer noch schnell genug für 99% der Dinge.
Ich hoffe also: ja Verbesserung der IGP, meinetwegen auch gerne mit über 50%, vorallem im Treiber mal, aber ein Anreiz für einen CPU Kauf wäre nur, wenn die CPU DEUTLICH mehr Leistet als die bei mir Vorhandenen, denn Leistung (CPU) gibts auch heute schon genug... also ich weiß nicht ob ich mich da klar ausgedrückt hab, aber für mich zahlt sich halt das Aufrüsten nur aus, wenn der Leistungssprung groß ist. Ich überleg wegen 10PS mehr ja jetzt auch nicht ob ich mir ein deutlich teureres Modell von einem Auto nehme.
Also mein nächster Plattformwechsel ist bei:
deutlich mehr Leistung pro Kern
mehr Kerne
gleicher oder gar geringerer Verbrauch
DDR4 Support bei annehmbahren DDR4 Preisen.
Reicht dann hoffentlich wieder für ein paar Jahre :D
 
Kann ich absolut nicht bestätigen. Beweise? Quelle?

Dargo aus dem 3DC hat viele Messungen diesbezüglich gemacht, den kann ich mal anhauen. Ich hab gestern wie gesagt Shogun 2 gebencht, ich kann das mit meinen installierten Spielen auch gerne fortsetzen.
Wenn du keine Unterschiede feststellst, ist es wohl kein absolutes CPU-Limit.

Hier z.B.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=524303
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=514213&page=5

Und von mir:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=529949

Und ein ganzer Haufen von Computerbase:
http://www.computerbase.de/artikel/prozessoren/2011/test-intel-sandy-bridge/46/
In fast jedem Spiel im CPU-Limit (640x480, und das ist wegen dem zahmen Seitenverhältnis noch harmlos, besser wäre eine kleine 16:9 Auflösung) ist SMT aus schneller als SMT an beim 2600K. Im Schnitt 2% Vorteil für SMT aus. 2C/4T ist was anderes, aber das hab ich ja gesagt.
 
Zuletzt bearbeitet:
Wenn jeder der 4 Kerne nun deutlich schneller ist, ist das besser als wenn die Kerne gleich schnell bleiben, dafür kommen 8 Kerne davon in Einsatz.
Dass es besser ist mehr Kerne zu haben, aber die dafür langsamer, ist ein irrglaube und AMD ist damit gehörig aufs Gesicht gefallen. Der Bulldozer ist ein Fail in jeder Hinsicht. Und nicht Intel bremst diese Entwicklung, schließlich gibts schon seit bald 10 Jahren von denen Prozessoren die 4 Threads verarbeiten.
Anwendungen verlieren übrigens Leistung wenn sie statt 1 Kern der doppelt so schnell läuft, auf 2 Kernen laufen die dafür halb so langsam sind, weil die Parallelisierung Rechenaufwand kostet.
Es ist also immer noch besser weniger Kerne zu haben die mehr Leisten (Amdahl).
Intel geht hier also den richtigen Weg, AMD den absolut falschen. E
Das zeigt sich auch, weil Intel in den meisten Anwendungen die parallelisiert sind, mit 4 Kernen trotzdem vor AMDs angebliche 8-Kerner sind.
Dein Argument ist somit erwiesenermaßen falsch.

Ich hoffe ja auf einem enormen IPC (per Core) Anstieg.

Seit Win7 SP1 in keinem mehr, es zahlt sich eigentlich in fast jedem Fall aus es einzuschalten.
Zumal AMD ja auch nicht wirklich was anderes macht, halt mit Mehr Aufwand in der Logik.
Und: SMT ist eine super Sache: verbraucht laut Intel 1% der CPU Fläche, es braucht nicht viel mehr Strom etc.
Bringt in den multithreaded Applications zwischen 20% (worst case) 40-50% im Schnitt und Best Case sogar 80%
Ich kann mich noch erinnern als eine speziell angepasste Quake 4 Version kam, die auf einem Pentium 4 oder D 80% hinzugewonnen hat.
Natürlich wärs zusätzlich toll wenn man mehr "echte" Kerne hätte, wirds wohl auf den Enthusiastenplattformen weiterhin geben hoffentlich.
also dann 8C für Haswell-E, statt der fetten IGP. Und eben hoffentlich IPC-C Erhöhung.
Aber im Moment weiß ich bis auf in der Arbeit wenig Fälle wo ich das brauchen würde.

Ich sag's nur ungern, aber könntest du bitte die blaue Brille absetzen?!

1. Hab ich nie gesagt, dass man einfach nur 2 Kerne dazu packen soll (mehr IPC sind natürlich immer gut/besser).
2. Brauch ich keine Lehrstunde zum Thema Kernskalierung... JEDER hier weiß, dass Kerne nicht 1:1 in mehr Leistung münden.
3. Bulli ist n Fail... ist mir auch klar, dank mangelnder IPC.
4. Was ist an meinem Argument bitte falsch, wenn man von zusätzlichen Kernen wirklich profitiert und mehr profitiert alsw von SMT?!
5. Das Szenario möchte ich sehen in dem SMT 40-50% oder gar 80% Leistung bringen... 20% ist kein Worstcase, eher schon überdurchschnittlicher Zuwachs. Ich rede jetzt nicht von Software die extra so schlecht geschrieben wurde, dass sie einen Kern sonst gar nicht auslastet :schief:
6. Ist man mit mehr Kernen besser für die Zukunft gewappnet, da die Parallelisierung ja grad mal richtig in Fahrt kommt und 6 und mehr Kerne anfängt zu nutzen. ->Nicht jeder ist bereit sich alle 6 Monate ne neue CPU zu kaufen.
7. Auch ich hoffe auf mehr IPC (egal bei welchem Hersteller), da mehr IPC mehr Effizienz bedeutet.
8. Der Pentium D war n Dualcore... Klar dass der ggü. dem Singlecore bis zu 80% (Bestcase und wohl im Bereich der Minimalen Leistung) in Quake 4 zulegen konnte.
9. Genau der Enthusiasten 6C oder 8C Prozessor mit ner IGP fehlt ja. Deshalb ja auch meine rhetorische Frage, ob man jetzt auf Sockel 2011 wechseln müsse, was ich persönlich dämlich finde.
 
Ich sag's nur ungern, aber könntest du bitte die blaue Brille absetzen?!
Wie immer wenn ich Zeit habe, schreibe ich hier im Forum vom Bürorechner.
Einer meiner vielen AMD betriebenen Rechner. Aber ja natürlich bin ich ein Intel Fanboy... omfg

5. Das Szenario möchte ich sehen in dem SMT 40-50% oder gar 80% Leistung bringen... 20% ist kein Worstcase, eher schon überdurchschnittlicher Zuwachs. Ich rede jetzt nicht von Software die extra so schlecht geschrieben wurde, dass sie einen Kern sonst gar nicht auslastet :schief:

Also ums klar zu stellen, ich rede hier natürlich nur von Software, die von mehr Threads profitiert, als wirklich Kerne vorhanden sind, also etwa von 8T profitiert, bei einem 4-Kern i7
Ergebnisse: Audio/Video : Core i7-980X: 6 Kerne oder 12 Threads?
Und folgende Seiten, sind bei solchen Andwendungen tatsächlich Sprünge zwischen 20-80% drin. Letztere sind natürlich best case und Ausnahmefälle.


6. Ist man mit mehr Kernen besser für die Zukunft gewappnet, da die Parallelisierung ja grad mal richtig in Fahrt kommt und 6 und mehr Kerne anfängt zu nutzen. ->Nicht jeder ist bereit sich alle 6 Monate ne neue CPU zu kaufen.
Ja Parallelisierung kommt inetwa genauso "in fahrt" wie 64 Bit im Consumerbereich, welches vor

9. Genau der Enthusiasten 6C oder 8C Prozessor mit ner IGP fehlt ja. Deshalb ja auch meine rhetorische Frage, ob man jetzt auf Sockel 2011 wechseln müsse, was ich persönlich dämlich finde.
Ich kenne jetzt nicht viele Enthusiasten die sich ne IGP wünschen, aber AFAIR müsste es Xenons für den Sockel 2011 geben mit IGP
 
Zuletzt bearbeitet:
Mich würde mal interessieren was der für eine TDP bei 14? Nm haben wird sowie ob TriGate wieder dabei ist.
Ein bisschen nervig ist das jedoch mit den immer neuen Sockeln.
Hätte mir da etwas mehr Zukunftkompatiblität gewünscht, zumindest von meinem aktuellen Z77 Mainboard aber das wird schon seine Gründe haben oder?
 
Zuletzt bearbeitet:
Und: SMT ist eine super Sache: verbraucht laut Intel 1% der CPU Fläche, es braucht nicht viel mehr Strom etc.
Bringt in den multithreaded Applications zwischen 20% (worst case) 40-50% im Schnitt und Best Case sogar 80%
Ich kann mich noch erinnern als eine speziell angepasste Quake 4 Version kam, die auf einem Pentium 4 oder D 80% hinzugewonnen hat.

Beim Pentium D vielleicht - der hatte aber 100% mehr Fläche alias einen kompletten zweiten Kern. Die Pentium 4 HT konnten in der Quake-Engine iirc 15-20% zulegen und das war auch so ziemlich die einzige Spieletechnologie, die in den ersten 1-2 Jahren davon profitierten. (Weil die Entwickler halt erst nach dem Erscheinen der HT-CPUs mit der Multithreadentwicklung begonnen haben - und dann dauerte es, bis was auf dem Markt kam)
Aber auch späteren, gut Dualthread optimierten Spielen konnten die P4 iirc nirgendwo mehr als 20-30% zulegen. Es hat zwar zum Schluss gereicht, um mit den ehemals überlegenen AMD-Konkurrenten den Boden zu wischen, aber bis dahin waren sie insgesamt schon fast zu langsam.

Und an dieser Situation hat sich eigentlich bis heute nichts geändert. 10-20% sind Durchschnitt, 40-50% der Best Case. Worst Case ist 0% und gar nicht mal sooo selten.


In fast allen (im CPU-Limit natürlich). Viel ist es nicht, 5% vielleicht. Aber 5% sind 5%. Ist auch nicht immer der Fall, z.B. 2C/4T kann schon ein bisschen was bringen, aber 4C/8T ist öfters eher kontraproduktiv.

Du wirst aber kaum ein Spiel finden, dass auf einem Core i7 (4C/8T) im CPU-Limit läuft, somit stört SMT auch da nicht. I.d.R. ist Software, die die Rechenleistung von n Kernen braucht, heutzutage gut genug Multithread-optimiert, um n+x logische Kerne ausreichend auszulasten. (Ggf. auch dank AMD: Ein z.B. Deneb reicht nur dann für ein Programm, wenn dieses vier Kerne wirklich nutzen kann - und dann kann diese Software auch auf einem Ivy-i3 von den logischen Kernen profitieren. Analog Deneb/Bulldozer und Quadcores. Wer als Entwickler CPU-Leistung will, muss halt so oder so viele logische Kerne nutzen)


Also ums klar zu stellen, ich rede hier natürlich nur von Software, die von mehr Threads profitiert, als wirklich Kerne vorhanden sind, also etwa von 8T profitiert, bei einem 4-Kern i7
Ergebnisse: Audio/Video : Core i7-980X: 6 Kerne oder 12 Threads?
Und folgende Seiten, sind bei solchen Andwendungen tatsächlich Sprünge zwischen 20-80% drin. Letztere sind natürlich best case und Ausnahmefälle.

Ich seh da keinen einziegn Fall, bei dem mehr als 50% drin sind und dafür ziemlich viele, die deutlich unter deinem angeblichen "Worst Case" von 20% bleiben.

Ich kenne jetzt nicht viele Enthusiasten die sich ne IGP wünschen, aber AFAIR müsste es Xenons für den Sockel 2011 geben mit IGP

So2011 hat nicht einmal die passenden Kontakte, geschweige denn das es entsprechende DIEs gäbe.


Mich würde mal interessieren was der für eine TDP bei 14? Nm haben wird sowie ob TriGate wieder dabei ist.
Ein bisschen nervig ist das jedoch mit den immer neuen Sockeln.

Es ist mit einer Beibehaltung der TDP zu rechnen und TriGate soll in Zukunft dauerhaft verwendet werden.

Hätte mir da etwas mehr Zukunftkompatiblität gewünscht, zumindest von meinem aktuellen Z77 Mainboard aber das wird schon seine Gründe haben oder?

Das der So1155 nicht für Haswell genutzt werden wird, stand schon lange vor Erscheinen des Z77 fest. Und ja, in dem Fall hat es einen Grund (was nicht immer der Fall war... 1156/1155...): Mit Haswell wird mit ziemlicher Sicherheit die Ansteuerung der Spannungswandler in die CPU verlagert.
 
Du wirst aber kaum ein Spiel finden, dass auf einem Core i7 (4C/8T) im CPU-Limit läuft, somit stört SMT auch da nicht. I.d.R. ist Software, die die Rechenleistung von n Kernen braucht, heutzutage gut genug Multithread-optimiert, um n+x logische Kerne ausreichend auszulasten. (Ggf. auch dank AMD: Ein z.B. Deneb reicht nur dann für ein Programm, wenn dieses vier Kerne wirklich nutzen kann - und dann kann diese Software auch auf einem Ivy-i3 von den logischen Kernen profitieren. Analog Deneb/Bulldozer und Quadcores. Wer als Entwickler CPU-Leistung will, muss halt so oder so viele logische Kerne nutzen)

Dieses Märchen wieder :)
Das kommt auf das Spiel, die Grafikhardware, die Settings und die Ansprüche an. Es gibt genug Beispiele, auch mit nur einer Grafikkarte. Erst recht, wenn man gerne möglichst 60fps haben möchte.
Außerdem, wenn du dir die Links mal anschaust, gibt es genug Fälle, wo SMT im Vergleich zu echten Kernen total versagt. Thread != Thread. 2/4 könnte noch halbwegs gutgehen, aber 4/8 ist oft Käse.
 
Ich muss ehrlich gestehen, dass während des Öffnen des Kommentar-Threads, ich was über die Thematik
des neuen Sockels lesen würde, welchen Intel einführen möchte (Im Sinne von: "OMG!! Ist den Intel komplett bala-
bala geworden?! Nach dem Sockel 1156, 1366, 1155 und 2011, jetzt zudem in Kürze noch 1150 kommt!!!???").
An Stelle meiner Vorahnungen, krieg ich was bezüglich Multithread zu lesen?! :ugly: Die selbe Art von Diskussion
wie zu den Core 2 - Zeiten, wo bei einer Entscheidungsfrage/hilfe bezüglich des Erwerbs von Core 2 Duo oder des Core 2
Quads (wenn der User sich unsicher war), sich die antwortenden Experten in zwei Parteien geteilt haben und an Stelle
von Hilfestellung, die fragende Person noch mehr verunsichert wurde. Ach, alte Erinnerungen kommen auf... :)
 
Wenn jeder der 4 Kerne nun deutlich schneller ist, ist das besser als wenn die Kerne gleich schnell bleiben, dafür kommen 8 Kerne davon in Einsatz.
Dass es besser ist mehr Kerne zu haben, aber die dafür langsamer, ist ein irrglaube und AMD ist damit gehörig aufs Gesicht gefallen. Der Bulldozer ist ein Fail in jeder Hinsicht. Und nicht Intel bremst diese Entwicklung, schließlich gibts schon seit bald 10 Jahren von denen Prozessoren die 4 Threads verarbeiten.
Anwendungen verlieren übrigens Leistung wenn sie statt 1 Kern der doppelt so schnell läuft, auf 2 Kernen laufen die dafür halb so langsam sind, weil die Parallelisierung Rechenaufwand kostet.
Es ist also immer noch besser weniger Kerne zu haben die mehr Leisten (Amdahl).
Intel geht hier also den richtigen Weg, AMD den absolut falschen. E
Das zeigt sich auch, weil Intel in den meisten Anwendungen die parallelisiert sind, mit 4 Kernen trotzdem vor AMDs angebliche 8-Kerner sind.
Dein Argument ist somit erwiesenermaßen falsch.

Ich hoffe ja auf einem enormen IPC (per Core) Anstieg.

Seit Win7 SP1 in keinem mehr, es zahlt sich eigentlich in fast jedem Fall aus es einzuschalten.
Zumal AMD ja auch nicht wirklich was anderes macht, halt mit Mehr Aufwand in der Logik.
Und: SMT ist eine super Sache: verbraucht laut Intel 1% der CPU Fläche, es braucht nicht viel mehr Strom etc.
Bringt in den multithreaded Applications zwischen 20% (worst case) 40-50% im Schnitt und Best Case sogar 80%
Ich kann mich noch erinnern als eine speziell angepasste Quake 4 Version kam, die auf einem Pentium 4 oder D 80% hinzugewonnen hat.
Natürlich wärs zusätzlich toll wenn man mehr "echte" Kerne hätte, wirds wohl auf den Enthusiastenplattformen weiterhin geben hoffentlich.
also dann 8C für Haswell-E, statt der fetten IGP. Und eben hoffentlich IPC-C Erhöhung.
Aber im Moment weiß ich bis auf in der Arbeit wenig Fälle wo ich das brauchen würde.
Oh je, das tat weh in den Augen.
Amdahl's Law hört nicht bei 4 Threads auf zu skalieren. Zu sagen Intel geht hier den richtigen Weg und AMD den falschen ist doch ******^3. Was ist denn der richtige Weg, wenn ich fragen dürfte? Der Weg der für einen wichtig ist, genau. Zweitens habe ich stark das Gefühl, dass du mit der relativ schlechten Modulrealisierung von AMD deinen Beweis gefunden haben willst, obwohl ich jetzt das Szenario umdrehen könnte und sagen: "Hey Intel hat ein "Moduler" in 22nm mit 8 Kernen, frisst 80 Watt, hat einen Super-Turbo-Modus und macht AMDs fette und langsame 4 Kerne fertig, die saufen wie ein Loch."
Beweis--> Intel geht den richtigen Weg, AMD den falschen.
So ähnlich liest sich deine Argumentation. Die Betrachtung ist einfach zu einseitig und ich will jetzt darüber keinen Roman schreiben, da Intel so oder so im Vorteil wäre, die können sich immerhin beinahe alles leisten.
Laut Intels alten Angaben verbraucht SMT 5% die area und bringt ungefähr 15-30% mehr an Performance, gleichzeitig hat Intel ab Nehalem angegeben die Effizienz stark erhöht zu haben und wie viel Performance Intel jetzt prognostizieren würde und wie viel es bei Sandy/Ivy kostet, ja das ist eine gute Frage.

Bezüglich HT beim P4:
Anno 1701 und C&C3 | 3DCenter.org

Und bezüglich deinen Kommentar mit Worst Case 20%, 40-50% im Schnitt und 80% im Best Case. Ich belasse es einfach unkommentiert.

Test: Intel Core i3-2100T (Seite 7) - ComputerBase

15% bei theoretischen Tests, rund 20% bei Spielen. Ansonsten bleibst du mir den Gegenbeweis schuldig und jetzt bitte keine Sachen, wo es Treiber Fails gibt oder sonst irgendwelche Crashes.

Was ich dir noch ankreiden möchte ist folgendes, in diesem Beispiel nennst du AMDs Performance-Schwäche, welche oft aufgrund von wenig Threads entsteht, beim MT sieht die Welt nicht so düster aus. Intels Lösung lobst du aber bei einem Heavy-MT-Beispiel.

So ich habe mich ausgesprochen.


@ Topic
Bei welchem Chipsatz wollte eigentlich Intel ein MCP benutzen?
 
Zuletzt bearbeitet:
Für den Haswell MCP nutzt Intel einen ULT-Chip mit 15W TDP und der GT3 samt einem nicht näher definierten PCH - einzig LP (low power?) ist hier vermerkt.

Intel-Haswell-2013-06.jpg Intel-Haswell-2013-04.jpg
 
Sooweit wie Intel und AMD bei der IPC auseinenderliegen helfen auch 16K dem Bulli nicht weiter.
Und selbst wenn alle Programiere vom AMD- benachteiligungs Geheul genug haben und nur noch für AMD CPU
Programieren.

Siehe Cinebench AMD 1,0 , Intel 1,6 das sind 60% @ Singelcore und Fertigungstechnisch ist Intel weiter vorn wie viele Glauben.
Jetzt kannst du mir sagen was einfacher ist das AMD die IPC relevant steigert oder das Intel ein Paar Kerne nachlegt.


Wenn hier alle Intel Nutzer so ein Wind machen würden weil SMT nicht bestmöglich implementiert ist und da 20-30% drin sind
gäbe es 4x soviele Posts im Forum.
 
Oh je, das tat weh in den Augen.
Amdahl's Law hört nicht bei 4 Threads auf zu skalieren. Zu sagen Intel geht hier den richtigen Weg und AMD den falschen ist doch ******^3.
Mäßige mal deinen Ton.
Wo bitte habe ich gesagt, dass es bei 4 Cores oder Threads aufhört? WO BITTE?
Ich sage nur, dass jede weitere Parallelisierung weniger bringt als die vorige. Ein mittelding aus vielen Kernen und denen dann viel Leistung verpassen ist im Consumerbereich eben intelligenter und besser.
DAS macht Intel richtig, nicht der SMT Ansatz oder sonstwas. Da kannst du noch so viel gegenargumentieren, die rohen Zahlen zeigen einfach: 4 "starke" oder "ganze" Cores bringen mehr als 4 Schwache und 4 weitere halbe schwache. Außer in den gaaaaanz wenigen Fällen wo man rankommt.
Das Argument, dass man halt einfach alles parallelisieren müsste, dann wären Core i7 und Bulldozer gleichauf, was von vielen genannt wird zieht dann eben auch nicht, denn viele Anwendungen sind nicht gut parallelisierbar, etwa bei Spielen wo diverse Threads nunmal mehr Power brauchen als andere (etwa Physik, Weltberechnung, Audio, KI, etc)
Leicht geht das eben nur bei Dingen die gut parallelisierbar sind (Videoencoding, Povray, Audioencoding, evtl Verschlüsseln uvm), das wird aber noch viele viele Jahre eine Minderheit sein - zumindest für die Meisten hier im Forum.
Und warum der Ansatz von Intel für MICH am besseren ist, hat nichts mit blauer Brille zu tun, sondern einfach mit den Anwendungen die ich heute und in den kommenden 5 Jahren nutzen werde. Und da zeigt sich:
Wenn sie nur 1 Core brauchen oder schlecht parallelisierbar sind:deutlicher Win für Intel
Wenn sie bis 4 Cores unterstützen: deutlicher Win für Intel
wenn sie 8 Threads brauchen: knapper Sieg von Intel
Also ist die von Intel gewählte Lösung auf jeden Fall besser - für mich.
Und seien wir ehrlich, wieviele User profitieren wirklich von der Multithreadingtauglichkeit Bulldozers? 5%, vielleicht in 5 Jahren 10-15%?
Dann haben wirs so beim Bulldozer
heute in 95% der Fälle langsamer
in 5 Jahren in 85%.
Wo ist da jetzt der Fehler von Intel? Das hat wenig mit blauer Brille zu tun, das IST nunmal so. Leider. Ich hab selber gehofft Bulldozer haut den i7 weg.
Und wenn jetzt in weiteren Jahren mehr auf Parallelisierung gesetzt wird, wird es aus oben genannten Gründen immer noch Viele Anwendungen geben die viel Power von wenigen Cores brauchen. Völlig Egal ob Intel hier den 8 Core in den Mainstream quetscht, das wird den Markt nicht sonderlich beschleunigen?
Wie lange gibts leistbare 4-Cores und wieviele Programme gibts wirklich dafür?
Wie hieß es einst: als bei vielen Reviews Intel Pentium 4 und AMDs Athlon 64 performancemäßig gleichauf waren hieß es: greifen Sie zum Athlon, der ist dank 64 Bit zukunftssicherer.
Der Markt sprang auch nicht auf als ausnahmsweise Intel von AMD die Technik lizenzierte und heutzutage in jedem Prozessor drin ist.
10 Jahre später ist kaum was passiert, also erzählt mir bitte keiner was davon, dass es besser wäre 8 cores schon jetzt in den Consumerbereich zu drängen denn das wäre so gut für die Softwareentwicklung.


Was ist denn der richtige Weg, wenn ich fragen dürfte? Der Weg der für einen wichtig ist, genau. Zweitens habe ich stark das Gefühl, dass du mit der relativ schlechten Modulrealisierung von AMD deinen Beweis gefunden haben willst, obwohl ich jetzt das Szenario umdrehen könnte und sagen: "Hey Intel hat ein "Moduler" in 22nm mit 8 Kernen, frisst 80 Watt, hat einen Super-Turbo-Modus und macht AMDs fette und langsame 4 Kerne fertig, die saufen wie ein Loch."
Beweis--> Intel geht den richtigen Weg, AMD den falschen.
Nun ich weiß nicht was der richtige Weg ist. Wenn ein weg aber performancestärker, günstiger in der Herstellung, kühler, stromsparender, leiser zu kühlen usw ist, dann ist er in meinen augen kurz und mittelfristig "richtiger" als der andere.
Dass Programme kommen, die mehr als 8 Kerne nutzen ist klar, die Umstellung wird aber Jahre dauern und bis dahin ist die Architektur des Bulldozer ineffizient und die des i7 nunmal passender, weil sie die heutigen Aufgaben "effizienter" erledigt.
Ob in 5 Jahren ein Bulldozeransatz im Heimcomputer der richtige ist, weiß keiner von uns. Der richtige Weg wäre der Bulldozer dann heute aber trotzdem noch nicht gewesen, zumindest nicht vollständig. Man könnte dann sagen, AMD war der Zeit voraus bzw der Bulldozer kam nach all den Jahren Entwicklung immer noch zu früh ;)
Vielleicht arbeitet man gerade so hart an den Fehlern und Verbesserungen des Bulldozers, dass man aber dann wenns drauf ankommt (nehmen wir jetzt mal die Fantasiezahl 5 Jahre, dies ist nur ein Platzhalter), doch vorne ist, wars zumindest zum Teil der richtige Weg - ja.
Aber weißt du es? Ich weiß es nicht.
Ich denke aber für den Many-Core CPU Markt ist der Desktoppc noch ungeeignet.
Es gibt ja schon interessante CPU Projekte (SPARC? Larrabee usw) die in diese Richtung gehen und eventuell geht mal alles in die Richtung, wer weiß.
Vielleicht kommt auch mal eine Mischarchitektur: ein paar "starke" Kerne, viele kleine für Miniaufgaben (etwa eine Kombination aus i7 und Larrabee), wie es bei Handychips ähnlich ist.



So ähnlich liest sich deine Argumentation. Die Betrachtung ist einfach zu einseitig und ich will jetzt darüber keinen Roman schreiben, da Intel so oder so im Vorteil wäre, die können sich immerhin beinahe alles leisten.
Der Vergleich ist zugegeben, fon der Finanz und Forschungsmacht her, unfair. Niemand weiß was man bei AMD draus gemacht hätte, wenn sie mehr Ressourcen gehabt hätten. Ich schätze, zumindest die IPC-C des Vorgängers hätte man dann erreicht bei weniger Verbrauch und somit in einigen Benchmarks doch besser ausgeshen. Vorallem der Rückstand in der Fertigungstechnologie ist enorm Hinderlich. Bulldozer in 22nm sieht vielleicht eine Spur besser aus. Mit der IPC oder gar ein paar Prozent besserer IPC als Phenom (schließlich ist der auch schon "ur"alt) und man hat die Konkurrenz auf Augenhöhe.
Das wäre für den Markt zu hoffen gewesen, ich hätte gehofft, dass man sogar DEUTLICH mehr IPC zusammenbringt.
Laut Intels alten Angaben verbraucht SMT 5% die area und bringt ungefähr 15-30% mehr an Performance, gleichzeitig hat Intel ab Nehalem angegeben die Effizienz stark erhöht zu haben und wie viel Performance Intel jetzt prognostizieren würde und wie viel es bei Sandy/Ivy kostet, ja das ist eine gute Frage.
Dann tuts mir leid, dass ich das völlig falsch im Kopf hatte. Zu deinen nachfolgenden Beispielen: ich meinte eher nicht Spiele, weil diese von Parallelisierung nicht so profitieren. Man sieht bei diversen Anwendungen 50%. 80% sind tatsächlich völlig aus der Luft gegriffen - sorry.
Was ich dir noch ankreiden möchte ist folgendes, in diesem Beispiel nennst du AMDs Performance-Schwäche, welche oft aufgrund von wenig Threads entsteht, beim MT sieht die Welt nicht so düster aus. Intels Lösung lobst du aber bei einem Heavy-MT-Beispiel.
Hmm ja nein so war das nicht gemeint. HT ist für mich ein zuschaltbares "gratis"-Feature im Sinne von: es braucht kaum Diefläche, kaum Strom, tut nicht weh. Bringt auch weniger - schon klar. Aber dafür, dass es scheinbar kaum Aufwand macht ist es doch irgendwie mächtig.
Und der Ansatz von Intel gefällt mir deshalb ja eben besser, weil die ganze Architektur ja darauf nicht ausgelegt sein muss und man somit in Programmen die weniger Threads brauchen deutlich überlegen ist - und jetzt kommts - und dank dieses Minifeatures in Programmen, die eigentlich wie geschaffen für einen Prozessor sind der mehr Kerne hat (Bulldozer) doch immer noch mithalten oder gar davonziehen kann.
Im direkten Vergleich sind diese 20-50 % ja doch brauchbar.

Ein direkter Vergleich wie gut die Architekturen nunmal sind, wird eh ewig schwierig:
Man nutzt ja doch den Compiler von Intel (wohingehend wird der wohl optimiert sein)
Man optimiert ja von Haus aus für die Architektur die80% Marktanteil hat
Vermutlich ist jeder Performancetrick den man anwenden kann bei der Core-Architektur schon irgendwo im Code eingebaut von vielen Anwendungen.
Während hingegen die Architektur des Bulldozer neu ist und noch "unerforscht".Wer weiß was man da noch rauskitzeln kann.
Für den Haswell MCP nutzt Intel einen ULT-Chip mit 15W TDP und der GT3 samt einem nicht näher definierten PCH - einzig LP (low power?) ist hier vermerkt.

Anhang anzeigen 561951 Anhang anzeigen 561952
Ich weiß es wurde schonmal diskutiert aber:
ist da mit den 95 Watt TDP jetzt gemeint, der Haswell -E (vermutlich nicht) oder tatsächlich der Haswell wie er für den Desktop Sockel 1150 kommt? Wenn ja dann :( Dachte Intel kann den Verbrauch ihrer Performanceprozessoren weiter niedrig halten (65W) und die Leistung erhöhen. Aber ging ja bei Ivy schon fast schief
 
Umm - ehe jetzt hier die gesamte CPU-Entwicklung und Markengeschichte der letzten zwei Jahrzehnte aufgewärmt wird, weise ich noch einmal ausdrücklich daraufhin, dass Thema dieses Threads Haswell, bevorzugt insbesondere die Haswell-Chipsätze und der Sockel sind. Nicht Thema sind die finanziellen Möglichkeiten AMDs.
 
ist da mit den 95 Watt TDP jetzt gemeint, der Haswell -E (vermutlich nicht) oder tatsächlich der Haswell wie er für den Desktop Sockel 1150 kommt? Wenn ja dann :( Dachte Intel kann den Verbrauch ihrer Performanceprozessoren weiter niedrig halten (65W) und die Leistung erhöhen. Aber ging ja bei Ivy schon fast schief
Die 95W gelten für Haswell DT, wie es mit Haswell EP/EX aussieht, ist iirc nicht sicher - aber wohl wieder bis zu 150W so wie bei Sandy Bridge EP/EX. HSW DT hat bis zu 95 Watt, dafür aber (höchstwahrscheinlich) deutlich mehr CPU-Power und vor allem erstmals eine GT3-Grafikeinheit, welche einen sehr großen Sprung machen dürfte - bis dato aber völlig spekulativ. Broadwell dürfte dann wieder auf 77W runter gehen, sofern Intel dies beibehält.
 
Und noch sparsamer unwahrscheinlicher?

150W ist ja schon bannig viel aber den meisten Leuten ist CPU Leistung wichtiger als energiesparen...leider
 
Die 150W beziehen sich auf 14 Kerne plus SMT und ein QC-Interface. So gesehen ist das dann wieder effizient.
 
Zurück