AW: IDF 2013: 14-nm-Fertigung bringt mehr als 35% Größenvorteil
Es ist ja legitim gewisse Prozessortypen mit iGPU auszustatten - dagegen spricht ja nichts. Wenn jedoch jede gottverdammte Intel-CPU damit ausgestattet ist, hört der Spass auf! Was nutzt mir dieses Angebot, wenn es so grottig und nutzlos ist? Alle meine Prozessoren seit Sandy-Bridge haben den Mist drin, obwohl ich ihn nicht brauche. Bis Intel eine vernünftige Grafikeinheit "irgendwann einmal" auf die Beine gestellt hat, werden gewissen Gruppen benachteiligt, die reine CPU-Leistung möchten.
Insbesondere betroffen sind "Renderer, Gamer und sonstige Enthusiasten"! Es regt mich jedesmal auf, dass ich eine GPU-Einheit auf meiner CPU habe, die mindestens 35% der Gesamtgröße verschingt. Das könnten 35% mehr von meiner CPU sein.
--> Die einzigen Prozessoren ohne GPU sind entweder Atom-/Celeron-/Pentium-Ableger (stark beschnitten) oder evtl. teure Xeons, die zum einen weniger/andere Features haben. Eine K-Modell finde ich bei keiner Xeon-Einheit - verständlich, da eher für Server Workstations ausgelegt sind. Alles mit Sockel 2011 zählt für mich nicht, da die Größe nur verbreitert ist. Mit solchen Versionen kann ich mir kein Mini-ITX-System zulegen. Für Dual-Sockel sind sie fast schon zu groß. Was soll also der Mist Intel?
Ist es denn wirklich ein Problem eine solche CPU anzubieten? Wäre auch garkein Problem, falls sie dann 300-600€ kosten würde. Einzig Intel hat damit irgendwie Komplexe. Versteh das einer?!
Wenn du aber z.B. nur die Hälfte davon ausstattest, dann machst du genau was? Du erhöhst die Fragmentierung, was man nicht unbedingt haben möchte.
Ja, die Entwicklung kostet auch Leistung und fordert ihre Opfer, dass hat teilweise etwas von Afrika, du investierst in Bildung und die Leute wandern dann aus, weil sie im Ausland eben mehr verdienen.
Was will man jetzt machen? Sagen es ist nutzlos? Man trägt eben solange die Verluste bis "irgendwann einmal" eben eingetreten ist.
Irgendwann einmal ist ein Weg, kein Punkt wo man sofort ist, wenn man möchte.
Das könnten zwar 35% deiner CPU sein, aber würde das auch 35% Leistung bringen? Ich sage es mal so, aufgrund der Konsolen und der Software-Entwicklung war der Schritt nach mehr Kernen nicht nötig.
Intel hat durchaus eine Menge zusätzlich entwickelt und das schlägt sich leider auch nur in eine Handvoll Prozente ein.
Jetzt wird sich die Software Landschaft drehen, jetzt kann man in Zukunft auch eher allgemein kritisieren.
Klar Leute mit MT-Anwendungen, Renderer what ever etc. konnten das eig. schon immer, weil sie "gezwungen" sind die High-End P zu kaufen, die insgesamt verdammt teuer ist.
Da kann man die Preispolitik kritisieren, aber reine CPUs mit 6 Kernen bietet Intel für den Consumer an.
Sockel 2011 > Sockel 1366 > Sockel 1150/55 > Sockel 775 > Sockel 478 > Sockel423
Die Reihenfolge stimmt nicht ganz, ich habe teilweise die Kühlerkonstruktion mitgezählt. Was ich eigentlich gemeint habe, ist dass Intel die Sockel/CPUs "breiter" macht.
S115x ist von der Dimension her genau so groß wie S775.
Also über die ganzen Jahre ist es doch in der Mitte fast konstant geblieben.
Die High-End Sockel gehen halt nach oben.
Zudem sind einige Modelle, darunter alles über 6-Kerne nahezu unbezahlbar!!!!! Was spricht denn dagegen, wenn andere auch GPUs verkaufen? Das ist nur etwas für die Statistik bzw. Intels Ego. Sollen sie doch eine neue Art von Co-CPU in Modulform bringen.
--> Die Leute mit Interesse würden horrende Summen für austauschbare Onboard-Grafik zahlen. Dabei könnte Intel auch die Embedded-Strategie mit den Sockeln sowohl für CPU / GPU betreiben. Aber lieber kundenfeindliche Politik, bei der entweder Friss-oder-Stirb gilt.
Es spricht z.B. dagegen, dass Intel mit reinen CPUs seinen Marktanteil mit jemanden anderem teilen müsste und Umsätze ebenso, lieber mehr eigenes Silizium verkaufen.
Wenn alles von Intel kommt und der Hersteller auf eine "fremd GPU" verzichtet, dann lächelt Intels Umsatz und sie gewinnen Marktanteile, da freuen sich dann auch alle.
Es ist natürlich sehr praktisch seine eigenen GPU Lösungen zu verbreiten, weil sich dann Entwickler damit auseinander setzen müssen, ebenso hat es Effizienzvorteile.