Royal Core: Größte architektonische Änderung bei Intel seit 2006?

Ich bin dafür, dass Intel das als Royal Käse und Royal TS verkauft.

Ansonsten sind CPUs an den Punkt gekommen an dem Sound irgendwann war und es einfach keinen Grund für bessere Soundchips mehr gab. Klar hat jeder Computer einen Soundchip, aber wieviele Leute können aus dem Stehgreif sagen welchen Soundchip sie benutzen. Gleiches gilt für den Netzwerk, WiFi und Bluetooth Chip. Man will, dass er da ist, aber man macht sich keinen Kopf um technische Details.

Wenn ich nicht zocke ist meine CPU Last 5-10% maximal, da ist es völlig uninteressant ob der nächste Intel 30% schneller ist, weil ich bestimmt nicht CPUs nach dem Prinzip kaufen, dass ich meine normale Desktop CPU Auslastung unbedingt bei 7% oder darunter haben will. Das ist nach wie vor das Kernproblem von Intel. Die Zeiten in denen 30% Upgrade bei Intel eine 30% Produktionssteigerung beim Kunden dargestellt haben und der deswegen sofort zugeschlagen hat, weil er es satt war immer warten zu müssen sind vorbei. Das verlängert die Zyklen in denen Neuware gekauft wird und das drückt den Umsatz.

Und dieses "Nichtwissen" bzw. Desinteresse kam nicht erzwungenermaßen sondern natürlicherweise.
Warum möchtest Du das nun bei der CPU künstlich beschleunigen? Wenn der Punkt gekommen ist, ist er gekommen - vorher logischerweise nicht. ;)

Und definitiv darf man darüber streiten, ob man nicht noch mehr CPU-Leistung benötigt. Da sollte man dann auch mal etwas über den Tellerrand schauen.
 
Früher mußte man sich bei Intel nur einen Codenamen merken und nachdem AMD es, mit Bulldozer vergeigt hatte, garkeinen. Plus nochmal alle zwei Jahre je einen von Nvidia und AMD.

Jetzt sind es bei Intel drei Pro Jahr. Wobei man es sich recht einfach merken kann.

1: Cove sind die großen Kerne
2: -mount sind die Atomkerne
3: Lake ist beides zusammengepackt.

Es wird komplizierter. Hoffentlich kommen AMD und Nvidia nicht noch auf dumme Ideen.
 
Und definitiv darf man darüber streiten, ob man nicht noch mehr CPU-Leistung benötigt. Da sollte man dann auch mal etwas über den Tellerrand schauen.

Webanwendungen werden jedes Jahr mehr und auch große Software will nicht mehr lokal laufen. Man nehme nur die ganzen Datev Kunden. Wieviel Zeit wird da mit Updates und Troubleshooting verschwendet, damit das lokal läuft? Da stellt doch jeder mit Handkuss auf die Onlienversion um. Konseuqenz? Statt einem Haufen Intel tun es dann ein paar Raspberry Pi (wenn man übertreiben will). Jedem mögen Produkte einfallen mit dennen das nicht geht und Orte an denen man sich nicht so vom Netz anhängig machen will. Aber über die Breite der Masse werden diese Umstellungen einfach Nachfrage zerstören. Nachfrage nach schneller Rechenzeit und Speicherbandbreiten die charakteristisch für die letzten 25 Jahre waren und es einfach nicht mehr in diesem Maße sind.

Intel CPU mit iGPU, Netzwerkchip, Soundchip, Southbridge (Chipsatz), das ist kurz davor in einem Intel SoC zu verschwinden. Desktops sind noch etwas hinterher, aber wenn man sich ansieht wohin die Reise bei den Laptop Mainboards ging die letzten 5 Jahre, dann sind die interessanten Infos die von Intel noch nicht geleakt. Denn die interessanten Infos wäre die über die sonstigen Funktionen der neuen CPUs, nicht ob ein einzelner Core schneller ist.
 
Was hat Apple vorgemacht?
Offtopic:
Apple hat mit dem M1 eine (für aktuelle Verhältnisse) extrem starke Kombination von Leistung und Effizienz hinbekommen, die selbst die aktuelle Speerspitze der X86-Konkurrenz ziemlich erblassen lässt. Wie genau, das weiß momentan kaum jemand, da Apple sich sehr bedeckt hält.
Blau & Rot haben natürlich einen entscheidenden Vorteil: den M1 gibt es nur als streng proprietäre Lösung - er stellt also keinen unmittelbaren Marktkonkurrenten für die beiden dar. Die durchaus interessante Frage ist eben, wie lange das so bleiben wird.
 
Zuletzt bearbeitet:
Offtopic:
Apple hat mit dem M1 eine (für aktuelle Verhältnisse) extrem starke Kombination von Leistung und Effizienz hinbekommen, die selbst die aktuelle Speerspitze der X86-Konkurrenz ziemlich erblassen lässt. Wie genau, das weiß momentan kaum jemand, da Apple sich sehr bedeckt hält.
Blau & Rot haben natürlich einen entscheidenden Vorteil: den M1 gibt es nur als streng proprietäre Lösung - er stellt also keinen unmittelbaren Marktkonkurrenten für die beiden dar. Die durchaus interessante Frage ist eben, wie lange das so bleiben wird.

Das ist ja wohl keine grosse Kunst , schließlich muss der M1 ja nur Apple Software bearbeiten
:schief:
 
[...] Blau & Rot haben natürlich einen entscheidenden Vorteil: den M1 gibt es nur als streng proprietäre Lösung - er stellt also keinen unmittelbaren Marktkonkurrenten für die beiden dar. Die durchaus interessante Frage ist eben, wie lange das so bleiben wird.
Ich würde annehmen für immer, denn das ist ja schließlich Apples zentrales Geschäftsmodell: Ein komplett abgeschlossner Markt, den sie vollständig in der Hand haben und in dem sie dadurch den größtmöglichen Umsatz und Gewinn erwirtschaften können. Die Hardwarefertigung in die eigene Hand zu nehmen, zahlt letzten Endes genau darauf ein, nämlich sich von Intel und AMD unabhängig zu machen. Absehbar erfolgen jetzt und im nächsten Jahr so grob die letzten Einläufe bei denen und dann wird Apple sich abgenabelt haben. Intel wird absehbar früher raus sein, AMD folgt dann ein klein wenig später, da Apple hier anscheinend noch etwas länger braucht für die eigene Grafik-IP, an der sie jedoch auch schon seit längerem dransitzen.
 
Das ist ja wohl keine grosse Kunst , schließlich muss der M1 ja nur Apple Software bearbeiten
:schief:
So ist es. Würde der M1 In unserem ganz normalen Umfeld rechnen müssen, wäre er alles andere als schnell.
Klar ist er auch für mich ein cooler Chip, aber eben nur für ein geschlossenes System. Der bekommt ja auch nur Code der für ihn passt.
Besonders toll, ist er mMn nicht.

Hier mal zu dem Theater von Intel bezüglich des M1...
Wohlgemerkt von Macwelt!
 
Zurück