Intel Coffee Lake-S angeblich vorgezogen: 2. Antwort auf AMDs Ryzen?

generell finde ich es eher zweckentfremded, wenn bei einer neuen plattform "zu" alte cpus und alte ram-standards unterstützt werden. Für mich ist das immer irgendwie weder fisch noch fleisch.
wenn ich eine neue cpu kaufe, dann ist meist auch das neue mb dabei und eventuell auch der ram.
wenn ich eine noch performante cpu habe, würd ich mir nur wegen einer neuen plattform sicher keine neues mb kaufen um dann in x jahren auf eine neue cpu upgraden zu können, die dann voraussichtlich auch schon veraltet ist.
Ich gehe jetzt nicht von alten Mainboards mit neuer CPU aus eher andersherum als dieses oder nächstes Jahr einen Ryzen oder Ryzen 2 und der kann 2019 als Beispiel auf einem am4+ genutz werden.

Bei Intel geht das nur bedingt da entweder ein neuer Sockel oder Chip dabei ist und dadurch der Wechsel nicht klappt. Aber genug OT.

Gesendet von meinem SM-G935F mit Tapatalk
 
Aha, deswegen erzielt man mit ner single Core CPU in jedem Game die gleichen Ergebnisse wie mit jeder Multicore CPU.
Oder muss ich wieder mal davon ausgehen, dass Multicore erst ab ner bestimmten Kernzahl anfängt?

So da muss ich ausholen
Erstmal wenn games mehr CPu kerne nutzen liegt das ausschließlich am game selbst also der game engine
Warum ist das so
ab directx10 kann directx per gpgpu direkt an shader befehle ausführen aber ist limitiert durch den mainthread der das Bild berechnen soll.
das heißt die Auflösung des Bildes ist auf einen cpu Kern limitiert.
Warum ist das ein Problem weil GPu mittlerweile so schnell sind das die Darstellung des Bildes in 1080p die GPu nicht auslastet und nur cpu takt dies erhöhen kann.
Da spielt es keine rolle ob nun 3096 oder 1280 shader aktiv sind
klar die höheren shader würden mehr Effekte zulassen und somit je nach game mehr fps
je geringer die gpu last bei einen game bsp pvz gw2 mit der frostbyte engine2 wird eine gtx1060 nicht mal voll ausgelastet in 1080p max Einstellung bei eine cpu Takt von 3,6ghz aber wenn ich dann 4ghz habe ist die gpu voll ausgelastet
anders sieht das bei BF1 aus wo die gpu Effekte aufwendiger sind. Da reichen 3,6ghz
Bei IPC von 1,6 amd und intel cpu aus.
So nun zu den unterschieden der GPu architekturen
Nvidia hat dx11 fähige GPu und das Rasterizing Problem Software seitig gelöst. heißt der Mainthread wird entlastet was die Auslastung der gpu in dx11 fast eliminiert.
heißt das nvidia für ihre gtx1060 nur eine cpu benötigt mit 3,6ghz sofern ein game entsprechend gpu last anliegt bsp deus ex MD
Wogegen amd rx480 min 4,0ghz benötigt
Amd hat eine hardware Lösung für das Problem des dx11 limits am CPU Takt.
Was aber directx11 nur suboptimal entspricht.
dafür gibt es directx 12
ab dx12 kann man die gpu shader direct vom directx compiler anweisen das diese die aufgaben verteilt.
klar muss dann die Entwickler noch zusätzlich anpassen. was funktioniert den schon automatisch gut.
Aber die api macht schon fast die ganze Arbeit.
das ist im Gegensatz zu allgemein gültigen anmahne ein high level api
das low level bezieht sich ur auf den Ausgangscode. Den die api auswirft
Dirctx11 hat wie gesagt ein limit beim cpuz Takt.
Bei dx12 kann man durch diese Option den benötigen cpu Takt senken. von derzeit 4,0ghz für die rx480 auf 3,4ghz
Ds durch dx12 mehr Kerne genutzt werden können stimmt nicht
Directx kann seit version 10, 4 threads per gpgpu aufgaben zuweisen an cpu
ab version 11 192threads
Die Kern Auslastung in dx11 oder dx12 hängt vom Spielentwickler ab.
Die drawcalls die man durch den neuen api Zuweisung bereitstellen könnte geht nur über gpgpu
Dort sind theoretisch mehr als 1kern cpu möglich das diese das Bild berechnen
Aber bei seriellen code ist das so eine Sache.
irgendwann muss der thread auf das Ergebnis eines anderen warten. Somit erwarte ich mit dx12 nur bessere GPu Auslastung bei amd GPU hardware
Nvidia gpu profitieren gar nicht
Optisch ist dx11 und dx12 nichts neues mehr drin.
es gibt keine neuen Bildfilter, Berechnungsvorteile nur bei amd gpu
Was den verdacht bestätigt das dx12 für amd GCN gedacht ist.
nvidia muss wohl blöd geguckt haben als MS dx12 angekündigt haben.
2012 hieß es noch directx11 wäre das letzte dx
Und kaum hat amd mantle vorgestellt kam auch schon 2015 DX12
man sieht an vulkan was überwiegend das 1 thread Problem auch angeht das mit nvidia gpu auch die gpgpu Ansteuerung geht
Ohne dabei gcn spezifisch hardwarw feature anspricht.
das nvidia dx12 läuft ist eher so emuliert als wirklich unterstützt.
Daher ist jede Aufschrift für directx12 auf nvidia Kartons fürn Arsch
mit directx12 hat man keine Vorteile, nicht optisch und keine Performance Verbesserung bei nvidia.
Vulkan dagegen nutzt das was die gpu schon sein 2006 können.
nämlich die shader direkt ansprechen und da die Zeichenbefehle anfordern.
Ob nun das besser ist ist gewagt zu erwähnen.es hängt viel davon ab wie viel cpu Leistung eine gpu benötigt.
Und vulkan kann die cpu last deutlich verringern. also genau das was directx12 auch tun soll. nur das dx12 nur auf amd hardware läuft.
Eine API ist viel mehr als nur die software das ein Bild erstellt wird.
Das Paket regelt die komplette Hardware Ansteuerung und somit auch die cpu Leistungsanforderung an einen thread oder wahlweise an shader und somit an alle cpu Kerne

Die Standard Einstellung ist alles auf einen CPU thread zu schreiben. nun ein Spiel läuft ja nicht nur der Bildaufbau sondern auch andere dinge.
nur wirklich schlechte game engine die noch aus der zeit vor directx10 sind benutzen wirklich nur 1 CPU Kern und einen weiteren für Logik
Was dx12 kann gegenüber anderen dx Generationen
Direct3D feature levels (Windows)
was directx bewirkt bei amd und nvidia gpu's
Dx11 Problematik.jpg
 
Zuletzt bearbeitet:
Prozessorarchitektur,



ganz genau so sieht die hardware zukunft aus mit vollen shader & kern skalierung belastung durch direkten hardware zugriff usw und da ist amd seine konkurrenzen zukunft mäßig etwas voraus was technik mäßig angeht !!!

ich muss auch was dazu sagen, das die intel zeiten also mit hochen ipc und nvs dx11 strategisches abmachung mit den spielentwickler sind nun bald und gotseidank komplett vorbei.

intel sowie nv werden also bald nicht mehr das spielchen haben wie bisher, zb intel mit ihren angewiesene hohen ipc bzw hohen kern takt oder die dx 11 vorteile bei nv gpus, gehören bald der vergangenheit.

wird nichts mehr werden meine damen und herren, ein alptraum für intel und nv und ihren fangemeinde !

aber macht doch nichts wird schon mit der zeit verschmerzbar und bald alles zur standard werden und man kauft sich dann selbsverständlich einfach das preisgünstigste produkt von irgendein hersteller, da preisleistung ja bald für gaming quasi nicht mehr existieren bzw eine große rolle spielen wird :daumen:

und wir werden dann endlich bald von solchen leuten wie schaffe usw verschont bleiben die ständing in foren meinen zu müssen zb wie mit, 1060 ist schneller & verbraucht weniger als... und viele andere mit, intel 4 kerner mit hochen ghz wahn bzw mega oc ist die bessere wahl als 6/8kerner und wiederum viele andere, amd ist bla bla usw :ugly::fresse:


ach herrje, ich mache wieder einen auf guru :D
 
Zuletzt bearbeitet von einem Moderator:
@Prozessorarchitektur sehr schön beschrieben darunter vieles was nicht mal ich wusste abgesehen davon das dx12 bei AMD durch die Hardware und bei nVidia durch Software geregelt wird.

Gesendet von meinem SM-G935F mit Tapatalk
 
So da muss ich ausholen
Erstmal wenn games mehr CPu kerne nutzen liegt das ausschließlich am game selbst also der game engine
Warum ist das so
ab directx10 kann directx per gpgpu direkt an shader befehle ausführen aber ist limitiert durch den mainthread der das Bild berechnen soll.
das heißt die Auflösung des Bildes ist auf einen cpu Kern limitiert.
Warum ist das ein Problem weil GPu mittlerweile so schnell sind das die Darstellung des Bildes in 1080p die GPu nicht auslastet und nur cpu takt dies erhöhen kann.
Da spielt es keine rolle ob nun 3096 oder 1280 shader aktiv sind
klar die höheren shader würden mehr Effekte zulassen und somit je nach game mehr fps
je geringer die gpu last bei einen game bsp pvz gw2 mit der frostbyte engine2 wird eine gtx1060 nicht mal voll ausgelastet in 1080p max Einstellung bei eine cpu Takt von 3,6ghz aber wenn ich dann 4ghz habe ist die gpu voll ausgelastet
anders sieht das bei BF1 aus wo die gpu Effekte aufwendiger sind. Da reichen 3,6ghz
Bei IPC von 1,6 amd und intel cpu aus.
So nun zu den unterschieden der GPu architekturen
Nvidia hat dx11 fähige GPu und das Rasterizing Problem Software seitig gelöst. heißt der Mainthread wird entlastet was die Auslastung der gpu in dx11 fast eliminiert.
heißt das nvidia für ihre gtx1060 nur eine cpu benötigt mit 3,6ghz sofern ein game entsprechend gpu last anliegt bsp deus ex MD
Wogegen amd rx480 min 4,0ghz benötigt
Amd hat eine hardware Lösung für das Problem des dx11 limits am CPU Takt.
Was aber directx11 nur suboptimal entspricht.
dafür gibt es directx 12
ab dx12 kann man die gpu shader direct vom directx compiler anweisen das diese die aufgaben verteilt.
klar muss dann die Entwickler noch zusätzlich anpassen. was funktioniert den schon automatisch gut.
Aber die api macht schon fast die ganze Arbeit.
das ist im Gegensatz zu allgemein gültigen anmahne ein high level api
das low level bezieht sich ur auf den Ausgangscode. Den die api auswirft
Dirctx11 hat wie gesagt ein limit beim cpuz Takt.
Bei dx12 kann man durch diese Option den benötigen cpu Takt senken. von derzeit 4,0ghz für die rx480 auf 3,4ghz
Ds durch dx12 mehr Kerne genutzt werden können stimmt nicht
Directx kann seit version 10, 4 threads per gpgpu aufgaben zuweisen an cpu
ab version 11 192threads
Die Kern Auslastung in dx11 oder dx12 hängt vom Spielentwickler ab.
Die drawcalls die man durch den neuen api Zuweisung bereitstellen könnte geht nur über gpgpu
Dort sind theoretisch mehr als 1kern cpu möglich das diese das Bild berechnen
Aber bei seriellen code ist das so eine Sache.
irgendwann muss der thread auf das Ergebnis eines anderen warten. Somit erwarte ich mit dx12 nur bessere GPu Auslastung bei amd GPU hardware
Nvidia gpu profitieren gar nicht
Optisch ist dx11 und dx12 nichts neues mehr drin.
es gibt keine neuen Bildfilter, Berechnungsvorteile nur bei amd gpu
Was den verdacht bestätigt das dx12 für amd GCN gedacht ist.
nvidia muss wohl blöd geguckt haben als MS dx12 angekündigt haben.
2012 hieß es noch directx11 wäre das letzte dx
Und kaum hat amd mantle vorgestellt kam auch schon 2015 DX12
man sieht an vulkan was überwiegend das 1 thread Problem auch angeht das mit nvidia gpu auch die gpgpu Ansteuerung geht
Ohne dabei gcn spezifisch hardwarw feature anspricht.
das nvidia dx12 läuft ist eher so emuliert als wirklich unterstützt.
Daher ist jede Aufschrift für directx12 auf nvidia Kartons fürn Arsch
mit directx12 hat man keine Vorteile, nicht optisch und keine Performance Verbesserung bei nvidia.
Vulkan dagegen nutzt das was die gpu schon sein 2006 können.
nämlich die shader direkt ansprechen und da die Zeichenbefehle anfordern.
Ob nun das besser ist ist gewagt zu erwähnen.es hängt viel davon ab wie viel cpu Leistung eine gpu benötigt.
Und vulkan kann die cpu last deutlich verringern. also genau das was directx12 auch tun soll. nur das dx12 nur auf amd hardware läuft.
Eine API ist viel mehr als nur die software das ein Bild erstellt wird.
Das Paket regelt die komplette Hardware Ansteuerung und somit auch die cpu Leistungsanforderung an einen thread oder wahlweise an shader und somit an alle cpu Kerne

Die Standard Einstellung ist alles auf einen CPU thread zu schreiben. nun ein Spiel läuft ja nicht nur der Bildaufbau sondern auch andere dinge.
nur wirklich schlechte game engine die noch aus der zeit vor directx10 sind benutzen wirklich nur 1 CPU Kern und einen weiteren für Logik
Was dx12 kann gegenüber anderen dx Generationen
Direct3D feature levels (Windows)
was directx bewirkt bei amd und nvidia gpu's
Anhang anzeigen 949598
Vor DX12 war DX eine implizite API mit vielen unterschiedlichen States, welche der Treiber auflösen musste, wo die Speicherverwaltung zu großen Teilen vom Treiber erledigt wurde, wo Ressourcen protokolliert wurden und stets darauf geachtet, dass keine Konflikte im Programmablauf stattfinden.
Das ganze Abstraktionsmodell hat dazu geführt, dass der Entwickler wenig direkte Kontrolle über die Ausführung vieler verschiedener Dinge besaß und der Treiber hauptsächlich auf einen Thread beschränkt war und die Komplexität mit zusätzlichen Draw-Calls schnell anstieg und der Overhead zu einem Flaschenhals führen konnte, wo ein Kern bzw. ein Thread viel länger benötigt als die anderen und der Rest deswegen in ein Ruhe bzw. Auslastungsschwachen Zustand verfällt.
MS hat es simpel illustriert:
http://media.redgamingtech.com/rgt-website/2015/03/dx11vsdx12-performance.jpg

Nvidia hat viele Ressourcen in ihren DX11-Treiber investiert und es scheint, dass sie interne Prozesse sogar auf mehrere Threads verteilen können, dass führt bei vielen Spielen zu einer besseren Kernskalierung und Performance auf Seiten der CPU.
Soweit war Nvidia aber nicht vom ersten Tag an und prinzipiell hindert auch AMD nichts daran, ein ähnliches Modell für ihren Treiber umzusetzen.

Mit DX12 ändert sich die Situation grundlegend, der Treiber kümmert sich nicht mehr um die Erstellung des Command-Buffers für die CPU, dass erledigt jetzt der Entwickler selber und dabei kann er jetzt endlich Command-Lists von jedem Thread aus generieren.
Das führt natürlich dazu, dass die Arbeitslast verteilt wird und es nicht mehr diesen gewaltigen Mainthread mit dem Rendering bzw. Driver-Overhead gibt.
Hier liegt dann auch das wesentliche Potential besser über mehrere Kerne zu skalieren.
Allgemein sinkt der Overhead von DX12 zusätzlich, da die Software-States ein anderes Modell bekommen haben, wo auch der Treiber sich nicht mehr alleine, um das erstellen und tracking der Ressourcen kümmern muss, sondern der Entwickler.
Auch hier gibt es eine simple Darstellung von Nvidia:
https://www.pcper.com/files/review/2014-03-22/16.jpg

Von dem neuen Modell profitiert natürlich jedes DX12 fähige Gerät.
Auch Nvidias sehr guter DX11-Treiber kann geschlagen werden, wenn der DX12 Renderer gut umgesetzt wurde, eine hohe Draw-Call-Last vorliegt und/oder die CPU nicht das stärkste Modell darstellt:
Hitman Benchmarks: DirectX 12 hebt das CPU-Limit massiv an (Seite 2) - ComputerBase
Ashes of the Singularity: Leistungsexplosion durch DirectX 12 (Seite 5) - ComputerBase

Wenn die DX12 Umsetzung eher bescheiden ausfällt, dann kann DX11 dennoch gewinnen, auch bei AMD.
Aktuell ist das vor allem ein zeitliches Problem, wegen Erfahrungsmangel und suboptimaler Engine-Struktur gibt es mehrere Titel, wo DX12 weder bei der CPU, noch bei der GPU eine gute Figur hinterlässt, egal unter welchem Hersteller.

Das bisher positivste Beispiel ist vermutlich Sniper Elite 4, welches sowohl unter AMD, als auch Nvidia schneller mit DX12 läuft, beim letzteren gibt es auch Zuwächse durch Async Compute, was praktisch selten vorkommt.
https://www.computerbase.de/2017-02/sniper-elite-4-benchmark/#abschnitt_directx_11_vs_directx_12_mit_async_compute

Nvidia war natürlich nicht von DX12 überrascht, die Spezifikation entstand durch die Zusammenarbeit mehrerer Parteien, AMD, Intel, Nvidia, Microsoft, Qualcomm.
Jeder sah Monate bis Jahre voraus, wohin die Reise geht und jeder musste gewisse Kompromisse für seine Hardware eingehen.

Und DX12 bringt durchaus neue Rendering-Features mit sich, einige die nur Nvidia zum Launch unterstützt hat, wie Conservative Rasterization und Tiled Resources Tier 3.
Ebenso unterstützt Nvidia Rasterizer Ordered Views und AMD bis Heute nicht.
Leider gibt es kein DX12 Spiel, welches die neuen Features auch verwendet, aber DX11 Spiele, welche durch Nvidias proprietäre NVAPI Features wie Conservative Rasterization dennoch verwenden, The Division und Watch Dogs 2 für HFTS (Hybrid Frustum Traced Shadows):
http://images.nvidia.com/geforce-com/international/comparisons/tom-clancys-the-division/tom-clancys-the-division-shadow-quality-interactive-comparison-001-nvidia-hfts-vs-nvidia-pcss.html
 
Zuletzt bearbeitet:
Das tolle an diesem neuen Tick Tack Tock Verfahren ist, dass ich, sollte irgendwann mal sinnvoller Bedarf bestehen, meinen 6700k einfach gegen eine 6C/12T (8700k?) CPU tauschen kann, ohne die Plattform wechseln zu müssen :)
 
Das tolle an diesem neuen Tick Tack Tock Verfahren ist, dass ich, sollte irgendwann mal sinnvoller Bedarf bestehen, meinen 6700k einfach gegen eine 6C/12T (8700k?) CPU tauschen kann, ohne die Plattform wechseln zu müssen :)
Ich denke da wirst du auch Mainboard tauschen müssen wenn Intel sagt die 6Kerne nur mit z370 oder x350

Gesendet von meinem SM-G935F mit Tapatalk
 
Steht das irgendwo oder ist das nur ne Vermutung? Weil bisher waren die Generationen innerhalb eines Sockels immer per Update aufwärtskompatibel.
Sockel ja aber bei dem Chip könnte Intel etwas drehen kabylake kann ich auch mit den 100er Chips nutzen nur ist da glaube ich der Umfang beschnitten und OC war auch nicht so weit möglich glaube ich mal gelesen zu haben.

Bzw würde ich wenn ich eine neue CPU kaufe auch das Board wechseln einfach um die CPU im vollen Umfang nutzen zu können, Das wäre als ob ich Ryzen auf ein am3+ Board setze aber nicht alle Kerne nutzen kann oder XFR zb.

Gesendet von meinem SM-G935F mit Tapatalk
 
Steht das irgendwo oder ist das nur ne Vermutung? Weil bisher waren die Generationen innerhalb eines Sockels immer per Update aufwärtskompatibel.

Denk an Broadwell. Der lief mit Z87 Board nicht, weil Intel das nicht wollte.
Exakt genauso kann es auch bei Coffee Lake sein, wenn Intel will, wird der nur auf Boards mit 300er Chipsatz laufen.
 
Denk an Broadwell. Der lief mit Z87 Board nicht, weil Intel das nicht wollte.
Exakt genauso kann es auch bei Coffee Lake sein, wenn Intel will, wird der nur auf Boards mit 300er Chipsatz laufen.

ob das eine gute strategie wäre, bezweifele ich aber. dann kann man nämlich auch direkt zu ryzen gehen und bekommt bei der gleichen preisklasse nochmal zwei kerne obendrauf.

damals haben die das gemacht wegen mangelnder konkurrenz, heute wäre es aufgrund des heutigen marktes nun mal keine gute idee.
 
Es war doch klar das Intel mehr kann wenn Intel mehr will. Stattdessen hat man sich auf seinem Quasi Monopol ausgeruht und ordentlich Gewinne mit minimalem Aufwand (=Fortschritt) eingefahren. Jetzt gibt es Konkurrenz und die Schublade mit Ideen / Plänen wird aufgemacht.

AMD muss nun am Ball bleiben, alle Probleme bei Zen 1 beheben und dann mit Zen 2 und 3 nachlegen. Nur so können sie ihre Position am Markt festigen bzw. ausbauen.

Na ganz so ist es nicht ;) Die Schubladen werden nicht jetzt erst aufgemacht. Die Produktion muss schon laufen damit Intel den Termin halten kann. Ich denke das die Entscheidung schon zum Release von Ryzen oder kurz danach gefallen ist.

Das gute daran das Intel sich ein wenig unter Druck gesetzt fühlt ist das endlich wieder Bewegung in den CPU Markt kommt. Die Leistungssprünge zwischen den Generationen werden wieder grösser und Intel muss wieder runter von Ihren utopischen Mondpreisen.

Icke freu mir das AMD wieder aufschliesst :top:
 
Für den kommenden Sockel 2066 mit X299 Chipsatz wird das sehr wahrscheinlich (leider) nicht zutreffen.

Nein wahrscheinlich nicht. Ryzen mit seinem Preis setzt 2011-e unter Druck, zumindest subjektiv für die Masse an Konsumenten. Intel muss mit neuen Stoff an den Markt um die Preise in den Bereich wieder halbwegs rechtfertigen zu können. Ausserdem Plant AMD ja auch eine Plattform in dem Segment und Intel will dem auch noch vorgreifen.
 
Sockel ja aber bei dem Chip könnte Intel etwas drehen kabylake kann ich auch mit den 100er Chips nutzen nur ist da glaube ich der Umfang beschnitten und OC war auch nicht so weit möglich glaube ich mal gelesen zu haben.

Kaby Lake ist uneingeschränkt kompatibel zu Sunrise Point (H110/B150/H170/Z170), da gibt es keine Einschränkungen gegenüber Union Point (B250/H270/Z270). Mit Ausnahme der Multiplikator-Sperren auf allen nicht-"Z"-PCHs hat Intel die Sperrfunktionen auch noch nicht für Funktionseinschränkungen genutzt, sondern wenn dann für eine vollständige Deaktivierung. Letztere gibt es für Sockel-1150-Broadwell-CPUs auf B85, H87 und Z87 (Q-Modelle bin ich mir gerade nicht sicher. Die baugleichen C-Chipsätze aus dem Xeon-Segment sind Broadwell-kompatibel) sowie für die meisten Core-i-Sockel-1151-CPUs auf den Xeon-PCHs C232 und C236 respektive umgekehrt für Sockel-1151-Xeons auf den Desktop-PCHs H110/B150/B250/H170/H270/Z170/Z270.

Wenn Intel die Politik der Sockel-1150-Plattform wiederholt, sollten Coffee- und Cannonlake auf Sunrise Point gesperrt, aber auf Union Point akzeptiert werden. Allerdings ist eine einzige Vorgängergeneration, die unter grundsätzlich anderen Marktbedingungen erschienen ist, keine verlässliche Grundlage für Vorhersagen. Intel hat diesmal wesentlich mehr Konkurrenz durch AMD und mit voraussichtlich vier zusätzlichen 3.0 Lanes und drei bis viermal so vielen USB-3.1-Anschlüssen bieten 300er-Mainboards gegenüber 100ern auch ohne künstliche Sperren einen Mehrwert, was man vom Z97 gegenüber dem Z87 nicht behaupten konnte.
 
Uiuiui, Intel sieht wohl seine Felle flussaufwärts schwimmen. :lol:

Der erste Vorstoß auf die beinahe-Monopol-Stellung ist erfolgreich gewesen.
 
ob das eine gute strategie wäre, bezweifele ich aber. dann kann man nämlich auch direkt zu ryzen gehen und bekommt bei der gleichen preisklasse nochmal zwei kerne obendrauf.

damals haben die das gemacht wegen mangelnder konkurrenz, heute wäre es aufgrund des heutigen marktes nun mal keine gute idee.

Keine Ahnung, wieso Intel das gemacht hat. Sie haben das ja nie wirklich erklärt.

Wenn Intel die Politik der Sockel-1150-Plattform wiederholt, sollten Coffee- und Cannonlake auf Sunrise Point gesperrt, aber auf Union Point akzeptiert werden. Allerdings ist eine einzige Vorgängergeneration, die unter grundsätzlich anderen Marktbedingungen erschienen ist, keine verlässliche Grundlage für Vorhersagen. Intel hat diesmal wesentlich mehr Konkurrenz durch AMD und mit voraussichtlich vier zusätzlichen 3.0 Lanes und drei bis viermal so vielen USB-3.1-Anschlüssen bieten 300er-Mainboards gegenüber 100ern auch ohne künstliche Sperren einen Mehrwert, was man vom Z97 gegenüber dem Z87 nicht behaupten konnte.

Du darfst nicht vergessen, dass Intel bei Sockel 1150 nur einen weiteren Chipsatz gebracht hat. Bei 1151 kommt mit der 300er Serie aber jetzt der dritte Chipsatz -- jeder Refresh kriegt hier seinen eigenen Chipsatz.
Ich würde daher drauf Wetten, dass Intel den 300er Chipsatz als Zwang nehmen wird, wenn man Coffee Lake oder Cannon Lake CPUs verbauen möchte.
Zumindest habe ich von Seiten Intels noch kein Wort darüber gelesen, dass Coffee Lake kompatibel mit den 100er und 200er Chipsätzen ist. Es wird immer nur kommuniziert, dass mit dem neuen Refresh die 300er Chipsätze kommen werden.
 
Zurück