Die Aufteilung zwischen "normalen" und Enthusiasten hat sich leider im Laufe der Zeit mehrfach verschoben. In der ebenfalls genannten Core-Ära war "Enthusiast" beispielsweise nur ein einzelner Prozessor mit extra großem Preisschild. Zu Haswell-/Broadwell-S- und sogar frühen Skylake-Zeiten erfreute sich dagegen der 5820K im Sockel 2011-v3 breiter Beliebtheit. Deswegen kann man sich leider nicht an Plattformgrenzen orientieren, sondern muss jeweils die Preisverteilung im gesamten Endkundenmarkt betrachten. Da beobachte ich, dass Prozessoren "mit denen man top spielen" kann in ähnlichen Preisbereichen geblieben sind. Seit dem Ryzen-Schock haben wir eine Eskalation darüber. Noch vor drei Jahren war alles über einem Vierkerner für Spiele nutzlos und der Markt endete bei einem 1.000-Euro-Achtkerner. Heute ist halt alles über 6 Kernen keine Auswirkung und es gibt 2.000 Euro 18- und 32-Kerner für "Endkunden". Das verschiebt die Perspektive, weil viele Leute die gekaufte CPU automatisch am Maximum ausrichten. Aber es verschiebt nicht die Anforderungen – auch wenn der i9-9900K teurer als ein i7-3770K ist, ändert sich nicht daran, dass ein i5-8600K mehr als genug Reserven zum Zocken hat. Das es zusätzliche, teurere CPUs gibt, macht die angemessenen nicht schlechter.
Bezüglich der Marktpolitik Intels wäre mir ein Start im Desktop auch lieber gewesen. Aber den gibt es halt nichts und so bleibt uns nichts anderes übrig, als die Mobile-Folien auf die später folgenden Desktop-CPUs mit gleicher Architektur hochzurechnen. Einen direkten Vergleich mit der aktuellen Dekstop-Generation hat Intel aber nicht beansprucht, da kann man ihnen auch nicht vorwerfen, wenn der uneindeutig ausfällt.
Tatsächlich hat er die Strombelastung gemessen, was voraussetzt, daß der 9900k auf dem z170 Board auch funktioniert?!*#@%!
Ich habe dazu mal einen Artikel verlinkt, in desssen Fazit heißt es da:
Link:
pcbuildersclub -
Das ist der von mir beschriebene Test mit einem Z370-/Sockel-1151-CFL-Mainboard, bei dem die gegenüber Sockel 1151 SKL vorhandenen, zusätzlichen Kontakte abgeklebt wurden.
Da habe ich tatsächlich die Ram-Generationen verwechselt, was aber am eigentlichen Argument nichts ändert, lediglich der Zeitpunkt verschiebt sich.
Server interressieren mich nicht, daher habe ich diesebezüglich relativ wenig aufgeschnappt. Bezogen auf den Desktopbereich, den Fokus meiner (und der restlichen Leserschaft, dem Titel des Magazins / der Website geschuldet) Interessen, war es also genau so wie ich es wiedergab! Windows XP gab es später auch in 64bit, hat jedoch mangels damals entsprechender Desktop-typischer 64bit-Software keine nennenswerten Vorteile gebracht. Erst mit Windows Vista/ 7 und folgender Steigerung der empfohlenen Standard Ram-Kapazität auf 4GB wurde es interessanter, wären doch sonst nur maximal 3,5GB Ram adressierbar gewesen. Erst als Intel mit 64bit im Desktop nachzog, machte sich auch die Softwareindustrie langsam mal darüber Gedanken.
Mir ging es auch nicht darum wie viel was bei Einführung gebracht hat, sondern wer wem was nachmacht, was er aber vorher, mangels Vorhandensein bei eigenen Produkten, schlechtredet bzw. bzgl. des Ram-Controllers dadurch einen signifikanten Vorteil erreicht und sich so auf AMDs Lorbeeren ausruht..
Also auch hier habe ich nichts falsches erwähnt. Schon im ersten Punkt erwähne ich deutlich sein ausscheiden...?!
Ursache und Wirkung verschieben sich durch deine verkürzte Betrachtungsweise. Nicht ein Hersteller "macht nach", was der andere vormacht. Sondern beide Hersteller erkennen einen Mangel in der aktuellen Technik beider Hersteller und suchen eine Lösung dafür. Am Ende eines langjährigen Entwicklungsprozesses erscheinen dann im Abstand von einigen Monaten die Lösungen, deren Reihenfolge hat aber nichts mit abgucken zu tun. Ebensowenig etwaige spätere Kompatibilitätsanpassungen, wenn nur eine der beiden Lösungen vom Markt angenommen wird.
Beispiel: Mangelnde Speichergeschwindigkeit.
Schon Ende der 90er kam Intel zu dem Schluss, dass SDR nicht reicht und hat 1999 oberen Marktende RD-RAM eingeführt. AMD stand vor dem gleichen Problem, konnte aber mangels bedeutender Chipsatzfertigung selbst nichts machen, sodass die Lösung für Sockel A erst 2001 vor allem von Via in Form von DDR1 erschien. Schneller oder besser als RD-RAM war der nicht – aber billiger, weil unter anderem die Lizenzpolitik von RAMBUS verhindert hat, dass RD-RAM die von Intel für einen Einsatz im gesamten Markt nötigen Preissenkungen durchmachte. 2002 hat man deswegen seinerseits die ersten DDR-Chipsätze herausgebracht und 2003 ganz darauf umgestellt. Nicht als Reaktion auf/"abgucken von" Via (und schon gar nicht auf AMD, die erst Ende 2003 mit dem Athlon 64 die Fertigung der Speicher-Controller selbst übernahmen), sondern als Reaktion auf den RAM-Markt.
Beispiel: Registerbreite
Ebenfalls in den 90ern haben alle Hersteller von Großrechner-Prozessoren (also auch Intel, damals aber noch nicht AMD) festgestellt, dass man mit 4 GiB RAM nicht weit kommt, komplexe Adressierungssysteme zu viel Leistung kosten und man auch mit als 32 Bit großen Zahlen rechnen möchte. Das Ergebnis war, neben Angeboten von IBM, Sun und Alpha, Intels Itanium. Das ist "wer hats erfunden". In den 2000ern wuchsen dann auch die Leistungsanforderungen von kleinen Servern und bei High-End-Workstations war vergleichbares abzusehen, die dortige x86-Software war aber inkompatibel und Angebote mit DEC- und Itanium-Workstations floppten. Also sagte sich AMD "wir brauchen x86 kompatible 64 Bit" und fing mit der Arbeit am K8 an. Und Intel sagte sich "wir brauchen x86 kompatible 64 Bit" und startete Yamhill. 2-3 Jahre später (Schätzung - genaue Daten sind unbekannt) waren der Opteron/Athlon 64 ganz und der Prescott/Nocona fast fertig. Hat einer beim anderen abgeguckt? Nö, AMD war nur einen Tick schneller und weil sie ohnehin noch keine teure Server-Sparte hatten, sondern Kampfpreise planten, haben sie 64 Bit direkt für alle aktiviert, während Intel ursprünglich die Desktop-Modelle mit deaktivierten 64-Bit-Funktionen ausliefern wollte, um das Feature erst später nachzulegen. Da hat AMD also Druck, aber nichts vorgemacht. Nur den Befehlssatz musste Intel am Ende widerwillig zu großen Teilen übernehmen – nicht weil AMD "besser" wäre, oder weil sie "abgeguckt" haben, sondern weil Microsoft gesagt hat: Wir werden nur eine x86-64-Variante von Windows produzieren. Und die ist für AMD64, weil AMD64 ist jetzt da und Leute wollen Server damit bauen. Hätte Seattle damals anders entschieden, wären Intels x86-64-Bit-Prozessoren vermutlich ein paar Monate früher entschieden und hätten einen eigenen, inkompatiblen Befehlssatz eingeführt.
(Was eine ganze Latte von Gegenbeispielen mit sich bringt: AMDs 3dnow, SSE4a, FMA4 und XOP haben allesamt gegen Intels SSE und AVX verloren, sodass AMD ein paar Jahre später letztere implementieren musste. Aber in all diesen Fällen haben beide parallel angefangen, das gleiche Problem auf ähnliche Art zu lösen.)
Viel lieber hättte ich, wenn schon von einem Moderator mit Schwerpunkt Mainboards, ein ehrliches Kommentar bezüglich der "bewiesenen" Unnötigkeit des S.1151 V2 und dem daraus "erneut" auftretenden "Eindruck", Intel hat Jahre lang absichtlich den Fortschhritt ausgebremst und die Kundschaft zu XXL-Milchkühen umfunktioniert!!
Aber da kommt nichts!?
Zunächst bin ich nicht Moderator, sondern Redakteur. Und dann habe ich ein komplettes 10-seitiges Print- & Plus-Special zu dem Thema verlinkt. Du zitierst die entsprechende Passage sogar, aber hier nochmal:
https://www.pcgameshardware.de/Core...ecials/Core-i9-9900K-auf-Z170-nutzen-1276543/
Drei Monate Arbeit für einen einzigen Intel-Diss sind "nichts"?