Intel Ice Lake: Sunny-Cove-Kerne laut Benchmarks mit massivem IPC-Sprung

Ich glaube kaum, das es Ringbus mit mehr als 10 Kernen geben wird und die Mesh Architektur ist anders, man kann das nicht einfach pauschalisieren.

Außerdem sollte man die CPU-Z Ergebnisse wirklich nicht ernst nehmen.
 
Und das wird man dann in 2020/21 auch sehen. Intel wird auf die Konkurrenz reagieren, sofern 10nm endlich funktioniert. Den Rest der Debatte verstehe gerade nicht. Natürlich sind Ice Lakes aktuelle 4 Kerner, es sind ja auch max 15W CPUs, das bedeutet ja nun nicht, dass man mehr Kerne nicht für eine 95 oder 105W CPU nutzen könnte.

Wie es um Intel steht werden wir daran messen können ob Ice Lake Laptops dieses Jahr wirklich massenverfügbar werden oder nicht.
 
Jetzt ist Ihre Meinung gefragt zu Intel Ice Lake: Sunny-Cove-Kerne laut Benchmarks mit massivem IPC-Sprung
Das ist zu wenig. Skylake als letzte Architektur kam 2015 auf den Markt. In 5 Jahren nur 18% Mehrleistung zu bringen, zeigt, wie ausgelutscht die Architektur ist. Wann traut sich Intel zu, anstatt minimaler Evolutionsschritte wieder eine große Revolution zu bringen? AMD zieht davon ...
 
Komisch nur das niemand das geschrieben hat ;)

Du glaubst doch nicht das diese Entwickelung nur auf einem 4 Kerner bei Intel statt findet. Es werden früher oder später auch dementsprechend für den Desktop dieselben verbesserungen kommen, mit vielen Kernen.

Dann sind mit 8, oder 10 Kerne mit +18% IPC lieber als 12, oder vielleicht sogar 16 Kerne ohne mehr IPC.
Das ist die Aussage, alles andere hat nur ein Anti Intel Hirn zustande gebracht.

Am liebsten sind mir dann 16 Kerne mit der gesteigerten IPC.

Lass der Art dumme Thesen doch einfach sein und lies nur was da geschrieben steht, oder frage doch nach wenn du etwas merkwürdiges glaubst.

oh oh, da fühlt sich wohl jemand ganz stark auf die Füße getreten... Ich denke du solltest einfach mal deine Posts selber nochmal lesen vor dem absenden, du denkst anders als du schreibst...
 
Nix als heiße Luft. Wascheinlich mit AVX512... Intel selbst hat doch zugegeben das man den Takt bei 10nm um 20% senken musste, wenn man dann dort einfach stumpf die 18% IPC gain drauf rechnet landet man bei einem Minus von 2% :ugly: (das man das ganze so nicht einfach verrechnen kann ist mir bewusst)

Des weiteren kommt hinzu das es noch eine ganze Weile dauern wird bis die Chips im Desktop ankommen. AMD schläft auch nicht, bis dahin gibt da auch was neuesvon dem man ausgehen kann das es nicht langsamer als Zen2 wird.
Aber Intel versucht wohl aktuell einfach AMDs Launch irgendwie zu torpedieren, wenn es darum geht die Konkurrenz durch den Dreck zu ziehen und sich selbst als der Player No.1 darzustellen sind sie Profis;)
 
oh oh, da fühlt sich wohl jemand ganz stark auf die Füße getreten... Ich denke du solltest einfach mal deine Posts selber nochmal lesen vor dem absenden, du denkst anders als du schreibst...

Einfach keine Thesen aufstellen, über Dinge die andere nicht geschrieben haben ! ;)

Sorry für die " dumme These" war auch zu viel des guten
 
Wusste gar nicht daß wir mittlerweile 8 Kerne in Notebooks habe.

Macht ja nichts :daumen:


Wenn man sich anschaut, das ein 6 Kerner oft nur max 15% vor einem 4 Kerner liegen kann und ein 8 Kerner nur 10% vor einem 6 Kerner. Dann sind mir 18% mehr IPC mehr wichtiger, als zwei Kerne mehr.
Ich kann mir als nur gut vorstellen, das eine Intel CPU mit +18% IPC für den Desktop Markt erstmal wieder relativ lange vor jedem AMD in Games sein wird.

Und genau deshalb gibt es ja "unterschiedliche" 6- und 8- Kerner, du mußt dich da nicht auf ne langsame CPU festlegen :daumen:
 
Hey, psssst. 3770K, TOP-Modell, damals für läppische 280 Euro. Soll ich dir zeigen? Läuft hier immer noch flüssig. :P ;)
Aber du hast recht, 280 sind nicht 300. :ugly: So , Witz des Tages gerissen <check> :daumen:

Das Topmodell der Ivy-Bridge-Familie war der i7-4960X, gestartet für 1.050 Euro.

Ich frage mich bei dem Artikel hier eigentlich nur, warum Intel jetzt schon die 18% IPC raushaut, wenn man die nächsten 12-18 Monate vermutlich nicht liefern kann?

Sie haben für die nächsten 12-18-Monate keine Desktop-Produkte angekündigt, aber Notebookprozessoren mit der gleichen Architektur sollen bereits ausgeliefert und die Geräte ab Herbst verkauft werden. Höchste Zeit also, deren Technik zu präsentieren.


Der interne Benchmark von CPU-Z ist auch außerdem ziemlich "pro" Intel oder zumindest für Intel CPUs optimiert. Einer der Autoren war 20 Jahre bei INTEL Chefentwickler und Performance Analyst. Er hat unter anderem die CORE Architektur mit entwickelt...

Bei einem Vergleich Intel vs. Intel wird Intel keinen Vorteil gegenüber Intel durch Optimierungen eines Intel-Mitarbeiters haben. ;-)


Bin mir ziemlich sicher, dass ich für meinen E6600 damals auch um die 300€ bezahlt habe und das schön bunte Gigabyte 965P-DS4 mit Vollkupfer-Heatpipe von den Spannungswandlern bis zu Southbridge lag irgendwo um 150-170€. Meiner Meinung nach war das schon irgendwie nen "top" System...

Grüße!

Je nach Kaufzeitpunkt war der E6600 ein Oberklassemodell unterhalb des E6700 und des X6800 oder ein Mittelklassemodell, über dem zusätzlich Q6600, QX6700 und gegebenenfalls QX6800 standen. Analog gab es oberhalb des DS4 noch das DQ6 und überhalb aller i965er eine komplette Familie von i975-Platinen. Wenn du dein System als "top" empfunden hast, ist das eine subjektive Einschätzung – aber es waren keine Topmodelle, sondern gehobene Mittel- bis maximal Oberklasse. Genauso kann man heute auch mit einem Core i3 oder einem Ryzen 5 spielen "top" spielen, ohne die Preise eines 9900K oder gar der Enthusiast-Plattformen zahlen zu müssen. Diese gab es damals schlichtweg noch nicht, der QX6700 stand im Verhältnis zu einem Pentium E4000 ungefähr da, wo heute ein Core i5, bestenfalls ein i7 zu finden wäre.

(Nichtsdestotrotz war das Preis-Leistungsverhältnis zu Conroe-Zeiten besser als jemals zuvor oder jemals danach. Meinem Wissen nach hat sich Intel damals zum ersten und letzten mal auf einen Preiskampf mit AMD eingelassen und trotz erheblicher Leistungszuwächse die neuen CPUs zu den gleichen Preisen wie ihre Vorgänger angeboten.)


Intel gibt immer nur dann richtig Gas, wenn AMD mal wieder was bieten kann.
Erst haben sie (als AMD nach dem A64 abgehängt war) nur noch kleine Schrittte gemacht, dann das Tick-Tock-Verfahren eingestampft und letztendlich sogar so wenig Fortsdchritt in die zukünftigen Modelle gepackt, dass sie nicht mal mehr einen neuen Sockel brauchten, weswegen das dann künstlich herbeigeführt wurde.

Die Einstellung von Tick-Tock, die Einführung des Sockel 1151 CFL und der Stillstand in der Kernentwicklung sind alles Ereignisse, die sich nach der Skylake-Einführung 2015 ereignet haben, zum Teil nahezu gleichzeitig, und die alle durch die 10-nm-Verzögerungen begründet werden. Aber prinzipiell hast du recht: Gegenschläge gab es ohne Gegner nie. Mit Gegner aber auch nur von Zeit zu Zeit.

War es nicht der8auer, der einen 9x00k auf einem 100er Chipsatz zum laufen bekam?

Das erste Mal aufgetaucht sind die nötigen Tricks in asiatischen Communities. Ausprobiert haben sie seitdem sehr viele, Roman hat aber meinem Wisse nach nur versuch, die Wärmebelastung im Sockel zu messen. Dafür wurden die Sockel-1151-SKL-Bedingungen aber nur auf einer 1151-CFL-Platine simuliert. Eine öffentliche Vorführung der UEFI-Mods zwecks Abwärtskompatiblität wäre mir von ihm nicht bekannt – die ausführlichen Tests dazu haben wir übernommen.

Ich sehe sich das ganze Spiel schon wiederholen...
Athlon (XP,64):
1- AMD holt Jim Keller an Board, der entwickelt was richtig gutes und geht dann wieder.
2- Die nächsten paar Generationen hauen ordentlich auf den Putz, während Intel sich erstmal was aus dem Ärmel leiern muß, und man erst jettzt mal wieder ettwas entwickelt, was den Begriff "Fortschritt" verdient hat.
3- Während Intels performantere Modelle nach und nach aufholen, ist die letzte Ausbaustufe der Architektur AMDs ausgereizt und es muss etwas neues her, was man auf eigene Faust versucht.
4- Intel überholt wieder, während AMDs neue Eigenentwicklung zum Rohrkrepierer wird, es folgt Einsicht und Jim Keller wird wieder angerufen.
Ryzen: Siehe 1-4

Zwischendrin immer solche Dinge wie:
AMD: unsere neuen können jetzt 64bit!
Intel so: braucht doch keiner!
paar Jahre später...
Intel: machen wir jetzt auch, weil 64 bit ist die Zukunft!

AMD: Der DDR2 Ramcontroller landet jetzt auf dem CPU DIE!
Intel: Nix da, Rambus is viel geiler weil teuer!
AMD: DDR3 jetzt auch!
Intel: Shoot.. is ja wirklich schneller, ok, wir jetzt auch!


Intel: 4 Kerne mit unsichrerem, verbugtem SMT reichen völlig!
AMD: 8 Kerne im Desktop absolut machbar und sinnvoll, da haste!
Intel: Na gut, aber erstmal nur 6 Kerne, reicht ja vorerst um AMD in Games zu schlagen, 8 Kerne sind uns zu teuer, bei dem "bisschen" was wir daran verdienen!
Ein wenig später.....
Intel: OK, dann halt auch 8 Kerne, aber auch nur bei zwei Mainstream-Modellen, reicht ja als Alibi beim Verbraucher!

Du solltest vielleicht noch einmal die tatsächliche technische Entwicklung nachlesen.

RAMBUS konkurierte in der ersten Runde mit SDR (im High-End-Bereich sogar erfolgreich), später mit DDR1, zu dessen Gunsten es dann abgeschafft wurde. Sowohl bei DDR2 als auch DDR3 (und 4) hinkte AMD dann deutlich hinterher – interne Speicher-Controller haben eben auch (Flexiblitäts-)Nachteile.

64 Bit für Server bot Intel Jahre vor AMD (Itanium), nur bei Workstation brauchte es den Anstoß von AMD respektive den Zwang durch Microsoft – dann dauerte es aber nur ein gutes halbes Jahr bis zur Markteinführung, die Technik war ohnehin in Entwicklung gewesen. Als nicht reif für 64 Bit wurde im Jahre 2003 nur der Desktopmarkt bezeichnet, tatsächlich installierten die meisten Endanwender erst vier bis fünf Jahre respektive fünf Prozessorgenerationen später überhaupt ein 64-Bit-Betriebssytem.

Und Keller hat zwar bei K8 die Entwicklung geleitet, am erfolgreichen K7 hat er sich aber nur mit Teilbereichen beschäftigt – Keller kam vom Entwicklungsteam des DEC Alpha, dessen FSB AMD für den Athlon eingekauft hatte. Als der K8L vollständige Parität mit Intel erreichte, war Keller schon lange wieder weg.
 
18% mehr als Skylake ohne Sicherheitsfeatures. Coffee-Lake hat im Vergleich zu Kaby nur größere Caches bekommen und Kaby ist nur über den Takt schneller als Skylake. Zum 9900k könnten es bei gleichem Takt also ein paar Prozente weniger sein (zumindest wenn die Sicherheit hupe ist). Denke aber Sunnycove wird sich nicht unbedingt mit Ryzen 2 3000 aka Matisse prügeln sondern vermutlich mit Ryzen 4000 und AMD schläft in der Hinsicht ja aktuell nicht.

Coffee Lake hat im Vollausbau die gleiche Cache-Konfiguration wie Skylake: 0,25 MB L2 und 2 MB L3 pro Kern. Seit 2015 hat Intel nur Copy & Paste betrieben und die Fertigung optimiert, die Architektur ist (quasi) gleich geblieben. (Ein paar Microcode-Fixes sind mittlerweile in Hardware abgebildet.)


Es wäre schon komisch, nachdem man Jahrelang nur 5%-Aufgüsse bekommen hat (teilweise 0%), wenn Intel plötzlich zweistellig mehr IPC liefern könnte.

Allerdings gibt es zwei Fragen:
1. Können 10nm-CPUs überhaupt viel höher takten? -> Bisher sieht es aus, als ob beim Takt nicht so viel drin ist. Im mittleren 3,X GHz-Bereich wäre man aktuell schon nahe dem Maximum...
2. Wie groß können die Chips gefertigt werden? -> Bisher haben wir nur Notebook-CPUs auf dem Markt, hier steht auch: "Der Sunny-Cove-Vierkerner". Was ist, wenn die Leute aber einen 16-Kerner sehen wollen?
3. Zu welchem Preis? -> Das ist wohl eher eine rhetorische Frage, denn selbst wenn Intel nur 8 Kerne bringen würde, was 2020 nur Mittelklasse wäre, kann man sich wohl sicher sein, dass die CPU wie üblich sehr teuer wird, weil Intel weiterhin kein Infinity Fabric hat.

Intel hat jahrelang einmal im Jahr eine neue Generation mit rund 5 Prozent mehr IPC geliefert. Ice Lake ist die erste Neuentwicklung seit 4 Jahren, die es auf dem Endkundenmarkt schafft und die zweite Generation seit Skylake. Cannon Lake ist zwar nie in größeren Stückzahlen verkauft, aber sehr wohl zu Ende entwickelt worden. Wenn man aus der Vergangenheit Rückschlüsse ableiten möchte, waren somit 10 bis 20 Prozent für Ice Lake zu erwarten.


"Intel"
"10nm"
"im Griff"

Ok, der war gut. :ugly:

Wir sind hier online, da wird manchmal fehlerhaft konjugiert. Richtig:
"Griff ins"
"Klo"


Haben die dann 2020 immer noch keinen Fix gegen die Sicherheitslücken??! :what:
Meltdown wurde am 28. Juli 2017 (Wikipedia) entdeckt. Microsoft dürfte ja frühzeitig aufgeklärt worden sein.
Kann's ja echt nicht sein.

Meltdown ist seit 16 Monaten auf Betriebssystemebene vollständig mit weitaus geringeren Performanceeinbußen gefixt als auf Hardware in absehbarer Zeit denkbar sind. Bedenklicher sind diverse Spectre-Unterarten, da diese entweder in Hardware oder in jedem einzelnen sicherheitsrelevanten Programm behoben werden müssen. Letzteres ist aufwendig – ersteres aber auch.
 
Ok dann zeig mir mal deine Sicherheits und Leistungslücken bei Intel im PCGH Leistungs Index :schief:

Das machst Du gerne oder. Das Spielfeld und dieRegeln vorgeben.
Wenn Du meinst zu wissen, dass Du in Deinem ausgedachten kleinen Szenario nur gewinnen kannst.

Auch Du wirst noch von der Realität eingeholt werden. Wer weiß, sollte Dein Arbeitgeber auch so stur auf Intel setzten, merkst du es Vlt.sogar im Portemonnaie.

Glaub Du ruhig weiterhin an Intel, die Schublade himself.
 
PCGH_Torsten schrieb:
Die Einstellung von Tick-Tock, die Einführung des Sockel 1151 CFL und der Stillstand in der Kernentwicklung sind alles Ereignisse, die sich nach der Skylake-Einführung 2015 ereignet haben, zum Teil nahezu gleichzeitig, und die alle durch die 10-nm-Verzögerungen begründet werden. Aber prinzipiell hast du recht: Gegenschläge gab es ohne Gegner nie. Mit Gegner aber auch nur von Zeit zu Zeit.
Die Reihenfolge war also korrekt und auch die Ereignisse real!
Von "Gegenschlägen" habe ich nichts erwähnt, jede auf diesem Begriff aufbauende Argumentation läuft somit ins leere.
Außerdem empfinde ich diesen Versuch, meinen Beitrag ins lächerliche zu ziehen als äusserrst unprofessionell von einem Redakteur.


PCGH_Torsten schrieb:
Das erste Mal aufgetaucht sind die nötigen Tricks in asiatischen Communities. Ausprobiert haben sie seitdem sehr viele, Roman hat aber meinem Wisse nach nur versuch, die Wärmebelastung im Sockel zu messen. Dafür wurden die Sockel-1151-SKL-Bedingungen aber nur auf einer 1151-CFL-Platine simuliert. Eine öffentliche Vorführung der UEFI-Mods zwecks Abwärtskompatiblität wäre mir von ihm nicht bekannt – die ausführlichen Tests dazu haben wir übernommen.

Tatsächlich hat er die Strombelastung gemessen, was voraussetzt, daß der 9900k auf dem z170 Board auch funktioniert?!*#@%!
Ich habe dazu mal einen Artikel verlinkt, in desssen Fazit heißt es da:
pcbuilersclub.de schrieb:
...Roman Hartung hat damit sehr eindeutig bewiesen, dass der LGA-1151v2-Sockel im Grunde völlig unnötig ist. Die Pins halten selbst bei stark eingeschränkter Stromzufuhr problemlos stand, es gibt keine Schäden am Mainboard, dem Sockel oder dem Prozessor. Das beweist auch einmal mehr, dass Intel wohl aus Absatzgründen keine Kompatibilität zu den alten Mainboards zugelassen hat.
Link: pcbuildersclub -


PCGH_Torsten schrieb:
Du solltest vielleicht noch einmal die tatsächliche technische Entwicklung nachlesen.

RAMBUS konkurierte in der ersten Runde mit SDR (im High-End-Bereich sogar erfolgreich), später mit DDR1, zu dessen Gunsten es dann abgeschafft wurde. Sowohl bei DDR2 als auch DDR3 (und 4) hinkte AMD dann deutlich hinterher – interne Speicher-Controller haben eben auch (Flexiblitäts-)Nachteile.

Da habe ich tatsächlich die Ram-Generationen verwechselt, was aber am eigentlichen Argument nichts ändert, lediglich der Zeitpunkt verschiebt sich.

PCGH_Torsten schrieb:
64 Bit für Server bot Intel Jahre vor AMD (Itanium), nur bei Workstation brauchte es den Anstoß von AMD respektive den Zwang durch Microsoft – dann dauerte es aber nur ein gutes halbes Jahr bis zur Markteinführung, die Technik war ohnehin in Entwicklung gewesen. Als nicht reif für 64 Bit wurde im Jahre 2003 nur der Desktopmarkt bezeichnet, tatsächlich installierten die meisten Endanwender erst vier bis fünf Jahre respektive fünf Prozessorgenerationen später überhaupt ein 64-Bit-Betriebssytem.

Server interressieren mich nicht, daher habe ich diesebezüglich relativ wenig aufgeschnappt. Bezogen auf den Desktopbereich, den Fokus meiner (und der restlichen Leserschaft, dem Titel des Magazins / der Website geschuldet) Interessen, war es also genau so wie ich es wiedergab! Windows XP gab es später auch in 64bit, hat jedoch mangels damals entsprechender Desktop-typischer 64bit-Software keine nennenswerten Vorteile gebracht. Erst mit Windows Vista/ 7 und folgender Steigerung der empfohlenen Standard Ram-Kapazität auf 4GB wurde es interessanter, wären doch sonst nur maximal 3,5GB Ram adressierbar gewesen. Erst als Intel mit 64bit im Desktop nachzog, machte sich auch die Softwareindustrie langsam mal darüber Gedanken.
Mir ging es auch nicht darum wie viel was bei Einführung gebracht hat, sondern wer wem was nachmacht, was er aber vorher, mangels Vorhandensein bei eigenen Produkten, schlechtredet bzw. bzgl. des Ram-Controllers dadurch einen signifikanten Vorteil erreicht und sich so auf AMDs Lorbeeren ausruht..


PCGH_Torsten schrieb:
Und Keller hat zwar bei K8 die Entwicklung geleitet, am erfolgreichen K7 hat er sich aber nur mit Teilbereichen beschäftigt – Keller kam vom Entwicklungsteam des DEC Alpha, dessen FSB AMD für den Athlon eingekauft hatte. Als der K8L vollständige Parität mit Intel erreichte, war Keller schon lange wieder weg.
Also auch hier habe ich nichts falsches erwähnt. Schon im ersten Punkt erwähne ich deutlich sein ausscheiden...?!

Viel lieber hättte ich, wenn schon von einem Moderator mit Schwerpunkt Mainboards, ein ehrliches Kommentar bezüglich der "bewiesenen" Unnötigkeit des S.1151 V2 und dem daraus "erneut" auftretenden "Eindruck", Intel hat Jahre lang absichtlich den Fortschhritt ausgebremst und die Kundschaft zu XXL-Milchkühen umfunktioniert!!

Aber da kommt nichts!?
 
Zuletzt bearbeitet:
Ryzen konkurriert aber zur alten Architektur mit 7nm gegen 14+++. Intel muss sich selbst übertreffen und das nicht nur ein bisschen. Es geht auch nicht um Ryzen, viel mehr dass man wieder zurück in die Spur findet. Das sie es können war schon klar, aber nur eine Frage der Zeit bis die 10nm mal vernünftig das Licht erblicken, bzw. der nächste Prozess ready wird.
Ryzen ist eine verspielte alternative, mit kreativen Lösungen, die jedoch netto nicht mit Intel gleichzieht.
Ich meinte das auch eher ganz allgemein mit Ryzen. Da ist der Release zwar nicht mehr lange hin aber da ist bis jetzt auch alles nur heisse Luft und nix an realen Werten zementiert und nachprüfbar. Die finalen BS Treiber bzw. auch MB Setup inklusive was Ram ect. betrifft da ist bis jetzt noch nichts was Endkundenstatus hat PCGH getestet und auf harte Fakten geprüft und selbst wenn hier schon was getestet werden konnte dann unterliegt jegliche Info wohl sicher einem NDA Termin.
 
Das Topmodell der Ivy-Bridge-Familie war der i7-4960X, gestartet für 1.050 Euro.



Sie haben für die nächsten 12-18-Monate keine Desktop-Produkte angekündigt, aber Notebookprozessoren mit der gleichen Architektur sollen bereits ausgeliefert und die Geräte ab Herbst verkauft werden. Höchste Zeit also, deren Technik zu präsentieren.


Ok, Torsten, da haben wir wohl aneinander vorbei geredet.

Ich sprach von dem Top-Modell der normalen CPU-Sparte, du hingegen von der Enthusiasten-Sparte, die ja eigentlich für sich läuft (auch preislich) und z.B. im Laden niemand finden oder kaufen wird.
Und weil die Technik ja nicht mal wirklich gleich ist, gibt es auch Probleme mit der Namensgebung.
Also wenn die 3000er Generation Ivy ist und die 4000er Haswell, warum wird dann ein 4xxx-E rausgebraucht, der innen noch auf Ivy basiert?
So viel Wirrwarr, das kann sicher nicht mal Intel sinnvoll erklären, evtl. nur deren Marketungabteilung.^^
Ich hatte auch schon gar nicht mehr daran gedacht, dass Intel so früh schon zweigleisig gefahren ist, ich habe imerm nur den 5820 noch so im Hinterkopf, der mal auch für Spieler interessant war (und wer von euch auf der einen Heftseite als System angibt).

Zu der zweiten Sache bezog ich mich auf die Desktopversion, weil nur die einen direkten Vergleich mit den AMD Prozessoren sinnvoll macht.
Es bringt mir ja nichts, wenn ich behaupte, ich könne mit einem kleinen Mobilprozessor virtuell einen großen Desktopler düpieren, wenn er am Ende so niedrig takten muss, weil der sonst zu warm wird oder der Akku nach 5 Minuten leer ist.
Die sollen mal lieber zusehen, dass die überhaupt die CPU ans Laufen bringen, ehe die irgendwelche wahnwitzigen Versprechungen und hellseherische Vorhersagungen machen.
Läuft HT eigentlich schon? Die interne Grafik? LOL
 
Die Aufteilung zwischen "normalen" und Enthusiasten hat sich leider im Laufe der Zeit mehrfach verschoben. In der ebenfalls genannten Core-Ära war "Enthusiast" beispielsweise nur ein einzelner Prozessor mit extra großem Preisschild. Zu Haswell-/Broadwell-S- und sogar frühen Skylake-Zeiten erfreute sich dagegen der 5820K im Sockel 2011-v3 breiter Beliebtheit. Deswegen kann man sich leider nicht an Plattformgrenzen orientieren, sondern muss jeweils die Preisverteilung im gesamten Endkundenmarkt betrachten. Da beobachte ich, dass Prozessoren "mit denen man top spielen" kann in ähnlichen Preisbereichen geblieben sind. Seit dem Ryzen-Schock haben wir eine Eskalation darüber. Noch vor drei Jahren war alles über einem Vierkerner für Spiele nutzlos und der Markt endete bei einem 1.000-Euro-Achtkerner. Heute ist halt alles über 6 Kernen keine Auswirkung und es gibt 2.000 Euro 18- und 32-Kerner für "Endkunden". Das verschiebt die Perspektive, weil viele Leute die gekaufte CPU automatisch am Maximum ausrichten. Aber es verschiebt nicht die Anforderungen – auch wenn der i9-9900K teurer als ein i7-3770K ist, ändert sich nicht daran, dass ein i5-8600K mehr als genug Reserven zum Zocken hat. Das es zusätzliche, teurere CPUs gibt, macht die angemessenen nicht schlechter.

Bezüglich der Marktpolitik Intels wäre mir ein Start im Desktop auch lieber gewesen. Aber den gibt es halt nichts und so bleibt uns nichts anderes übrig, als die Mobile-Folien auf die später folgenden Desktop-CPUs mit gleicher Architektur hochzurechnen. Einen direkten Vergleich mit der aktuellen Dekstop-Generation hat Intel aber nicht beansprucht, da kann man ihnen auch nicht vorwerfen, wenn der uneindeutig ausfällt. ;-)


Tatsächlich hat er die Strombelastung gemessen, was voraussetzt, daß der 9900k auf dem z170 Board auch funktioniert?!*#@%!
Ich habe dazu mal einen Artikel verlinkt, in desssen Fazit heißt es da:

Link: pcbuildersclub -

Das ist der von mir beschriebene Test mit einem Z370-/Sockel-1151-CFL-Mainboard, bei dem die gegenüber Sockel 1151 SKL vorhandenen, zusätzlichen Kontakte abgeklebt wurden.

Da habe ich tatsächlich die Ram-Generationen verwechselt, was aber am eigentlichen Argument nichts ändert, lediglich der Zeitpunkt verschiebt sich.



Server interressieren mich nicht, daher habe ich diesebezüglich relativ wenig aufgeschnappt. Bezogen auf den Desktopbereich, den Fokus meiner (und der restlichen Leserschaft, dem Titel des Magazins / der Website geschuldet) Interessen, war es also genau so wie ich es wiedergab! Windows XP gab es später auch in 64bit, hat jedoch mangels damals entsprechender Desktop-typischer 64bit-Software keine nennenswerten Vorteile gebracht. Erst mit Windows Vista/ 7 und folgender Steigerung der empfohlenen Standard Ram-Kapazität auf 4GB wurde es interessanter, wären doch sonst nur maximal 3,5GB Ram adressierbar gewesen. Erst als Intel mit 64bit im Desktop nachzog, machte sich auch die Softwareindustrie langsam mal darüber Gedanken.
Mir ging es auch nicht darum wie viel was bei Einführung gebracht hat, sondern wer wem was nachmacht, was er aber vorher, mangels Vorhandensein bei eigenen Produkten, schlechtredet bzw. bzgl. des Ram-Controllers dadurch einen signifikanten Vorteil erreicht und sich so auf AMDs Lorbeeren ausruht..



Also auch hier habe ich nichts falsches erwähnt. Schon im ersten Punkt erwähne ich deutlich sein ausscheiden...?!

Ursache und Wirkung verschieben sich durch deine verkürzte Betrachtungsweise. Nicht ein Hersteller "macht nach", was der andere vormacht. Sondern beide Hersteller erkennen einen Mangel in der aktuellen Technik beider Hersteller und suchen eine Lösung dafür. Am Ende eines langjährigen Entwicklungsprozesses erscheinen dann im Abstand von einigen Monaten die Lösungen, deren Reihenfolge hat aber nichts mit abgucken zu tun. Ebensowenig etwaige spätere Kompatibilitätsanpassungen, wenn nur eine der beiden Lösungen vom Markt angenommen wird.

Beispiel: Mangelnde Speichergeschwindigkeit.
Schon Ende der 90er kam Intel zu dem Schluss, dass SDR nicht reicht und hat 1999 oberen Marktende RD-RAM eingeführt. AMD stand vor dem gleichen Problem, konnte aber mangels bedeutender Chipsatzfertigung selbst nichts machen, sodass die Lösung für Sockel A erst 2001 vor allem von Via in Form von DDR1 erschien. Schneller oder besser als RD-RAM war der nicht – aber billiger, weil unter anderem die Lizenzpolitik von RAMBUS verhindert hat, dass RD-RAM die von Intel für einen Einsatz im gesamten Markt nötigen Preissenkungen durchmachte. 2002 hat man deswegen seinerseits die ersten DDR-Chipsätze herausgebracht und 2003 ganz darauf umgestellt. Nicht als Reaktion auf/"abgucken von" Via (und schon gar nicht auf AMD, die erst Ende 2003 mit dem Athlon 64 die Fertigung der Speicher-Controller selbst übernahmen), sondern als Reaktion auf den RAM-Markt.

Beispiel: Registerbreite
Ebenfalls in den 90ern haben alle Hersteller von Großrechner-Prozessoren (also auch Intel, damals aber noch nicht AMD) festgestellt, dass man mit 4 GiB RAM nicht weit kommt, komplexe Adressierungssysteme zu viel Leistung kosten und man auch mit als 32 Bit großen Zahlen rechnen möchte. Das Ergebnis war, neben Angeboten von IBM, Sun und Alpha, Intels Itanium. Das ist "wer hats erfunden". In den 2000ern wuchsen dann auch die Leistungsanforderungen von kleinen Servern und bei High-End-Workstations war vergleichbares abzusehen, die dortige x86-Software war aber inkompatibel und Angebote mit DEC- und Itanium-Workstations floppten. Also sagte sich AMD "wir brauchen x86 kompatible 64 Bit" und fing mit der Arbeit am K8 an. Und Intel sagte sich "wir brauchen x86 kompatible 64 Bit" und startete Yamhill. 2-3 Jahre später (Schätzung - genaue Daten sind unbekannt) waren der Opteron/Athlon 64 ganz und der Prescott/Nocona fast fertig. Hat einer beim anderen abgeguckt? Nö, AMD war nur einen Tick schneller und weil sie ohnehin noch keine teure Server-Sparte hatten, sondern Kampfpreise planten, haben sie 64 Bit direkt für alle aktiviert, während Intel ursprünglich die Desktop-Modelle mit deaktivierten 64-Bit-Funktionen ausliefern wollte, um das Feature erst später nachzulegen. Da hat AMD also Druck, aber nichts vorgemacht. Nur den Befehlssatz musste Intel am Ende widerwillig zu großen Teilen übernehmen – nicht weil AMD "besser" wäre, oder weil sie "abgeguckt" haben, sondern weil Microsoft gesagt hat: Wir werden nur eine x86-64-Variante von Windows produzieren. Und die ist für AMD64, weil AMD64 ist jetzt da und Leute wollen Server damit bauen. Hätte Seattle damals anders entschieden, wären Intels x86-64-Bit-Prozessoren vermutlich ein paar Monate früher entschieden und hätten einen eigenen, inkompatiblen Befehlssatz eingeführt.
(Was eine ganze Latte von Gegenbeispielen mit sich bringt: AMDs 3dnow, SSE4a, FMA4 und XOP haben allesamt gegen Intels SSE und AVX verloren, sodass AMD ein paar Jahre später letztere implementieren musste. Aber in all diesen Fällen haben beide parallel angefangen, das gleiche Problem auf ähnliche Art zu lösen.)

Viel lieber hättte ich, wenn schon von einem Moderator mit Schwerpunkt Mainboards, ein ehrliches Kommentar bezüglich der "bewiesenen" Unnötigkeit des S.1151 V2 und dem daraus "erneut" auftretenden "Eindruck", Intel hat Jahre lang absichtlich den Fortschhritt ausgebremst und die Kundschaft zu XXL-Milchkühen umfunktioniert!!

Aber da kommt nichts!?

Zunächst bin ich nicht Moderator, sondern Redakteur. Und dann habe ich ein komplettes 10-seitiges Print- & Plus-Special zu dem Thema verlinkt. Du zitierst die entsprechende Passage sogar, aber hier nochmal:
https://www.pcgameshardware.de/Core...ecials/Core-i9-9900K-auf-Z170-nutzen-1276543/

Drei Monate Arbeit für einen einzigen Intel-Diss sind "nichts"?
 
Zuletzt bearbeitet:
@PolyOnePolymer
Solange Du nicht wie ein normaler Mensch kommunizieren kannst komme ich für Dich gar nichts nach!

Ja, tut mir leid, dass ich deine Shit-Show mit ganz bösen Quellenforderungen unterbrochen habe.
Ist dir der PCGH Spiele Index oder Anwendungsindex nicht Beleg genug dafür, dass deine Hirngespinste von massiven Einbrüchen nicht real sind?
Und komme mir hier nicht mit Kommunikation, ich habe dich weder beleidigt, noch sonstiges, nur deine Behauptungen auf massivste in Frage gestellt, völlig zurecht übrigens, da sie nicht korrekt sind.

Poly Du lieferst doch auch nie Quellen wieso müssen das also andere tun?

Welche Quellen für was?
Dann eben noch eine Runde.

Wart 's ab - Die Benches sind ohne Hotfixes gegen Meltdown und Spectre ausgeführt.

In der News Stand meines Wissens, dass nur die neuesten Fixed nicht dabei sind, dass ein 16 Monate alter Fix gegen Meltdown und somit ein OS auf dem Stand vor knapp 2 Jahren benutzt wurde, halte ich doch für reichlich unwahrscheinlich.

Eine Quelle für das liefert sterreich, ohne Link. Zitat:

"Performance results are based on testing as of dates shown in configuration and may not reflect all publicly available security updates...Software and workloads used in performance tests may have been optimized for performance only on Intel microprocessors...""

Zwischen "may not reflect alle updates" und "ohne Meltdown und Spectre Patches" besteht gemeinhin ein Unterschied möchte man meinen, oder etwa nicht?

Als nächstes kommt dann der erste Besitzer der Ice Lake-Sperrspitze und will BF3 zocken... Verdammt - Nur maximal 110 FPS und Frame-Drops bis 30 FPS!!!

Also ist das ein Schreckensszenario ohne des Vorhandenseins eines Beleges?

Ich erwarte mir unter Meltdown und Spectre keine so gute Gaming-Performance mehr, nicht mit alten Games, diese unter einer neuen Windows-Version entweder an einem noch nicht releasten Meltdown-Patch grottig performen oder mit einem von Spectre verseuchten Grafiktreiber, betrifft dann auch Systeme mit AMD-Hardware.

Und ich erwarte nichts, weil die aktuellen Benches in der PCGH dieses Verhalten nicht zeigen und es somit auch sehr unwahrscheinlich ist, dass dieses passiert.
 
Zuletzt bearbeitet:
Ist dir der PCGH Spiele Index oder Anwendungsindex nicht Beleg genug dafür, dass deine Hirngespinste von massiven Einbrüchen nicht real sind?

Unter Phantastereien leidest allenfalls Du! Und verschone mich von Deiner Intoleranz und Ignoranz!

Lies Dir durch, welche Spiele davon betroffen sind, verstehe überhaupt nur ein bisschen über die Technik dahinter, denn dazu bist Du viel zu insuffizient! Und komme Du mir nicht mit irgendeinem Leistungsindex, der sich einzig auf aktuelle Games, unter aktueller Hardware und somit nur unter aktueller Bedingung stützt wie sie zuletzt vor grauer Zeit zustande kam! Das proprietär simpelste Beispiel ist Battlefield 3: Denkst Du, diese ganzen Leute und ich sehen den Wald vor lauter Bäumen nicht mehr!? Wie Inkompetent und Ignorant muss man sein, um so zu argumentieren, wie Du es tust!? Grausam, was hier unterwegs ist!
 
Zurück