Intel: Willow Cove (10nm+) mit 25% mehr IPC, Ocean Cove (7nm+) mit 80% mehr IPC?

Behalt die Pulle mal für dich, denn wie es aussieht, fehlt dir eine gehörige Portion Sauerstoff in der Rübe^^
Aber klar, bei so einem bigbrain wie deinem, wie dein Name so schön sagt, braucht man schon ordentlich Stoff :ugly:
 
Scheint eigentlich nicht so meins zu sein... Coop muss man immer erst einen finden.

Sag Bescheid, ich spiele es gerne nochmal mit...

Wie groß ist dein Unterschied zwischen 3300X und 3950x(Stock) ohne Hintergrundlast. (Bin noch der alt ehrwürdige Daddler, der ohne Hintergrundlast zockt ;))
Beträchtlich. Mit einem 3300X + Hintergrundlast sacken die FPS um 30% gegenüber dem 3950X ab. Würde man andersrum gerechnet auf einen 3950X aufrüsten, würde man 40% höhere Frameraten gewinnen. Ich habe ja im Vorfeld des Testes über das Thema Hintergrundlast diskutiert. Es kam teilweise sogar Empörung rüber, als ich vorschlug, dass man das System kurz gaming-ready machen könne durch Abschalten unnötiger Programme bevor es losgeht. Der allgemeine Kanon war/ist, dass moderne CPUs diesen Komfort erbringen müssen, dass man sich eben keinen Kopf über so was machen muss.

Wieso für Mittelklassekarten. In 4k mit max Details und ggfs. noch RT kann ein 3300X optimiert, oder ein 7700k optimiert eine 2080TI OC noch wunderbar auslasten.
Es gibt aber auch Leute wie mich, die 1440p und High FPS wollen mit einer 2080 Ti.

Meiner Meinung nach, nutzen aktuelle Spiele die Möglichkeiten der vielen Kerne nicht aus.
Das ändert sich aber gerade rasant. Sogar so ein "olles" Far Cry 5 profitiert (ca. 20%) von mehr als 4 Kernen, gerade wenn Hintergrundlast anliegt. In meinem Parcours war der getunte(!) 3300X für fast 50% der Spiele zu langsam für eine RX 5700 in Verbindung mit Hintergrundlast.

Für das Geschehen der Einzelperson (protagonist) wird sich nicht viel ändern, das ändert sich eher durch höhere IPC und mehr Leistung pro Takt, aber gerade die gesamte Umwelt könnte noch so viel mit mehr Leben gefüllt werden, das die Immersion viel besser wird.
Wie gesagt, es gibt Beispiele mit 30-40% Unterschied 8 Threads vs. 16 Threads. Und das wird zukünftig ja nicht weniger.
 
Schon heftig was bei den Leuten im Hintergrund so alles läuft. Bei mir läuft maximal selten Discord und das wars, oder bei nem Hardcore Grinder selten Musik im Hintergrund.
Net mal nen freakin Virentool außer Defender läuft hier. Autostart alles deaktiviert. Windows debloated und entrümpelt. Kein Wunder das eure Benchscores etwas hinken^^

Sagt einer der 2020 an eine Gottheit glaubt. Lächerlich.
Gibt doch sowas wie Religionsfreiheit, schon mal davon gehört bigbrain?^^
 
Echt, die wollen Benchmarks abschaffen?

Nein, sie wollen den Fokus auf qualitative Vorteile ihrer Produkte lenken. Bob Swan wird hier völlig falsch interpretiert meiner Meinung nach.

Intel ist in Sachen CPU Performance und Fortschritt in den letzten 3-4 Jahren zum Ankündigungsweltmeister ohne Substanz geworden, daher passt die News voll ins Bild.

Meinst du wirklich, dass Intel mit seinem Forschungsbudget der Vergeltung keine 30% IPC hinbekommt? Ernsthaft?
 
DCS profitiert nicht von mehr als 3 Kernen.

Fliegst du im MP auch auf vollen Servern mit vielen anderen Einheiten, auch Tiefflug über die Trägergruppe und Bombenangriffe mit vielen Einheiten?
Im Dogfight kann ich mich vor hohen Frames nicht retten ;) Oder auch in hoher Flughöhe.

PS: DCS World ist der Renner ;) Auch wenn hier zum Beispiel Vulkan langsam mal überfällig wird.
Ich spiele zu 95% im Multiplayer auf relativ vollen Servern.
Entweder Growling Sidewinder mit 20-64 Spielern PVP oder Grim Reapers mit 20 Spielern PvE, wo viele Einheiten auf der Map sind. Auch landen auf dem SuperCarrier ist kein Problem. Also ich hab hier null Probleme. Mein Ryzen limitiert nicht.

Werde später mal einen 720p Test machen und versuchen ins CPU-Limit zu kommen. Kann mir kaum vorstellen, dass DCS nur 3 Kerne nutzt. Melde mich dazu nochmal. [EDIT: Hab ne gute Idee, ich schalte mal einzelne CCXs ab. Sind je 3 Kerne.]

Ich bleibe aber erstmal dabei:
Wenn du DCS in VR spielst, hast bist du mit Ryzen definitiv nicht im Limit.
Da isses egal ob 3600 oder 10900K.
 
Zuletzt bearbeitet:
"We should see this moment as an opportunity to shift our focus as an industry from benchmarks to the benefits and impacts of the technology we create,"

Und das ist für dich also abschaffen? :D Es könnten ja auch betriebswirtschaftliche Benchmarks damit gemeint sein... :schief:
 
@Don: Desktop ist nicht alles. Ice Lake SP steht quasi vor der Tür. Was den Desktop betrifft, gebe ich dir Recht, das ist ein derbes Armutszeugnis vom Marktführer. Intel spielt nach Zen 3 ne Weile erstmal keine Rolle im Desktop Bereich. Ich sehe schon die News vor meinem inneren Auge: AMD mit 95% Marktanteil bei Mindfactory.

Das wird eine Verprüglungsaktion in vielen Bereichen: Leistung, diesmal auch Gaming, Effizienz, Preis, Budget Boards mit OC
 
Hmm komisch, als Intel absolut dominierte, war der 100%ige Fokus auf Benchmarks recht und nun will man das eher nicht mehr?
Hört sich iwie fishy an ehrlich gesagt...
Die 10er Gen von Intel boostet ja jetzt auch in den ersten 56s auf bis zu 250W.
Etwa so lange wie ein Cinebench-Run (oder andere) dauert.
Lässt man direkt danach einen zweiten Run laufen sind die CPUs über 15% langsamer, weil das 125W Limit kickt.

Im Reallife bricht die Leistung beim Encodieren also nach einer Minute weg.
In Benchmarks machen sie eine recht gute Figur.
Also hier bescheißt Intel ja jetzt schon.
 
Die 10er Gen von Intel boostet ja jetzt auch in den ersten 56s auf bis zu 250W.
Etwa so lange wie ein Cinebench-Run (oder andere) dauert.
Lässt man direkt danach einen zweiten Run laufen sind die CPUs über 15% langsamer, weil das 125W Limit kickt.

Im Reallife bricht die Leistung beim Encodieren also nach einer Minute weg.
In Benchmarks machen sie eine recht gute Figur.
Also hier bescheißt Intel ja jetzt schon.

Bis das unsere Redaktionen mitgeschnitten haben, vergehen sicher ein bis zwei Jahre (wenn das überhaupt erwünscht ist, darüber zu berichten). Intel stellt sich aber nicht blöd an (vor allem die imaginären Vorteile heraus zu kristallisieren), genauso wie Nv, die im Taktvorteil ohne CPU Limit, die CPU höher auslasten, also mehr mit dem Treiber auf die CPU verschieben und damit ihre GPU's bei niedriger Auslastung höher boosten lassen können, was vor allem schön lange Benchmarkbalken reproduziert. Man optimiert also zielgerichtet auf solche Szenarien und fordert "andere" mittlerweile auf, es genauso zu tun. Siehe DLSS Auflösung als allgemeinen Standard anzusehen.

Das wird Schaffe nie verstehen!
 
Sag Bescheid, ich spiele es gerne nochmal mit...


Beträchtlich. Mit einem 3300X + Hintergrundlast sacken die FPS um 30% gegenüber dem 3950X ab. Würde man andersrum gerechnet auf einen 3950X aufrüsten, würde man 40% höhere Frameraten gewinnen. Ich habe ja im Vorfeld des Testes über das Thema Hintergrundlast diskutiert. Es kam teilweise sogar Empörung rüber, als ich vorschlug, dass man das System kurz gaming-ready machen könne durch Abschalten unnötiger Programme bevor es losgeht. Der allgemeine Kanon war/ist, dass moderne CPUs diesen Komfort erbringen müssen, dass man sich eben keinen Kopf über so was machen muss.


Es gibt aber auch Leute wie mich, die 1440p und High FPS wollen mit einer 2080 Ti.


Das ändert sich aber gerade rasant. Sogar so ein "olles" Far Cry 5 profitiert (ca. 20%) von mehr als 4 Kernen, gerade wenn Hintergrundlast anliegt. In meinem Parcours war der getunte(!) 3300X für fast 50% der Spiele zu langsam für eine RX 5700 in Verbindung mit Hintergrundlast.


Wie gesagt, es gibt Beispiele mit 30-40% Unterschied 8 Threads vs. 16 Threads. Und das wird zukünftig ja nicht weniger.

Mal schauen, vielleicht gebe ich dem mal eine Chance ;)

Wie sieht deine Hintergrundlast aus, was läuft da denn? Natürlich ist bei mir mal ein Browser offen, oder der Afterburner läuft. Das wars dann aber.
Der 3300x für eine 5700 zu lahm? Wie stark werden dafür die Details reduziert?

Wenn ich mir die Zugewinne durch mehr Kerne anschaue, in Titeln, die mit vielen Kernen um können. Dann ist und bleibt das entäuschend. So das ich eher auf einen ZEN3 mit 8 Kernen in einem CCX hoffe, ,als auf einen 16 Kerner. Ich hoffe auf eine spürbar höhere IPC im Vergleich zu einem 3300X und dazu noch etwas mehr möglichem Takt.

In Spielen die Pro Takt Leistung des 3300X +10%, bei 8 Kernen und sagen wir mal mit OC und viel Glück an 5GHz. Mehr ist immer gerne genommen.
Aber vielleicht ändert sich das ja wikrlich mit den neuen Konsolen.


Ich spiele zu 95% im Multiplayer auf relativ vollen Servern.
Entweder Growling Sidewinder mit 20-64 Spielern PVP oder Grim Reapers mit 20 Spielern PvE, wo viele Einheiten auf der Map sind. Auch landen auf dem SuperCarrier ist kein Problem. Also ich hab hier null Probleme. Mein Ryzen limitiert nicht.

Werde später mal einen 720p Test machen und versuchen ins CPU-Limit zu kommen. Kann mir kaum vorstellen, dass DCS nur 3 Kerne nutzt. Melde mich dazu nochmal. [EDIT: Hab ne gute Idee, ich schalte mal einzelne CCXs ab. Sind je 3 Kerne.]

Ich bleibe aber erstmal dabei:
Wenn du DCS in VR spielst, hast bist du mit Ryzen definitiv nicht im Limit.
Da isses egal ob 3600 oder 10900K.

Du meinst 3600, oder 10400 ;)

Mach mal den 720p Test. Bin gespannt. Gerne auch per PN. Ich selber spiele nicht in VR, zumindest aktuell, zu oft zu viele Probleme, die nicht an der Hardware lagen. Andere haben mit einer GTX1080TI und einem 3900X, laut Forum bei ED kaum 40Fps. Pro Auge.

Ich selbst habe mal in 720p getestet und kam auf irgendwas um 120Fps, aber bin nicht mehr ganz sicher. Weil schon etwas her.

Was ich glaube oder nicht glaube spielt überhaupt keine Rolle, Skylake debütierte 2015/2016 und im Mai 2020 gibt es den 4-5 Aufguss in der gleichen Fertigung/Struktur und der gleichen Architektur, obwohl seit 3 Jahren auch wieder Konkurrenz auf Augenhöhe vorhanden ist, die mittlerweile überholt hat und/oder zum überholen ansetzt. Also die vielbeschworene Schublade scheint es schonmal nicht zu geben.
Zwischenzeitlich wurde JEDES Jahr kolportiert, das 10nm on track sind und gelaunched werden, derzeit sieht es noch nichtmal nach 2021 für ein 10nm Desktop CPU aus. Und der viel gepriesene Ice Lake, 10nm und angeblich wesentlich mehr IPC, sieht nicht wirklich gut aus gegen Renoir. Mal sehen was Tiger Lake besser macht oder ob es dann doch nur wieder heiße Luft ist....

Naja, AMD hat mit ZEN1 angekündigt wieder mitmischen zu wollen. Mit ZEN+ dann angefangen mitzumischen und mit ZEN2 das geliefert, was die Forumshelden seit ZEN 1 sehen. Also für mich ist es noch nicht so lange, das Intel etwas tun müsste ;).
Aber ja, die 10nm, werden zum Dauerwitz. Auf der anderen Seite ist es zumindest beachtlich was Intel aus den 14nm raus holt.

Wenn Intel nicht solche Probleme mit den 10nm bekommen hätte, dann wäre der Markt wohl möglich ganz kaputt gegangen. Stell sich mal einer vor, Intel in 10nm seit 2016, wer hätte dann überhaupt noch AMD gekauft, zu der Zeit.

Also zum Glück ist es wie es ist. AMD kann endlich mal wieder etwas Boden gut machen und profitiert hoffentlich stark davon. Damit sich die Situation nicht so schnell wiederholt.

@Don: Desktop ist nicht alles. Ice Lake SP steht quasi vor der Tür. Was den Desktop betrifft, gebe ich dir Recht, das ist ein derbes Armutszeugnis vom Marktführer. Intel spielt nach Zen 3 ne Weile erstmal keine Rolle im Desktop Bereich. Ich sehe schon die News vor meinem inneren Auge: AMD mit 95% Marktanteil bei Mindfactory.

Das wird eine Verprüglungsaktion in vielen Bereichen: Leistung, diesmal auch Gaming, Effizienz, Preis, Budget Boards mit OC

Hauptsache ZEN3 dauert nicht mehr ewig ;)

Die 10er Gen von Intel boostet ja jetzt auch in den ersten 56s auf bis zu 250W.
Etwa so lange wie ein Cinebench-Run (oder andere) dauert.
Lässt man direkt danach einen zweiten Run laufen sind die CPUs über 15% langsamer, weil das 125W Limit kickt.

Im Reallife bricht die Leistung beim Encodieren also nach einer Minute weg.
In Benchmarks machen sie eine recht gute Figur.
Also hier bescheißt Intel ja jetzt schon.

Wie ist das denn bei PCGH, die haben doch auch mit hartem TDP Lock getestet. Sprich keine bis zu 250W. Die Werte müssten doch nah an deinem Reallife sein. Auch im Test stand schon, das durch das harte Limit fast keine Leistung verloren geht.
In Games eh nicht, weil die da unter 100W verbrauchen.


Ach Schäffchen, zumindestens sind deine Voraussagen aus dem Jahre 2017/2018/2019 alle samt und sonders in Bausch und Bogen nicht eingetreten bezgl Intel und vor allen dingen AMD. Aber schön für dich, das du jetzt einen neuen Aufhänger hast, wahrscheinlich werden wir jetzt die nächsten Jahre mit diesen 80% IPC Zuwachs von dir in jedem Thread zugeschüttet...., wenn AMD in den Tests besser abschneidet, was wohl mit mit ZEN 3 und ZEN 4 noch passieren wird.

Wieso, er sagte doch in den letzten Jahren, das Intel im Gaming vorne bleiben wird. Das zumindest ist doch so gekommen ;)

Aber die Kommentare in diesem Thread hier sind echt Haarsträubend, von dem mit dem großen Hirn.
 
Wie ist das denn bei PCGH, die haben doch auch mit hartem TDP Lock getestet. Sprich keine bis zu 250W. .
Was für ein TDP Lock? Sowas gibt es überhaupt nicht, es gibt PL1, PL2 und nunmehr Tau. Wenn du ein TDP Lock willst musst du die VCore auf Baseclock setzen, denn die TDP gilt als Angabe für den Baseclock.

Wenn es "thermisch" möglich ist gibt die Engine mehr Gas. Das hat mit der TDP als Taktpotential nichts zu tun, sondern mit der Abwärme die ein Kühler dann abführen muss.
 
@Don: Im mobilen und Server Bereich ist Intel mit dem 10nm bereits dieses Jahr gut aufgestellt. Das sind wohlbemerkt die Bereiche, wo die Moneten gemacht werden. Intel wird auch für 2020 ein fettes Geschäftsjahr vorweisen können. Nach "Ankündigungsweltmeister" sieht mir das nicht aus.

Für uns hier im Forum dreht sich alles um Desktop. Daher können die AMD Fans bei PCGHX die Korken knallen lassen dieses Jahr. Ich freue mich auch auf Zen 3. Ich hole mir auf jeden Fall direkt bei Launch einen 8 Kerner.
 
Im mobilen und Server Bereich ist Intel mit dem 10nm bereits dieses Jahr gut aufgestellt..
Die Berichterstattung um die Steigerung der IPC ist irreführend, wenn man weiß das dieser Wert an dem Taktpotential eines Designs errechnet wird und anzunehmen ist, dass eine CPU in 7nm+ (also dann 6 oder 5nm vermutl. EUV) höher takten kann und ich bei gleichem Flächenverhältnis mehr Einheiten unterbringen kann. Das hat nichts damit zu tun, wie die Leistung eines Transistors steigt. Nämlich = null...

Eher wird es so sein, dass man bei Skylake das allererste Modell mit dessen TDP, bei gleichem Flächenverhältnis und einem Entwurf in 7nm+ vergleicht. Ehrlich, was anderes würde ich bei höherer Density nicht erwarten, oder will man das gleiche wie unter Skylake liefern nur kleiner dimensioniert?

Die News als Solches ist der reinste Quark, weißt aber auf den Umstand schon hin.
 
Das so zu behaupten halte ich für äußerst gewagt! Es ist überhaupt nicht gesagt, das man Taktsteigerungen (bei Intel) in einem 7nm oder 5nm Prozess erreichen kann, schlicht und einfach, weil man die Wärme bei den kleinen Strukturen, zur Fläche, nicht mehr abführen kann. Dieses Problem hat jetzt schon ansatzweise AMD in 7nm mit ihrem Chiplet Design und auch der 10nm Prozess bei Intel spricht eher nicht dafür, das wir wirkliche Steigerungen zu den Taktraten des Intel 14nm ++++++ Prozess sehen werden.
Dann solltest du dich damit beschäftigen wie man die IPC errechnet. Die Skalarität einzelner Cores steigt nunmal mit der Anzahl an Transistoren und bildet dann ein Mittel pro Cycle mal der Taktfrequenz.

10nm indes erreichte die Taktraten nicht, die Intel dafür vorgesehen hatte. Oder glaubt hier jemand die zu bl*d einen Wafer zu belichten und eine ausreichend hohe Ausbeute zu erzielen? Es liegt grundsätzlich an den Anforderungen die Intel selbst stellt/stellte.
 
Zuletzt bearbeitet von einem Moderator:
obwohl seit 3 Jahren auch wieder Konkurrenz auf Augenhöhe vorhanden ist,
Keine Ahnung, wo Du die vor drei Jahren gesehen haben willst. Selbst vor 1,5 Jahren gab es die Augenhöhe für mich nicht, ein i7-8700K und erst recht ein i9-9900K war für mich in nahezu all meinen Anwendungsszenarien schneller wie die schnellste Zen(+) CPU.

Ein AMD 2700X mag in wenigen, bei mir über Nacht laufenden Jobs, schneller gewesen sein, was mir bei der nutzlosen Warterei tagsüber aber nichts genützt hätte. Ich bin vermutlich der einzige Anwender auf der Welt, der täglich auf nicht parallelisierbaren Single-Thread Code wartet, sowas haben alle AMD-Anwender schon lange entsorgt (und nutzen damit z.B. kein Office, keinen PDF-Viewer, zeigen keine "falsch" gespeicherten Bilder an und nutzen auch nur die Akitonen in der Bildbearbeitung, die nicht so altmodich arbeiten müssen).

Erst seit Zen2 mit 12-16 Kernen und vor allem konkurenzfähiger IPC ist AMD für mich auf Augenhöhe oder gar performanter.

Im Reallife bricht die Leistung beim Encodieren also nach einer Minute weg.
In Benchmarks machen sie eine recht gute Figur.
Also hier bescheißt Intel ja jetzt schon.
Wer seine CPU ohne Kenntnis seiner Anwendungen blind nach dem Blick auf einen einzigen Benchmarkwert kauft, ist selber Schuld. Da wird nichts beschissen, aktuelle Intel-CPUs sind halt für EINIGE Anwendungen nicht so gut geeignet wie für andere. Da es mir aber lieber ist, bei interaktiven Aktionen so kurz wie möglich warten zu müssen und ich dafür bei lang laufenden Aufgaben den PC auch mal über Nacht encoden lassen würde, ist mir die Intel-Lösung, gepaart mit Single-Core Leistung viel lieber.

Benötige ich dauerhaft/regelmäßig Encoding-Leistung, dann heizt die AMD-CPU auch dauerhaft mit 280W meine Wohnung.
 
Wer seine CPU ohne Kenntnis seiner Anwendungen blind nach dem Blick auf einen einzigen Benchmarkwert kauft, ist selber Schuld. Da wird nichts beschissen, aktuelle Intel-CPUs sind halt für EINIGE Anwendungen nicht so gut geeignet wie für andere.

Und ob da beschissen wird. Render Workloads hängen direkt am Power Budget und Comet Lake hat eine Short Duration von fast 1 Minute. Die meisten Renderbenchmarks laufen 1 Minute. Um die reale Render Performance beurteilen zu können, müssen diese Benchmarks deutlich länger laufen.
 
Zurück