Skylake-X: Intel begründet die gesunkene Spieleleistung

AW: Skylake-X: Intel begründet die gesunkene Spieleleistung

Eher werden die Stellschrauben immer weniger. Der Sprung von einem Bulldozer zu einem Ryzen/Skylake-X ist wesentlich einfacher, als der von Broadwell-E zu Skylake-X.
Logikschaltungen sind einfach nicht unendlich optimierbar.
Ich finde es toll, dass AMD diesen Sprung noch rechtzeitig geschafft hat, bevor das Unternehmen unter den Hammer gekommen wäre. Aber machen wir uns nichts vor: sehr viel IPC-Aufschlag wird es in nächster Zeit nicht mehr geben. Aus keinem Lager. Dafür müsste schon ein wirklich krasser Beitrag aus der Grundlagenforschung kommen, der nicht in Sicht ist.

Also beginnt nun das Kernzahlrennen (werden sie die MHz als das Koks der CPU-Werbebranche ablösen?!). Sind ja beide fleißig dabei sich zu überbieten. Hoffentlich werden die Softwarehersteller Wege finden, 16 Kerne und mehr sinnvoll einzusetzen.
Bis auf wenige Spezialfälle wüsste ich aber aus dem Stand nicht wie.

P.S.: Ob niemand mehr i5-CPUs will.. ich zweifle daran. Denn das würde voraussetzen, dass der Kunde informiert ist und die Elektronikmärkte (Mediamarkt und co.) fleißig mitziehen.
Man wird sehen.

Ich zweifle selbst ein Kernrennen an. Mehr Kerne bringen irgendwann einfach nichts mehr und erhöhen nur den Stromverbrauch und die Verlustleistung, was die Singlecoreleistung wiederum sinken lässt. Das wiederum will man im Desktop auch nicht haben. Wird man beim Coffee Lake schon sehen. Der jetzige 7700K schafft 5 Ghz relativ leicht, der Coffee Lake wird da schon abfallen auf ca. 4,5Ghz max. OC. Die Kerne kann man erhöhen, solange man kaum Verluste im Single Core hinnehmen muss, ansonsten ist der Aufwand, mehr Kerne hinzuzufügen, fraglich. Unendlich paralelisieren kann man nunmal auch nicht, ebenso wie man eine CPU nicht auf 10 Ghz takten kann. Die ideale Desktop CPU hat sowohl eine sehr gute Single Core, als auch Multicoreleistung.
 
AW: Skylake-X: Intel begründet die gesunkene Spieleleistung

Kein Coffee Lake 6 Kerner wird 4,5 GHZ all Core schaffen ungeköpft, vorher werden die Bretter abrauchen und bei weitem nicht alle i7 7700K schaffen 5 GHZ.

Coffee Lake hat 2 Kerne mehr, einen größeren Ringbus und 4 MB Level 3 mehr zu versorgen als ein Kaby Lake, dass kann kein neues Stepping in der Taktregion kompensieren, vor allen dingen da der 1151 bis jetzt nur CPUs beherbergt die 95W TDP haben und dafür ausgelegt ist.

Wenn man ihn mit dem 7800X vegleicht hat er eine iGPU und mehr Cache zu versorgen bei wohl 95W TDP und dabei soll das neue Verfahren auch noch 4,5 GHZ all Core garantieren?
Und das mit Zahnpasta unter dem Headspreader?
Im Leben nicht! Da wette ich sogar!
 
AW: Skylake-X: Intel begründet die gesunkene Spieleleistung

Ich wusste gar nicht, dass HEVC so viel mehr Leistung beim Decoding braucht.

Es ist schon sehr viel mehr - wobei das beim 264 nicht anders war damals. Heute fällt das auch deswegen nicht mehr auf, weil quasi jedes Ausgabegerät das nicht grade 10 Jahre alt ist den 264 hardwarebeschleunigt ausgibt. Das ist ja auch beim HEVC null Problem (ein kleiner Intel-NUC mit 7000er CPU gibt dir ein 4K-10bit-HEVC wieder mit 5% CPU Last weil die Hardwarebeschleunigung da ist - ein Welten schnellerer übertakteter 6950X schafft das nicht ansatzweise weil ers nicht in Hardware kann).
Man kann das mit den "Jellyfish"-Videos (Freie samples) ausprobieren.

Aber dennoch, wenns ums qualtativ hochwertige encoding geht (das eine GPU eben nicht kann) führt gerade in hohen Auflösungen kein Weg an dicken Vielkerncpus vorbei - zumindest wenn man nicht wochen Warten will.
Wenn man sich eine (mindestens genauso teure...) 4K-Kamera zulegt und da einen RAW-Clip mit starken Einstellungen ins HEVC wandeln will... da geht auch ein 7980XE in den kleinen einstelligen fps-Bereich... :ka:

Aber - um beim Thema zu bleiben - das sind die Anwendungen für solche CPUs die auch vom Mesh einen großen Vorteil haben und die auch zig Kerne problemlos auslasten können (ein 4K-Video in HEVC wandeln lastet problemlos auch 32 Kerne aus wenn man sie hat...).
 
AW: Skylake-X: Intel begründet die gesunkene Spieleleistung

Es ist schon sehr viel mehr - wobei das beim 264 nicht anders war damals. Heute fällt das auch deswegen nicht mehr auf, weil quasi jedes Ausgabegerät das nicht grade 10 Jahre alt ist den 264 hardwarebeschleunigt ausgibt. Das ist ja auch beim HEVC null Problem (ein kleiner Intel-NUC mit 7000er CPU gibt dir ein 4K-10bit-HEVC wieder mit 5% CPU Last weil die Hardwarebeschleunigung da ist - ein Welten schnellerer übertakteter 6950X schafft das nicht ansatzweise weil ers nicht in Hardware kann).
Man kann das mit den "Jellyfish"-Videos (Freie samples) ausprobieren.

Aber dennoch, wenns ums qualtativ hochwertige encoding geht (das eine GPU eben nicht kann) führt gerade in hohen Auflösungen kein Weg an dicken Vielkerncpus vorbei - zumindest wenn man nicht wochen Warten will.
Wenn man sich eine (mindestens genauso teure...) 4K-Kamera zulegt und da einen RAW-Clip mit starken Einstellungen ins HEVC wandeln will... da geht auch ein 7980XE in den kleinen einstelligen fps-Bereich... :ka:

Aber - um beim Thema zu bleiben - das sind die Anwendungen für solche CPUs die auch vom Mesh einen großen Vorteil haben und die auch zig Kerne problemlos auslasten können (ein 4K-Video in HEVC wandeln lastet problemlos auch 32 Kerne aus wenn man sie hat...).

Ja also auch schon probiert mit einem 'jellyfish' Test video file also 10 bit h265 4k und bei meinem Multimedia Rechner was ich nur mehr für video schaun sei es YouTube oder sonstiges nutze mit fx 8350 CPU zeigte es mor im task Manager 90% cpu auslastung an auf allen '8 kernen' is schon ein Wahnsinn.

Naja aber einen 4k tv habe ich sowieso noch nicht und falls mal doch ob es mich dann juckt wenn ich mal einen film für 2 studnen schaue und da die cpu da eben auf 90% läufst..... Kommt eben dann drauf an ob es ständig ruckelt oder eben flüssig läuft. Aber es gibt ja sowieso nur im moment fast 'das schlechtere 4k' das auf 8 bit läuft also bei den Serien die man so streamt auf netflix zb.
 
AW: Skylake-X: Intel begründet die gesunkene Spieleleistung

Das ist kein Begründung, sondern Kapitulation.

Hier hat der (Entwicklungs-)Vorstand von Intel komplett versagt. Erstaunlich. Das Ryzen kommt, dürfte Intel nicht entgangen sein.
Vor allem bei dem Entwicklungsbudget das Intel zur Verfügung steht ist Skyfail-X wirklich ein Armutszeugnis. Und das jetzt so zu
"Begründen" versuch ist der beste Witz vor dem Herren.

Eigentlich wollte ich mir den 10-Kerner holen. Aber diese Generation ist einfach nur Murks. Nene Intel, dafür gebe ich keine 1000€
aus.

greetz
hrIntelNvidia
 
AW: Skylake-X: Intel begründet die gesunkene Spieleleistung

Wenn man ihn mit dem 7800X vegleicht hat er eine iGPU und mehr Cache zu versorgen bei wohl 95W TDP und dabei soll das neue Verfahren auch noch 4,5 GHZ all Core garantieren?
Und das mit Zahnpasta unter dem Headspreader?
Im Leben nicht! Da wette ich sogar!
Der 7800X schafft auch 4,5 GHz mit TIM unterm IHS, warum sollte das bei Coffee Lake nicht möglich sein? Macht keinen Sinn! Und jetzt komm nicht mit der TDP, die ist so was von egal beim OC.
 
AW: Skylake-X: Intel begründet die gesunkene Spieleleistung

Aber beim Streamen wo es mMn nicht auf super Quali ankommt könnte man doch auch die GPGPU-Pixelschleuderencodes nutzen (Shadowplay, Quicksync, wie sie alle heißen), das kommt weitaus billiger alsn 18-Kerner. :-D

beim streamen kommt es mittlerweile eben schon auf die quali an.
die ansprüche der zuschauerhaben sich da in letzter zeit merklich erhöht (was bis vor 2 jahren oder so noch anders war).
nen stream mit schlechter soundqualität und verpixelten bildern schaut aber heute kein schwein mehr ;-)
zudem will man ja auch noch zusätzlich was bieten, twitchalerts, overlays usw.
das geht mit z.b. shadowplay halt nicht, sondern mit OBS oder xsplit und die sind hardwarehungrig.
 
AW: Skylake-X: Intel begründet die gesunkene Spieleleistung

Der 7800X schafft auch 4,5 GHz mit TIM unterm IHS, warum sollte das bei Coffee Lake nicht möglich sein? Macht keinen Sinn! Und jetzt komm nicht mit der TDP, die ist so was von egal beim OC.

Aha,

und die Bretter sind dafür ausgelegt und wie ich schon beschrieben habe, muss der Coffee Lake eine iGPU einen größeren Ringbus und 12 MB Level 3 Cache versorgen!
Das wird nicht nur verdammt eng, da wird die VRM eher schmelzen, außer die Bretter legen wesentlich zu bei der VRM, was im Mainstream eher sehr unwahrscheinlich ist.
Bis jetzt gab es nie eine CPU für 1151 die mehr als 95 TDP hatte!
Dazu wird der Verbrauch völlig durch die Decke gehen, also noch einen Intel FX am Markt!
 
AW: Skylake-X: Intel begründet die gesunkene Spieleleistung

Ich fürchte alleine deswegen weil mindestens die Hälfte aller PCs da draußen den HEVC nicht mal vernünftig abspielen kann wird uns der olle 264 noch lange erhalten bleiben.

Der HEVC-Codec wird begünstigt von dem vollen GPGPU-Decoding: Diesen Codec in seinen Quantisierungsstufen (Profilen) abspielen zu können erschwert es nicht, wie die ersten Anime-Raws verdeutlichen, denn was offenkundig ist, dass die VDPAU der CPU den Großteil der Arbeit abnimmt. Der konventionelle 6/8-Bit-Plunder von hierzulande stellt für das Decoding keine Herausforderung dar und HEVC wird außerhalb von Japan in nicht höher genuzt. Dagegen gestellt sind die 10/12-Bit-Profile von H.264 (Hi10P/Hi444P) komplexer für die Hardware (beherrschen außerhalb von Japan nur PCs per Software-Decoder), denn die VDAPU beherrscht sie nicht vollständig (der Hardware-Decoder entfällt), ergo erfolgt der VPU-Part über die CPU mit ein bisschen Unterstützung durch die verhältnismßig viel zu leistungsschwache GPU. DAS - Software-Rendering von 10/12-Bit-Datenströmen kostet immens Rechenleistung - Das HEVC in 6/8-Bit wird auf die Hardwareleistung keinen Einfluss nehmen! Wenigstens in diesem Aspekt stehen die Bulldozer/Piledriver gut da, weil sie das H.264 intern beherrschen und so auch ihren Nachteil auf andererseits bei UHD in bis zu 10-Bit ein wenig ausgleichen können.
 
AW: Skylake-X: Intel begründet die gesunkene Spieleleistung

Wenigstens in diesem Aspekt stehen die Bulldozer/Piledriver gut da, weil sie das H.264 intern beherrschen und so auch ihren Nachteil auf andererseits bei UHD in bis zu 10-Bit ein wenig ausgleichen können.
Wer hat dir denn das eingeredet?
 
AW: Skylake-X: Intel begründet die gesunkene Spieleleistung

Ich denke nicht das Intel von Ryzen überrascht wurde, aber von Infinity Fabric :devil:

Diese wunderbare Skalierbarkeit mit nur einem günstig zu produzierenden Quaddie macht Intel zu schaffen. Ihre großen Dies sind zu teuer um mit AMD hier ins Preisrennen zu gehen.

Infinity Fabric ist eigentlich nicht so neu, die Opterons gab es auch schon als MCM. Nur wurde es jetzt einmal sehr gut umgesetzt mit einem guten Die. Damit hat Intel nicht gerechnet.

Daher denke ich das Ryzen Intel sehr zu schaffen machen wird bei Server/HEDT. Und beim Server wird es Intel sehr weh tun.
 
Zuletzt bearbeitet:
AW: Skylake-X: Intel begründet die gesunkene Spieleleistung

Das ist kein Begründung, sondern Kapitulation.

Hier hat der (Entwicklungs-)Vorstand von Intel komplett versagt. Erstaunlich. Das Ryzen kommt, dürfte Intel nicht entgangen sein.
Vor allem bei dem Entwicklungsbudget das Intel zur Verfügung steht ist Skyfail-X wirklich ein Armutszeugnis. Und das jetzt so zu
"Begründen" versuch ist der beste Witz vor dem Herren.

Eigentlich wollte ich mir den 10-Kerner holen. Aber diese Generation ist einfach nur Murks. Nene Intel, dafür gebe ich keine 1000€
aus.

greetz
hrIntelNvidia

Ich denke, dass Intel AMD mit Ryzen doch ein wenig unterschätzt hat und auf die Threadripper unbedingt kontern mussten. Anders kann ich es nicht erklären, dass Intel auf einmal sowas bringt. Natürlich sind es dann noch gute CPUs von Intel, aber sowas hat bestimmt keiner erwartet.
 
AW: Skylake-X: Intel begründet die gesunkene Spieleleistung

Cache braucht eigenltich viel Energie.
Das sieht mein Broadwell scheinbar nicht ganz so ernst.

Software verkauft Hardware. Das ist Fakt.
Welche Software interessiert hier das Forum? Spiele.
Wie wird vom Hersteller entschieden wie die Spiele optimiert werden? Nach der Plattform, auf der am meisten Profit entsteht.
Welche Plattform ist das? Konsolen
Also wird circa alle 5 Jahre mit einer neuen Konsolengeneration entschieden wo die Schwerpunkte liegen.

Meiner Einschätzung nach werden wir im Spielemarkt die nächsten 4 Jahre noch mit einer 8Kern CPU (egal ob Nativ oder durch HT erreicht), 4GHz und viel Cache die schnellsten Spiele-CPUs haben.
 
AW: Skylake-X: Intel begründet die gesunkene Spieleleistung

Software verkauft Hardware. Das ist Fakt.

Das war mal so, würde vielleicht heute auch noch so sein, wenn die Softwarehersteller nicht darauf gekommen wären, dass es doch ertragreicher ist, für eine größtmögliche Hardwarebasis zu entwickeln.
Und so kreisen beide Seiten umeinander. Die Hardwareproduzenten sehen keine Notwendigkeit, da die Software fehlt, die Softwareproduzenten wollen nicht für eine elitäre und wenig verbreitete Hartwareausstattung entwickeln, weil das heutzutage nicht mal die Projektkosten einspielen würde.

Wenn man sich mal ansieht, wie viele Steam-User noch Zweikerner verwenden und wie schlecht der PC-Markt läuft, halte ich Deine Einschätzung gelinde gesagt für sehr, sehr, (zu) sehr optimistisch.
 
AW: Skylake-X: Intel begründet die gesunkene Spieleleistung

Ich habe ja auch nicht geschrieben, dass die Entwickler der Spiele nach 1000€ CPUs entwickeln. Sondern nach Konsolen.
Der einzige Grund ein Spiel zu entwickeln ist der: es zu verkaufen. Wo geht das am besten? Konsole. Deswegen bestimmt die Konsolenausstattung die Entwicklung der Spiele. Die Spiele für den PC fallen genauso darunter weil viele Spiele Cross Plattform entwickelt werden, aufgrund des maximalen Gewinns.
Spiele wie Crysis und Crysis 3 sind für die only-PC Spieler ein Segen weil sie zeigen was am PC möglich. Aber am Ende sind diese Spiele auch nur aus Profitwunsch heraus entstanden.
1: Die Spiele werden gekauft weil moderne Spiele toll sind und allein aus der Neugier nach der aktuellen Technik gekauft werden.
2. Der Entwickler damit gleichzeitig seine moderne Engineer bewirbt um sie für andere Entwickler attraktiv zu machen.
 
AW: Skylake-X: Intel begründet die gesunkene Spieleleistung

Ich habe aus der Vergangenheit noch im Hinterkopf, dass gerade große schnelle Caches (der Stufen 1 und 2 - der L3 ist zu langsam dafür...) einen großen Einfluss auf Verbrauch und Abwärme haben. Als ich gesehen hatte, dass INtel von großem inklusivem L3 auf große exklusive L2s wechselt war mein erster Gedanke "das wird ne heiße Sache".

Hat sich was das angeht die letzten gefühlt 10 Jahre was bedeutendes geändert oder ist es einfach ne Fehlinfo gewesen bei mir?

Zu L1 habe ich ehrlich gesagt keine Angaben. Aber L2-Verdoppelungen bei Sockel-775-CPUs hatten seinerzeit kaum Auswirkungen auf den Verbrauch, bei den AMD-Gegenstücken, wo sie meist mit weiteren Verbesserungen einhergingen, konnte der Verbrauch meiner Erinnerung nach sogar sinken. Auch bei Gallatin hat der L3-Cache den Stromverbrauch gegenüber Northwoor nur wenige Watt gesteigert – dabei hatte er doppelt so viele Transistoren wie alle anderen Teile des Prozessors zusammengenommen.
 
AW: Skylake-X: Intel begründet die gesunkene Spieleleistung

Also ohne Intel jetzt sonderlich in Schutz nehmen zu wollen, aber der Vergleich ist schon ziemlich verquer.
Wenn man aus dem Keller kommt, ist es nicht schwer, in ein höheres Stockwerk zu ziehen.
Wenn man eh schon im Dachgeschoss wohnt, dann...

... kann man auch ein Stockwerk tiefer ziehen :ugly: (da ist es nicht ganz so warm :lol:)
 
AW: Skylake-X: Intel begründet die gesunkene Spieleleistung

Ich habe ja auch nicht geschrieben, dass die Entwickler der Spiele nach 1000€ CPUs entwickeln. Sondern nach Konsolen.
Machen sie seit Jahren. Aber zum Beispiel viele Kerne in Konsolen bedeuten eben noch lange nicht, dass diese effizient genutzt werden oder gar am PC nötig sind. Schon die Playstation 2 hatte 8 Kerne. Am PC war zu dieser Zeit der DualCore das Maß aller Dinge und weit überlegen.
Auch die momentane (und demnächst erscheinende) Konsolenhardware spielt nicht mal annähernd in Liga eines halbwegs modernen Desktop-4Kerners.
Die traurige Wahrheit ist, dass die Cross-Plattform-Entwicklungen den PC fast gar nicht mit einschließt, und falls doch, in 95% der Fälle Leistung entweder durch schlechten Code verschenkt wird oder die Software nicht besser als auf Konsolen aussehen darf (Dark Souls 3, Watch Dogs, Batman, etc. pp.). Optimierungen für den PC geschehen oft gar nicht oder lustlos (u.a. auch, weil es ein Kostenfaktor ist, den sich niemand wirklich leisten will). Nicht wenige Entwickler sehen im PC eh nur noch eine Geldvernichtungsmaschine, die lediglich Profit durch Raubkopierer entzieht (ob es wahr ist, sei mal dahingestellt).
Oder wo sind die ganzen Konsolenknaller für den PC hin, wenn es doch so lukrativ ist? Ich warte noch heute auf Red Dead Redemption oder Final Fantasy 15.
Es wird so schnell keinen softwarebedingten Aufrüstzwang im CPU-Bereich geben. Ich prophezeie, dass der i7- 2600k auch 2020 noch völlig ausreichen wird. Über Grafikkarten lässt sich reden, über CPUs eher nicht.
... kann man auch ein Stockwerk tiefer ziehen :ugly: (da ist es nicht ganz so warm :lol:)

Ist man im Prinzip nicht, man ist lediglich den nächsten Schritt gegangen und hat den Ring-Bus nach den Bedürfnissen von Business-/Server-Kunden überarbeitet.
Dies führt bei Prozessoren mit weniger als 10 Kernen eben mit Skylake X zu Leistungseinbußen. Die alte Ring-Architektur war so schon die letzten Jahre ein Schwachpunkt, den man nur leidlich verdecken konnte.
Das Mesh-Netz ist durchaus ein wichtiger Schritt, der nur gerade nicht da punkten kann, wo man mit den ersten 2066CPUs hätte punkten wollen.
Hier entlang:
Intel Skylake-X and Skylake-SP Introduce Brand New Mesh Architecture
 
AW: Skylake-X: Intel begründet die gesunkene Spieleleistung

trotz alle dem, 2066 ist nicht das geworden was viele erhofft haben, für mich ist diese Plattform für die Tonne sprich, intel und die board Partner kamen nicht zusammen, die kühl Elemente auf den brettern taugen eigentlich nur fürs überleben der mofos aber auf lange sicht seh ich ein totes brett, überhitzt..
 
Zuletzt bearbeitet von einem Moderator:
Zurück