News Core Ultra 200: Geleakte Intel-Folien sorgen für gemischte Gefühle bei der Gaming-Leistung

Die Frage ist: Sind wir schon bei der CPU-Konvergenz angekommen?

Wir sehen doch schon seit Jahren nur marginale Zuwächse bei der CPU-Performance. (Oder ist es vielleicht schon ein Jahrzehnt?)

Davon abgesehen ist es außerhalb der Highest-End-Bubble auch völlig irrelevant!

Selbst bei einer 3080 gibt es in HD keinen Unterschied zwischen 5800X3D und 7800X3D.
(Jaja, weiß schon, das alte Thema der Leistungsmessung im GrakaLimit).

In der Realität ist die Leistung fast aller aktueller Prozessoren selbst mit HighEnd Grafikkarten egal!

Erzähl mir bloß keiner er kauft sich ne 4090 um dann in HD mit niedrigen Einstellungen zu spielen, wo die CPU einen Unterschied macht!
 
Retailhandel != Mindfactory
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Reddit. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Hier ist Intel noch nicht einmal in den Top 25.

Abgesehen davon gibt es auch bald wieder größere Statistiken, die PCGH immer wieder aufbereitet.
 
Wenn die Folien stimmen, dann wäre das schon eine Enttäuschung und man müsste sich fragen, was Intel mit der Architektur genau bezwecken wollte. Zusätzlicher zwischencache und aufgebohrter L2 Cache sind dann quasi verpufft.
Die Frage ist: Sind wir schon bei der CPU-Konvergenz angekommen?

Wir sehen doch schon seit Jahren nur marginale Zuwächse bei der CPU-Performance. (Oder ist es vielleicht schon ein Jahrzehnt?)

Davon abgesehen ist es außerhalb der Highest-End-Bubble auch völlig irrelevant!

Selbst bei einer 3080 gibt es in HD keinen Unterschied zwischen 5800X3D und 7800X3D.
(Jaja, weiß schon, das alte Thema der Leistungsmessung im GrakaLimit).

In der Realität ist die Leistung fast aller aktueller Prozessoren selbst mit HighEnd Grafikkarten egal!

Erzähl mir bloß keiner er kauft sich ne 4090 um dann in HD mit niedrigen Einstellungen zu spielen, wo die CPU einen Unterschied macht!
Oder man spielt einfach Spiele die typischerweise CPU Limitiert sind. Beispiele: Stellaris, Factorio (Megabase), X4 uvm.
 
Eine geringerer Verbrauch ist eine Steigerung der Effizienz und damit schonmal ein Fortschritt. Jetzt wird hier so getan als wäre das ein zweiter Flop a la Rocket Lake.

Aber bisher sind das weiterhin Gerüchte, da die Leaks ja nicht bestätigt sind. Dave wird wohl wieder kochen wenn er liest was hieraus geschlossen wird :-D
 
Die Frage ist: Sind wir schon bei der CPU-Konvergenz angekommen?

Wir sehen doch schon seit Jahren nur marginale Zuwächse bei der CPU-Performance. (Oder ist es vielleicht schon ein Jahrzehnt?)
Ich lese das recht häufig, aber es stimmt meiner Meinung nach schlicht nicht. "Nur" 5% im Jahr sind nach einem Jahrzehnt halt doch was.

Deshalb hier ein paar Beispiele: Die E-cores der aktuellen Intels nehmen es problemlos mit Zen 1 und Zen 2 auf, Die Arrow-Lake E-cores werden vermutlich Zen-3 knacken.

Lunar Lake hat jüngst Qualcomm in puncto Akkulaufzeit bei Laptops in die Schranken gewiesen.

Über AMD brauchen wir gar nicht erst reden, wenn du eine aktuelle AMD CPU gegen ein Topmodell von 2015 stellst (6700K) wird die 2015er CPU schlicht verdampft.

Wir bekommen halt keine 50% im Jahr mehr wie in den 90ern, und abgesehen davon ist fürs Spielen die GPU deutlich relevanter.
 
Die Frage ist: Sind wir schon bei der CPU-Konvergenz angekommen?
Nein noch lange nicht.
Die Rechenleistungen der Chips steigen nach wie vor sehr schnell und stark an, wenn auch nicht mehr derart exponentiell wie vor 20-30 Jahren.
Wir sind aber schon länger an einem Punkt angekommen, wo erstens für die allermeisten Anwendungen der meisten Leute mehr Rechenleistung einfach kein spürbarer Vorteil mehr ist (ob ich ein Programm/Tab/Speichervorgang/etc. in 0,4 oder 0,3 Sekunden erledigt habe spielt keine Rolle mehr) und zweitens wo kleinere Verbesserungen beispielsweise in der Spielewelt (durch hochwertigeres Raytracing bessere Schatten etwa) unverhältnismäßig viel Mehrleistung erfordern.

Dadurch entsteht der Eindruck, dass CPUs/GPUs nicht mehr wirklich schneller werden. Dass dem bei Weitem nicht so ist sieht man dann, wenn man Anwendungen hat die neue Chips gut ausnutzen können und tatsächlich viel Rechenleistung erfordern. Wer beispielsweise das gleiche Video auf einem 10900K, 12900K, 14900K (und wohl demnächst 285K) durch einen hochwertigen x265 Encode laufen lässt stellt schnell fest, dass CPUs durchaus in solchen Szenarien auch heute noch deutlich schneller werden.
 
Ich gebe zwar nie viel auf solche Veröffentlichungen, aber wenn dies halbwegs zutreffen sollten, wäre dies relativ ernüchternd.
In einem weiteren Vergleich räumt Intel indes ein, dass das Vorgängermodell Core i9-14900K in Spielen mit gemittelten 264 Fps schneller ist als der kommende 285K mit 261 Fps.
[...]
der 285K den 7950X3D als derzeit schnellste X3D-CPU in Produktivitätsbenchmarks übertreffen soll, während Spiele wie Cyberpunk 2077 bis zu 21 Prozent langsamer ausfallen. Derweil soll der 285K eine durchschnittliche Spiele-Performance von -2,33 Prozent im Vergleich zum 9950X haben und in einigen getesteten Spielen gleichauf sein
Der einzige Lichtblick dabei wäre, dass sie endlich weniger Strom verbrennen, aber ob das reicht um mit AMD gleichzuziehen, denn AMD schläft ja nicht - vor allem bei Ryzen 9000er X3D.
 
Die Rechenleistungen der Chips steigen nach wie vor sehr schnell und stark an, wenn auch nicht mehr derart exponentiell wie vor 20-30 Jahren.

Bei GPUs gebe ich dir Recht, da ist sowohl bei der Hardwareleistung als auch bei der Software einiges geschehen und 4k + Raytracing + Pathtracing war vor ein paar Jahren völlig undenkbar. Dazu DLSS und die Effizienz hat mit den 4000er Karten auch einen Sprung gemacht.

Aber bei den CPUs? 12900 zu 13900 zu 14900? Was ist da passiert? Und auch bei AMD, da gilt es als großer Erfolg, wenn man nach 2 Jahren 20% mehr Leistung findet. Ist auch ein Grund, warum ich die CPU nur alle 6-8 Jahre erneuere. Ich möchte einfach 50% Mehrleistung und die gibt es nicht nach 2 oder 4 Jahren. Anders sieht es bei Multicore aus, aber das ist für viele uninteressant.
 
Ouch. für gaming also: weniger gaming Leistung als 14900k.
Dann braucht AMD wirklich garnichts liefern und bleibt trotzdem vorn. Die geringere Leistungsaufnahme ist schön, aber unrelevant, weil AMD 7800X3D weiterhin deutlich stromsparender ist bei gleichzeitig höherer Leistung. Also entweder muss man effizienter sein, oder mehr Leistung bieten. In beiden Kategorien hinter AMDs alter Generation zu bleiben kann man wirklich nicht mehr schönreden. Warum bringt Intel denn nicht eine dedizierte Gaming CPU?

Naja, dann bleibt der 5800X3D und das lahme PCIE nochn paar Jährchen in der Kiste, außer AMD haut nun entgegen der Erwartung beim 9800X3D was beeindruckendes raus..
 
Die Frage ist: Sind wir schon bei der CPU-Konvergenz angekommen?

Wir sehen doch schon seit Jahren nur marginale Zuwächse bei der CPU-Performance. (Oder ist es vielleicht schon ein Jahrzehnt?)

Davon abgesehen ist es außerhalb der Highest-End-Bubble auch völlig irrelevant!

Selbst bei einer 3080 gibt es in HD keinen Unterschied zwischen 5800X3D und 7800X3D.
(Jaja, weiß schon, das alte Thema der Leistungsmessung im GrakaLimit).

In der Realität ist die Leistung fast aller aktueller Prozessoren selbst mit HighEnd Grafikkarten egal!

Erzähl mir bloß keiner er kauft sich ne 4090 um dann in HD mit niedrigen Einstellungen zu spielen, wo die CPU einen Unterschied macht!
Das uralte Argument, was so pauschal einfach falsch ist, weil zu stark vereinfacht. Man kauft einfach die CPU, die die anvisierte Frametime in den gewünschten Spielen schafft. Dazu muss natürlich auch die Graka ein Stück weit passen. Für die hat man jedoch normalerweise mehr Spielraum um die Frametimes zu senken. Für VR User ist das noch wichtiger. Und dann sind da noch die Ladezeiten, die auch von der CPU Leistung abhängen.
 
Ich lese das recht häufig, aber es stimmt meiner Meinung nach schlicht nicht. "Nur" 5% im Jahr sind nach einem Jahrzehnt halt doch was.

Deshalb hier ein paar Beispiele: Die E-cores der aktuellen Intels nehmen es problemlos mit Zen 1 und Zen 2 auf, Die Arrow-Lake E-cores werden vermutlich Zen-3 knacken.

Ist das echt so,dann gab es aber einen riesen sprung.Blöd ist nur wenn es gemischte Fertigung ist.Wenn die aktuellen auf Zen 3 level sind,also sprich 16 Kerne e Kerne fast so gut wie ein Ryzen 9 5950x.Dazu die aktuellen 8p Kerne echt fast mit Zen 4 mithalten.Das kann ich nicht glauben.Nun das wird ja noch interessant.Ich weis nur nicht wie dann am Ende die Rohleistung sein wird.
 
Mehr Leistung gibt es nur noch mit mehr Kernen und die spielen beim Gaming keine Rolle. Die x86 Architektur ist am Ende angekommen, es lässt sich einfach nichts mehr optimieren. Am Ende war nur noch durch mehr Cache mehr Leistung raus zu quetschen. Aber Cache braucht viel Platz...

Ich warte immer noch auf die x86 CPU mit 6 großen Kernen und 64+ kleinen Kernen...
 
naja doch bei Ryzen brachte die Breite bei manchen Anwendung noch leistung.Zwar nicht so viel,aber besser als nix.Ich schaue auch was die mir so bringt.Ab Freitig weis ich dann durch selbst testen mehr.Ob Intel die Kerne auch so breit machen kann wie bei AMD und was es bringt das sieht man ja.Ich hoffe noch immer auf ein kleines Plus,auch wenn das eher nicht so viel ist.Naja besser als nix ist es ja doch.Mehr Kerne bringen nur bis zu einem gewissen Grad was und ob man im Mainstream mehr Kerne rein haut,ist ne andere Frage.Früher oder später wird dies aber passieren,wenn man noch neue CPUs verkaufen will.Aber dann hätte man sein letzen Pulver wirklich verschossen.Und dann noch mehr Kerne rein zu pressen,bringt halt dann ab einen gewissen Punkt auch nix mehr.ALso wird wenn es keine großen Sprünge mehr kommen auch die Käufer weniger Einkaufen.Warum weil es immer weniger Gründe gibt.
Nicht jeder betreibt so wie ich Video Umwandeln um davon zu Profitieren oder andere ähnliche Rechenintensive Sachen.Sogar die ganze Filme erschaffen Profiteren immer weniger von der CPU Leistung,auch wenn diese die meiste Last drauf geben.Es wird spannend und interessant zugleich in Zukunft wie es weiter gehen wird mit der CPU.Was einfallen lassen,müssen sie das steht fest.
 
Ouch. für gaming also: weniger gaming Leistung als 14900k.
Dann braucht AMD wirklich garnichts liefern und bleibt trotzdem vorn. Die geringere Leistungsaufnahme ist schön, aber unrelevant, weil AMD 7800X3D weiterhin deutlich stromsparender ist bei gleichzeitig höherer Leistung.
Ich will mir lieber erst gar nicht vorstellen, was passiert falls dies wirklich so eintreffen sollte und AMD gleichzeitig mit den 3D Prozessoren auch nur halbwegs die Erwartungen erfüllen sollte.

Der 7800X3D hat trotz deutlich weniger Takt mal so aus dem Stand 25-30% auf den normalen 7700X obendrauf gelegt. Ich denke dass sollte dieses Mal mit relativ gesehen mehr Takt auch in etwa möglich sein.

Der 9700X liegt ohne die neuesten Anpassungen ja ca. 10% hinter dem 14900K zurück.
Trotz des relativ enttäuschenden Auftritts der bisherigen Zen5 Prozessoren könnten die 3D Prozessoren bei voraussichtlich dem halben (oder weniger) Verbrauch 20% vorne liegen.
 
Zuletzt bearbeitet:
Zurück