Intel Raptor Lake: Core i9-13900K mit größeren Caches?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intel Raptor Lake: Core i9-13900K mit größeren Caches?

Ein CPU-Z-Screenshot scheint zu beweisen, dass Raptor Lake größere Caches bekommt. Insbesondere der L2-Cache würde deutlich steigen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Intel Raptor Lake: Core i9-13900K mit größeren Caches?
 
at ja nicht lang gedauert das sie auf den Zug aufspringen :-)

Auf den Zug aufspringen?

Den Cache zu vergrößern ist seit gut 30 Jahren ein gängiges Mittel, um bei x86er CPUs die Leistung zu steigern. Von daher ist da nichts mit "auf den Zug aufspringen", das wird seit Ewigkeiten so gemacht.

Im übrigen ist Raptorlake wohl schon seit vielen Jahren in Arbeit, üblich sind so 4-5, bei Intels Verzögerungsorgie könnten es auch schon 8 Jahre oder sogar mehr, sein.
 
Habe nur auf den Kommentar mit Bezug auf AMD gewartet. Der 3D Cache ist etwas Besonderes um eben mehr Cache zu realisieren. Mehr Cache ist grundsätzlich immer gut und passiert fast immer. Bei Grafikkarten und anderer Hardware ist es auch nichts anderes.

Was man ändern kann ist die Art wie man den Cache einsetzt. AMD hat eben einen 3D Cache oder einen Infinity Cache um das bestmöglich umzusetzen.

Da fallen mir auch gerade die Pentium und Celeron Prozesssoren. Ein Unterscheidungsmerkmal war häufig die Größe des Cache.
 
Den Cache zu vergrößern ist seit gut 30 Jahren ein gängiges Mittel, um bei x86er CPUs die Leistung zu steigern. Von daher ist da nichts mit "auf den Zug aufspringen", das wird seit Ewigkeiten so gemacht.
Was war mit der 5. Generation von Intels Prozessoren und der darauffolgenden 6. Generation? Ich dachte man erhöht den Cache nicht, weil es zu teuer sei.
 
Ich dachte man erhöht den Cache nicht, weil es zu teuer sei.
Mehr Cache hat auch wirtschaftlich e und technische Nachteile - wäre das nicht so hätten CPUs seit Jahrzehnten viel mehr Cache (spätestens seit dem 5775C sollte klar sein was das bringen kann).
Cache benötigt viel Chipfläche und viel Energie. Es ist immer eine Gratwanderung was sich in Euro und in Watt noch rechnet. Sehr große Caches können schnell sein, die CPUs werden dadurch aber deutlich teurer und die möglichen Taktraten geringer (siehe auch 5800X3D gegenüber 5800X). Es gibt also optimale Punkte bei Performance pro Euro und Performance pro Watt und dieses Optimum liegt nunmal (für normalen Endanwenderworkload) nicht bei "maximale Cachegröße".
 
Was war mit der 5. Generation von Intels Prozessoren und der darauffolgenden 6. Generation? Ich dachte man erhöht den Cache nicht, weil es zu teuer sei.

Cache kostet eben einiges und es ist die Frage, ob man sich das leisten kann und vorallem will. Zwischen Sandy Bridge und Kabylake konnte Intel tun und lassen, was sie wollten, da AMD mit dem FX gescheitert war. Der Hauptkonkurrent von Intel war damals eben Intel und da Broadwell nur 2-3% Leistungssteigerung gebracht hatte (abseits davon waren die Änderungen gravierend, vorallem in der IGP), hat man sich halt eben entschlossen ca. 10% mit dem L4 Cache draufzulegen. Wäre auch peinlich gewesen, wenn die i7 4790K genauso schnell, wie sein Nachfolger gewesen wäre. Bei Skylake hatte man das nicht nötig, vorallem da Broadwell nur kurz erhältlich war (damals hatte es das erste mal bei der Fertigung geknirscht.

Intel hat mit Broadwell lange vor AMD eine CPU mit großem Cache gebracht.

Und AMD hat einen 386er mit damals unglaublichen 64KB Cache gebracht.
 
Jetzt auch noch mehr Cache. Intel ist eh schon am schnellsten und dann noch schneller zoooom. AMD zittert!

Eigentlich ist AMD am schnellsten. Sowohl beim Gaming (5800X3D) als auch bei der Mehrkernleistung (5950X).

Intel hat mit dem 12900K(S) nur einen sehr guten Kompromiss aus beiden Welten und mit dem 12700K und 12600K zwei preiswerte Alternativen.

Mit Blick auf Zen 4 dürfte sich das Zittern bei AMD in sehr engen Grenzen halten.

Kann sein, aber er spielt doch mit Sicherheit auf den X3D an.

Sicher und dazu habe ich auch gesagt, dass das seit über 30 Jahren üblich ist.
 
Jetzt auch noch mehr Cache. Intel ist eh schon am schnellsten und dann noch schneller zoooom. AMD zittert!
Ich bin mir nicht sicher ob Du in den letzten Wochen wirklich was zu diesem Thema gelesen hast. Oder kommst evtl. aus einem alternativen Universum. Egal so oder so ist das mal wieder ein reiner und dazu noch ziemlich lausiger Bashstreit vom Zaun brechen Versuch.

Das kannst du doch sicherlich nicht besser? Also streng dich nicht an. Man kann dich Themabezogen schon fast nicht mehr noch weniger nicht ernst nehmen.
 
ähm okey aber mal ganz realistisch betrachtet. wer brauch diese leistung und hat die mittel, aberhunderte euro für eine leicht schnellere cpu und jedes mal neues mainboard hinzublättern? und wie sehr profitiert man davon wirklich. mittlerweile ist die tendenz von intel ja auch, das die leistungsaufnahme stärker steigt als die mehrleistung zur vorherigen generation. und dann kann man ja sagen, man hat die leistung "erheblich" gesteigert xD
 
Ganz klar war so beabsichtigt,gab ja soviele cpu s mit mehr als 4 kernen für n mainstream :-)
Wie auch immer dauert ja nicht lang bis sie da mitmischen mit L3 zum Zocken :-)
 
"Insbesondere der L2-Cache würde deutlich steigen."

Macht ja auch "Sinn" !
So wie es sich beim 5800X3D gezeigt hat ... :daumen:

MfG Föhn.
 
Habe nur auf den Kommentar mit Bezug auf AMD gewartet. Der 3D Cache ist etwas Besonderes um eben mehr Cache zu realisieren. Mehr Cache ist grundsätzlich immer gut und passiert fast immer. Bei Grafikkarten und anderer Hardware ist es auch nichts anderes.

Was man ändern kann ist die Art wie man den Cache einsetzt. AMD hat eben einen 3D Cache oder einen Infinity Cache um das bestmöglich umzusetzen.

Da fallen mir auch gerade die Pentium und Celeron Prozesssoren. Ein Unterscheidungsmerkmal war häufig die Größe des Cache.

"Infinity Cache" ist nichts weiter als eine Marketing-Bezeichnung und "3D Cache" eine Bauform. AMD nutzt keine besonderen Arten von Caches bzw. Cache-Organisation, sie sind lediglich bereit viel Geld in zusätzlichen Silizium zu investieren.


Mehr Cache hat auch wirtschaftlich e und technische Nachteile - wäre das nicht so hätten CPUs seit Jahrzehnten viel mehr Cache (spätestens seit dem 5775C sollte klar sein was das bringen kann).
Cache benötigt viel Chipfläche und viel Energie. Es ist immer eine Gratwanderung was sich in Euro und in Watt noch rechnet. Sehr große Caches können schnell sein, die CPUs werden dadurch aber deutlich teurer und die möglichen Taktraten geringer (siehe auch 5800X3D gegenüber 5800X). Es gibt also optimale Punkte bei Performance pro Euro und Performance pro Watt und dieses Optimum liegt nunmal (für normalen Endanwenderworkload) nicht bei "maximale Cachegröße".

Der Stromverbrauch von Caches ist relativ niedrig, wie der 5800X3D mal wieder eindeutig beweist. Der Rest stimmt aber um so mehr: Wie schon mehrfach vorgerechnet dürfte ein 5800X3D für AMD ähnlich teuer wie ein 5950X sein, der im gleichberechtigten Schnitt über Spiele und Anwendungen viel mehr Leistung und Effizienz bietet. Nur in Spielen, die schnell durch Speicherlatenzen ausgebremst werden, lohnt sich der Monster-Cache einigermaßen. Aber selbst hier würde ich schätzen, dass AMD den 5800X3D mit einer geringeren Marge als den 5800X, also letztlich auch über preissenkende Maßnahmen verkauft. Wäre der Mehraufwand voll eingepreist worden, wäre die CPU auch für Spieler weitaus weniger attraktiv. Wir sollten also AMDs Produktpolitik feiern, nicht die Technik.

In der Vergangenheit wurden überhaupt nur zweimal derart absurde Designs auf den Endkundenmarkt gebracht (Intels Gallatin und Broadwell H). Auch da weil man Technik aus anderen Marktbereichen (Vcache wurde eigentlich für Milan X entwickelt) genommen hat, um kurzfristig einen überraschend leistungsstarken Chip der Konkurrenz zu kontern respektive weil man eine zu lange Zeitspanne bis zum Erscheinen der Nachfolgegeneration überbrücken musste. Aber Intel hat halt in beiden Fällen nur tief in die Technik-Schublade gegriffen und die Preise voll weitergegeben, weswegen damals nur wenige die Technik gekauft haben.
 
Zurück