News Intel Core mit L4-Cache: Meteor Lake soll mit seinem "Adamantine"-Cache sowohl die CPU als auch die GPU boosten

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intel Core mit L4-Cache: Meteor Lake soll mit seinem "Adamantine"-Cache sowohl die CPU als auch die GPU boosten

Nachdem bereits zuvor Linux-Patches die Rückkehr eines L4-Caches in Intels Core-i-Serie bestätigt hatten, liefert jetzt ein Patent des Herstellers jetzt weitere Erkenntnisse. Der "Adamantine"-Cache soll ein Teil des Base Tiles werden und damit Prozessorkerne und Grafikeinheit boosten.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Intel Core mit L4-Cache: Meteor Lake soll mit seinem "Adamantine"-Cache sowohl die CPU als auch die GPU boosten
 
Ich war tatsächlich am Wochenende am überlegen ob es bald mal Zeit wird für mich aufzurüsten.... hatte irgendwo einen Artikel gelesen mit einem Game das nächstes Jahr kommen sollte und die minimalen Voraussetzungen irgendwie weit über meiner CPU lagen... weiss nur leider nicht mehr welches es war. Darauf hab ich mal geschaut und festgestellt das meine "Basis" (CPU/MB/RAM/SSD ) tatsächlich ja auch schon wieder aus 2018 ist... die Zeit rennt echt. Hab dann mal ein wenig in den Shops Rechner konfiguriert, 13700er mit DDR 5 RAM, Mobo, SSD, Netzteil usw... hab dann den Preis am Ende gesehen und bin zu dem Entschluss gekommen, das Zeug hier ist noch gut ;) - Mal gucken ob die 14er Serie dann evtl. meinen 8700k ablösen wird. Bin echt gespannt was sich da so tut.
 
Ich war tatsächlich am Wochenende am überlegen ob es bald mal Zeit wird für mich aufzurüsten.... hatte irgendwo einen Artikel gelesen mit einem Game das nächstes Jahr kommen sollte und die minimalen Voraussetzungen irgendwie weit über meiner CPU lagen... weiss nur leider nicht mehr welches es war. Darauf hab ich mal geschaut und festgestellt das meine "Basis" (CPU/MB/RAM/SSD ) tatsächlich ja auch schon wieder aus 2018 ist... die Zeit rennt echt. Hab dann mal ein wenig in den Shops Rechner konfiguriert, 13700er mit DDR 5 RAM, Mobo, SSD, Netzteil usw... hab dann den Preis am Ende gesehen und bin zu dem Entschluss gekommen, das Zeug hier ist noch gut ;) - Mal gucken ob die 14er Serie dann evtl. meinen 8700k ablösen wird. Bin echt gespannt was sich da so tut.
Weit über einem 8700k kann eigentlich nur auf dem Papier so sein.

Ein 8700k mit etwas Optimierung geht noch gut genug.

Wenn es aktuell sein soll, reicht zum zocken immer ein i5, oder ein R5.

Meine Wahl wäre sicher eine R5 7600 auf B650 mit 32GB DDR5 6000 CL28(30 vielleicht noch). Dazu eine PCIe4 SSD, da komme ich auf 600€.

Netzteil geht noch...


Zum eigentlichen Thema,


Was will Intel denn bis Arrowlake denn so anbieten, wenn man aktuell sich schon eigentlich nicht in Szene setzen kann.

Momentan wirken Intels CPUs eher wie Dinosaurier. Keineswegs schwach, aber einfach nicht zeitgemäß im Vergleich.

Nicht falsch verstehen, auch einen Intel kann man ultra effizient betreiben, aber out of the box ist AMD bei der Effizienz weit voraus.

Für übertakter kann ein 13600k noch sehr itnteressant sein mit sehr schnellem DDR5 Speicher.

ich sehe einfach nicht, wie man sich gut aufgestellt sieht bei Intel.
 
Weit über einem 8700k kann eigentlich nur auf dem Papier so sein.

Ein 8700k mit etwas Optimierung geht noch gut genug.

Wenn es aktuell sein soll, reicht zum zocken immer ein i5, oder ein R5.

Meine Wahl wäre sicher eine R5 7600 auf B650 mit 32GB DDR5 6000 CL28(30 vielleicht noch). Dazu eine PCIe4 SSD, da komme ich auf 600€.

Netzteil geht noch...
Ich hatte es da wohl schon wieder übertrieben, bin irgendwie bei knapp 1300 gelandet für board,cpu,ram,ssd,psu. mit "scherz" 4070 warens dann glatte 2 Mille, da war ich raus ;) - Nüchtern betrachtet wofür ? Wenn ich mir jetzt so die Vergleichsvideos anschaue zwischen 8700 & 13700 scheint der 13er so knapp 30 Prozent schneller zu sein... schön und gut... aber ob ich da jetzt 120 oder 150fps stehen habe, was ändert das, wenn man ehrlich ist?

Edit : von dieser Seite aus betrachtet ist es sogar eher schwach das da nach 5 Jahren bzw. 5 Generationen nicht mehr bei rum kommt.
 
Nüchtern betrachtet wofür ? Wenn ich mir jetzt so die Vergleichsvideos anschaue zwischen 8700 & 13700 scheint der 13er so knapp 30 Prozent schneller zu sein... schön und gut... aber ob ich da jetzt 120 oder 150fps stehen habe, was ändert das, wenn man ehrlich ist?
Da würde ich nicht stumpf auf die FPS schauen, deutlich wichtiger (und spürbarer) dürften da viel sauberere Frametimes sein. :)
 
Durch AMD wird wohl die Bedeutung von Caches künftig deutlich steigen und die CPUs deutlich besser bestückt werden. Ich finde es gut. Mehrleistung ist immer willkommen. :D

Warum jetzt aber auf einen L4 Cache wert gelegt wird verstehe ich nicht. Gut es beschleunigt die iGPU. Aber für Office PCs ist die aktuelle Leistung in der Regel ausreichend. Und wer mehr braucht wird dennoch mit einer diskreten Grafikkarte besser bedient sein.
 
Wenn ich das richtig verstehe. Soll das auch auf die Dies. Da stelle ich mir die Frage ob das da auch Temperatur und Takt limitierent ist sprich dass es nicht so heis wird und hier nur ein 5Ghz takt an liegt. So wie bei den Ryzen 7.000 generaton von x3v cache.

So lange Intel nicht die Energie Brechstange für 6,5ghz heraus holt um für die 900erer seire der cpu generation ans maximum gebrügelt geworden sein ist das was posetives. So lange die energie brechstange nicht drausen ist. Weil dass kann aktuell und auch in naher zukunft keiner so einfach weg stecken 300-400 watt leistungsaufnahme in cienebench. Ja is nur chinebench aber in games locker um die 300 watt zu haben ist dann einfach brutal viel.

Ich hatte es da wohl schon wieder übertrieben, bin irgendwie bei knapp 1300 gelandet für board,cpu,ram,ssd,psu. mit "scherz" 4070 warens dann glatte 2 Mille, da war ich raus - Nüchtern betrachtet wofür ? Wenn ich mir jetzt so die Vergleichsvideos anschaue zwischen 8700 & 13700 scheint der 13er so knapp 30 Prozent schneller zu sein... schön und gut... aber ob ich da jetzt 120 oder 150fps stehen habe, was ändert das, wenn man ehrlich ist?

Edit : von dieser Seite aus betrachtet ist es sogar eher schwach das da nach 5 Jahren bzw. 5 Generationen nicht mehr bei rum kommt.
Du kannst auch deine CPU übertakten sprich auf 5ghz mit bisschen voltage jagen. Dann klappt das schon mit den FPS.
Habe bei meinen 8600k gemerkt dass das in WQHD (1440p) nicht mehr aussreicht. Da die cpu mit ne browser in ca.. 6-7gb ram auslastung einfach mal bei über 70% last ist.
An sonsten ab warten. Wenn es intel sein muss dann 600er oder halt 700er dass kann effizient sein wenn man bisschen an den einstellungen feilt.


Edit; zitiert und ergänzt text dazu gefasst.
 
Zuletzt bearbeitet:
So lange Intel nicht die Energie Brechstange für 6,5ghz heraus holt um für die 900erer seire der cpu generation ans maximum gebrügelt geworden sein ist das was posetives. So lange die energie brechstange nicht drausen ist. Weil dass kann aktuell und auch in naher zukunft keiner so einfach weg stecken 300-400 watt leistungsaufnahme in cienebench. Ja is nur chinebench aber in games locker um die 300 watt zu haben ist dann einfach brutal viel.
Ehrlich? Es ist Intel und auch mir bumms. Deutschland ist nicht die Welt und der Rest er Welt erzeugt genügend und auch günstigen (Atom)Strom.

Du kannst auch deine CPU übertakten sprich auf 5ghz mit bisschen voltage jagen. Dann klappt das schon mit den FPS.
Mein 13900K läuft sogar mit bis zu 6,0 GHz auf 4 Kernen. Die FPS sind da bei einer einigermaßen aktuellen CPU aber eh nicht das Problem. Es sind eher die Frametimes.

Habe bei meinen 8600k gemerkt dass das in WQHD (1440p) nicht mehr aussreicht. Da die cpu mit ne browser in ca.. 6-7gb ram auslastung einfach mal bei über 70% last ist.
Tja, für jeden geöffneten Tab erzeugen moderne Browser einen komplett neuen Prozess. Dass eine CPU bei zig offenen Prozessen zu den ohnehin schon durch das OS und im Autostart sowie manuell gestarteten Prozesse iwann in die Knie geht, leuchtet hoffentlich ein.

Ich kann die Menschen nicht verstehen die permanent zig Tabs offen haben müssen. Ist aber vielleicht ein Generationenproblem. Ich bin noch mit Rechnern mit 0,8 MHz Takt und 64 KByte Arbeitsspeicher aufgewachsen. Wenn ich ein Programm oder einen Tab nicht mehr benötige, wird es / er geschlossen.
 
So lange die energie brechstange nicht drausen ist. Weil dass kann aktuell und auch in naher zukunft keiner so einfach weg stecken 300-400 watt leistungsaufnahme in cienebench. Ja is nur chinebench aber in games locker um die 300 watt zu haben ist dann einfach brutal viel.
Ja gut, 351 Watt hatten wir ja schon bei Intel.
Da kommts auf die letzten paar Watt auch nicht mehr so drauf an.
:-)

Übrigens: ich glaub mein neuer X3D ist defekt, der zieht gerade nur 30 Watt im Spiel. ;-P

Ich bin mal drauf gespannt, was AMD mit den kommenden APU's abliefern wird.
Zen 5 mit RDNA3.5 und fetter Grafikeinheit.
Eigentlich genau das, worauf viele seit Jahren gewartet haben.
Apple M2 kann einpacken.
Und Intel trotz dieser Ankündigung hier auch. :-)
Ist aber natürlich nur meine Meinung dazu.
 
Zuletzt bearbeitet:
Bei CPU's heult man über hohen verbrauch und bei GPU's wird das einfach hingenommen.
Ja, weil man bei Prozessoren eine Wahl hat:

1682324412405.png

1682324430895.png


Zeige mir eine Grafikkarte, die knapp gleichauf zur RTX 4090 ist und dabei über 40 Prozent sparsamer. Gibt es nicht? Genau, dann hast du es jetzt verstanden.
 
Übrigens: ich glaub mein neuer X3D ist defekt, der zieht gerade nur 30 Watt im Spiel. ;-P
Dann ist mein 12700K wohl auch defekt den er ist auch unter 50 Watt.
Zeige mir eine Grafikkarte, die knapp gleichauf zur RTX 4090 ist und dabei über 40 Prozent sparsamer. Gibt es nicht? Genau, dann hast du es jetzt verstanden.
Richtig, dann kauf ich einfach nicht. Ganz einfach. Trifft auch auf 4080 und bei AMD erst recht zu.
Man hat also immer eine Wahl.

Ist Verbrauch zu hoch gucke ich mir das nicht an, egal was irgendeine Seite da mir sagen will.

Eine neue GPU kommt erst wieder in meine kiste wenn sie zurück bei -150W sind. Gilt übrigens auch für die Preise.
 
Zuletzt bearbeitet:
Ehrlich? Es ist Intel und auch mir bumms. Deutschland ist nicht die Welt und der Rest er Welt erzeugt genügend und auch günstigen (Atom)Strom.
Ehrlich, In den Globalen Problemen mit den Klima auf Athom-Strom zu setzten finde ich bisschen fahrlässig.
Tja, für jeden geöffneten Tab erzeugen moderne Browser einen komplett neuen Prozess. Dass eine CPU bei zig offenen Prozessen zu den ohnehin schon durch das OS und im Autostart sowie manuell gestarteten Prozesse iwann in die Knie geht, leuchtet hoffentlich ein.
Und was willst du mir damit Sagen? Für VMs ist das ehe ein generelles anderes Problem aber Egal.
Ich kann die Menschen nicht verstehen die permanent zig Tabs offen haben müssen. Ist aber vielleicht ein Generationenproblem
Eher ein Bequemlichkeit. Ich bin bequem und dass es so ist ist so. Jeder Tickt da anders und deswegen generell auf ein Generations problem zu schieben ist auch nicht die richtige art.

Bin mit ne intel 2er groß geworden also auch schon ne ganz lange zeit her.

Ja gut, 351 Watt hatten wir ja schon bei Intel.
Da kommts auf die letzten paar Watt auch nicht mehr so drauf an.
Was ich meinte ist dass es immer mehr wird. Und mit der Brechstange die letzen mega herz raus zu holen ist irgend wann auch nicht mehr vernüfgitg. Davon ab ist die frage ob die leistung in all core auch so hoch an kommt und da säuft intel cpus seit der 11 generation ehe immer verdammt viel.
 
Zurück