News Intel Core mit L4-Cache: Meteor Lake soll mit seinem "Adamantine"-Cache sowohl die CPU als auch die GPU boosten

In Spielen war man effizienter als die Non X3D CPUs.
Emm, also das würde ich so jetzt nicht unterschreiben:
1682326013904.png


Wenn ich dort den 13900K mit dem 7950X vergleiche ist der Zen 4 effizienter. Klar ist der Unterschied nicht groß, aber ist nun mal da.
 
Ich wollte ja nur sagen, dass Intel nicht so viel schluckt, wie hier von den Hatern immer propagiert wird.
Blöderweise gibt es aber halt die 3D Cache CPUs und dagegen sieht Intel aktuell richtig blöd aus. Zwischen 7950X3D und 13900K liegt mal eben so Faktor 2,28, das einfach zu viel und ich hoffe echt das Intel mit der nächsten Generation die Lücke wieder schließen kann...
 
Wenn ich das richtig verstehe, boostet L4-Cache sowohl CPU als auch iGPU.
Wenn Intel eine Bauweise findet, bei der die Cores nicht limitiert werden müssen (Grüße an Ryzen mit ihren 1,1V) und dennoch durch den L4-Cache weniger auf den RAM zugreifen müssen, freue ich mich auf einen großen Leistungssprung für nächstes Jahr^^

Und im Ernst: Ob ich in CPU-lastigen Games nun 50W oder 110W verbrauche ist mir ziemlich egal, sofern die Leistung stimmt und ich an der CPU noch herumtweaken kann. Bei X3D kann ich es nicht (bzw. sollte ich es besser nicht).
 
Ehrlich, In den Globalen Problemen mit den Klima auf Athom-Strom zu setzten finde ich bisschen fahrlässig.
Also mal davon ab, ob wir wirklich ein Problem haben, laufen die pöhsen Atomkraftwerke komplett CO2 frei. Aber in D verbrennt man jetzt / künftig dafür lieber dreckige Braunkohle. :lol:

Und es wird noch dümmer: Dir ist schon bekannt dass wir jetzt Atomstrom aus Frankreich, der Schweiz, Belgien und Schweden importieren? Wir sind also nach wie vor NICHT weg von der Kernenergie! Wir stellen den Strom nur nicht mehr selbst her, sondern importieren diesen nur deutlich teurer aus anderen Ländern: Somit verteuern wir in absoluter Blödheit unseren Strom, schädigen unsere energieintsive Wirtschaft und erhöhen dazu noch die die Abhängigkeit von diesen Ländern die nach wie vor Atomkraft nutzen. Finde den Fehler! :ugly:

Und was willst du mir damit Sagen? Für VMs ist das ehe ein generelles anderes Problem aber Egal.
Wie kommst du jetzt auf eine VM? Du hattest es von einem Browser?

Eher ein Bequemlichkeit. Ich bin bequem und dass es so ist ist so. Jeder Tickt da anders und deswegen generell auf ein Generations problem zu schieben ist auch nicht die richtige art.
Oh doch, es ist primär ein Generationenproblem. Viele junge Menschen wissen eben (noch) nicht wo unser Wohlstand der gerade vernichtet wird herkommt und wissen ihn nicht zu schätzen, da sie ihn für selbstverständlich halten. Aber das ist er nicht. Die älteren Generationen haben diesen erarbeitet. Daher lassen sich besonders junge Menschen von oft jungen aus sehr reichen Familien stammenden (auch maskuline!!!) Gören wie z.B. aus der Familie Reemtsma (z.B. Carla Reemtsma oder auch noch populärer Luisa Neubauer) aufhetzen. Diese haben aufgrund ihres Reichtums im Leben halt keine Probleme außer ihrem grünen Gewissen und ihrem Fame.

Was ich meinte ist dass es immer mehr wird. Und mit der Brechstange die letzen mega herz raus zu holen ist irgend wann auch nicht mehr vernüfgitg. Davon ab ist die frage ob die leistung in all core auch so hoch an kommt und da säuft intel cpus seit der 11 generation ehe immer verdammt viel.
Was du meinst sind die theoretischen Maximalwerte. Im Praxisbetrieb benötigen die CPUs in der Regel bei WEITEM nicht so viel.
 
Zuletzt bearbeitet:
Ja gut, 351 Watt hatten wir ja schon bei Intel.
Da kommts auf die letzten paar Watt auch nicht mehr so drauf an.
:-)

Übrigens: ich glaub mein neuer X3D ist defekt, der zieht gerade nur 30 Watt im Spiel. ;-P
Momentaufnahmen, sind nicht der typische Verbrauch usw.
Ich bin mal drauf gespannt, was AMD mit den kommenden APU's abliefern wird.
Zen 5 mit RDNA3.5 und fetter Grafikeinheit.
Eigentlich genau das, worauf viele seit Jahren gewartet haben.
Apple M2 kann einpacken.
Und Intel trotz dieser Ankündigung hier auch. :-)
Ist aber natürlich nur meine Meinung dazu.

Also solch eine APU wünsche ich mir tatsächlich schon länger, aber deswegen wird Intel und oder Nvidia sicher nicht einpacken können ;) Darüber hinaus muss erstmal geschaut werden, was wirklich raus kommt.
Bei CPU's heult man über hohen verbrauch und bei GPU's wird das einfach hingenommen.
Naja, wenn ich bei CPUs top Leistung zu niedrigem Verbrauch bekommen kann, dann darf man das doch auch benennen.

Was wird denn bei GPUs hingenommen. RTX4090 ist deutlich effizienter als RTX3000, Auch AMD sieht nicht so unendlich schlecht aus, bei der Effizienz.

Dann ist mein 12700K wohl auch defekt den er ist auch unter 50 Watt.
Momentaufnahmen, sind nicht der typische Verbrauch usw.
Richtig, dann kauf ich einfach nicht. Ganz einfach. Trifft auch auf 4080 und bei AMD erst recht zu.
Man hat also immer eine Wahl.
Preis ok, aber die Effizienz ist bei beiden in Ordnung. Auch ob ein Hersteller die jetzt ab Werk auf 300, oder 320W vopreinstellt ist mir Schnuppe, wenn ich die Karte ansonsten haben will, mann kann die sehr gut selbst auf wunsch TDP einstellen. Die sind ja eh effizienter, als bisher!
Ist Verbrauch zu hoch gucke ich mir das nicht an, egal was irgendeine Seite da mir sagen will.

Eine neue GPU kommt erst wieder in meine kiste wenn sie zurück bei -150W sind. Gilt übrigens auch für die Preise.
Schade das du dem PC Spielen den Rücken kehrst ;)

150W GPUs wird es wohl weiter geben, aber dazu auch Preise wie früher, wird es nicht mehr geben.

Emm, also das würde ich so jetzt nicht unterschreiben:
Anhang anzeigen 1424644

Wenn ich dort den 13900K mit dem 7950X vergleiche ist der Zen 4 effizienter. Klar ist der Unterschied nicht groß, aber ist nun mal da.
Da aber in Games der 13600k schon schneller war, asl AMD ohne X3D, ist die Aussage wieder in Ordnung gewesen.
Bei Intel fehlt halt eine Antwort auf AMD X3D.
 
Schade das du dem PC Spielen den Rücken kehrst ;)
Wo tuhe ich das? Willste mir mit sagen eine 1070 ist nur noch zum Surfen gut? Soviel Quatsch gibs auch nur hier in den Foren.

aber die Effizienz ist bei beiden in Ordnung.
Dennoch bei hohen verbrauch. Schnell ist für mich nicht alles.

150W GPUs wird es wohl weiter geben, aber dazu auch Preise wie früher, wird es nicht mehr geben.
Zeig mir Oberklassen Power bei 150W...Der billige 50er Ramsch kann im Laden bleiben.
Auch AMD sieht nicht so unendlich schlecht aus
Oh doch, im Idle haushoch unterlegen.
 
Wo tuhe ich das? Willste mir mit sagen eine 1070 ist nur noch zum Surfen gut? Soviel Quatsch gibs auch nur hier in den Foren.
Hab ich nicht, also erstmal durchatmen. Du hast den Smiley dahinter gesehen?

Ziuerst war es eher humorvoll gemeint. Denn 150W und gute Preise wird es out of the Box die nächsten Jahre wohl nicht mehr geben. Außer bei einer RTX5030 oder so.
Dennoch bei hohen verbrauch. Schnell ist für mich nicht alles.
Die Effizienz stieg deutlich, nur das AMD und Nvidia beide die Board Power deutlich gesteigert haben. Der Verbrauch sagt erstmal nichts über die Effizienz!
Zeig mir Oberklassen Power bei 150W...Der billige 50er Ramsch kann im Laden bleiben.
RTX4070(TI), 4080, RX7900(XT) allesamt leisten weiter Oberklasse Leistung, auch wenn diese nur auf 150W eingestellt sind.

Aktuell muss man es sich eben selbst machen.

FunFact meine 1070 habe ich mit einer 3060ti beerbt und mit etwas Undervolting usw. leistet die rund 80-100% mehr, bei 150W. Jede aktuelle GPU ist Meilenweit effizienter als die 1070 mittlerweile. Nur out of the box, nicht nach deinem Wunsch voreingestellt.
Oh doch, im Idle haushoch unterlegen.
Das ist doch nicht aktuell. Zum Marktstart ok, aber da gab es doch Treiberupdates zu.
 
Jede aktuelle GPU ist Meilenweit effizienter als die 1070 mittlerweile.
Das stimmt zwar aber wollen auch dafür das 2-3 Fache an kohle.

Da ist die effizienz für mich zweitranging, da ich das Geld mit nicht reinhole.

Fakt ist: Die Preisentwicklung vernichtet irgendwann PC.
aber da gab es doch Treiberupdates zu.
Getestet? Nein dann würde ich darüber besser keine Aussage machen. Ich lese jedenfalls das Gegenteil wenn man zwei Monitors betreibt oder 144Hz.

Da das aber alles nicht zum Thema gehört, bitte ich zu die Diskussion zu einzustellen.
 
Zuletzt bearbeitet:
Zwischen 7950X3D und 13900K liegt mal eben so Faktor 2,28, das einfach zu viel und ich hoffe echt das Intel mit der nächsten Generation die Lücke wieder schließen kann...
Mit neuer Fertigung und L4 Cache sollte das machbar sein. Man sieht aber auch viel Doppelmoral in der Community. Schimpfen über Intel, dann aber RDNA3 im Rechner verbaut. Dabei sollte man noch beachten, dass gerade Teillastszenarien mit UV vernichtend sind für die neuen AMD Karten.

Übrigens, mit UV ist der Unterschied zwischen einem 13900K und einem 7950X3D auch nicht mehr sooo riesig. 30W sind auf den Gesamtverbrauch betrachtet nicht die Welt.

1682334312949.png
 
Und vor wenigen Tagen hatten wir hier noch einen Bericht darüber, dass der zusätzliche Cache bei Intel der iGPU eben nicht, sondern nur dem CPU-Part zur Verfügung stehen soll.

Also abwarten und Tee trinken.

Der (!weiterhin! :schief:) "Last Level Cache" genannte L3 wird nur noch der CPU und nicht mehr der IGP zur Verfügung stehen. Den Grund kann man auch schön in der Patent-Zeichnung erkennen: Der L3 bleibt bei den CPU-Kernen, als im Compute-Tile, aber die IGP sitzt künftig auf einem eigenen Chip und könnte mit dem Compute-Tile nur über den Umweg SoC-Tile kommunizieren. Der L4 als neue, zusätzliche Pufferstufe* soll(te) dagegen wieder beiden gemeinsam zur Verfügung stehen. Unklar ist nur die technische Umsetzung. Der Leak über den Treiber sagt dazu naturgemäß gar nichts und in der Patent-Zeichnung kann ich ihn nicht entdecken; auch im -Text wird nur "on package" erwähnt. Ich persönlich hätte er eine Integration in den ebenfalls riesigen SoC-Tile erwartet, während Base bislang nur als aktiver Interposer mit Teilen der Stromversorgung im Gespräch war, naheliegenderweise aber auch PHYs enthalten könnte.


*: Darf man den L4 dann eigentlich mit Fug und Recht als "das Allerletzte" bezeichnen, wenn er nach dem "letzten" Cahe kommt? Auf englisch dann der "Very Last Cache", also "VLC"? Fehlt nur noch, dass man irgendwas thematisch verwandtes dann als "Player" bezeichnet. Schließlich ist es ein Hauptanliegen aller im IT-Bereich, Abkürzungen so oft wie nur irgendmöglich zu recyclen, auf das Redakteure keine Chance haben, mittels Suchmaschine irgend etwas zu recherchieren.
 
30W sind auf den Gesamtverbrauch betrachtet nicht die Welt.
Die Welt ist es natürlich nicht, aber es sind trotzdem fast 50%. Wie stark man das gewichtet muss am Ende natürlich jeder selbst entscheiden.

Am Ende darf man natürlich auch nicht vergessen, dass der Großteil der User seine CPU stock laufen lässt und genau das ist ja eine der großen Stärken der 3D Cache CPUs.
 
Der (!weiterhin! :schief:) "Last Level Cache" genannte L3 wird nur noch der CPU und nicht mehr der IGP zur Verfügung stehen.
Dann solltet Ihr Eure eigenen Redakteure vielleicht auch mal dafür sensibilisieren.

Zitat aus Eurer News vom 13.04. zu dem Thema:
Das wird nun so gedeutet, dass Intel einen Level-4-Cache ab Meteor Lake zurückbringt, der exklusiv von den CPU-Kernen belegt werden kann.
 
Zuletzt bearbeitet:
Darf man den L4 dann eigentlich mit Fug und Recht als "das Allerletzte" bezeichnen, wenn er nach dem "letzten" Cahe kommt?
Danke für die Info. Sitzt dann der L4 Cache auch im anderen Chip? Dann wäre schon die Frage wie sinvoll dieser Cache aufgrund von Latenzen für die CPU-Cores zu verwenden ist. Von anderen Bremsen wie Transaktionsmechanismen für die Speichersynchronisierung etc. rede ich mal gar nicht.

Ich bleibe dabei. Die sauberste Lösung dürfte die sein, dass die iGPU den L4 exklusiv und die CPU-Kerne den L3 exklusiv nutzen können.
 
Zurück