News Intel Core mit L4-Cache: Meteor Lake soll mit seinem "Adamantine"-Cache sowohl die CPU als auch die GPU boosten

Das stimmt zwar aber wollen auch dafür das 2-3 Fache an kohle.
Meine 1070 hat 2015 meine ich, 500€ gekostet. Wären mit Inflation heute auch schon 625€
Da ist die effizienz für mich zweitranging, da ich das Geld mit nicht reinhole.
Die 4070 kostet das, was die 1070 gekostet hat... Also mit Inflation. (nur das der leistungssprung kleiner ausfiel)
Fakt ist: Die Preisentwicklung vernichtet irgendwann PC.
Glaube ich weniger. Die Löhne steigen aktuell auch relativ vielerorts. Denke jüngere haben weniger Probleme mit den Preisen, weil man einfach unwissender ist, wie es mal war ;)
Getestet? Nein dann würde ich darüber besser keine Aussage machen. Ich lese jedenfalls das Gegenteil wenn man zwei Monitors betreibt oder 144Hz.



Da das aber alles nicht zum Thema gehört, bitte ich zu die Diskussion zu einzustellen.
Warum hast du dann die Disskussion nicht eingestellt? ;) Der war gut.
Du vergleichst gerade einen 7950X3D @ OC mit einem 13900K @ UV. Wenn ich das gemacht hätte, dann gäbe es einen Shitstorm von dir.
Relevant wären dazu immer auch ein Bezug auf die leistung in den Spielen.

Wie sieht es aus, wenn man den 13900, oder auch nur einen 13600 mit dem schnellstmöglichen Speicher kombiniert.
Das dann mit einem UV Profil für den Intel. Das könnte interessant sein.
 
Die 4070 kostet das, was die 1070 gekostet hat... Also mit Inflation. (nur das der leistungssprung kleiner ausfiel)
Die 4070 ist doch nur eine 4060 mit lahmen 192 Bit...Schwach als 1070er Käufer. Nvidia zockt ab wo es geht.

So und nun ab auf die Ignore, mach das auch und beide haben ihre Ruhe.

Mit sowas Diskturiere ich normal nicht da ihr nur mist schreibt.
 
Glaube ich weniger. Die Löhne steigen aktuell auch relativ vielerorts. Denke jüngere haben weniger Probleme mit den Preisen, weil man einfach unwissender ist, wie es mal war ;)
Der PC liegt doch schon seit "immer" im sterben :haha:

Man darf halt bei den Preisen nie vergessen dass das Zeug mittlerweile echt ewig hält. Wer 2016 eine GTX 1080 gekauft kann damit theoretisch noch immer einigermaßen passabel spielen. Versuch mal mit Hardware von 2009 ein Spiel von 2015 vernünftig zu spielen :haha:

Das hier kommt dann noch erschwerend hinzu:
Meine 1070 hat 2015 meine ich, 500€ gekostet. Wären mit Inflation heute auch schon 625€
Gefühlt merke viele aktuell das erste mal was eine zu hohe Inflation in konkreten Zahlen eigentlich wirklich bedeutet. Bis 2022 war Inflation ja eher was abstraktes ^^
 
Immer wieder drollig zu sehen wie sich so mancher hier teuerste Hardware kauft, nur um ihr ein künstliches Korsett anzulegen weil es unbedingt "Eco" und "Green" sein muss. Dabei schließen sich Hardware und Green schon aus Prinzip aus weil allein für die Produktion der Hardware viel Energie und viele Chemikalien aufgewendet werden müssen.
 
Immer wieder drollig zu sehen wie sich so mancher hier teuerste Hardware kauft, nur um ihr ein künstliches Korsett anzulegen weil es unbedingt "Eco" und "Green" sein muss. Dabei schließen sich Hardware und Green schon aus Prinzip aus weil allein für die Produktion der Hardware viel Energie und viele Chemikalien aufgewendet werden müssen.
Stimmt, ist echt ätzend den Raum im Sommer nicht noch heißer als nötig werden zu lassen.
 
Übrigens, mit UV ist der Unterschied zwischen einem 13900K und einem 7950X3D auch nicht mehr sooo riesig. 30W sind auf den Gesamtverbrauch betrachtet nicht die Welt.
btw, die Tabelle ist halt nichts sagen wenn es um die Effizienz geht weil ja die Leistung fehlt in Application X.
Klar es ist eine schöne Verbrauchs Tabelle.

Was ich damit sagen möchte reine Verbrauchs werte sind jedenfalls für mich uninteressant, da für mich die Effizienz wichtig ist und nicht der Verbrauch.
 
Stimmt, ist echt ätzend den Raum im Sommer nicht noch heißer als nötig werden zu lassen.
Hab gehört FPS Limiter sind auch ein probates Mittel um die Leistungsaufnahme im Zweifelsfall in Grenzen zu halten. Warm wird es im Sommer früher oder später immer ohne Klimaanlage, mit künstlich gedrosselter Hardware dauert es es nur etwas länger.
 
Die 4070 ist doch nur eine 4060 mit lahmen 192 Bit...Schwach als 1070er Käufer. Nvidia zockt ab wo es geht.
Naja, ganz so kann man das nicht sehen. Die Klasse einer GPU macht man schon nicht mehr alleine am Speicher Interface aus ;)
So und nun ab auf die Ignore, mach das auch und beide haben ihre Ruhe.
Was für ein Trottelgehabe. Was soll ich denn gemacht haben? Kannst du nicht diskutieren?
Mit sowas Diskturiere ich normal nicht da ihr nur mist schreibt.
Welchen Mist?

Mit sowas... Komm gerne im Münsterland mal vorbei, dann kannst du mir das "sowas" mal erklären.

Ach Gras wurde ja legalisiert... erklärt alles.
Der PC liegt doch schon seit "immer" im sterben :haha:
Sicher ;)
Man darf halt bei den Preisen nie vergessen dass das Zeug mittlerweile echt ewig hält. Wer 2016 eine GTX 1080 gekauft kann damit theoretisch noch immer einigermaßen passabel spielen. Versuch mal mit Hardware von 2009 ein Spiel von 2015 vernünftig zu spielen :haha:
Jupp, wenn ich nicht hätte in VR einsteigen wollen, wäre meine 1070 weiterhin gut und auch die 3060ti hätte noch eine längere Zukunft bei mir...
Das hier kommt dann noch erschwerend hinzu:

Gefühlt merke viele aktuell das erste mal was eine zu hohe Inflation in konkreten Zahlen eigentlich wirklich bedeutet. Bis 2022 war Inflation ja eher was abstraktes ^^
Scheint so.
 
Immer wieder drollig zu sehen wie sich so mancher hier teuerste Hardware kauft, nur um ihr ein künstliches Korsett anzulegen weil es unbedingt "Eco" und "Green" sein muss. Dabei schließen sich Hardware und Green schon aus Prinzip aus weil allein für die Produktion der Hardware viel Energie und viele Chemikalien aufgewendet werden müssen.
Das kann schon Coexistieren meiner Meinung nach!
Warum denn auch nicht.

Die Hardware verliert aktuell so wenig Leistung, wenn man die etwas in der TDP begrenzt. Warum also nicht.

Man darf sich doch weiterhin bespaßen, wenn aber beim bespaßen dann weniger Energie verbraucht wird, find ich gut.
Hab gehört FPS Limiter sind auch ein probates Mittel um die Leistungsaufnahme im Zweifelsfall in Grenzen zu halten. Warm wird es im Sommer früher oder später immer ohne Klimaanlage, mit künstlich gedrosselter Hardware dauert es es nur etwas länger.
Ist das drollig, wenn die Leute die möglichen Fps sich nicht anzeigen lassen wollen um Strom zu sparen. ;)

Ich persönlich hatte schon immer einfach Spaß daran, die Hardware etwas zu tweaken, aus meiner Sicht zu optimieren. Das ist bei mir der eigentliche Grund.

Woebi ich persönlich auch finde eine RTX4090 mit 320W TDP bei höherem Speichertakt und UV ist vielleicht 10% langsamer als die Stock4090. Da finde ich schon das es auch mehr als nur Spielerei bringt.

ich zocke nicht mehr so viel, aber es gibt einige die viel zocken.

Denk mal 130h im Monat, oder so... Das wären ja schon 15-17kwh nur für die GPU gefühlt für nichts. Das macht man mit CPU auch so... Sind dann gut möglich schon 20 kwh...

Das ist wenn man autark vom Stromnetz sein möchte sogar schon relevant.
 
Zuletzt bearbeitet:
Du vergleichst gerade einen 7950X3D @ OC mit einem 13900K @ UV. Wenn ich das gemacht hätte, dann gäbe es einen Shitstorm von dir.
Ne, die Bezeichnung ist verwirrend. Beide CPUs wurden mit RAM OC betrieben. Man kann halt taktmäßig nix machen beim 3D, außer über den Curve-Optimizer. Die CPUs sind komplett verschieden. Man kann keine gleichen Bedingungen schaffen.
 
Die Welt ist es natürlich nicht, aber es sind trotzdem fast 50%. Wie stark man das gewichtet muss am Ende natürlich jeder selbst entscheiden.

Am Ende darf man natürlich auch nicht vergessen, dass der Großteil der User seine CPU stock laufen lässt und genau das ist ja eine der großen Stärken der 3D Cache CPUs.

So sehe ich das auch. Habe mich an die P und E Cores zwar gewöhnt, muss aber anerkennen das ich jedem die 7000X3D empfehlen würde.

Wie ich es schon einmal geschrieben habe, in diesen Zeiten sehe (ich persönlich) die Effizienz / Verbrauchswerte viel mehr im Fokus.
Dabei haben wir noch nicht darüber geredet, das die CPUs so auch aufwändige VRM-Lösungen, große AiOs oder dicke Kühler einsparen.

Ebenso bei GPUs. Die 4070TI hat meine 3080TI ersetzt. Klar unwesentlich mehr Leistung. Aber (viel)weniger Verbrauch, weniger Wärme. Spart jedem der neu einen PC baut viel Geld und Aufwand.
Kleinere Netzteile, weniger Lüfter, kleinere Kühlung....

Lustig mit der 3080TI konnte ich nach langem Zocken das Zimmer richtig aufwärmen und habe die warme Luft vom PC aufsteigen gespürt. Ist jetzt nicht mehr der Fall...
 
Du vergleichst gerade einen 7950X3D @ OC mit einem 13900K @ UV. Wenn ich das gemacht hätte, dann gäbe es einen Shitstorm von dir.

Mal ehrlich Dave, wundert dich das bei dem User? Da wird es grundsätzlich immer so hingestellt, damit intel am bestmöglichsten wegkommt... Ist AMD im Spieleparcour vorne, dann muss der natürlich angepasst werden um "richtige" Games auf denen dann komischerweise AMD immer schlechter performt.
Und irgend ein Strohhalm findet sich da immer anstatts man einfach mal anerkennt, dass die Konkurrenz nen besseren Job gemacht hat.
Vor allem frag ich mich wo die ganzen die jetzt nach UV schreien zur Bulldozer Zeit waren, da war das komischerweise vollkommen irrelevant, warum wohl nur...

Ansonsten bin ich mal gespannt wie sich der Level 4 Cache so auswirken wird, ansich ein spannendes Thema.
 
Danke für die Info. Sitzt dann der L4 Cache auch im anderen Chip? Dann wäre schon die Frage wie sinvoll dieser Cache aufgrund von Latenzen für die CPU-Cores zu verwenden ist. Von anderen Bremsen wie Transaktionsmechanismen für die Speichersynchronisierung etc. rede ich mal gar nicht.

Ich bleibe dabei. Die sauberste Lösung dürfte die sein, dass die iGPU den L4 exklusiv und die CPU-Kerne den L3 exklusiv nutzen können.

Über die technische Umsetzung des L4 gibt es nichts gesichertes. Das Patent hier ist die einzige Meldung – und wie alle Patente ist es eher allgemein gehalten und möglicherweise in seinen Andeutungen sogar bewusst nicht auf kommende Produkte passend. Patentiert wird schließlich ein logisches Vorgehen für beschleunigte Boot-Prozesse; da muss man keinen real existierenden Prozessor korrekt für abbilden. ;-)

Was mit Sicherheit, also von Intel, bekannt ist:
- Meteor Lake bekommt (in mindestens einer Ausführung) einen L4
- Meteor Lakes LLC kann nicht mehr von der IGP genutzt werden
- Meteor Lake wird (in mindestens einer Ausführung) aus einem Base-Tile mit aktivem Silizium (kein simpler Interposer), einem Compute-Tile, einem Graphics-Tile, einem SoC-Tile und einem I/O-Tile bestehen.
- Das Base Tile wird eine Rolle bei der Stromversorgung spielen.

Das war 's. Ziemlich sicher ist außerdem, dass das Compute-Tile (in mindestens einer Ausführung) sechs p-Kerne und mindestens zwei E-Core-Cluster, als mindestens acht E-Kerne enthalten wird. Zumindest ersteres zeigt so nämlich die im Artikel eingebundene Präsentation, wobei 8 Es unerwartet wenig ist – eigentlich werden 16 erwartet. Aber so sehen Größe und Struktur in der Präsentation auch nicht aus und da es lange Zeit hieß "8+16, auch für Desktop" könnten die zuletzt verbreiteten Gerüchte "6+16, erstmal nur mobile" auch eine Amalgam aus verschiedenen Quellen sein, während Intel längst auf "6+8, nur mobile"-Kurs ist – nix genaues weiß man nicht.

Alles weitere ist jedenfalls Interpretationssache. Wir haben ja schon darüber berichtet, dass andere Seiten mutmaßen, der L4 stünde ebenfalls nicht beiden Recheneinheiten zur Verfügung. Das ist nicht widerlegt. Aber es ist eben (meiner Meinung nach) auch sehr unwahrscheinlich, denn ein zusätzlicher, großer Cache ist vor allem für die IGP-Leistung sehr wichtig. AMDs GPUs, Nvidias 4000er-Generation und Intels bisherige L4-Cache-CPUs (mit "Iris Pro") zeugen davon, wie extrem viel RAM-Transferrate man einsparen kann, wenn man einer Grafikeinheit große Caches spendiert. Und "RAM-Transferrate" haben IGPs so gut wie nie genug, da ist jedes Sparpotenzial Gold wert. Daher meine Schlussfolgerung: IGP muss L4-Zugriff haben. Die CPU aber auch, denn bisherige Intel-GPUs hatten nur eine interne Zwischenspeicherstufe. Die erste externe wäre somit gar kein "L4", wenn die CPU keinen Zugriff hätte, denn nur diese hat Intern bereits L1, L2 und L3 (laut allen Vermutungen und andeutungsweise dem Bild in der Intel-Präsantation). Genau deswegen heißt der heutige LLC ja "LLC": Weil er nur aus der Sicht der CPU ein L3-Cache ist, aus Sicht der IGP dagegen ein L2-Cache. Aber für beide ist er der "LL"-Cache. Zumindest bis jemand einen (aus-CPU-Sicht-)L4 einführt.

Wo dieser dann wiederum liegt, ist wildes Gerate: Das I/O-Tile ist winzig und im CPU-Tile bleibt allen Informationen nach kein Platz. Das Graphics-Tile ist kaum größer, angeblich soll aber die IGP-leistung ordentlich steigen => da dürften nur Shader drin sein, aber kein großer L4. Außerdem haben alle drei genannten Tiles keine direkte Verbindung zueinander und wenn IGP und CPU beide Zugriff haben sollen, dann doch bitte jeweils auf möglichst kurzen Wege. Bleiben also das Base-Tile und das SoC-Tile. Ich persönlich tippe auf letzteres, denn ersteres war anfangs gar nicht in Präsentationen zu sehen (stattdessen wurden EMIBs als Verbindung zwischen den vier anderen Tiles erwartet), später nur als passiver Interposer und das Intel jetzt zwar von "aktivem Silizium" spricht, aber im weiteren Verlauf praktisch nur von der Stromversorgung, spricht für eine eher grobe Fertigung, die man nicht für Cache nehmen würde. Das SoC-Tile ist dagegen das zweitgrößte Stück Silizium, relativ zu CPU-Kernen und IGP viel größer als der Uncore-Bereich heutiger Intel-CPUs, selbst wenn man eine Integration von Southbridge-Funktionen annimmt. Das heißt entweder wird auch dieses Chip in einem altmodischen Verfahren gefertigt oder er enthält noch eine sehr viel Platz beanspruchende Struktur, die es bislang nicht gab – zum Beispiel einen Cache.
 
Den Rest deines Kommentares mal ignoriert. Aber selbst uv hätte Bulldozer nicht gerettet.

So etwas kann auch nur von einem User kommen der selbst keinen hatte. Die Dinger waren spottbillig und man konnte selber unheimlich viel optimieren hinsichtlich UV und OC und hatte dann eben nicht die hohen Verbräuche aus den Tests...

Und gleiches macht nun der besagte User auch in dem er mit UV argumentiert, nur dass die CPU halt mehr wie 130€ kostet, wie dies damals der Fall war...
Ist dann nur die Frage wurde damals auch schon so argumentiert oder dreht man es sich so hin wie man möchte? Bei der GTX 480 aka Fermi war dies ja auch ein Thema, dass da der Verbrauch keine Rolle gespielt hat und eine Generation davor es DAS Thema war.
Entweder ist mir eine Eigenschaft immer wichtig oder halt nicht (und nicht herstellerabhängig) und zum anderen sollte man es sich halt auch nicht permanent so hindrehen, wie es einem in den Kram passt.

OC und UV schön und gut, allerdings ist es auch zum einen Zeitaufwändig, soll ja alles auch stabil laufen und im Jahr 2023 wo man out of the box schon sehr runde Produkte zu kaufen bekommt nicht mehr wie ein Hobby sein.
Vor 10-15 Jahren konntest mit schmalem Geldbeutel prozentual gesehen bei CPUs und GPUs viel mehr rauskitzeln, wieso sollte man dies also als Kaufargument nehmen, wenn ich auch ohne Aufwand schon etwas sehr effizientes erwerben kann?
 
So etwas kann auch nur von einem User kommen der selbst keinen hatte. Die Dinger waren spottbillig und man konnte selber unheimlich viel optimieren hinsichtlich UV und OC und hatte dann eben nicht die hohen Verbräuche aus den Tests...
Dir ist aber bewusst das Bulldozer davon auch nicht wirklich schneller gewurden wäre oder?
Bulldozer war Stock Langsamer und hat mehr verbraucht als Stock Kaby lake oder irgendwelchen anderen lakes.
Klar waren Sie günstiger sie waren auch einfach schlechter.

Selbst mit uv hättest du dann einfach nur einen Langsameren Intel gehabt für weniger Geld , der vermutlich je nach UV stufe immer noch mehr Säuft als der Intel gegener.

UV war damals nicht interesant weil OC noch etwas brachte (Meist) und auch strom noch günstiger war. Und es 300 watt CPUs selten waren genau so wie GPUs die weit über 250 Watt ziehen.
Schaut dir doch mal an was die TDP oder wenn du möchtest der verbrauch eines alten i7 2700k plus GTX 680 bzw HD7970 war. Da sind wir weit von i7 13700k und 7900xtx bzw 4080 weg.
 
Wow, L4 Cache in einer CPU, wenn´s Leistung bringt, tolle Sache.
Die Technik bleibt eben nicht stehen.;)
 
Dir ist aber bewusst das Bulldozer davon auch nicht wirklich schneller gewurden wäre oder?
Bulldozer war Stock Langsamer und hat mehr verbraucht als Stock Kaby lake oder irgendwelchen anderen lakes.
Klar waren Sie günstiger sie waren auch einfach schlechter.

Da kann ich nur sagen, dass du schlicht und ergreifend keine Ahnung hast. Ich hatte damals selbst einen FX 8320 und alleine das Anheben des NB Taktes von 2 auf 3 GHz war ein enormer Boost. Also ja er wurde merklich schneller dadurch!
Und Kaby Lake kam im q3 2016: https://de.wikipedia.org/wiki/Intel-Kaby-Lake-Mikroarchitektur
Also eine ganze Ecke später raus...
Stock war er Mist das steht ohne Frage, aber man konnte durch Optimierung sehr viel erreichen und das für sehr wenig Geld und darum ging es.
Und ob man jetzt irgendwelche High End CPUs die 500+ kosten, mit entsprechend teurerem Ram usw noch optimieren kann um im Benchmark vorne zu stehen, kann man machen, aber für die Mehrheit mit Sicherheit kein Kaufargument.

Das wären eher die Xeons von vor 10 oder 11 Jahren gewesen die man relativ günstig erwerben konnte und auf der Mainstream Plattform betreiben. Zumindest gabs in die Richtung irgendwas von intel, ist schon sehr lange her, daher kann ich mich nicht mehr genau daran erinnern wie die Konstellation gewesen ist.
Und da lohnt sich der Aufwand für viele dann doch deutlich mehr, was damals auch sehr viele gemacht haben.

Nur muss man sich nicht immer hinstellen und es so hindrehen, damit Hersteller xy unter Prämisse Z wieder besser ausschaut ;-)

Selbst mit uv hättest du dann einfach nur einen Langsameren Intel gehabt für weniger Geld , der vermutlich je nach UV stufe immer noch mehr Säuft als der Intel gegener.

Das war nach der Optimierung halt nicht mehr der Fall...

UV war damals nicht interesant weil OC noch etwas brachte (Meist) und auch strom noch günstiger war. Und es 300 watt CPUs selten waren genau so wie GPUs die weit über 250 Watt ziehen.
Schaut dir doch mal an was die TDP oder wenn du möchtest der verbrauch eines alten i7 2700k plus GTX 680 bzw HD7970 war. Da sind wir weit von i7 13700k und 7900xtx bzw 4080 weg.

UV war auch damals schon interessant, da weniger Leistungsaufnahme = weniger Wärme die abgegeben muss = weniger Hitze im Zimmer.
Sind die Verbräuche die letzte Jahre noch weiter angestiegen? Aufjedenfall! Ist das super? Finde ich persönlich nicht, aber deswegen kann man doch trotzdem beim roten Faden bleiben ;-)
Und da du die GTX 680 ansprichst, die GTX 780 war noch ne tolle Karte die man massiv übertakten konnte, sowas findest heute gar nicht mehr :(
Und im Jahr 2023 kann ich einfach erwarten, dass ein Produkt @stock schon einwandfrei läuft. (Ein Powerlimit oder eine andere TDP Einstufung im Bios, lass ich mir noch gefallen) Aber wozu soll man da heutzutage noch so viel Zeit aufwenden?
Du hast aktuell bei den CPUs eine Auswahl die es besser kann und das gleiche auch bei den GPUs und nein da hat AMD nicht die bessere Effizienz, da ist es relativ enttäuschend was sie abgeliefert haben und gehen daher auch über den Preis.
 
Zurück