News Intel Meteor Lake: Ultras mit über 5 GHz und Roadmap [Gerücht]

@latiose88
Die meisten von uns verbauen sich auch eine Grafikkarte und so kommt diese im Gegensatz zu einer Testseite wieder zum Einsatz. Wenn die Grafikkarte limitiert, dann dreht der Prozessor Däumchen und hier kommt der Unterschied zu diesen Tests zustande.

Stresstests und auch manche Benchmarks lasten alle Kerne mit voller Last auf 100 % aus. Das kommt normalerweise weder mit Games noch mit Anwendungen vor. Ich könnte auch mit meinem Wagen auf dem Prüfstand bis zu 210 KM/h erreichen. Dennoch ziehe ich es vor, gemütlich und ohne Eile zu fahren.

Hier ist es nicht anders, denn sobald ein Prozessor ganz normal genutzt wird, fällt der nicht mehr so hoch in der Leistungsaufnahme aus. Wer dann noch mehr einsparen möchte, kann UV nutzen, ein Limit setzen, damit die Leistung ab einer Leistungsaufnahme gedrosselt wird oder sogar den Multiplikator heruntersetzen. Natürlich vorausgesetzt, es handelt sich um ein K Prozessor, wo der Multiplikator nicht gesperrt ist.

Übrigens geht dieses auch mit einem B-Board + K-Prozessor, nur nicht nach oben hin, sondern nur nach unten.
Was Cienebench R23 angeht, hier werden alle Kerne auf 100 % ausgelastet, auch E-Kerne die real gar nicht so stark ausgelastet und genutzt werden. Aber dafür gibt es bei uns Punkterekorde die nur ein 13900K Prozessor bisher erreichen konnte.

Die meisten von uns verbauen sich auch eine Grafikkarte und so kommt diese im Gegensatz zu einer Testseite wieder zum Einsatz. Wenn die Grafikkarte limitiert, dann dreht der Prozessor Däumchen und hier kommt der Unterschied zu diesen Tests zustande.
Nicht falsch verstehen, diese ganzen Tests haben schon eine Daseinsberechtigung, aber manche Leute sind zu blauäugig zu erkennen, dass bei sich zu Hause stehen, ein System ganz anders zum Einsatz kommen wird. Natürlich müssen Testseiten ihre Tests auf diese Weise ausführen, sonst würden Grafikkarten und keine Prozessoren miteinander verglichen werden.
 
sondern wie der sich im Alltag normalerweise schlägt
Und da muss man nun mal auch eingestehen, dass bei Multicore "Renderlast" ein 13900K +300w aus dem Sockel lutschen kann. Das ist genau so Teil der Wahrheit wie geringerer Idle oder moderater "Gaming Last" Verbrauch. Du hast aber in so fern recht, als das viele das "extreme Ende der Fahnenstange" heranziehen. Was den CPUs insgesamt nicht gerecht wird.

AMD hat inzwischen sowohl für Gaming als auch Highend Multicore die performanteren und effizienteren Lösungen. Intel CPUs verfolgen da eher den Ansatz der Eierlegendenwollmilchsau. :D
 
Sollen die mal bringen was sie da haben. Ich werde mir die Tests durchlesen und weiter mit AM4 fahren. Ich brauche die Leistung(saufnahme) schlicht nicht.
 
Und da muss man nun mal auch eingestehen, dass bei Multicore "Renderlast" ein 13900K +300w aus dem Sockel lutschen kann.
Natürlich, das habe ich auch nirgendwo bestritten. :)

Aber solch eine Leistungsaufnahme habe ich bisher nur in Cinebench R23 (oder in Stresstests wie z.B. Prime95, OCCT usw.) erreicht. Mit meinen Programmen erreiche ich keine so hohe Leistungsaufnahme, auch nicht mit Rendern von Videos.
 
Zuletzt bearbeitet von einem Moderator:
@IICARUS
Ok mag ja sein das GPU sparsamer ist,aber sobald es auf kleine und Optisch ausehende Videos geht,verliert die GPU an macht.
Aber so ist das halt.Die CPU hat viel mehr EInstellung und so die alles beeinflussen.An reiner Geschwindigkeit kommt die CPU nicht ran gegenüber der GPU.Bei richtiger Einstellflut gewinnt die CPU.Wie man es halt nimmt.
Aber versuche mal 2 oder 3 gleiche Programm gleichzeitg zu starten,diese dann Umzuwandeln.Dann bekommt man die CPU ganz sicher voll Ausgelastet.Bei 4 gleichzeitig schaffte ich es bei einem Threadripper bei wem die 32 Kerne zu 100 % auszulasten.Bei 2 war das beim 32 Kerner nicht möglich gewesen.
Es kommt immer drauf an und genau da war der 13900k bei 100% Vollast.Das ist wie wenn ich Cinchebench starten würde.So sa dann auch der Stromverbrauch aus.Ich selbst habe keinen solcher Intel CPUS.Bei AMD mit dem selben Programm kommt da sparsamer rüber.

Das ist zwar lobenswert,aber idle ist bei AMD mir noch ein Dorn im Auge.Aber beides sparsam bei Idle und Vollast,das habe ich bei keinem CPU hersteller bisher gesehen gehabt.Da passte nur das eine oder andere aber nicht beides Gleichzeitig.Ich kann nur nach wo ich mehr fahre und wo ich dann mehr spare bei Idle oder bei Last Entscheiden.
Im moment mache ich Umwandeln Pause,weil ich nur am VIdeo schneiden bin.Es stabeln sich nun 1000 Aufnahmen,hilft halt nix.Das wird dann mit Volle Pulle dann schon wieder aufgeholt.

Naja was ich damit sagen will,wenn es Intel mal schaffen würde mit weniger Stromverbrauch die volle Power zu packen,dann kommt Intel wieder in Frage.
Ein I9 9980xe mit 140 Watt war wirklich gut,Leistung zwar schon überholt mit Temperatur Problemen aber kein Stromfresser.Die Aktuellen Intel sind ja Stromfresser bei oben hin,Heizer und wenn man mal sparsamer will,dann fällt die leistung wie ein Sack zusammen.Ne Tolle Leistung.Dann auf den nächsten warten.Nächster bitte kann man so sagen.
 
Ok mag ja sein das GPU sparsamer ist,aber sobald es auf kleine und Optisch ausehende Videos geht,verliert die GPU an macht.
Das ist in meinen Augen Unsinn, denn ich habe schon Videos mit der Grafikkarte und auch mit dem Prozessor gerendert und ich kann nichts in der Qualität des Videos ersehen, nur der Speicherplatz fällt mit dem Prozessor berechnet etwas kleiner aus. Der Unterschied kommt auch auf die Zeit, was dazu benötigt wird. Denn für 29 GB als Beispiel habe ich mit dem Prozessor 45 min gebraucht, mit der Grafikkarte nur 15 min.

Genau das was @Shinna Meinte ich mit leistungsaufnahme. Aber lassen wir dies.
Die Leistungsaufnahme ist immer die, die ich mit meinem System tatsächlich anliegen habe und nicht was hier im Forum dazu geschrieben wird. :D
 
Das ist in meinen Augen Unsinn, denn ich habe schon Videos mit der Grafikkarte und auch mit dem Prozessor gerendert und ich kann nichts in der Qualität des Videos ersehen, nur der Speicherplatz fällt mit dem Prozessor berechnet etwas kleiner aus. Der Unterschied kommt auch auf die Zeit, was dazu benötigt wird. Denn für 29 GB als Beispiel habe ich mit dem Prozessor 45 min gebraucht, mit der Grafikkarte nur 15 min.


Gut dann hast du andere Priotäten als ich.Ich habe nur TV Aufnahmen zum Umzuwandeln.Die Highligts sind 10 gb HD Aufhnahmen von so Sendern wie ARD,ZDF,BR Fernsehen,Arte sowas halt.Der rest sind halt lauter 576I Aufnahmen von SD Fernsehen.
ALso alles nur Halbbilder.Die GPU scheint da immer Probleme zu haben.Entweder doppelte Aufnahme die teilweise fast so groß wie die Original Aufnahmen sind.Dafür halt dann 25 Vollbilder anstatt 50 Halbilder.Dafür ist die Bildqualität so gut wie bei der CPU.Oder halbe Größe ,etwas langsamer als GPU dafür die selbe Bildqulität.

Meine Aufnahmen sind so 700-800 MB Groß.Bei GPU kommt dann 600 MB raus,bei CPU 300 -350 MB raus.GPU ist so um die 30 % schneller als CPU,aber mit so einer kleinen Ersparnis,kann ich mir das Umwandeln echt sparen.Dann doch lieber auf CPU setzen.Die GPU scheint da wohl Probleme zu haben.
Bei mir sieht es so aus,bei optimaler Einstellung,gleiche Bildqulität ,größere Aufname oder gleiche Größe wie bei CPU nur Bilität auf niedrige Setting wie bei CPU.DIe kann ich auf der CPU auch fahren,dann sind sie so ungefahr gleich schnell und bei CPU sogar noch kleiner die Aufnahmen.
Ich will diese halt Archivieren.Wenn ich pixelmatsch sehen will,dann kann ich alles von Youtube holen,das sieht genauso aus.
Aber ich will die immer mal wieder ansehen.Platz habe ich nur begrenzt,also speicherplatz muss ich halt einsparen,damit ich sonst 10 oder mehr weitere Festplatten mir sparen kann.Wenn ich das aber so wie du machen würde,dann könnte ich mir gleich 10 weitere Große Platten Ordern,weil dann steigt der Platzbedarf um den Faktor 5 oder mehr.Und wenn ich weiter mache,brauche ich dann irgendwann so nen Server raum wie so manche Firmen.Am besten gleich mal 100 große Festplatten Ordern.Wobei da ist die CPU doch noch sparsamer als 100 20 TB Platten.
Da kann ich mir sogar nen Threadripper davon bezahlen als so viele Festplatten zu kaufen.Aber freilich ist die GPU noch immer schneller aber bei Bildquilität zu Größe Verhältnis kann einfach die GPU nicht mithalten,ist leider so.
 
Ein I9 9980xe mit 140 Watt war wirklich gut,Leistung zwar schon überholt mit Temperatur Problemen aber kein Stromfresser.Die Aktuellen Intel sind ja Stromfresser bei oben hin,Heizer und wenn man mal sparsamer will,dann fällt die leistung wie ein Sack zusammen.Ne Tolle Leistung.Dann auf den nächsten warten.Nächster bitte kann man so sagen.
Ich muss dazu Videos rendern und selbst dann komme ich nur auf max. 125 Watt, weil ich im BIOS ein Limit gesetzt habe, was zunächst auf 241 Watt erlaubt und danach auf 125 Watt gesetzt wird. Aber selbst diese Leistungsaufnahme erreiche ich damit nicht, weil mir das Rendern mit dem Prozessor zu lange dauert. Daher lasse ich normalerweise die Grafikkarte rendern und dann bleibt der Prozessor um die 30 - 40 Watt.

Games ist dann wieder eine ganz andere Geschichte, da komme ich normalerweise um die 55 - 75 Watt und Games, die alle P-Kerne gut mit auslasten, bis zu 100 Watt. Im Übrigen kommt mein Sohn mit demselben Prozessor mit COD etwa 20 Watt höher, weil seine RTX 4080 Grafikkarte anscheint eine höhere Rechenleistung des Prozessors abverlangt. Mit meiner RTX 3080 muss wohl der Prozessor nicht ganz so viel Rechenleistung aufbringen.

Gut dann hast du andere Priotäten als ich.
Das ist, was ich die ganze Zeit verständlich machen möchte, es hängt nicht davon ab, was manche Tests so ergeben haben, sondern was später bei sich zu Hause stehend, läuft. Aber das kannst du auch gar nicht aus der Ferne so genau ersehen, weil du solch ein System nicht vor dir stehen hast. Denn ich kann auch schlecht was über andere Systeme aussagen.

Kann nur aussagen, dass früher mein Sohn auch einen 3900X (ich hatte damals noch meinen 9900K) verbaut hatte und es damals auch immer hieß, AMD wäre sparsamer, weil ja immer Tests mit 720 P im CPU-Limit so ausgefallen sind. In COD Warzone hingegen, haben wir an der Steckdose gemessen dieselbe Leistungsaufnahme im selben Game gehabt.

Das liegt einfach daran, dass mit Games, die im GPU-Limit laufen, die Prozessoren sehr nahe zusammen kommen. Hier kommt es dann auf die Grafikkarte mit an, denn wir verbauen uns ja auch nicht grundlos eine Grafikkarte ein. Sonst könnten wir einfach den schnellsten Prozessor verbauen und einfach die Grafikkarte ganz weglassen. Natürlich gibt es auch Games, die im CPU - Limit laufen, aber wir versuchen schon möglichst im GPU-Limit zu bleiben.

PS: Games... ich verziehe mich jetzt auch in solch ein Game... also schön weiter machen. :D
 
Zuletzt bearbeitet von einem Moderator:
@IICARUS
Ok alle Intel der 12 und 13 gen wurden ohne Limitierung verwendet.Ich kann dir nur sagen wie es sein kann das die CPU so viel Strom frisst.Ich selbst habe es ja bei wem durch Teamview testen dürfen.Dabei wurde auch ein Tool im hintergrund am Laufen gelassen um das Verhalten beim Stromverbrauch zu messen.Es mag zwar nur ein 1:03 Sekunden test beim 13900k gewesen sein,aber würde ich das wohl länger laufen,wäre die CPU richtig heiß,es würde wohl anfang zu drosseln weil über ne längere Zeit kann wohl ein 13900k keine 350 Watt dauerhaft laufen lassen.Temps gehen dann gewiss über die 100 Grad hoch.Erinnert mich sehr am 9980xe da war dann bei 110 Grad schluss gewesen.Abgeschaltet hat sich das System aber nie bei mir,trotz nur Luftkühlung und so.
So würde sich wohl auch ein 13900k Verhalten. Wohl ist mir aber bei 110 Grad aber dennoch nicht.Der Pc strahlt so ne richtige Hitze aus,die fühle ist.Sitze ich doch fast nebem dem Pc.Es fühlt sich an wie bei einer Sauna,also so ähnlich oder wie ne bestrahlung an.
Hoffe Intel macht das in Zukunft besser und überlässt es nicht den Mainboard Herstellern.

Naja Fakt ist ,ändert sich halt bei mir dennoch nicht.Werde so weiter fahren wie immer,also wenn da nix von Intel sparsames kommt,dann war es das halt mal wieder.Soll schon im gesammten besser laufen als beim 18 Kerner wie ich finde.

Und bei den Test fahre ich so wie bei mir immer.Und bisher hat mich bis auf ein sehr gutes Ergebnis bei der Zeit sonst nix bei Intel beindruckt.Der Preis ist einfach zu hoch.
 
@IICARUS
Ok alle Intel der 12 und 13 gen wurden ohne Limitierung verwendet.Ich kann dir nur sagen wie es sein kann das die CPU so viel Strom frisst.
Was bedeutet für dich ein Limit? Ein Limit kann ich auch mit meinem Auto während der Fahrt setzen. Zum Beispiel bei 120 km/h. Mit dem Wagen müsste ich weiterhin Gas geben und auch bremsen. Aber sobald ich diese 120 km/h erreiche, dann würde der Wagen automatisch das Gas wegnehmen, damit ich nicht schneller fahren kann. Ich spreche jetzt auch von Geschwindigkeitslimit und nicht vom Tempomat.

Mit dem Prozessor ist es dasselbe, dieses Limit wird nur dann angewendet, wenn die Leistungsaufnahme auch dieses Limit erreicht. Dieses Limit kann jeder selbst bestimmen und in meinem Fall habe ich mich für 125 Watt entschieden. Meine Anwendungen und Games laufen aber sehr selten in dieses Limit und solange dieses Limit nicht erreicht wird, nimmt der Prozessor auch nicht an Leistung ab.
 
Zuletzt bearbeitet von einem Moderator:
@IICARUS mit Limits meinte ich keine Beschränkungen eingestellt.Einfach so zusammen gebaut und dann fertig ist die Benutzung.Das heißt die CPUS ist mit ihrerer vollen Power was geht gefahren,ohne Rücksicht auf Verluste.
Dabei waren diese 350 Watt also kann man so sagen ohne AVX verwendet worden.Finde ich schon hart wenn ich schon weil meine Anwendung nur in dieser Konstellation nur wenig Nutzen aus AVX hat,dann erwarte ich schon das die Leistungsaufnahme nicht so stark ist.Ich habe noch nicht mal AVX 1 in verwendung gehabt,aber dennoch diese hohe Verbrauch angezeigt gehabt.Mehr kann man da echt nicht machen,höchstens wirklich selbst ein Limit mal zu setzen.Naja bei weniger Verbrauch sank halt sehr stark die Leistung ab beim 13900k.Mit den 125 Watt sank der CPU Takt auf so 4,5 ghz oder sowas anstatt 5,7 ghz.Und das war massive Leistungs Senkung.Ich erwarte also in Zukunft von Intel das es ohne was zu tuen die CPUS viel Leistung und wenig Stromverbrauch hat.Diese 350 Watt sind der Wahnsinn.Schon alleine beim 12900k waren es mit 250 Watt schon des guten zuviel wie ich finde.Aber man kann ja immer mehr drauf setzen wenn man auf Leistung schielt.Wie viel können wohl bei Intel die CPUS noch so vertragen,500 Watt Vollast oder gar 600 Watt?
Ich denke mal die Hitze wird dann wohl mit steigen.Bei spätestens 120 Grad wird der PC wohl abschalten denke ich mal.
 
@IICARUS mit Limits meinte ich keine Beschränkungen eingestellt.Einfach so zusammen gebaut und dann fertig ist die Benutzung.Das heißt die CPUS ist mit ihrerer vollen Power was geht gefahren,ohne Rücksicht auf Verluste.
Hängt immer von der Last des Programms oder Game ab. Ist ja nicht so, dass der Prozessor ständig eine hohe Leistungsaufnahme anliegen hat. CB R23 z.B. treibt alle Kerne auf 100 % und so kann der Prozessor auch eine sehr hohe Leistungsaufnahme erreichen. Programme nutzen aber nicht immer alle Kerne und die Kerne sind auch nicht immer voll ausgelastet. Daher fällt dann die Leistungsaufnahme auch geringer aus.

Wem dieses dann noch nicht ausreicht, der kann zusätzlich noch ein Limit setzen.
 
@IICARUS

ja scheinbar kann man auch ohne extras wie AVX die CPU zu 100 % Auslaten.Selbst wenn nur wenig Transistoren einer CPU ausgelastet werden,können 100 % Last zu höheren Temperaturen und Stromverbrauch führen.Limits wurden zum testen ebenso gemacht.Aber finde ich schon hart,das durch das 125 Watt aus so einem i9 13900k dann die Geschwindigkeit sich halbiert,also mit längeren Zeiten zu kämpfen hat.
Hoffe das macht der Nachfolger besser,weil so hohen Stromverbrauch oder geringe Leistung will ich eben nicht haben.Man kann eben entweder sparsam oder voll Leistung aber nix dazwischen haben.Wobei mit 250 Watt nur etwas weniger Leistung.Aber dann ist halt der Ryzen 9 7950x dann mit seinen 142 Watt besser bei der Leistung weil eben Intels CPU bei richtiger Last eben mehr verballern dürfen,es sei denn man verbietet es und macht dem nen Riegel vor.Dann fällt aber die Leistung ab.Es beist sich halt ,weil man entweder oder bekommt.
Das wollte ich damit sagen.Meine CPU ist nur bei 92% Vollast.Aber gut 100% ist ja eh nie ganz gut für eine CPU,weil damit wird der CPU zu viel Abverlangt wie ich finde.
 
Ich verstehe diese Diskussion auch nicht! Ich habe mich auch für den i7 13700K entschieden, allerdings rendere ich nichts, sondern Spiele nur. Ich habe bisher kein Game gehabt die 250 Watt gesaugt haben! Ich habe auch kein Limit eingestellt sondern betreibe ihn im Stock.

Temps sind im Game zwischen 45-58 Grad und Watt nimmt sich die gute zwischen 45-85Watt. Selten springt da mal die ü 100 Marke an. Aber gut ich muss zugeben das Spiel Cinebench, was hier gerne den ganzen lieben langen Tag zocken, steht nicht auf meiner Liste ^^
 
Das muss nicht unbedingt so sein, es kann auch sein das man ML quasi ab Werk übertakten muss um die 5Ghz+ erreichen kann.


Generell ist das jetzt aber auch keine soo gute Nachricht. Zumindest im Vergleich zu RPR wird es deutliche Takteinbußen geben und da mangelt es dann bspw. im Gaming an Maximalleistung. 5,2Ghz wären bspw. deutlich zu wenig, 5,5Ghz quasi das Minimum um mit IPC Plus und weniger Takt auf eine vergleichbare Leistung. Eigentlich zu wenig für ein Full Node und ein komlett neuen Kern.

MTL ist bis auf weitere mobile-only. Bei 5,5 GHz würde also schon ein IPC-Stillstand reichen, um mit RPL-HX (5,6 GHz) gleichzuziehen. Bei 5 GHz Turbo bräuchte Intel plus 10 Prozent IPC für einen Gleichstand – mit neuer, dem Vernehmen nach breiterer Architektur, mit mutmaßlich großem L4-Cache und mit schnellerem RAM ist das nicht wirklich eine Herausforderung. Alles unter plus 15 Prozent Single-Core-IPC, also 5 Prozent Mehrleistung gegenüber RPL, wäre enttäuschend. Wir reden immerhin von einem Entwicklungsschritt, der dem Wechsel Zen 3 => Zen 4D ähnelt.

Multicore hängen mobile-CPUs umgekehrt komplett im Power Limit und somit von der Effizienz ab. Der Base Clock bei RPL-HX liegt in der 55 W Klasse bei 2,2 GHz. Mit zwei Kernen weniger und 10 Prozent IPC-Zuwachs müsste MTL ab 2,6 GHz Base Clock eine bessere Gesamtleistung abliefern. Auch das erscheint jetzt nicht unmöglich. Die große Unbekannte: Wie effizient ist Intel 4 wirklich? Was ist, in Intels recht fordernden Base-Clock-Szenario, oberhalb von 2,6 GHz allcore drin?
 
MTL ist bis auf weitere mobile-only.
Nö! Meines Wissens nach kommen die kleinen Core 3 und Core 5 doch auch im Desktop.


Insofern beziehen sich hier meine Aussagen auf den Desktop und nicht auf den Notebookbetrieb, ein 13600 sollte hier in etwa gleiche Specs erreichen wie der Maximalausbau Meteor Lake (glaube 65W TDP / 155W PL2)

Wobei hier natürlich ein nicht ganz unwesentlicher Umstand vorliegen kann, 5Ghz+ gilt dies nun für die mobilen Chips, oder die Desktopchips (wobei hier 55W glaube ich das Maximum sein sollen, mit entsprechenden P2 Limits kommen wir aber wahrscheinlch auch wieder in den Bereich 150W).


Bei 5,5 GHz würde also schon ein IPC-Stillstand reichen, um mit RPL-HX (5,6 GHz) gleichzuziehen. Bei 5 GHz Turbo bräuchte Intel plus 10 Prozent IPC für einen Gleichstand
s.o. für den mobilen Markt gilt das so, bin mal absolut gespannt, wie hoch die mobilen Chips dann am Ende takten, wie oben gesagt könnte ich mir vorstellen, dass 5Ghz+ durchaus schon ordentlich saufen und man diese am Ende nur über das PL2 hinbekommt. Im Desktop kann man dies PL Limit auch gut ausreizen und kühlen, im Notebook ist aber eben sofort Ende, die 150W (weiß gar nicht ob Notebooks dies so spezifizieren) sind nach drei Sekunden im thermischen Limit und der Akku ist nach 15Minuten leer.

Wenn RPL-HX für Meteor Lake eine Herausforderung sein sollte (ich meine hier nicht die kurzzeitige Spitzenleistung, sondern echte nutzbare Dauerleistung), dann sollten sie die Arch direkt einschmelzen. Glaube ich aber nicht, Meteor Lake wird ja wohl 15-20% IPC bringen.


mutmaßlich großem L4-Cache
Da sind wir wieder bei der "vermeintlichen IPC", der Cache wird einem ja nur in Cachesensitiven Anwendungen was bringen, im CB bringt er dich nicht weiter und in der echten Rohleistung auch nicht.

Wir reden immerhin von einem Entwicklungsschritt, der dem Wechsel Zen 3 => Zen 4D ähnelt.
Ja

Multicore hängen mobile-CPUs umgekehrt komplett im Power Limit und somit von der Effizienz ab. Der Base Clock bei RPL-HX liegt in der 55 W Klasse bei 2,2 GHz.
s.o.
Im mobilen Segment muss und wird Meteor Lake brillieren können, RPL-HX (und ja, das sagt der der sich gerade einen 13900H angeschafft hat; aber es ist einfach so, dass die Auswahl bei AMD leider immer noch nicht groß genug ist, 5G Modem und AMD gab es glaube ich zwei Notebooks, aber beide ohne dedizierte GPU) ist da einfach zu limitiert und ähnelt schon fast dem Netburst Desaster. Die Intels saufen das doppelte der AMD Riege, 155W gegenüber 75W des AMD Spitzenmodells.

Mit zwei Kernen weniger und 10 Prozent IPC-Zuwachs müsste MTL ab 2,6 GHz Base Clock eine bessere Gesamtleistung abliefern.
:daumen: Rechnung ist zwar linear, sollte aber im groben passen.

Die große Unbekannte: Wie effizient ist Intel 4 wirklich?
Denke einfach, dass dies wie schon gesagt kein Akt werden sollte. Meteor Lake muss sich im 55W Segment einfach deutlich abheben, der neue Fertigungsprozess muss um die 30% Einsparung bringen bei gleicher Leistung, wie du richtig sagst ist mobil komplett begrenzt auf Grund der thermischen Leistungsabgabe. Daher erwarte ich von Meteor Lake hier mind. 50% Effizienzboost und damit nichts anderes als ein Patt zu Zen 4. Im Notebook wird man das auch ziemlich gut in Mehrleistung umsetzen können, damit würde man AMD (sofern man bei 155W PL2 bleiben würde) in den Benchmarks mal deutlich stehen lassen, gehe aber eigentlich eher davon aus, dass man die Performancekrone in diesem Bereich +10% machen wird und dann lieber die Limits deutlich nach unten schraubt.

Im Desktop dagegen sehe ich nicht großartig Gewinne in der maximalen Leistung, 20% IPC bei gleichem Takt im Core (i)5 Umfeld und gleicher Kernzahl werden dann am Ende in 20% Mehrleistung resultieren. Das aber eben nur im Bereich eines Core i5 13600 (non K).


Im Gaming könnte so ein Core 5 dann allerdings ein echter Gamechanger für Intel werden, mal sehen wie sich Adamantine schlägt, aber wenn da nur im Ansatz ein 3D Cache Ergebniss kommt, sehe ich den 5Ghz Six Core als Intels besten Gamingprozessor! 20% IPC (ohne Cache), dazu nochmal 20% extra Gamingpower (bei AMD sind es ja teilweise sogar mehr), dann kommt da eine 55W CPU (klar PL2 von 150W) meines Erachtens nach in den Bereich eines 13900K /KS!
 
MTL ist bis auf weitere mobile-only. Bei 5,5 GHz würde also schon ein IPC-Stillstand reichen, um mit RPL-HX (5,6 GHz) gleichzuziehen. Bei 5 GHz Turbo bräuchte Intel plus 10 Prozent IPC für einen Gleichstand – mit neuer, dem Vernehmen nach breiterer Architektur, mit mutmaßlich großem L4-Cache und mit schnellerem RAM ist das nicht wirklich eine Herausforderung. Alles unter plus 15 Prozent Single-Core-IPC, also 5 Prozent Mehrleistung gegenüber RPL, wäre enttäuschend. Wir reden immerhin von einem Entwicklungsschritt, der dem Wechsel Zen 3 => Zen 4D ähnelt.
Was ist Zen4D?
Aber wenn es so kommt, dass man tatsächlich mit MTL bei 5 Ghz landet, und auch (mindestens) 5% vor RPL liegt, ist es interessant, dass man dann nicht gleich die komplette Serie ersetzt (würde auf limitierte Produktionskapazitäten schließen lassen).
Gut aber für uns ist sowieso Arrow Lake spannender, auch bzw. wegen 20A
 
Zurück