News Intel Core Ultra: Meteor Lake soll der erste 3D-Hybrid-Prozessor werden

Wobei die schon oft dazu neigen, ab Werk relativ schnell und weit hochzuboosten. Da kann man mit einem Powerlimit noch viel machen, ohne dass man was davon merken würde.
Klar, die vielen "unnötigen" Spikes hab ich ja erwähnt. Und dass die Powerlimits der Intels viel zu hoch angesetzt sind und eher die letzten 10% Performance mit 100W mehr rausquetschen wollen um irgendwie mitzuhalten unter Vollast ist auch unstrittig - aber letzteres kann man zumindest manuell anpassen, ersteres nicht.
Wenn die neuen E-Cores im SOC-Tile dazu führen, dass die meisten "Powerspikes" abgefangen bzw. verhindert werden (und dann das neue Browsertab eben in 0,2 statt 0,1s öffnet...) wäre das insbesondere für Mobilgeräte ein echter Fortschritt.
 
Wenn die neuen E-Cores im SOC-Tile dazu führen, dass die meisten "Powerspikes" abgefangen bzw. verhindert werden (und dann das neue Browsertab eben in 0,2 statt 0,1s öffnet...) wäre das insbesondere für Mobilgeräte ein echter Fortschritt.
Ja, kann man nur hoffen. Also die zu haben, um so den Compute-Bereich schlafen lassen zu können, ist auch eine gute Idee. Vielleicht sind diese Boosts, um Lastspitzen abzufangen/-bilden auch einfach eine Sackgasse, die halt jedes noch so sparsame Design ad absurdum führen kann. Einfach ein Powerlimit und nicht so aggressiv boosten, sobald mal eine Kleinigkeit zu tun ist, dann können solche Designs auch wirklich ihre Stärken ausspielen.
 
Einfach ein Powerlimit und nicht so aggressiv boosten, sobald mal eine Kleinigkeit zu tun ist, dann können solche Designs auch wirklich ihre Stärken ausspielen.
Das Dilemma das die Hersteller da haben, ist dass genau dieses extrem schnelle sehr kurze aber hohe Boosten zwar ineffizient ist aber DER Grund für das, was die breite Masse der Menschen als "responsiveness" empfinden.
Wenn man das zurückfährt auf sinnvolle/effiziente Werte wird das System vom Gefühl her träger. Und das kannste dem gemeinen Publikum nicht erklären.
 
Das Dilemma das die Hersteller da haben, ist dass genau dieses extrem schnelle sehr kurze aber hohe Boosten zwar ineffizient ist aber DER Grund für das, was die breite Masse der Menschen als "responsiveness" empfinden.
Wenn man das zurückfährt auf sinnvolle/effiziente Werte wird das System vom Gefühl her träger. Und das kannste dem gemeinen Publikum nicht erklären.
Schnell boosten, dadurch früher fertig werden, und dann den Kern wieder ganz von der Taktquelle, oder sogar der Stromversorgung, trennen ist gerade bei modernen Prozessen mit hohem Leckstromanteil genau der effizienteste Betrieb einer CPU unter Teillast.
Aber natürlich nur wenn man mit der Arbeit danach auch fertig ist. Geht es stattdessen einfach weiter mit der Last muss der Takt ordentlich runter. Das machen Mobilprozessoren auch, nur auf dem Desktop (und erst Recht auf sogenannten High-End Boards) wird Dauerlauf im Boosttakt gemacht. DAS ist wirklich ein Problem, nicht die Boostfunktion ansich.
 
Schnell boosten, dadurch früher fertig werden, und dann den Kern wieder ganz von der Taktquelle, oder sogar der Stromversorgung, trennen ist gerade bei modernen Prozessen mit hohem Leckstromanteil genau der effizienteste Betrieb einer CPU unter Teillast.
Ja - aber nicht wenn man dafür mit 1,5v auf 6 GHz boostet - eine Millisekunde länger bracuhen aber dafür die letzten 500 MHz und 200mV weglassen wäre sinnvoller.
Nur: Der Scheduler "weiß" ja nicht im Vorraus, ob die anstehende Arbeit in 10 oder 100 oder 100.000 ms erledigt sein wird. Und eine regelung wie "die ersten 100ms nur auf 5 GHz und dann erst hoch [und langfristig wieder runter]" wird kein Hersteler implementieren wollen weil man damit (mit viel Implementierungsaufwand auch noch teuer bezahlt) Benchmarkpunkte verschenkt.
Deswegen ja der "Effizienzkerne"-Weg. Nur die auch so zu benutzen dass sie einen echten Unterschied machen war bisher irgendwie nicht wirklich drin in dem Bereich. Da zwei E-kerne "vorzuschalten" um der eigentlichen CPU damit einen Haufen Laufzeit zu ersparen hat da echt Potential wenns gut gemacht ist.
 
Das Dilemma das die Hersteller da haben, ist dass genau dieses extrem schnelle sehr kurze aber hohe Boosten zwar ineffizient ist aber DER Grund für das, was die breite Masse der Menschen als "responsiveness" empfinden.
Ja klar. Wie gesagt, vielleicht muss es halt nicht ganz so weit sein. Vielleicht sollte in den ersten ein, zwei Sekunden der Boost gerade nicht so extrem offen sein, sondern eher sogar begrenzt.
Schnell boosten, dadurch früher fertig werden, und dann den Kern wieder ganz von der Taktquelle, oder sogar der Stromversorgung, trennen ist gerade bei modernen Prozessen mit hohem Leckstromanteil genau der effizienteste Betrieb einer CPU unter Teillast.
Naja, die Leckströme dürften ja mit niedrigeren Spannungen auch deutlich niedriger ausfallen, oder?
 
Man gewinnt den Eindruck, dass der Name "3D" hier nur deshalb verwendet wird, weil die AMD *3D Prozessoren ein solcher Erfolg sind.

Die Idee, E-Cores auf dem SoC zu haben ist... nett. Aber wie viel bringt das wohl wirklich schlussendlich und werden durch das "Schlafenlegen" des Rests der CPU gewisse Starts verlangsamt? Ich denke, dass genau deshalb diese Idee eigentlich auch nur im Mobile Bereich was ausmachen wird, wo jedes Watt was bringen kann.
 
Naja, die Leckströme dürften ja mit niedrigeren Spannungen auch deutlich niedriger ausfallen, oder?
Niedriger ja, aber lange nicht vernachlässigbar. Unter 90nm hat es schon angefangen dass Takt und Spannung reduzieren deutlich weniger bringen als ausschalten. Ein guter alter C2D hat mit C1E an und SpeedStep aus mehr Strom gespart als anders herum.
Und genau in diesen C1E State, was nichts Anderes ist als Powergating, will man daher schnell zurück.

Am Ende müssen natürlich alle Parameter stimmen für den besten Verbrauch, aber ich habe den Eindruck dass Kern Aus >> Kern runter getaktet noch nicht bei allen angekommen ist. Was natürlich auch insbesondere auf die hier geplante Aktion "Tile abschalten" erweitert werden kann. Was passiert wenn man das nicht kann beweisen die Multichip Zens ja jeden Tag.
 
und werden durch das "Schlafenlegen" des Rests der CPU gewisse Starts verlangsamt?
Ja, ganz sicher. Nur in einem Bereich der für Menschen nicht merklich ist.
Ich kenne die genauen Zahlen nicht mehr aber einen Kern aus dem Tiefschlaf aufzuwecken und auf die Maxfrequenz zu boosten dauert weniger als 100 Millisekunden (Intel sprach bei Speedshift mal von 35ms glaub ich). Den Lag haste dann natürlich zusätzlich - aber ich denke nicht dass du das merkst.
Was passiert wenn man das nicht kann beweisen die Multichip Zens ja jeden Tag.
DIe beweisen sogar beides...
nämlich was passiert wenn man einen Chip nicht abschalten kann (I/O-Die der 15 W beim nichtstun verbraucht und den Idleverbrauch der Ryzens hochtreibt) und was passiert wenn man es kann (die abgeschalteten Kerne von Ryzen CPUs die im Milliwattbereich (!!) pro Kern verbrauchen).
 
Man gewinnt den Eindruck, dass der Name "3D" hier nur deshalb verwendet wird, weil die AMD *3D Prozessoren ein solcher Erfolg sind.

Man gewinnt den Eindruck dass Du nur gegen Intel feuern möchtest. 3D-Stacking ist ein allgemeiner Begriff in der Chip-Fertigung.

Die Idee, E-Cores auf dem SoC zu haben ist... nett. Aber wie viel bringt das wohl wirklich schlussendlich und werden durch das "Schlafenlegen" des Rests der CPU gewisse Starts verlangsamt? Ich denke, dass genau deshalb diese Idee eigentlich auch nur im Mobile Bereich was ausmachen wird, wo jedes Watt was bringen kann.
Und darauf ist Meteor Lake ja ausgelegt, den Mobile Bereich.
 
Man gewinnt den Eindruck, dass der Name "3D" hier nur deshalb verwendet wird, weil die AMD *3D Prozessoren ein solcher Erfolg sind.
Hier verkennst du vollkommen den Sachverhalt bzw. lebst vielleicht in einer Blase und meinst das Maß aller Dinge sei das, was du zu Kennen und Lieben gelernt hast. ;-)
a) Intel nutzte "3D" deutlich vor AMD. Der Pilot war hier der bereits Ende 2019 vorgestellte Lakefield, der 2020 in einige Produkte wanderte. AMD folgte erst deutlich später und hier kommt noch hinzu dass AMD lediglich Cache stacked, nicht mehr.
b) Das was Intel jetzt releasen wird, ist packaging-technisch weitaus fortschrittlicher *) als bspw. ein 7800X3D oder 7950X3D. Der Interconnect ist effizienter, es wird bei Bedarf Logik auf Logik gepackt und man vermeidet zudem das Throtteling wie beim derzeitigen AMD-Design, denn die temperaturkritischsten Komponenten sitzen auf dem obersten Layer mit direktem Kontakt zum Heat Spreader.
Zu letzterem konnte man bereits auch zum Adamantine-Cache lesen (ob der nun ein reiner GPU-Booster oder gar ein universeller L4$ wird, bleibt noch abzuwarten **), dass der bspw. unten auf dem Layer des SoC-Tiles angesiedelt ist und somit bspw. nicht so sehr die Abwärmeverteilung behindert.

*) Absehbar fertigungstechnisch auch teuerer.
Nichtdestotrotz bleibt zu berücksichtigen, dass das Intels erstes volumenträchtiges Design ist (im Consumer-Space, Ponte Vecchio setzte dagegen schon deutlich früher Maßstäbe) und es wird absehbar noch deuliches Potential für weitere Optimierungen geben mit Arrow Lake, Luna Lake und Panther Lake, wobei letzterer überraschenderweise schon in Intel 18A für 2025 angesetzt ist. Sowohl weiterentwickelte Versionen von EMIB und Foveros stehen vor der Tür und mit PowerVia alias BSPD hat Intel per se ein Novum, auf das TSMC bspw. erst in 2026 aufschließen wird. Zudem, möglicherweise schon in Panther Lake, werden mit Rentable Units die Intel-Kerne um ein sehr interessantes, potentes Feature erweitert und mögicherweise wird auch schon gar AVX 10.2 die Transformation zu deutlich gesteigerte AVX-Leistung mitbringen ... schlussendlich sehr gute Aussichten für/bei Intel und man darf gespannt sein, was AMD dem entgegenstellen wird, so zumindest auf der architektonischen Seite, denn fertigungs- und packaging-technisch werden die als TSMC-Kunde ab 2025+ erst mal ins Hintertreffen geraten. Aber das ist erst mal Zukunftsmusik, bspw. auf dem Desktop kann man derzeit beruhigt zu Zen4/AM5 greifen ...

**) Zudem scheint sich Intel den Adamantine-Cache für Arrow Lake und darüber hinaus aufzuheben, was auch sinnvoll erscheint, denn natürlich macht ein derart differenziertes Portfolio mehr Kosten und kompliziert dieses. Arrow Lake hat eine deutlich größere, leistungsfähigere GPU, was einen Cache hier weitaus sinnvoller als im Erstlingswerk MLT erscheinen lässt und zudem wird erst Arrow Lake auch auf den Desktop kommen als NextGen-Plattform, wobei hier abzuwarten bleibt, als was/wie der Cache konzipiert ist, denn bspw. als reiner GPU-Booster, könnte der nur in als APUs vorgesehen CPUs Sinn machen und würde in Verbindung mit einer dedizierten GPU ein nutzloses Dasein fristen. Dagegen als universeller L4$ könnte der auch auf dem Desktop in bestimmten Workloads einen deutlichen Mehrwert bieten und Intel experimentierte hier mit bis zu 512 MiB, wobei eine Größe von 128 bis bestenfalls 256 MiB wohl die wahrscheinlichere Wahl sein dürfte.
(Völlig abgedreht und zumindest technisch denkbar mit dem Tile-basierten Design wäre eine Kombination mit HBM3. Bspw. SPR/EMR bieten bis zu 64 GiB HBM3 und man kann diese CPUs optional komplett ohne DIMMs betreiben. Eine günstige Variante auf Basis eines Consumer-Designs würde wohl jedweden erweiterten Cache und DDR5 überflüssig machen, weil man dann mal eben die sechs- bis zehnfache Speicherbandbreite direkt auf dem CPU-Package hätte ... aber da Intel keine Gaming-CPUs fertigt bzw. fertigen wird, wird derartige Technologie wohl auch weiterhin eher nur den Servern und Workstations vorbehalten bleiben ;-))

Anm.: Gelsinger hat heute das, was bisher schon als "Adamantine"-Cache durch die Gerüchteküche huschte, bestätigt, und ebenso, dass diese Technologie erst nach MTL kommen wird: "When you reference V-Cache [in AMD products], you're talking about a very specific technology that TSMC does with some of its customers as well. Obviously, we're doing that differently in our composition, right? And that particular type of technology isn't something that's part of Meteor Lake, but in our roadmap, you're seeing the idea of 3D silicon where we'll have cache on one die, and we'll have CPU compute on the stacked die on top of it, and obviously using EMIB that Foveros we'll be able to compose different capabilities."

Die Idee, E-Cores auf dem SoC zu haben ist... nett. Aber wie viel bringt das wohl wirklich schlussendlich und werden durch das "Schlafenlegen" des Rests der CPU gewisse Starts verlangsamt? Ich denke, dass genau deshalb diese Idee eigentlich auch nur im Mobile Bereich was ausmachen wird, wo jedes Watt was bringen kann.
Die Idee ist gar weitaus mehr als nur "nett", sondern eigentlich gar ein no brainer, denn die E-Cores sind zwar effizienter, etwas derartiges könnte für bestimmte Workloads aber noch deutlich effizienter sein und genau in diese Kerbe schlagen die LP-E-Cores, die mit dem SoC-Tile in einer Vielzahl an Workloads die Energieeffizienz auf eine neue Stufe heben werden.
Und auch bei dem "nur im Mobile-Bereich" denkst du deutlich zu kurz, es sei denn du bist der Meinung, dass der Verbrauch auf dem Desktop keine Rolle spielen darf. Die gleichen Workloads kannst du sehrwohl auch auf einem Desktop antreffen und warum sollte die CPU dabei bspw. 18 W verheizen, wenn es stattdessen auch mit 8 W gehen würde. Am Ende ist es immer nur eine Frage wie man die Hardware von der Software-Seite aus optimal nutzt und eine generell uneingeschränkte Aussage wie "E-Cores machen auf einem Desktop keinen Sinn" ist ebenso generell und grundsätzlich falsch, denn auch hier gibt es entsprechende Workloads. Dass diverse User die Kiste vielleicht nur zum Zocken anwerfen mag durchaus sein, aber Intel fertigt keine spezifischen Gaming-CPUs und wenn man nur den Consumer-Markt allgemein betrachtet finden sich schon viele Light-Workloads, die immer mal wieder für eine gewisse Zeit laufen und an den arbeitstechnischen Bereich braucht man erst gar nicht zu denken, denn da findet man die zuhauf ... und ja, natürlich gibt es hier auch einen Server oder eine Workstation, die 24/7 bei Vollauslastung läuft, aber generell ist der Markt, über den wir hier reden, sehr, sehr breit gefächert bzgl. der Workloads ...

Zu berücksichtigen ist zudem, dass Hybrid-CPUs im x86 erst seit Ende 2021 existieren, also eine vergleichsweise kurze Zeitspanne, während bspw. Arm damit schon gut ein ganzes Jahrzehnt herumhantiert und zudem auch noch den deutlich größeren Druckpunkt für eine Verwendung und optimale Adaption hatte, da diese Geräte mit diesen CPUs typischerweise extrem verbrauchssensitiv waren und sind. Die Entwicklung auf dem PC wird ebenso voranschreiten sich weiter verbreiten, verbessern und irgendwann schlicht nicht mehr wegzudenken sein.
Btw., AMD baut seine E-Core-Variante jetzt schon in einige ihrer APUs ein *), das nur mal am Rande angemerkt. AMD hat hier zwar noch einen einfachen und R&D-günstigeren Weg gewählt und keine umfangreich neu entwickelte Kernarchitektur entwickelt, jedoch kann man davon ausgehen, dass AMD zu einem späteren Zeitpunkt die Designs ebenso weiter architektonisch differenzieren wird.
Genaugenommen hat Intel aber auch einen ähnlich effizienten Anzatz für sich gewählt, denn deren E-Cores wurde ebensowenig von Grund auf neu entwickelt sondern gingen aus der Atom-Entwicklung hervor. Auch hier war es nur natürlich eine bestehende Basis weiter zu optimieren und mit den LP-E-Cores geht man noch einen Schritt weiter, indem man die gleiche Architektur **) hier abweichend in einem deutlich effizienteren Prozess fertigt, der, ohne unnötige Kosten für ein weiter architektonisch optimiertes Design zu verpulvern, dennoch noch einmal mehr Effizienz für leichtgewichtige Workloads herauskitzelt.

*) Genaugenommen hast du jetzt schon bei den größeren Consumer-V-Cache-CPUs ein Hybrid-Design und brauchst, wie bei Intel, spezifische Scheduler-Anpassungen um die CPU sinnvoll zu nutzen, da die stacked Dies sich deutlich anders verhalten als ihre non-stacked Geschwister.

**) Meteor Lake nutzt die neue Crestmont-Architektur für die E-Cores, also im Compute Tile als auch im SoC-Tile, in letzterem wird jedoch ein mehr auf Effizienz ausgerichteter Prozess verwendet und das PDK entsprechend anders angewendet, sodass diese beiden LP-E-Cores ihre maximale Effizienz bei noch niedrigeren Lastzuständen haben, die es aber auch regelmäßig in Consumer-Produkten gibt.
Zudem zu beachten ist, dass bspw. die beiden LP-E-Cores, die Media Engine und die NPU/VPU alle auf dem SoC-Tile liegen ... das ist zweifellos kein Zufall, sondern da steckt absehbar weitreichende, vorausschauende Planung dahinter. ;-)

Bezüglich dem "Schlafenlegen" und Verzögerungen, auch hier hat Intel weitere Arbeit investiert und optimiert den Thread Director/das Hardware Guided Scheduling mit ML um die Kernsteuerung/-nutzung zu optimieren, was übrigens noch einmal relevante Power Savings bieten können soll. Einfach mal abwarten, aber am Ende ist der Hybrid-Zug gerade erst mal so langsam angefahren ...
 
Zuletzt bearbeitet:
ok also das AVX 10.1 und 10.2 ist für die wo kein AVX 512 Profitieren sondern für die wo AVX 1 und AVX2 höchstens an Nutzen draus ziehen können,eher wohl denke ich mal mehr AVX1,sicher bin ich mir da allerdings nicht.
Und der Verbesserte Thread Director führt dazu das die Kerne viel besser ausgelastet werden ohne das man selbst die Threads der Kerne zuordnen muss oder wird das ein generelles Problem sein?
Wenn man da diese hier ja in dem Laptop rein kommen,nun ne längere Last also Vollast anliegt,dann wird ja der Allcore Takt gesenkt,so lange bis die CPU kühler wird.Oder gibt es ne Option um beim Laptop selbst ein Limit anzulegen wo nach jedem Neustart immer Automatisch anliegen wird?

Und das maximum was ich beim 13900k erreicht war,Allcore Takt von 5,7 ghz.Heißt wenn die CPU auf 5,1 ghz liegt,gleich 100 Watt weniger frisst,also nicht mehr 350 sondern 250 Watt und dann bei 10 % weniger Leistung hat.
Wenn nun der Nachfolger bei 5,1 ghz Allcore Last als Maximum kommt,dann sind 250 Watt schon mal sicher.Es sei denn Intel macht noch mehr um noch mehr Stromverbrauch zu senken.Zumindest wäre so ein 13900k mit 10 % weniger Leistung durch Takt auf dem selben Level wie AMD mit 5,1 ghz Allcore beim 7950x .Ja das wäre durchaus Interessant.
Nur das zwischen den beiden 200 vs 250 Watt dann als Duell herrscht. Würde man allerdings 200 Watt bei Intel wollen,dann würde Intel noch viel mehr Leistung verlieren.
 
Für mich hört sich das ganze auf jeden Fall nach Fortschritt bei Intel an und das ist für alle positiv! Ich bin auf die Leistung der Grafikeinheit gespannt! Ich wünsche mir schon lange eine gute APU für den Desktop. Die Ryzen Notebooks sind da schon recht nett, aber extrem teuer! Wo bleiben die 7000G Prozessoren ? Sind die überhaupt geplant. CPU Leistung hin oder her, bei der Grafikleistung ist doch noch einiges an Luft nach oben.....
 
@Incredible Alk aber von Effizienz zu reden, selbst beim gamen mit zuletzt von 90-150W, ist für mich Augenwischerei und nur Marketing geblubber seitens Intel

selbst mein oller 10700 gönnt sich ohne undervolting bis zu 1.35v bei über 90W Verbrauch, hätte ich nicht selbst handangelegt, würde er out of the box 30-40W mehr ziehen, wenn Meteor Lake keine 50-70W unter gaming Last zieht, können wir vielleicht ansatzweise von Effizienz reden
 
Zuletzt bearbeitet:
Wenn man das zurückfährt auf sinnvolle/effiziente Werte wird das System vom Gefühl her träger. Und das kannste dem gemeinen Publikum nicht erklären.
Es wird nicht vom Gefühl her träger, es wird messbar langsamer - deshalb ist da auch keinerlei krude "Erklärung" notwendig. Das "gemeine Publikum" wünscht nämlich (genau wie der selbst ernannte Experte) keinen Rückschritt.
 
Die gleichen Workloads kannst du sehrwohl auch auf einem Desktop antreffen und warum sollte die CPU dabei bspw. 18 W verheizen, wenn es stattdessen auch mit 8 W gehen würde.

Ich denke, dass das am Desktop für die Leute weniger interessant ist. Klar ist weniger Verbrauch immer gut (und deshalb der Idle Verbrauch der aktuellen AMD GPUs bei vielen Konstellationen auch mehr als peinlich), aber ich denke, dass das die Desktop-Kunden weniger interessiert sind, so lange es sich in einem niedrigen Bereich bewegt.

Ich hab deinen ganzen Beitrag übrigens gelesen, war erfrischend mal wieder hier was zu lesen, bei dem sich jemand richtig Mühe gegeben hat. Wollte ich nur mal so sagen. :)
 
von Effizienz zu reden, selbst beim gamen
Hab ich irgendwo was von spielen gesagt? Es geht die ganze Zeit um Minimallasten die zwei E Kerne im SOC Tile abarbeiten können. Nicht ums spielen. Wer nur spielt soll sichn 7800X3D holen.

Spielen und stärkere Anwendungen sind hohe Lasten und da ist Intel momentan klar hinten. Nur, wie auch schon gesagt, das ist in der großen Masse an PCs da draußen eben ein vergleichsweise seltener Betriebszustand. Die allermeisten PCs machen halt die allermeiste Zeit in der sie angeschaltet sind... nichts (was nennenswert CPU Leistung erfordert)
 
Ja - aber nicht wenn man dafür mit 1,5v auf 6 GHz boostet - eine Millisekunde länger bracuhen aber dafür die letzten 500 MHz und 200mV weglassen wäre sinnvoller.
Nur: Der Scheduler "weiß" ja nicht im Vorraus, ob die anstehende Arbeit in 10 oder 100 oder 100.000 ms erledigt sein wird. Und eine regelung wie "die ersten 100ms nur auf 5 GHz und dann erst hoch [und langfristig wieder runter]" wird kein Hersteler implementieren wollen weil man damit (mit viel Implementierungsaufwand auch noch teuer bezahlt) Benchmarkpunkte verschenkt.
Deswegen ja der "Effizienzkerne"-Weg. Nur die auch so zu benutzen dass sie einen echten Unterschied machen war bisher irgendwie nicht wirklich drin in dem Bereich. Da zwei E-kerne "vorzuschalten" um der eigentlichen CPU damit einen Haufen Laufzeit zu ersparen hat da echt Potential wenns gut gemacht ist.
Wieso Millisekunde ? 1/6 * 10³*³ ist bei mir 166 Pikosekunden oder so was in der groben Richtung! Bei 1,5 V leidet doch die Logik, oder?
 
Und darauf ist Meteor Lake ja ausgelegt, den Mobile Bereich.
Naja, gibt es da wirklich noch Unterschiede? Das letzte mal, als man bei Intel eine Extraarchitektur für Mobile genutzt hat, hat sich am Ende rausgestellt, dass die der Desktopvariante auch in allen Belangen außer der Heizleistung überlegen war.
selbst mein oller 10700 gönnt sich ohne undervolting bis zu 1.35v bei über 90W Verbrauch, hätte ich nicht selbst handangelegt, würde er out of the box 30-40W mehr ziehen, wenn Meteor Lake keine 50-70W unter gaming Last zieht, können wir vielleicht ansatzweise von Effizienz reden
Ist halt Einstellungssache. Leider wird vor allem im Desktopsegment Leistung noch weit vor die Effizienz gestellt. Eigentlich müsste man die CPUs bei einer festen Leistungsaufnahme vergleichen, um die Effizienz festzustellen. Aber da kann man dann wieder drüber streiten bei welcher usw. Ich finde Intel hatte diesen Heizplattenruf schon zu Coffee-Lake-Zeiten nicht wirklich verdient. Der größte Fehler ist da meiner Meinung nach, dass die Dinger ab Werk extrem viel schlucken können. Ich denke, dass bei Intel davon ausgegangen wird, dass man so das Kühlpotenzial ausreizen kann und die Limits in der Praxis keine große Rolle spielen, weil die CPU weit vorher ins Temperaturlimit rennt, aber die Rechnung ohne Leute gemacht, die ihre CPUs dann mit fetten Waküs betreiben.
 
Zurück