News Für künftige Intel-CPUs: Deutlich höhere Effizienz - dank KI-gesteuertem Taktverhalten

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Für künftige Intel-CPUs: Deutlich höhere Effizienz - dank KI-gesteuertem Taktverhalten

Intels kommende Meteor-Lake-Prozessoren setzen auf ein neues Taktverhalten, das durch einen KI-Algorithmus gesteuert wird. Dadurch soll die Reaktionszeit des Prozessors deutlich verringert und der Energieverbrauch gesenkt werden.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Für künftige Intel-CPUs: Deutlich höhere Effizienz - dank KI-gesteuertem Taktverhalten
 
Ich kann mir vorstellen, dass das Thema K.I. bei Computern grundsätzlich noch einiges an Leistung rausholen kann. Es gibt ja doch (immer noch) einige Software-Einstellungen, auch seitens des OS (oder der Treiber), die quasi "universell" gesetzt sind, und die eine K.I. abhängig des Nutzerprofils und der Anwendung individuell (in Echtzeit) anpassen könnte.

Ich glaube, dass das auch schon bei der Zuweisung von Threads zu den Kernen der Fall ist. Manche Threads, die zb. dauerhaft einem P-Core zugeteilt werden, sind vielleicht temporär auch mal auf einem E-Core besser aufgehoben (und umgekehrt).

Gleiches Spiel bei AMD-CPUs mit 3D-Cache, auf den nicht alle Kerne direkten Zugriff haben (also aktuell oberhalb des 7800X3D). Auch hier erfolgt ja keine Änderung mehr während der Laufzeit.
Währenddessen bei den Spielern: Wakü drauf und CPU Vollgas 100% der Zeit. Wer runtertaktet verliert.
Ich glaube schon, dass die meisten User durchaus Wert darauf legen, dass die CPU ihren Takt den Gegebenheiten anpasst, auch wenn sie manuell übertaktet wird. Für mich war es immer ein Ausschlusskriterium, wenn eine Übertaktungs-Methode das automatische Taktverhalten des Prozessors (und hier primär das Runtertakten im Idle) deaktiviert hat.

Ich denke, dass der Anteil an Gamern, die durch Overclocking das wirklich letzte MHz rauskitzeln wollen, und dadurch zb. das Runtertakten im Idle (ggf. zwangsläufig) deaktivieren, relativ gering ist. Zumal es ja idR kaum noch was bringt, seit CPUs einen offenen Multiplikator haben.

Gefühlt ist sogar eher das Gegenteil schon eine Weile Trend, nämlich dass die User eher minimal Leistung opfern, um spürbar die Temperatur bzw. den Verbrauch zu senken, oder eben durch Undervolting versuchen, sogar noch etwas mehr Leistung beim (temperaturabhängigen) automatischen Overclocking zu erreichen.

Und die meisten übertakten sowieso nichts. Selbst von den "Ex-OCern" lassen sehr wahrscheinlich einige mittlerweile die Finger davon, eben weil die CPUs sich ja selbst schon ziemlich weit an ihre Grenzen bringen. Die Zeiten wo man mit OCing mal eben zb. 50% mehr Takt rausholen konnte, sind ja eh schon lange vorbei.
 
Währenddessen bei den Spielern: Wakü drauf und CPU Vollgas 100% der Zeit. Wer runtertaktet verliert.
Ja, bei denen, die absolut keine Ahnung haben von dem was sie tun.

Alle anderen können ihren super viel Strom saufenden (das ist Ironie, die CPU verbraucht beim Spielen meist keine 100W) 13900K von 260 auf 90W PL2 runterschrauben und verlieren im CPU-Limit in Spielen ganze 7% Performance:
1693731046873.png


Wenn KI oder was auch immer dazu führen kann, das schon ab Werk besser auszunutzen - umso besser.

EDIT: Lese ich das richtig? Bei den 14000er schon, nicht erst mit Arrow Lake?
Also Release in 6 Wochen sozusagen?
@PCGH_Dave ...aufr DEN Test bin ich gespannt wenn die CPUs das wirklich schon können sollten. %-)
 
Zuletzt bearbeitet:
Bislang weiß ich auch nicht mehr als ihr, und wenn doch, kann ich es eh nicht sagen ;)
Ich würde mir jedenfalls wünschen, dass Intel-CPUs langsam mal effizienter werden. Mein optimierter 7800X3D liefert 505 Prozent höhere Fps pro Watt als ein 13900K (ab Werk) und ist in Spielen dabei nur ~9 Prozent langsamer. Alle anderen Intels sind langsamer und ineffizienter. Wenn Arrow Lake da nichts verbessert, dann sehe ich langsam schwarz.
 
Wenn AMD mich nicht mit anderen Dingen dertart nerven würde wäre es für mich auch ein absoluter no-brainer. Aber die haben so viele andere nervige Baustellen.
Gestern Abend hab ich ein 7800X3D-System für einen "Kunden" gebaut. Alles (nach BIOS-Update...) wunderbar funktioniert - und dann habe ich EXPO aktiviert - bei einem pupsnormalen DDR5-5600 CL36-Kit das auch auf allen Kompatibilitätslisten auftaucht.
Ergebnis: Boot dauert etwa 1 Minute bis zum POST (!), dann funktioniert es. Ich dachte ok, ist bekannt dass das Training so lange dauern kann... aber das ist bei JEDEM Boot so! Das kann doch nicht deren Ernst sein. EXPO abgeschaltet - das Ding postet in einer Sekunde. Ich habs jetzt manuell auf 5200 laufen, alles darüber dauert eeeeeeewig bei jedem Start. Wenn ich nach dem Thema google... die Foren sind voll davon. Sowas kann ich ja keinem verkaufen^^
Drei Tage davor: 13600K in Z790-Brett gesteckt, 6400er RAM rein, XMP an, Neustart - 3 Sekunden später - geht. Das sind die soften Dinge wo AMD noch viel Arbeit hat.

Es wäre wirklich wünschenswert, wenn Intel bei den nächsten Generationen (also den echten,. nicht dem Raptor+200MHz-Abwasch) da wieder etwas aufschließen würde. Denn um ehrlich zu sein ich hab so langsam keine Lust mehr ständig AMD Systeme zu bauen (die natürlich momentan viel häufiger angefragt werden), weil man da bei jedem 2. Rechner vor einem neuen Kuriositätenproblem steht.
 
Ich kann mir vorstellen, dass das Thema K.I. bei Computern grundsätzlich noch einiges an Leistung rausholen kann.

Ehrlich gesagt bin ich immer im GPU Limit, niemals im CPU Limit. Der X3D Teil meines 5800ers ist quasi nur Showeffekt. Ich bin auch so ehrlich zu sagen, dass an dem Tag an dem mal eine GPU drinsteckt, oder ein Spiel kommt bei dem das anders ist, werde ich auch schon wieder ein Upgrade verbaut haben.

Gerade weil man sehr selten CPUs mit Spielen am Limit fährt, sehe ich was Intel angeht weniger schwarz als @PCGH_Dave Intel hängt in der Fertigung einfach hinterher gegenüber TSMC und daran sieht man es. Was ich so an Benchmarks auf Youtube gesehen habe (Beispiel youtube.com/watch?v=zCW40LwzWr8) verbraucht Intel 45W mehr in Spielen. Das sind 1,3 Cent pro Stunde Spielzeit, oder 1€ höhere Stromrechnung alle 77h Spielzeit. Würde ich deswegen sagen, dass sich AMD von selbst bezahlt, wenn man 13 Jahre lang 8h am Tag zockt? Eher nicht.
 
Ehrlich gesagt bin ich immer im GPU Limit, niemals im CPU Limit. Der X3D Teil meines 5800ers ist quasi nur Showeffekt.
Stimmt - genau da könnte die KI ja was reißen - unter Vollast ist das Potential ja praktisch Null, es geht ja genau um die kleinen Teillasten. Eine CPU muss ja nicht auf 5,8 GHz rumboosten wenn sowieso die GPU limitiert. Ich hab meine CPU auch auf 3,6 GHz genagelt und habe damit nur seltenst ein Problem.

Intel hängt in der Fertigung einfach hinterher gegenüber TSMC
Nicht wirklich, sie benennens nur anders. "Intel-4" dürfte mit "TSMC-3" ziemlich ähnlich sein.

Was ich so an Benchmarks auf Youtube gesehen habe (Beispiel youtube.com/watch?v=zCW40LwzWr8) verbraucht Intel 45W mehr in Spielen. Das sind 1,3 Cent pro Stunde Spielzeit, oder 1€ höhere Stromrechnung alle 77h Spielzeit. Würde ich deswegen sagen, dass sich AMD von selbst bezahlt, wenn man 13 Jahre lang 8h am Tag zockt? Eher nicht.
Kommt etwa hin. Preislich kann man das alles vergessen, vor allem bei Gelegenheitsspielern. Es geht bei der verbrauchsgeschichte (bei CPUs aber vor allem bei GPUs) eher um die Abwärme und Lautstärke als um die Euros. Mir sind 30e mehr oder weniger Strom im Jahr ja egal, aber 500 statt 250W aus dem Gehäuse rausschieben zu müssen (GPU eingerechnet) ist... nervig.^^
 
@Incredible Alk
Memory Context Restore + Power Down Enable muss beides auf on sein, dann klappts auch mit kurzen Bootzeiten :daumen:.

Wenn MCR auf off oder auto ist und das Training auf Code 15 läuft dauerts, außerdem gibts mit MCR on + PDE off BSODs.
 
@Incredible Alk
Memory Context Restore + Power Down Enable muss beides auf on sein, dann klappts auch mit kurzen Bootzeiten :daumen:.
So die Theorie. Die Praxis ist, dass die POST-Zeit wenn ich diese Funktionen nutze von etwa einer Minute auf 35 Sekunden fällt. Ja, das ist schneller. Aber immer noch VIEL zu lange. Das ist immer noch so lange, dass der Kunde glaubt sein PC wäre kaputt wenn er ihn anschaltet.
Da regen sich auch zig Leute bei reddit drüber auf (ich hab natürlich versucht das Problem einzugrenzen). Die reden da auch von 30, 40, 60 Sekunden Postzeit die dann mit Memorycontext restore usw. noch 20, 30, 40 Sekunden sind. Das löst das problem halt nicht. Bei manchen Leuten funktionierts dagegen und es sind sofort nur noch 2 Sekunden. Das ist ja was so nervig ist - es ist gefühlt Zufall.
Intel ist da halt echtes "fire&forget".
 
Also aufm Carbon hab ich und andere User 19-25 Sek laut Task Manager-Anzeige.
Vielleicht ist MSI da besser aufgestellt, welches Board war es denn?

Außerdem sehe ich da nicht viel Unterschied zu neueren Intel-Boards, braucht man ja nur nach z. B.
suchen.
In den Threads und Reddit-posts wird auch öfters von 15-20 oder mehr Sekunden bei Z790 gesprochen.
 
Zuletzt bearbeitet:
Da regen sich auch zig Leute bei reddit drüber auf (ich hab natürlich versucht das Problem einzugrenzen). Die reden da auch von 30, 40, 60 Sekunden Postzeit die dann mit Memorycontext restore usw. noch 20, 30, 40 Sekunden sind. Das löst das problem halt nicht.
Verstehe mich nicht falsch, aber dann haben die bzw. du etwas falsch eingestellt und verbauen nur komische (Gigabyte ^^) Boards. Der erste Start dauert tatsächlich ewig, vor allem mit dem neuen AGESA, welches für schnelleren Speicher sorgt. Das sagt Asrock beispielsweise auch auf der Support-Seite:

1693735436352.png


Bei mir hat er 135 Sekunden gebraucht. Aber nur einmal, denn danach sieht es so aus:
Asrock X670E Pro RS, Ryzen 7 7800X3D, 32 GiB DDR5-6000 mit angezogenen Timings, von Hand optimiertes UEFI:

Kaltstart:
Kaltstart.PNG

Warmstart:
Warmstart.PNG


Ich nutze nur stinknormale PCI-E 3.0 M2-SSDs und eine WaKü, aber die Kühlung sollte da keinen Unterschied machen.
Bei den ersten AM5-Generationen hat Asrock (für mich) gewonnen.
 
Board: MSI MAG B650 Tomahawk WIFI
RAM: 32GB (2x 16GB) G.Skill Flare EXPO X5 schwarz DDR5-5600 DIMM CL36-36-36-89 Dual Kit

POST-Zeit: ca. 1 Minute
Mit neuestem BIOS und allen Shinanigans angeschaltet die überall empfohlen werden: ca. 35 Sekunden. Nicht nur beim ersten Mal, bei JEDEM Start.

Wie gesagt, es ist offenbar zufällig so bei wem das wie auftritt oder auch nicht. Ich habs auch in der Form jetzt zum ersten Mal erlebt. Vielleicht wirds was bei der nächsten BIOS-Version (immerhin ist der Besitzer des PCs fit genug das selber zu testen). Aber das führt alles ins OT hier^^
 
Ich kann mir vorstellen, dass das Thema K.I. bei Computern grundsätzlich noch einiges an Leistung rausholen kann. Es gibt ja doch (immer noch) einige Software-Einstellungen, auch seitens des OS (oder der Treiber), die quasi "universell" gesetzt sind, und die eine K.I. abhängig des Nutzerprofils und der Anwendung individuell (in Echtzeit) anpassen könnte.

Ich glaube, dass das auch schon bei der Zuweisung von Threads zu den Kernen der Fall ist. Manche Threads, die zb. dauerhaft einem P-Core zugeteilt werden, sind vielleicht temporär auch mal auf einem E-Core besser aufgehoben (und umgekehrt).
Zuerst einmal kostet es Leistung.
Die "KI" will ja auch erstmal berechnet werden. Gerade der Scheduler soll aber innerhalb von kürzester Zeit Entscheidungen treffen um die Rechenzeit dann wieder an die Applikationen abzugeben.
Was bringt die leicht optimierte Verteilung wenn der Weg dorthin deutlich länger gedauert hat als die Threads einfach in Ruhe zu lassen?
 
Zurück