News Für künftige Intel-CPUs: Deutlich höhere Effizienz - dank KI-gesteuertem Taktverhalten

@PCGH_Dave @Incredible Alk
Ist auch meine Erfahrung - eben umgestellt da ichs sonst immer auf off/off habe, MCR + PDE on:

1. Boot 63 Sekunden mit Training
2. und 3. Boot 16 Sekunden

Fürs B650 Tomahawk gabs aber wohl schon nen langen Thread bezüglich Bootzeiten, wobei aber auch darin mit dem letzten BIOS manche User gute Resultate berichten, z. B. 18 Sekunden hier.
 
Zuletzt bearbeitet:
Das ergibt kein Sinn. Entweder ist der Enerverbrauch geringer, oder die Reaktionszeit höher, aber nicht beides zusammen. Und zweitens ist es bei 100% Last eh egal. Da werden dann wieder 300W gesoffen.
 
Das ergibt kein Sinn. Entweder ist der Enerverbrauch geringer, oder die Reaktionszeit höher, aber nicht beides zusammen. Und zweitens ist es bei 100% Last eh egal. Da werden dann wieder 300W gesoffen.
Die Technik kommt bei Meteor lake zum Einsatz -> Mobile, da gibts nix mit 300W

Für die KI laufen dann beispielsweise 2 Kerne auf Hochtouren, damit sie ja bloß nichts verpasst oder wie?
Bei Meteor lake sind extra KI EInheiten verbaut, die sowas effizient berechnen können. Außer um die Berechnungen zu managen vermute ich, dass die normalen Kerne damit vermutlich wenig zu tun haben.
 
Zuerst einmal kostet es Leistung.
Die "KI" will ja auch erstmal berechnet werden. Gerade der Scheduler soll aber innerhalb von kürzester Zeit Entscheidungen treffen um die Rechenzeit dann wieder an die Applikationen abzugeben.
Was bringt die leicht optimierte Verteilung wenn der Weg dorthin deutlich länger gedauert hat als die Threads einfach in Ruhe zu lassen?
Der Scheduler ist ja ein Bestandteil des OS, also schon vorhanden. Er "entscheidet" anhand von Algorithmen oder Anweisungen wie/wo/was. Eine K.I. könnte also passiv analysieren (zuschauen), Optimierungen "überlegen", und dann eingreifen, wobei ein Eingriff ggf. ja auch nur ein Zyklus dauern würde/könnte. Der positive Effekt würde ja nicht darunter leiden, wenn nicht schon die allererste Berechnung einer Anwendung von der K.I. optimiert worden wäre.

Und die benötigte Rechenleistung der K.I. würde ja so lange nicht ins Gewicht fallen, wie sie geringer oder gleich der freien Ressourcen wäre. Und dann wäre ja auch noch sowas wie eine "Pre-Start-Analyse" denkbar, also dass die K.I. sich Anwendung X vor dem Start (oder direkt danach, aber vor der eigentlichen Ausführung) mal "kurz anschaut". Ähnlich der "Shader-Optimierung" nach dem (ersten) Start eines Spiels.

Die Eingriffe selbst würden im besten Fall ja so oder so quasi nicht spürbar ablaufen. Und dass die Anwendung sozusagen in einer "K.I. VM" laufen, wo wirklich jede einzelne Rechenaufgabe vor der Ausführung erstmal "haarklein" analysiert (= der Task quasi pausiert) wird, ist mMn ja gar nicht nötig.

Etwas komplizierter würde es - meiner laienhaften Meinung nach - ja erst dann werden, wenn wirklich permanent komplett neue Berechnungen (bzw. "Berechnungsarten") stattfinden würden. Wenn eine K.I. gar nicht optimierend eingreifen könnte, ohne den Prozess dauerhaft zu verlangsamen (was ihren Einsatz ja ad absurdum führen würde).

Ein simples Beispiel wäre zb. die "Entschlackung" des OS. Die K.I. erkennt, wie ich meinen PC die letzten Tage/Wochen benutzt habe, und bietet mir an, alles, was (bisher) nicht benötigt wurde, einfach von der Platte (und damit ggf. auch aus dem RAM) zu fegen. Im besten Fall würde sich das OS ja grundsätzlich nur mit minimalen Komponenten installieren, und den Rest bei Bedarf nachholen (ein bisschen wie bei Linux?).

Oder eine K.I. auf dem Server von GMX, die merkt, dass der INU sich NIEMALS ausloggt, und dann nach dem 100sten mal zu dem Ergebnis kommt, dass das Anzeigen der Webseite mit dem entsprechenden Warnhinweis nicht mehr erforderlich ist. Stattdessen hat GMX mir diese Webseite nach dem Einloggen bestimmt schon 2346758246 angezeigt.

Dieses "zuschauen und analysieren" verlangsamt eine Anwendung ja nicht, und wenn die K.I. zum "Überlegen" Ressourcen benutzt, die aktuell eh frei sind, dann erfolgt auch die Berechnung der möglichen Optimierungen ohne irgendeine für den User spürbare Verzögerung. Und ein Eingriff (in Echtzeit) an sich kann im besten Fall ebenso unauffällig erfolgen.

Eine K.I. muss ja nicht alles (und aus dem Stand) perfekt machen, sie muss unterm Strich nur zu einem besseren/schnelleren Ergebnis führen. Und ich denke, dass da (Computer/Software/"statische Algorithmen" usw) viel Potential vorhanden ist.
 
Was heute alles als Künstliche Intelligenz läuft...
Sind doch nur Algorithmen die das System anhand von Tabellen abprüfen und die Leistung optimieren.
Das man das K.I. nennt... ich weiß ja nicht.
 
Wie schafft es eigentlich AMD, ohne KI Unterstützung, effiziente CPUs zu entwickeln?
ohne KI entwickelt man bei AMD mit Sicherheit nicht

Vielleicht ist mit Reaktuonszeit quch der Alder/Raptor Lake Lag gemeint, den manche Systeme aufweisen, etwa beim hin und herschieben von Fenstern
 
Zuletzt bearbeitet:
Was heute alles als Künstliche Intelligenz läuft...
Sind doch nur Algorithmen die das System anhand von Tabellen abprüfen und die Leistung optimieren.
Der Unterschied zu früher ist, dass diese Algorithmen sich selbst ändern können um bessere Tabellen erstellen zu können - und das iterativ.
Klar, man betitelt heute auch gerne Dinge als "KI" die keine sind, einfach weil man mit dem Buzzword da Aufmerksamkeit/Geld/... generieren kann momentan. Aber bei Intel kann man schon davon ausgehen, dass die solche Möglichkeiten nicht ungenutzt lassen. Es gibt momentan eigentlich kaum eine große Firma die nicht versucht KI-Methoden zu ihrem Vorteil zu nutzen und das in praktisch jeder Branche. Was da wo sinnvoll ist und ob die Ergebnisse zu gebrauchen sind ist ein ganz anderes Thema aber eingesetzt wird KI von Intel garantiert.
 
Der Unterschied zu früher ist, dass diese Algorithmen sich selbst ändern können um bessere Tabellen erstellen zu können - und das iterativ.
Klar, man betitelt heute auch gerne Dinge als "KI" die keine sind, einfach weil man mit dem Buzzword da Aufmerksamkeit/Geld/... generieren kann momentan. Aber bei Intel kann man schon davon ausgehen, dass die solche Möglichkeiten nicht ungenutzt lassen. Es gibt momentan eigentlich kaum eine große Firma die nicht versucht KI-Methoden zu ihrem Vorteil zu nutzen und das in praktisch jeder Branche. Was da wo sinnvoll ist und ob die Ergebnisse zu gebrauchen sind ist ein ganz anderes Thema aber eingesetzt wird KI von Intel garantiert.
Ist trotzdem nur ein lernender Algorithmus und keine Künstliche Intelligenz.
Aber ja ich weiß, heute wird das alles als KI betittelt...
 
Was heute alles als Künstliche Intelligenz läuft...
Sind doch nur Algorithmen die das System anhand von Tabellen abprüfen und die Leistung optimieren.
Das man das K.I. nennt... ich weiß ja nicht.
Nicht nur du weißt das nicht, da wird oft der Kopf drüber geschüttelt.
ohne KI entwickelt man bei AMD mit Sicherheit nicht
Bulldozer war sogar berühmt-berüchtigt dafür, dass sehr viele automatisierte Tools zum Einsatz kamen. Also Tools, die ebenfalls nach heutiger Alltagsverwendung unter den Begriff KI fallen würden.
Der Unterschied zu früher ist, dass diese Algorithmen sich selbst ändern können um bessere Tabellen erstellen zu können - und das iterativ.
Genau das wird der Algorithmus hier aber mit Sicherheit nicht können.
Klar, man betitelt heute auch gerne Dinge als "KI" die keine sind, einfach weil man mit dem Buzzword da Aufmerksamkeit/Geld/... generieren kann momentan. Aber bei Intel kann man schon davon ausgehen, dass die solche Möglichkeiten nicht ungenutzt lassen. Es gibt momentan eigentlich kaum eine große Firma die nicht versucht KI-Methoden zu ihrem Vorteil zu nutzen und das in praktisch jeder Branche. Was da wo sinnvoll ist und ob die Ergebnisse zu gebrauchen sind ist ein ganz anderes Thema aber eingesetzt wird KI von Intel garantiert.
Und entsprechend ist das hier dann auch ein Beispiel falscher Benennung --- sofern ich nichts übersehen habe.
 
Es wäre wirklich wünschenswert, wenn Intel bei den nächsten Generationen (also den echten,. nicht dem Raptor+200MHz-Abwasch) da wieder etwas aufschließen würde. Denn um ehrlich zu sein ich hab so langsam keine Lust mehr ständig AMD Systeme zu bauen (die natürlich momentan viel häufiger angefragt werden), weil man da bei jedem 2. Rechner vor einem neuen Kuriositätenproblem steht.

Mich wundert eher das das noch so ist.
Bei AM4 konnte man ja praktisch zusehen wie das immer besser wurde.
Ich hätte ehrlich erwartet das es bei AM5 deutlich runder laufen wurde; schon am Tag 1.

Bitte PN welches MoBo da so Zicken macht.
 
Der, der am Ende in der CPU ist nicht. Es geht aber um den, den Intel benutzt um das was später in die CPU kommt zu entwickeln. Dass das Marketingtechnsich absichtlich nicht getrennt wird ist aber natürlich klar^^
Für mich ist es trotzdem nur ein lernender algorithmus der nur das tut was man ihm gesagt hat.
Keine richtige künstliche Intelligenz. Aber ich weiß, inzwischen is das alles unter KI zusammengefasst.

Lernender Algorithmus (LA) hört sich einfach nicht so toll an wie künstliche Intelligenz (KI) :D
 
Stimmt - genau da könnte die KI ja was reißen - unter Vollast ist das Potential ja praktisch Null, es geht ja genau um die kleinen Teillasten. Eine CPU muss ja nicht auf 5,8 GHz rumboosten wenn sowieso die GPU limitiert. Ich hab meine CPU auch auf 3,6 GHz genagelt und habe damit nur seltenst ein Problem.
Ok das ist ja schlecht,dann kann ich diese KI gedöns ja igronieren.Wenn ich die Software nicht fest den Threads zuordne dann kommt es zu merkwürdige Verhalten unter Windows 11 bei meiner Anwendung.Kann die KI das Koregieren so das es am Ende die Kerne Optimal verwendet werden oder ist ein Maunuelles eingreifen wie mit ner extra Software weiterhin Notwenig.
Das ist ja die gute Frage,wie weit greift denn die KI da ein.Was regelt es so und zwar nicht nur den Stromverbrauch zu regulieren oder etwa doch?
Das wäre dann echt schade wenn weil dann wäre das ganze mit der Ki sehr eingeschränkt wie ich finde.Das da dann so viel wirbel für nix gemacht wird.Das wäre schon echt sehr schwach.Wäre halt geil wenn die Ki dafür sorgen würde ne CPU Optimal auszulasten.Aber das wäre wohl der nächste Schritt.Von der Software zu lernen und auf dem Level dann sich auf die Software optimal hin ausrichten bei jeder CPU.
Aber das würde wohl zu stark eingreifen im ganzen.Naja das sehen wir bestimmt noch.
Das wäre wohl ein Sonderfall wenn Betriebsystem nicht optimal mit der CPU bei der jeweiligen Software zusammen Arbeitet,das dies dazu führt richtig zu wählen.Das wird noch dauern.

Ich habe solche Software.Die scheint halt ein Problemfall zu sein.Ich weis nicht ob die e Kerne hier die Software klar kommt oder nicht.Ich weis nur das es seid Windows 11 das der fall ist.Ich selbst habe keine Intel System und auch kein Windows 11.Das meide ich so gut es geht.Das Verhalten lässt sich auf alle Hersteller ausfindig machen.Sobald Windows 11 verwendet wird,heißt es fest den Kernen per extra Software zuordnen.Schon wird die CPU Optimal verwendet.Hm interessant was da wohl die Ki draus machen wird,ist es dennoch.
 
Zurück