Zuerst einmal kostet es Leistung.
Die "KI" will ja auch erstmal berechnet werden. Gerade der Scheduler soll aber innerhalb von kürzester Zeit Entscheidungen treffen um die Rechenzeit dann wieder an die Applikationen abzugeben.
Was bringt die leicht optimierte Verteilung wenn der Weg dorthin deutlich länger gedauert hat als die Threads einfach in Ruhe zu lassen?
Der Scheduler ist ja ein Bestandteil des OS, also schon vorhanden. Er "entscheidet" anhand von Algorithmen oder Anweisungen wie/wo/was. Eine K.I. könnte also passiv analysieren (zuschauen), Optimierungen "überlegen", und dann eingreifen, wobei ein Eingriff ggf. ja auch nur ein Zyklus dauern würde/könnte. Der positive Effekt würde ja nicht darunter leiden, wenn nicht schon die allererste Berechnung einer Anwendung von der K.I. optimiert worden wäre.
Und die benötigte Rechenleistung der K.I. würde ja so lange nicht ins Gewicht fallen, wie sie geringer oder gleich der freien Ressourcen wäre. Und dann wäre ja auch noch sowas wie eine "Pre-Start-Analyse" denkbar, also dass die K.I. sich Anwendung X vor dem Start (oder direkt danach, aber vor der eigentlichen Ausführung) mal "kurz anschaut". Ähnlich der "Shader-Optimierung" nach dem (ersten) Start eines Spiels.
Die Eingriffe selbst würden im besten Fall ja so oder so quasi nicht spürbar ablaufen. Und dass die Anwendung sozusagen in einer "K.I. VM" laufen, wo wirklich jede einzelne Rechenaufgabe vor der Ausführung erstmal "haarklein" analysiert (= der Task quasi pausiert) wird, ist mMn ja gar nicht nötig.
Etwas komplizierter würde es - meiner laienhaften Meinung nach - ja erst dann werden, wenn wirklich permanent komplett neue Berechnungen (bzw. "Berechnungsarten") stattfinden würden. Wenn eine K.I. gar nicht optimierend eingreifen könnte, ohne den Prozess dauerhaft zu verlangsamen (was ihren Einsatz ja ad absurdum führen würde).
Ein simples Beispiel wäre zb. die "Entschlackung" des OS. Die K.I. erkennt, wie ich meinen PC die letzten Tage/Wochen benutzt habe, und bietet mir an, alles, was (bisher) nicht benötigt wurde, einfach von der Platte (und damit ggf. auch aus dem RAM) zu fegen. Im besten Fall würde sich das OS ja grundsätzlich nur mit minimalen Komponenten installieren, und den Rest bei Bedarf nachholen (ein bisschen wie bei Linux?).
Oder eine K.I. auf dem Server von GMX, die merkt, dass der INU sich NIEMALS ausloggt, und dann nach dem 100sten mal zu dem Ergebnis kommt, dass das Anzeigen der Webseite mit dem entsprechenden Warnhinweis nicht mehr erforderlich ist. Stattdessen hat GMX mir diese Webseite nach dem Einloggen bestimmt schon 2346758246 angezeigt.
Dieses "zuschauen und analysieren" verlangsamt eine Anwendung ja nicht, und wenn die K.I. zum "Überlegen" Ressourcen benutzt, die aktuell eh frei sind, dann erfolgt auch die Berechnung der möglichen Optimierungen ohne irgendeine für den User spürbare Verzögerung. Und ein Eingriff (in Echtzeit) an sich kann im besten Fall ebenso unauffällig erfolgen.
Eine K.I. muss ja nicht alles (und aus dem Stand) perfekt machen, sie muss unterm Strich nur zu einem besseren/schnelleren Ergebnis führen. Und ich denke, dass da (Computer/Software/"statische Algorithmen" usw) viel Potential vorhanden ist.