Also absolut nutzlos, das Kann jede Grafikkarte mit CUDA X-mal besser. Ist wie mit in CPUs integrierten Grafikchips.
Sollten die neune Intel CPUs tatsächlich schneller sein als aktuelle Nvida GPUs revidiere ich meine Behauptung. Ansonsten bleibt es dabei, das das wenigste was ich in einer CPU brauche, KI Leitung ist.
Du hast den Sachverhalt leider nicht verstanden, genaugenommen nicht einmal bzgl. der GPUs, also mal zur Aufklärung:
a) CUDA (
und die ggf. damit zusammenhängenden Tensor Cores, wenn man eine RTX-GPU besitzt) sind für KI-Berechnungen nicht erforderlich. Du kannst diese Berechnungen selbst über die general purpose Register einer CPU durchführen lassen. Über die Shader einer GPU geht das aufgrund der um ein Vielfaches höheren Parallelisierung gar noch viel schneller. Beispielsweise die letzten beiden RDNA-Generationen sind sukzessive erweitert worden, besitzen zwar immer noch keine im eigentlichen Sinne dedizierte Hardware-Einheiten zur Verarbeitung von MMs, jedoch architektonische Optimierungen, die deren Durchsatz auch hier deutlich über den einfachen durch die Shader bereitgestellten Durchsatz hinaus anheben, sodass auch diese Architekturen einen vergleichsweise hohen ML-Durchsatz aufweisen ... und das ohne jedweden CUDA-Support.
Btw., bspw. Microsofts DirectML zielt genau darauf ab, indem man hier ein HighLevel-API bereitstellt, dass diverse heterogene Hardware zur Beschleunigung entsprechender Berechnungen ansteuern kann um Hersteller- und LowLevel-Unabhängig zu sein.
b) Die hier nun kürzlich in die CPU einziehende Funktionalität zielt auf maximale Effizienz und niedrige bis bestenfalls mittelschwere Workloads ab. Diese konkurriert schon von der grundlegenden Ausrichtung her nicht mit GPUs, erst recht nicht mit den HighEnd-Modellen mit Shadern im 5-stelligen Bereich.
c) Intel-CPUs konnten schon seit längerem ML-Operationen *) direkt prozessieren. Einerseits hätte man brute-force mit mauer Efizienz die bisherigen iGPUs heranziehen können, mittels VNNI, ein AVX-Subset, hat man jedoch schon seit langem eine dedizierte Hardwareunterstützung und zudem gibt es ebenso auch schon seit längerem eine kleine, ausschließlich für leichtgewichtige Workloads vorhandene Hardwareeinheit in den Intel-CPUs.
Mit Meteor Lake und folgenden CPUs neu hinzu kommt nun die Möglichkeit, die XMX-Einheiten der i/tGPU für schwergewichtigere Tasks zu nutzen, da man diese Einheiten nun aus den dedizierten GPU-Designs übernommen hat. Diese führen analog den Tensor Cores spezifische MM-Operationen aus.
Und zusätzlich hat man nun eine VPU oder NPU, je nachdem wen man fragt und wie man das Kind nennen will, zusätzlich hinzuimplementiert, deren primäres Ziel hier ebenso ein guter Durchsatz bei maximaler Effizienz ist.
Und hier ist es durchaus beachtlich, dass obwohl die SW-Industrie bisher kaum mit SW aufwarten kann, man nun schon verbindlich ankündigt, dass die Leistung dieser zusätzlichen HW-Einheit in der CPU in nur zwei Generationen einen vergleichsweise riesigen Sprung machen soll, denn bereits die VPU von ARL/LNL wird grob doppelt so schnell wie die von MTL sein und PTL soll den Durchsatz dann noch mal grob verdoppeln, d. h. das ist schon beträchtlich viel Leistung und deutlich mehr als nur für ein paar kleine Hintergrundtasks. Man darf gespannt sein, wohin hier Software- und Hardware-technisch die Reise geht, so bspw. was Microsofts CoPilot in Windows bringen wird und wie und zu was der sich in zukünftigen Iterationen hin entwickeln wird.
*) Hier allgemein von KI zu sprechen, schießt immer weit über das Ziel hinaus, jedoch die Presse simplifiziert gerne, denn wenn man das Stichwort "KI" hört, sind damit im Wesentlichen lediglich MatrixMultiplikationen gemeint und nicht mehr. ML für Machine Learning und die zugehörigen Algorithmen wäre hier angemessener.
[...] in 10 Jahren ist die Hardware dann im Mainstream angekommen
Typo? Diese neue
Hardware kommt schon in diesem Jahr im Mainstream an! Sowohl Intel als auch AMD treiben das Thema voran, letzten Endes auch nicht verwunderlich, da Mobile-SoCs schon seit Jahren durchgehend mit einer NPU im Chip daherkommen.