News Intel: Robert Hallock erklärt die Voraussetzungen für einen KI-PC

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intel: Robert Hallock erklärt die Voraussetzungen für einen KI-PC

Nachdem sich bereits AMDs CEO Dr. Lisa Su im Rahmen der SXSW 2024 zum Thema KI-PCs geäußert hat, erklärt jetzt auch der große Konkurrent Intel in Person von Robert Hallock, welche Voraussetzungen die Hardware dafür erfüllen muss.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Intel: Robert Hallock erklärt die Voraussetzungen für einen KI-PC
 
Werden die NPCs in Computerspielen dann auch intelligenter? :D
Vor rund einem Jahr gab es diesbezüglich tatsächlich Gerüchte, wonach AMD sich vorstellen kann Ai-Recheneinheiten zukünftig hierfür einzusetzen :D
 
Ok. vielleicht liegts am Bier, aber wer hat noch "Robert Habeck erklärt" gelesen?

Hätte ich gerne gesehen. Und nein ich bin kein "diedaobendieampel" Kunde. Aber Politiker die Futuretechnik erklären die sie eigentlich fördern sollen um unser land zu fördern.....das sehe ich gerne. Flugtaxis ist eins meiner Favourites.
 
Ich fände es ja witzig, wenn demnächst so Ai-AddIn-Cards, wie damals die Ageia PhysX-Beschleuniger, auf den Markt kommen würden.
AGEIA_Physx.jpeg

Im DIY-Desktop Segment, wo CPU´s aktuell noch über keine NPU verfügen, wird ansonsten vermutlich die GPU einspringen.
Was sollen ansonsten auch kürzliche Ansätze seitens Intel hinsichtlich Ihrer Pytorch-Intel-Extension um die XMX-Einheiten einer Arc für entsprechende Ansätze zu nutzen!?
 

Anhänge

  • ARC_770_Device.jpg
    ARC_770_Device.jpg
    218,4 KB · Aufrufe: 21
  • Python Server lokal.jpg
    Python Server lokal.jpg
    557 KB · Aufrufe: 21
  • Python Server lokal Web-Ansicht.jpg
    Python Server lokal Web-Ansicht.jpg
    107,4 KB · Aufrufe: 20
Klar, AI verkauft sich und entsprechend ist der eigene Prozessor ein "AI-PC"... Am Ende hat man deutlich mehr "AI-PC" im Moment, wenn man eine ganz normale Nvidia Karte in seinem Rechner hat. Für wiederum andere Dinge braucht man einfach nur Internetzugang um AI Features nutzen zu können. Das geht auf dem Smartphone genauso wie auf einem 10 Jahre alten Laptop. Zum Beispiel Bing aufrufen und kostenlos ChatGPT4 und DALL.E3 nutzen.

Am Ende muss man sich also auch weiterhin anschauen, was man konkret mit dem PC machen will und welche Anwendungen man verwenden möchte. AI-PC ist ein dummes Wort und sagt gar nichts aus.
 
Das ist ja genau der Unterschied, interessant wird es für mich, sobald die Ai lokal auf meinem Rechner läuft, ich diese dadurch bedingt auch offline nutzen kann und so gesehen nicht mehr auf aus der Cloud bereitgestellte Services angewiesen bin.
Nvidia wünscht sich, dass Sie alternativlos in dem Bereich sind oder wären, aber dafür ordne ich die aktuellen Anstrengungen des Wettbewerbs definitiv zu Immens ein. Da gibt es zu viele die ein "Cuda-only" nicht wollen und meiner Meinung nach noch pünktlich auf den Zug aufgesprungen sind.
 
Ich hoffe mal, dass sich das auch mit der Graka lösen läßt, sonst seht ich mit meinem 7950X3D nicht so gut da. Aber gut, dann gäbe es einen Grund mehr, sich auf eine neue CPU zu freuen.

Werden die NPCs in Computerspielen dann auch intelligenter? :D

Wird von den Kunden nicht honoriert und daher auch nicht entwickelt. Die KI der Gegner hat, genau wie die Physik, in den letzten knapp 20 bzw. 15 Jahren Rückschritte gemacht. Die Gegner KI hatte ihren Höhepunkt bei FEAR (zumindest in normalen Spielen und die Physik irgendwo bei den Batmanspielen. Beides ist sau aufwendig und beides ist der Kundschaft relativ egal, also läßt man es bleiben.

Einige Leute jammern immer herum, dass die KI, z.B. in Far Cry so schlecht wäre, aber die meisten geben sich damit zu frieden, dass die Gegner herumlaufen, ein aufgeschreckter Hühnerhaufen, sobald der Alm ausgelöst wurde (welche Militärbasis hat solche Sirenen, die alles übertönen?).Viele würden es auch nicht mögen, wenn die Gegner zu glaubhaften Taktiken greifen würden und sich verbunkern, wenn jemand angreift, die wollen die Schießbudenfiguren.
 
Intel sollte mal lieber daran arbeiten den Fertigungsprozess zu verbessern. Aber klar, jetzt wo jeder über AI redet darf Intel nicht fehlen.
 
Ich hoffe mal, dass sich das auch mit der Graka lösen läßt, sonst seht ich mit meinem 7950X3D nicht so gut da.


Prinzipiell ja. Eine GPU kann mehr als eine NPU. Der Sinn der NPU liegt darin, die Ausführung des neuronalen Netzes per Hardware effizienter zu beschleunigen, als eine GPU. Dazu wird Ballast weggelassen, der für die Interferenz unnötig ist und man konzentriert sich auf die wesentlichen Operationen.

Um es anders auszudrücken: Du kannst erst mal davon ausgehen, dass Du mit einer guten Grafikkarte, sofern die Software das unterstützt, das neuronale Netzwerk auch über die GPU laufen lassen kannst, aber dann wird es Dich mehr Strom kosten, insbesondere, wenn die GPU selbst keine speziellen Tensoreinheiten hat.

(Natürlich kann es dennoch leistungsmäßig ärgerlich sein, wenn in einem Spiel schon durch das Rendern der Frames CPU und GPU gut ausgelastet sind, und dann noch so ein neuronales Netzwerk für die NPCs nebenher läuft.)
 
Zuletzt bearbeitet:
Als Apple damals seinen ersten Prozessor mit Neural Engine vorgestellt hat (ich glaube es war der A11), dachte ich, was für ein Marketing Mist. Jetzt muss ich einsehen, das Apple der Konkurrenz damals schlicht wieder Jahre voraus war.
 
Ich hoffe mal, dass sich das auch mit der Graka lösen läßt, sonst seht ich mit meinem 7950X3D nicht so gut da. Aber gut, dann gäbe es einen Grund mehr, sich auf eine neue CPU zu freuen.

Die aktuellen NPUs von AMD und Intel erfüllen nicht einmal die Wünsche Microsofts für lokale Copilot-Berechnungen und vor allem sind sie jeweils nur in einem Bruchteil des Portfolios verfügbar. Bei Intel immerhin leicht erkennbar, da alle Core Ultra KI-enabled sind, aber die gibt es bis auf weiteres nur mobile und auch da nur in einem Teil des Portfolios. Bei AMD ist der Anteil noch geringer und es gibt obendrei keine klare Kennzeichnung der Modelle. Entweder man kennt jeden Prozessor einzeln oder man machte Fehler (wie eine gewisse AMD-CEO...).

Von daher würde ich mal sagen: Die nächsten Jahre können Entwickler nicht einmal erwarten, dass die Kunden wissen ob sie eine NPU haben oder nicht, um das z.B. in den Systemempfehlungen zu berücksichtigen. Und ehe eine hinreichende Leistung flächendeckend zur Mindestvoraussetzung erklärt werden kann, werden wir die 2030er erreicht haben und dein 7950X3D vermutlich längst in Rente sein.
 
Zuletzt bearbeitet:
Zussammengefasst: Was würde die Hardware-Branche nur ohne markige Marketing-Sprüche machen? :devil:
Bis das irgendwie relevant wird, sind wir schon (minimum) 3-5 CPU-Generationen weiter.
 
Zurück