News Mysteriöser Hinweis: Dell und Nvidia deuten KI-PC-Chip an

PCGH-Redaktion

Kommentar-System
Teammitglied
Laut Andeutungen in einem Interview mit den Geschäftsführern von Dell und Nvidia könnte im nächsten Jahr ein eigener KI-Chip ins Haus stehen.

Was sagt die PCGH-X-Community zu Mysteriöser Hinweis: Dell und Nvidia deuten KI-PC-Chip an

Bitte beachten: Thema dieses Kommentar-Threads ist der Inhalt der Meldung. Kritik und allgemeine Fragen zu Online-Artikeln von PC Games Hardware werden hier gemäß der Forenregeln ohne Nachfrage entfernt, sie sind im Feedback-Unterforum besser aufgehoben.
 
Okay, also als PC-Nutzer, der oft zockt, Filme guckt und konvertiert in alle möglichen Formate für andere Endgeräte, manchmal Musik macht und viel im Internet unterwegs ist, alles am PC, wozu brauche ich einen KI-Chip? Kommt vielleicht in absehbarer Zeit mal Software, die so etwas benötigt um die Dinge, die ich so tue, zu beschleunigen? Oder ist das nach wie vor alles nur Marketing-Geblubber und die haben alle selbst noch gar keine Ahnung, was damit mal irgendwann so gemacht werden kann?

Erst gemeinte Frage, vielleicht kann mir das ja irgendjemand hier beantworten. Wozu brauche ich auch nur einen (1) einzigen KI-Chip in meinem Rechner?
 
Gezeigt wurden bereits:
- KI-NPCs für Spiele
- KI-Aufwertung (oder was der Entwickler dafür hält) für Filme
- KI-Codecs für Videokomprimierung
- KI-Audio-Generatoren und -Bearbeitungs-Software
- KI-Spam für online

Von daher könntest du zur Kernzielgruppe gehören.^^
Abzuwarten bleibt aber das Henne-Ei-Problem und die Qualität im realen Einsatz – wie immer, wenn eine Software-Hardware-Kombination einziehen soll. Zumindest in der Medienbearbeitung und -erstellung hat sich KI aber schon soweit etabliert, das wird bleiben. Und Hardware-Beschleunigung dort gerne mitgenommen.
 
KI-Newsticker
KI-Redakteure

läuft! ^^ ;-P

Eigentlich reicht demnächst eine Person weltweit, die die Neuigkeiten zur Verfügung gestellt bekommt und diese dann veröffentlicht.
Alle anderen haben ihre KI-Bots, die das dann in der entsprechenden Landessprache neu aufbereiten und mit einem neu generierten Zufallsbild garnieren.
Tolle Zukunft.
Hab ich schon voll Bock drauf.
Und die Spiele erst....Star Citizen wäre schon seit 10 Jahren draußen.
Als GOTY mit 35 Riesen Story-DLC-Erweiterungen in 10 Seasons für schlappe 666 Euro im Gesamtpaket.
Dagegen stinkt selbst ein mühselig hingefummeltes Anno 1800 Season 8 (?) ab. ;-P
 
Zuletzt bearbeitet:
Schreiben und behaupten kann man viel.
Es wird noch Jahre dauern, bis KI für Enduser wertvoll wird.
Ich glaube es erst, wenn ich es sehe.

Klar wären KI-NPC's nett in Spielen. Man darf jedoch darauf gespannt sein, wieviel Performance das wieder fressen wird. KI-CPU/APU oder nicht.

Das einzige, was mich beeindruckt hat, war ein Vid einer live KI-Konversationsübersetzung von Spanisch zu Englisch und umgekehrt. Das machts im Urlaub sicher viel einfacher, wenns denn am Smartphone läuft und in allen Sprachen verfügbar wäre.

Was ev. interessant wäre ist, wenn Spiele KI APU's ausnutzen könnten, während die Grafikkarte den Rest macht. Aber zwei "gpu's" zu verwenden, wird wieder zu Problemen führen, wie damals beim SLI, das in vielen Spielen reine Glückssache war. Bis das funktioniert (wenn es überhaupt irgendwann geht), macht die G-furz das wahrscheinlich lässig nebenbei.
 
Ich tue mich momentan auch etwas schwer damit, den Nutzen von lokalen KI-Anwendungen und damit der dafür benötigten Hardware zu sehen. Denn soweit ich weiß, benötigen alle komplexeren KI-Aufgaben wie KI-basierte Übersetzung, Text- oder Bild-Generierung eine unglaublich große Trainingsdatenbank, auf dieser dass jeweilige KI-Modell trainiert wurde und dann entsprechend die Aufgaben bearbeiten kann. Genau so ein großes (Trainings-)Modell kann ja gar nicht (oder zumindest auf absehbare Zeit nicht) lokal auf dem PC, Laptop, Tablet oder Smartphone laufen. Und wenn das Endgerät die Anfrage an die KI ohnehin an einen Server schicken muss, auf dem das große Modell läuft, wozu brauche ich dann lokal eine kleine KI bzw. KI-Hardware?

Den Nutzen verstehe ich daher einfach nicht - oder ich habe da etwas fundamental missverstanden, wie KI funktioniert.
 
Die NPUs dienen nicht dem Training, sondern der Ausführung. Ersteres wird, bei entsprechender Modellqualität, noch lange Zehntausende von GPUs und dutzende GWh verbrauchen, die ein Notebook eher nicht bereitstellen kann. Aber um das so trainierte Modell anwenden, reicht ein Bruchteil der Rechenleistung und des Speichers. Die wirklich großen wie ChatGPT4 brauchen meinem Wissen nach immer noch einige dutzend Gigabyte für ihre vielen Parameter, aber auch das wäre mittelfristig in Reichweite von "on site"-Technik. Und LLAMA wurde schon in 8-GiB-Größe auf Smartphones demonstriert. Allerdings sind GPUs und erst recht x86-CPUs recht ineffizient, wenn es um die Ausführung solcher Modelle geht. Die Arbeiten einfach mit extrem vielen, aber sehr groben Operationen.

Eine dicke 64-Bit-x86-Pipeline anzuwerfen, nur um ein 16-Bit-Eingangssignal auf 4 Bit runter zu abstrahieren und zu prüfen, ob es größer als ein Bezugswert im Modell ist, kann man ab und zu mal machen. Aber wenn sowas zehntausende Male pro Sekunde benötigt wird, hat man schnell ein Performance-, zumindest aber ein Effizienzproblem. Wenn man mit KIs arbeiten will, sind darauf spezialisierte NPUs also sehr sinnvoll. Ob man mit KIs arbeiten will und, sollte die Antwort erst in Zukunft "Ja" lauten, welche Art von Beschleunigung die dann am ehesten brauchen können, steht natürlich auf einem ganz anderen Blatt. Immerhin nimmt Microsoft diesmal von Anfang an die Zügel bei den Software-Schnittstellen in die Hand. Das dürfte ganz großes Chaos wie bei den ersten 3D-Entschleunigern reduzieren.
 
Zurück