News Meteor Lake: Intel demonstriert 16-Kern-CPU mit VPU-KI-Prozessor

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Meteor Lake: Intel demonstriert 16-Kern-CPU mit VPU-KI-Prozessor

Intel hat im Rahmen der Computex seinen ersten Prozessor aus der Meteor-Lake-Serie vorgestellt. Die CPU mit 16 Kernen und 22 Threads im Laptop wurde zum Anlass genommen, um die KI-Verarbeitungsfähigkeiten der VPU (Versatile Processing Unit) zu demonstrieren.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Meteor Lake: Intel demonstriert 16-Kern-CPU mit VPU-KI-Prozessor
 
Intel zieht also nach mehr als einem halben Jahrzehnt ein Feature nach, welches wir so lange bereits schon aus Smarthpone-Chips kennen. Vielleicht können sie das noch schlau beim Intel-KI-Upscaler mit einbauen, wenn man eine integrierte Grafiklösung nutzt, ansonsten wird das eher weniger für Gamer und mehr für den Produktiveinsatz gedacht sein.
 
Ohne Witz, heute beim Autofahren, sah ich im Augenwinkel ein großes Werbeplakat mit einem slogan der das Wort "zAItenwende" enthielt. Ging leider alles so schnell, dass ich nicht sehen konnte wer da eigentlich wofür wirbt. Kennt das vielleicht jemand?
 
Sieht irgendwie nicht sehr beeindruckend in dem Video aus oder übersehe ich etwas? :what:
Ich habe bei mir lokal Stable Diffusion mit einer uralten GTX 1060 6GB laufen und das dauert ~19 Sekunden um so ein Bild zu generieren:
Astronaut riding a horse on the moon
Steps: 20, Sampler: Euler a, CFG scale: 8, Seed: 272109192, Size: 512x512
Time taken: 19.37s Torch active/reserved: 3161/3676 MiB, Sys VRAM: 5534/6144 MiB (90.07%)

(Mein Bild sieht auch schöner aus aber das ist irrelevant dafür :schief:)
Edit: Mir ist gerade aufgefallen, dass das Pferd nur 3 Beine hat, KI ist halt auch nicht perfekt :ugly:
 

Anhänge

  • 00002-272109192.png
    00002-272109192.png
    395,5 KB · Aufrufe: 56
Sieht irgendwie nicht sehr beeindruckend in dem Video aus oder übersehe ich etwas? :what:
Ich habe bei mir lokal Stable Diffusion mit einer uralten GTX 1060 6GB laufen und das dauert ~19 Sekunden um so ein Bild zu generieren:
Astronaut riding a horse on the moon
Steps: 20, Sampler: Euler a, CFG scale: 8, Seed: 272109192, Size: 512x512
Time taken: 19.37s Torch active/reserved: 3161/3676 MiB, Sys VRAM: 5534/6144 MiB (90.07%)

(Mein Bild sieht auch schöner aus aber das ist irrelevant dafür :schief:)
Edit: Mir ist gerade aufgefallen, dass das Pferd nur 3 Beine hat, KI ist halt auch nicht perfekt :ugly:
Der Große unterschied wird hier wohl der Stromverbrauch sein.
Deine Graka wird wesentlich mehr Strom gefressen haben, um solch ein Bild zu generieren.
Der grobe Unterschied vom Verbrauch ist auch auf einem der Bilder oben im Artikel zu sehen.
Sieht in etwa nach Faktor 1/5x aus.
 
Interessanterweise hat Intel auch nur ein 3/4-Pferd bekommen, da allerdings mit nur einem Bein vorne.
Spannend wird das ganze aber erst mit konkreten Verbrauchsangaben. Wir reden hier von einem kleinen Bestandteil eines ohnehin schon eher auf Sparsameit den Takt (hihi^^) ausgelegeten Mobile-Chip. Wenn der einen entsprechend kleinen Verbrauch hat, sagen wir 1/100 einer 1060, und dabei auch noch viel schneller rechnet, wäre das kein schlechter Ausgangspunkt.
 
Die KI steckt bald überall drin und irgendwann auch in unserern Köpfen, wenn es nach Elon Musk geht.:ugly:
Aber erstmal zeigt Intel es in seiner CPU, ist auch ok wenn´s was bringt...;)
 
Ohne Witz, heute beim Autofahren, sah ich im Augenwinkel ein großes Werbeplakat mit einem slogan der das Wort "zAItenwende" enthielt. Ging leider alles so schnell, dass ich nicht sehen konnte wer da eigentlich wofür wirbt. Kennt das vielleicht jemand?
zufällig bei frankfurt? dieses unwort sehe ich in verbindung mit uni und "bildung"
Sieht irgendwie nicht sehr beeindruckend in dem Video aus oder übersehe ich etwas? :what:
Ich habe bei mir lokal Stable Diffusion mit einer uralten GTX 1060 6GB laufen und das dauert ~19 Sekunden um so ein Bild zu generieren:
Astronaut riding a horse on the moon
Steps: 20, Sampler: Euler a, CFG scale: 8, Seed: 272109192, Size: 512x512
Time taken: 19.37s Torch active/reserved: 3161/3676 MiB, Sys VRAM: 5534/6144 MiB (90.07%)

(Mein Bild sieht auch schöner aus aber das ist irrelevant dafür :schief:)
Edit: Mir ist gerade aufgefallen, dass das Pferd nur 3 Beine hat, KI ist halt auch nicht perfekt :ugly:
wiegt auf dem mond doch weniger.. da reichen auch 3 beine zum transportieren des torso.
 
zufällig bei frankfurt? dieses unwort sehe ich in verbindung mit uni und "bildung"
Nicht ganz, Franken statt Frankfurt^^ Nürnberg/Fürth/Erlangen-Raum
Werde mal darauf achten, ob es mit Uni/Bildung zu tun hat. Finde es nur krass, dass AI/KI schon auf Mainstream-Straßen angekommen ist, wo sicherlich ein nicht unerheblicher Teil der Bevölkerung nicht mal weiß was das sein soll (gerade die engl. Abkürzung).
 
Apple M1 vor längerem -> CPU + GPU + KI
Intel aktuell -> CPU + GPU + KI
AMD wird demnächst nachziehen mit KI Kernen auf der APU.

Nvidia hat auch sowas, ja, aber halt für große Server, nicht Massenkonsumenten.

Es gab mal eine Zeit, da konnten CPUs keine Floating Point Berechnungen, da hatte man extra Chips für, z.B. den i387, solange ist das her. Aktuell ist wieder so eine Phase in der neu definiert wird was eine CPU darstellt und was sie können muss.
 
Nicht ganz, Franken statt Frankfurt^^ Nürnberg/Fürth/Erlangen-Raum
Werde mal darauf achten, ob es mit Uni/Bildung zu tun hat. Finde es nur krass, dass AI/KI schon auf Mainstream-Straßen angekommen ist, wo sicherlich ein nicht unerheblicher Teil der Bevölkerung nicht mal weiß was das sein soll (gerade die engl. Abkürzung).
was aber egal ist für die Benutzung. 99% der User von PCs und Smartphones wissen wohl nicht wie die Dinger funktionieren, benutzt werden sie trotzdem und übernehmen damit den gesellschaftlichen Wandel
 
"Sowas" heißt bei Nvidia Tensor Cores gibt's seit der Titan V (Volta) für den Desktop und seit Turing für alle (außer auf den 16er-Modellen).
ich meine damit die Einheit aus CPU-GPU-KI Beschleuniger. Nvidia ist entweder ganz tief in der Serversparte mit solchen Produkten, oder dann erst wieder ganz weit unten wie mit dem Shield und der Switch, aber die Designs sind schon etwas ins Alter gekommen.

Nvidia hat jetzt keine 45W CPU-GPU-KI Combo die man als einzelnen Chip in ein Laptop packt und dann millionenfach verkauft,. Nvidia kann in der Hinsicht nur die Produkte anderer Hersteller ergänzen, im Normalfall mit mehr 3D Leistung.
 
was aber egal ist für die Benutzung. 99% der User von PCs und Smartphones wissen wohl nicht wie die Dinger funktionieren, benutzt werden sie trotzdem und übernehmen damit den gesellschaftlichen Wandel

Bei PCs und Smartphones wundert(e) man sich, wenn die falschen Leute Zugriffs auf Konto haben respektive wenn Meta die eigene Telefonnummer weitergibt und Google die Urlaubsbilder löscht. Was erwartet uns bei KI?
 
Bei PCs und Smartphones wundert(e) man sich, wenn die falschen Leute Zugriffs auf Konto haben respektive wenn Meta die eigene Telefonnummer weitergibt und Google die Urlaubsbilder löscht. Was erwartet uns bei KI?
Ja, alles richtig. Ich unterrichte geringfügig nebenbei (sowohl Schüler, als auch Erwachsene).
Was mir auffällt, egal wie sehr man es versucht: die Leute interessieren sich immer weniger für Technologie, sie benutzen sie einfach.
Speziell die, die mit Smartphones/Tablets aufgewachsen sind. Je einfacher Technologie zu benutzen ist, desto breiter wird sie genutzt und desto weniger wird sich drum gekümmert.
Vor 15 Jahren hab ich noch mit den Kindern drüber reden können, warum Facebook, WhatsApp und Co gefährlich sein können (da waren die Leute noch schockiert, dass WhatsApp beim installieren auch Zugriff auf diverse Daten und Konten haben wollte), heute interessiert sie das einfach nicht mehr. Auch die User wurden jünger: damals das Smartphone erst spät bekommen, kriegen sies jetzt in der Grundschule in die Hand gedrückt, weil die Eltern so eine Angst haben die Kinder nicht erreichen zu können. Und schon ist man im Sog der mobilen Geräte und Sozialen Medien - und zwar noch bevor man darüber kritisch nachdenken kann.
Wenn man das dann endlich könnte (13+ Jahre, eher später), ist man die Dinge schon zu gewohnt um sie noch zu hinterfragen, die Kinder kennen keine Welt mehr ohne Smartphone, Social Media, wie sollen sie sich also eine vorstellen können und das kritisch hinterfragen?

Also ja: ich habe resigniert. Die Bedenken KI (und alles was sie mit sich bringt, Deep Fakes und co auch) gegenüber sind alle gerechtfertigt. Aber darauf hinweisen führt nur bei den wenigsten zu kritischem Denken
 
Zuletzt bearbeitet:
Nicht ganz, Franken statt Frankfurt^^ Nürnberg/Fürth/Erlangen-Raum
Werde mal darauf achten, ob es mit Uni/Bildung zu tun hat. Finde es nur krass, dass AI/KI schon auf Mainstream-Straßen angekommen ist, wo sicherlich ein nicht unerheblicher Teil der Bevölkerung nicht mal weiß was das sein soll (gerade die engl. Abkürzung).
soll vllt im bewusstsein verankert werden. wurde dann alles "schonmal irgendwo gelesen" und kann daher nur gut sein :)
 
Zurück