News Intel Panther Lake: Laut Pat Gelsinger mit doppelter KI-Leistung von Arrow Lake

Was genau ist denn diese "KI-Leistung" und wo wird die benutzt oder gar benötigt?

Könnte es eventuell sein, dass Pat hier die KI-Nebelbombe werfen muss weil die wesentlichen Eigenschaften der kommenden CPUs, nämlich die Performance und die dafür nötige Leistungsaufnahme, nicht so gut sind um damit werben zu können? Nur so ne Idee.
Dem möchte ich wiedersprechen zumindest beim Rendern kann KI schon was,
vorher war Intel mit Quicksync schon sehr gut aufgestellt mit der KI Engine wird das Rendering noch weit besser und man braucht wirklich kein CPU rendering mehr.

Wird bei Bildbearbeitung und 3D CAD auch so sein. ;)
 
Dem möchte ich wiedersprechen zumindest beim Rendern kann KI schon was,
vorher war Intel mit Quicksync schon sehr gut aufgestellt mit der KI Engine wird das Rendering noch weit besser und man braucht wirklich kein CPU rendering mehr.
Kann mans denn in der Form schon benutzen?
QuickSync ist ein sehr gutes Speedencoding ähnlich NVenc usw. - wenn das durch KI besser wird sehr gerne (ich habe KI in dem Zusammenhang aber nur als Upsampler/AfterEffect usw. im Kopf, nicht als Encodinghelfer).
Die eine CPU-Encodierung (zwecks Qualität) kann das aber selbst wenns dahingehend hilft noch lange nicht ersetzen. Maximale Bildqualität bei minimaler Bitrate ist bei reinem CPU-Encoding immer noch Welten besser als jede GPU-unterstützte Version. Beides hat seine Daseinsberechtigung, nur die Anwendungsgebiete sind eben verschieden (QSync, NVenc usw. nutzt man eher für Streaming wos live schnell gehen muss, CPU-encodes eher zum archivieren von Videos deren Qualität man erhalten und platzsparend unterbringen will).

Bildbearbeitung kenne ich mich kaum aus (ich vermute aber das liegt ähnlich wie bei Videobearbeitung von KI-Funktionen her), bei CAD sehe ich das (als AutoCAD-Nutzer) noch nicht kommen. Wobei da eine Funktion die "erahnt" was man zeichnen möchte und nach ein paar selbst gezeichneten Linien entsprechende Vorschläge per KI generiert wäre extrem spannend...
 
Arrow und Panther werden schon schneller als Raptor, keine Sorge. Intel ist nur immer noch dabei, den Karren aus dem (Skylake-)Dreck zu ziehen. Und "KI" ist nun mal ein gutes Zugpferd, auf das gerade alle großen Firmen und Hersteller setzen. Für unseren Alltag im Hier und Jetzt mag das noch keine große Rolle spielen, aber in wenigen Jahren wird KI nicht mehr wegzudenken sein. Und dann wäre eine CPU mit NPU nützlich. Ich beobachte das Thema ohnehin, denn sobald das Fahrt aufnimmt, muss das Zeug in den CPU-Index ;-)
 
Kann mans denn in der Form schon benutzen?
QuickSync ist ein sehr gutes Speedencoding ähnlich NVenc usw. - wenn das durch KI besser wird sehr gerne (ich habe KI in dem Zusammenhang aber nur als Upsampler/AfterEffect usw. im Kopf, nicht als Encodinghelfer).
Die eine CPU-Encodierung (zwecks Qualität) kann das aber selbst wenns dahingehend hilft noch lange nicht ersetzen. Maximale Bildqualität bei minimaler Bitrate ist bei reinem CPU-Encoding immer noch Welten besser als jede GPU-unterstützte Version. Beides hat seine Daseinsberechtigung, nur die Anwendungsgebiete sind eben verschieden (QSync, NVenc usw. nutzt man eher für Streaming wos live schnell gehen muss, CPU-encodes eher zum archivieren von Videos deren Qualität man erhalten und platzsparend unterbringen will).

Bildbearbeitung kenne ich mich kaum aus (ich vermute aber das liegt ähnlich wie bei Videobearbeitung von KI-Funktionen her), bei CAD sehe ich das (als AutoCAD-Nutzer) noch nicht kommen. Wobei da eine Funktion die "erahnt" was man zeichnen möchte und nach ein paar selbst gezeichneten Linien entsprechende Vorschläge per KI generiert wäre extrem spannend...
Hmm CPU seitig mach ich das schon seit NVNC und Quicksync nicht mehr also Video coding.

Bei CAD durchaus, also Solidworks supportet mit der der Neuesten Version auch KI enhanced.
Was durchaus viel ausmacht und es nimmt recht viel CPU Last bei der Simulation, gute 15-30% weniger Last für die Visualisierung auf der CPU die man für eine flüssigere wiedergabe des 3D Models nutzen kann, z.b. Fluid Technik.
 
Panther Lake ist als Lunar Lake Nachfolger zu sehen, spekuliert wird eine Kernanzahl von 4+8. Also immerhin 4 Mont Kerne mehr. Bei den KI Leistungsprognosen ist nie so ganz klar, ob der ganze Chip gemeint ist oder nur die NPU. Bei Arrow Lake soll ja XMX wieder Einzug halten bei der tGPU, was bei einer 8 Xe LPG Grafik etwa 64 zusätzliche INT8 Tops bringen kann. Das alleine wäre fast die doppelte Tops Leistung vom gesamten Meteor Lake Chip heute (34 TOPs). Damit wäre Arrow Lake schon bei 100 Tops ohne weitere Verbesserungen, damit wäre man bereits bei einer Verdreifachung wenn man den ganzen Chip betrachtet. Bei Lunar Lake sieht es anders aus. Hier erwähnte Intel explizit eine Verdreifachung auch bei der NPU. Lunar Lake bekommt eine NPU der nächsten Generation, Arrow Lake wohl eher nicht.
 
@gerX7a Was heißt denn PTL ausgeschrieben,ist das der Nachfolgende CPU der noch in weiter ferne bei Intel ist.
PS: Sollte wohl PTL=Panther Lake heißen nicht wahr? Hoffe das stimmt so.

Also meine Software kann garnix mit KI anfangen.Ist dafür viel zu einfach gestriegt.Was ist aber wenn man nun Neronale Ki in einer CPU macht,so das es automatisch intern in der CPU den Vorgang in der CPU Optimiert,so das die Software mit der Zeit immer schneller Arbeit je öfters man eine Software startet.So das es mit der Zeit immer schneller was berechnen kann.Aber das würde dann Neronale CPU bedeuten,die sich selbst eine CPU zu den Aufgaben die man so macht ,weiter Entwicklen kann.Ob das geht,kann ich aber nicht sagen.Da würde ne KI für jedes Programm helfen,selbst wenn es nix absolut garnix mit Ki Anfangen kann.
Dank Ki ,eine CPU entwerfen lassen und diese damit Opimtimal selbst Entwerfen und zusammen Bauen lassen um noch bessere CPUS zu Entwerfen.
Ob das alle schon verwenden,kann ich nicht sagen,aber vielleicht hilft es ja durch das noch bessere CPUS zu Entwickeln.
Entweder stelle ich mir das viel zu einfach vor oder aber es ist schon möglich aber viel zu Aufwendig oder mit sehr vielen Hürden sowie Problemen behaftet.Wenn es blöd läuft vielleicht auch viel zu teuer um das umzusetzen.
Aber nur so kann man was steigern.

Ich finde GPU Videoumwandeln zwar gut weil schnell,aber es hat ein Problem.Es kann die GPU nicht optimial die Videos verkleinern.Entweder große Videos mit guter Bilqualität oder kleine VIdeos mit mießer Bildqulität.
Da wird es gewiss ne Option geben das die Bilidqulität gut und Videos klein sind mit dem Vorteil das es auf H264 ist wo man überall abspielen kann,also mit jeden Player ohne das es dann heißt dieser Codec wird nicht untersützt.
H265 hat das Problem das Umwandeln viel zu langsam ist und der Codec unflexible ist.Mag zwar sein das Nvidias GPU Umwandeln hier fortschritte macht,das reicht mir aber noch lange nicht.Es ist zu wenig.

Hier könnte so wer wie Intel die Lücke schlißen.Wenn Intel es vielleicht damit schafft das Videoumwandeln so schnell wie bei GPU ist,aber mit der Präzesion wie bei CPU,dann ist es vollbracht.
Es wird doch so ein rieße wie Intel dazu doch in der Lage sein.

Ich weis meine gewohnheiten sehr gut und es hat sich bei mir was Software angeht seid 2013 nix getan.
Ich verwende Spiele die älter sind,also das neueste von 2018.Software die teiliweis nicht rund unter Windows 10 läuft aber damals mit Windows 7 immer rund läuft.Immer sowas wie runtime Error anzeigt wenn es zu viel aufeinmal macht.Ja ich weis ich verwende eine Software das mal was mit Java zutuen hat.Videoumwandlungs Software Version aus 2018 das mit Windows 11 Probleme macht,weil es ja getestet wurde.


Ich hoffe die Ki kann auch mit ältere Software was anfangen um diese schneller zu machen.Wenn das Intel damit schafft,dann überzeugt es mich auch.Diese software die ein kelin wenig älter sind als ich zur zeit verwende,Nutze ich schon seid 2013 in vollen Zügen.


Es gibt auch eine etwas neueres Version.Wenn es möglich ist das mit Ki es das Video immer analosiert was Interlaced ist und was nicht und es dann immer einschaltet und ich es nicht immer wieder neu Aktiveren muss,dann könnte es mir ebenso helfen.
Aber vielleicht habe ich auch falsche Vorstellung was eine KI heißt.Es heißt ja immer das das neue Wundermittel bei PC sein sollte.Dann erwarte ich auch das es so wen wie mir als User auch da nützlich ist.Will ja schließlich alles aus der CPU an Leistung herausholen was geht.Die Vorstellung mal wirklich richtig die CPU voll Auszulasten um noch mehr Leistung zu haben.

Wenn das in Zukunft nicht möglich ist,dann wird Ki und ich wohl nicht wirklich warm.Denn es soll die Leistung steigern und nicht auf der Stelle treten.Ich treten jedenfalls solche Erwartungen,ansonten lässt es mir kalt.
 
Das Hauptproblem das ich sehe ist, dass die ganzen AI-Technologien aktuell entweder auf die Cloud oder auf GPUs ausgelegt sind. Ich bin mir nicht sicher ob hier Intel / AMD nicht zu spät dran sind. Das hängt natürlich auch davon ab, wie schnell die AI-Kerne sind. Ich denke nicht, dass die Industrie ihre Software für langsamere und (zumindest anfangs) kaum verbreitete Hardware umgestalten wird. GPUs sind nämlich wesentlich schneller und wesentlich weiter verbreitet.

Meiner Ansicht nach wird das ein Rohrkrepierer oder es wird halt Nischen dafür geben. An eine große Nutzung glaube ich nicht. Natürlich muss Intel vor allem für die Aktionäre das „Hypethema AI“ bedienen. Von „normaler“ Mehrleistung oder X3D Cache hätten natürlich die allermeisten Kunden profitiert. Gut, vielleicht hat Intel da auch dran gedacht. Warten wir mal, bis die CPUs vorgestellt und getestet werden können. :daumen:
 
Also wenn man jedem Käufer Geld für so eine Verschwendung an Silizium abknöpfen will, na dann gute Nacht.
KI ist ein absolutes Nischenprodukt für einige wenige Anwender, die das evtl. professionell in einer Arbeitsanwendung benötigen könnten, falls diese Software dann auch speziell darauf optimiert worden ist.
Und da ist wiederum zu prüfen, ob das nicht vielleicht auf die Grafikkarte gehört.
Ich brauche den Käse bis zum Ende meines Daseins jedenfalls absolut nicht.
KI ist ein Modewort und Hype wie VR oder 3D.
Das hat bisher auch niemand wirklich vermisst, oder?
Außerdem können alle Dinge für Normalsterbliche auch auf normalen Kernen berechnet werden, und daran mangelt es doch nun wirklich nicht.
Ein paar speziell angepasste Schaltungen eine KI nennen zu wollen, das ist zudem ziemlich übertrieben und ein dämlicher Marketingslogan.
 
Die Intel-Prozessoren haben ganz andere Baustellen, jetzt kommen die um die Ecke und werben mit KI kann nur mit dem Kopfschütteln kümmert euch um die Effizienz erst mal danach können wir uns über KI unterhalten, wir haben nicht mehr das Jahr 2000.
Aber ey, so kann man sich auch kaputt erwirtschaften, do it by yourself
Jetzt fehlen halt noch die Anwendungen und Spiele die KI Leistung wirklich nutzen :D
Ojeee das wird bestimmt noch Jahre dauern bis Entwickler von Spielen KI Code benutzen, in 10 Jahren ist die Hardware dann im Mainstream angekommen :D
Wenn ich jetzt so recht nachdenke, es soll ja KI in den Games vorkommen, da könnte es echt nützlich sein, wenn man das beschleunigt die Berechnung dazu in game.
 
Kann mans denn in der Form schon benutzen?
QuickSync ist ein sehr gutes Speedencoding ähnlich NVenc usw. - wenn das durch KI besser wird sehr gerne (ich habe KI in dem Zusammenhang aber nur als Upsampler/AfterEffect usw. im Kopf, nicht als Encodinghelfer).
Die eine CPU-Encodierung (zwecks Qualität) kann das aber selbst wenns dahingehend hilft noch lange nicht ersetzen. Maximale Bildqualität bei minimaler Bitrate ist bei reinem CPU-Encoding immer noch Welten besser als jede GPU-unterstützte Version. Beides hat seine Daseinsberechtigung, nur die Anwendungsgebiete sind eben verschieden (QSync, NVenc usw. nutzt man eher für Streaming wos live schnell gehen muss, CPU-encodes eher zum archivieren von Videos deren Qualität man erhalten und platzsparend unterbringen will).

Bildbearbeitung kenne ich mich kaum aus (ich vermute aber das liegt ähnlich wie bei Videobearbeitung von KI-Funktionen her), bei CAD sehe ich das (als AutoCAD-Nutzer) noch nicht kommen. Wobei da eine Funktion die "erahnt" was man zeichnen möchte und nach ein paar selbst gezeichneten Linien entsprechende Vorschläge per KI generiert wäre extrem spannend...

Ich arbeite aktuell als ServiceNow Admin, Implementer und Architect. Seit letztem Jahr gibt es dort "Now Assist":
https://docs.servicenow.com/de-DE/b...form/concept/platform-now-assist-landing.html

Als Beispiel kann ich mir einen Flow (Prozess-Ablauf) erstellen und "Now Assist" schlägt mir immer den nächsten Schritt vor. Für 90% der Anforderungen passen die Vorschläge da es eben meist Standard-Kram ist was man so implementiert. Das spart mir einiges an Aufwand, bereits heute.

Und das ist nur ein Teil von "Now Assist" den es jetzt schon gibt.

Aktuell läuft das alles über die Cloud. In Zukunft dann lokal auf den Maschinen wenn sie genug "KI Leistung" haben, was natürlich Strom, Traffic und Serverkosten senkt.


Das Hauptproblem das ich sehe ist, dass die ganzen AI-Technologien aktuell entweder auf die Cloud oder auf GPUs ausgelegt sind. Ich bin mir nicht sicher ob hier Intel / AMD nicht zu spät dran sind. Das hängt natürlich auch davon ab, wie schnell die AI-Kerne sind. Ich denke nicht, dass die Industrie ihre Software für langsamere und (zumindest anfangs) kaum verbreitete Hardware umgestalten wird. GPUs sind nämlich wesentlich schneller und wesentlich weiter verbreitet.

Meiner Ansicht nach wird das ein Rohrkrepierer oder es wird halt Nischen dafür geben. An eine große Nutzung glaube ich nicht. Natürlich muss Intel vor allem für die Aktionäre das „Hypethema AI“ bedienen. Von „normaler“ Mehrleistung oder X3D Cache hätten natürlich die allermeisten Kunden profitiert. Gut, vielleicht hat Intel da auch dran gedacht. Warten wir mal, bis die CPUs vorgestellt und getestet werden können. :daumen:

Die "allermeisten" Kunden sind Großabnehmer von Clients für Offices, nicht Privathaushalte. Office Rechner haben keine dedizierte GPU. Somit ist die "KI Leistung" in CPUs eher kein Rohrkrepierer.

Ja, es gibt auch Thin Clients, meiner Erfahrung nach setzt der Großteil der Geschäftskunden aber weiterhin auf "richtige" Clients für seine Mitarbeiter.

Also wenn man jedem Käufer Geld für so eine Verschwendung an Silizium abknöpfen will, na dann gute Nacht.
KI ist ein absolutes Nischenprodukt für einige wenige Anwender, die das evtl. professionell in einer Arbeitsanwendung benötigen könnten, falls diese Software dann auch speziell darauf optimiert worden ist.
Und da ist wiederum zu prüfen, ob das nicht vielleicht auf die Grafikkarte gehört.
Ich brauche den Käse bis zum Ende meines Daseins jedenfalls absolut nicht.
KI ist ein Modewort und Hype wie VR oder 3D.
Das hat bisher auch niemand wirklich vermisst, oder?
Außerdem können alle Dinge für Normalsterbliche auch auf normalen Kernen berechnet werden, und daran mangelt es doch nun wirklich nicht.
Ein paar speziell angepasste Schaltungen eine KI nennen zu wollen, das ist zudem ziemlich übertrieben und ein dämlicher Marketingslogan.

Dasselbe hat man hier im Forum über Raytracing, DLSS und Frame Generation gesagt. Wenige Jahre nach Einführung kommt fast jedes Spiel der größeren Studios mit diesen Features raus.

KI Anwendungen gibt es jetzt schon, und sie werden genutzt. Ich kenne z.B. ein paar Studenten die sich ihre Hausarbeiten komplett von ChatGPT schreiben lassen.

Und das lasse ich mal als Ausblick hier für die Gamer die glauben dass KI keinen Mehrwert für uns bietet:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Wenn da KI benötigt wird, wird es wohl eher in bestehende, ausgereifte und wohl eh schon vorhandene Cloudlösungen gehen.

Glaubst Du tatsächlich dass viele Unternehmen auf Cloud-Lösungen setzen? Ich kann Dir vom Banken- und Versicherungssektor sagen dass dort so gut wie keine Software Cloud-fähig ist. Und das betrifft noch viele weitere Sektoren. Der gesamte öffentliche Dienst läuft z.B . nicht "in der Cloud".

Außerdem ist es günstiger kleine Workloads lokal zu berechnen als alles über die Cloud laufen zu lassen. Nicht jeder berechnet neue Proteine zuhause.
 
Was genau ist denn diese "KI-Leistung" und wo wird die benutzt oder gar benötigt?

Hier kann man sich einen Überblick verschaffen.
Könnte es eventuell sein, dass Pat hier die KI-Nebelbombe werfen muss weil die wesentlichen Eigenschaften der kommenden CPUs, nämlich die Performance und die dafür nötige Leistungsaufnahme, nicht so gut sind um damit werben zu können? Nur so ne Idee.
Ja, das kann schon sein. Performance ist ja gut, Effizienz nicht so. KI Leistung wird aber gebraucht werden, ganz klar.
Dass man das heutzutage noch in Zweifel zieht, irritiert.
Ich habe wenn du genauer hinsiehst nicht kritisiert was Intel da macht (...)
Indem du implizierst KI Leistung brauche man nicht? Naja.
ich habe kritisiert dass man offenbar versucht mit dem KI-Hype und entsprechendem Marketing-Buzzwording zu überstrahlen, dass man im traditionellen Bereich seit Jahren nicht aus dem Quark kommt. Ist auch grade gängig, man muss als Tech-Firma nur oft genug "AI, AI, AI, AI!!" sagen und schon steigt der Aktienkurs. :ka:
Das ganze ist schon ein wenig komplexer, als nur irgendwelche Buzzwords und Marketing zu betreiben.
Die Hardware muss das erst einmal können, bzw. müssen die models, frameworks, APIs und Co. laufen.
Nebenbei: Die Frage was ich daheim mit nem irre schnellen KI-Tile anfangen kann ist noch offen. Welche programme haben davon denn nen Nutzen? Und jetzt sag mir nicht dass das nur dafür da ist, noch schneller KI-generierte Katzenbilder zu erstellen oder den OpenAI-Servern arbeit abzunehmen wenn ChatGPT lokal laufen kann.
Text Generierung, Textmarkierungen, Bildbearbeitung, Bildgenerierung, Telemetriedatenerfassung, Spieleprogrammierung, ChatGPT usw. usw.
Im Prinzip halt alles was auch sonst für Anwendungen genutzt werden, nur mit AI Unterstützung, aber ja braucht man nicht, klar.:rollen:
Gibt auch heute noch Leute die sich in der Bibliothek Internetseiten ausdrucken, oder Telefonzellen brauchen.
 
Zuletzt bearbeitet:
KI Leistung wird aber gebraucht werden, ganz klar.
Dass man das heutzutage noch in Zweifel zieht, irritiert.
Ich bezweifle nicht dass man die brauchen wird. Ich bezweifle, dass die im Heimbereich im Jahre 2024 in irgeneiner Form nen nennenswerten Unterschied macht und entsprechend die Werbung damit als USP irreführend für den Endkunden ist.

Das wird laufen wie mit allen anderen neuen Technologien auch. Beispielsweise bei Raytracing - da hat NVidia auch 2018 die Trommel gerührt ohne Ende wie revolutionär und ultrageil RT ist... es gab nur halt bis auf ein paar Techdemos nix das es benutzte und es dauerte Jahre bis es mehr als ne Handvoll spiele oder mehr als spiegelnde Wasserpfützen darin gab. Heute haben wir eine ganz gute Verbreitung von RT und in zumindest einigen dieser Spiele auch eine gute Nutzung davon und eine höhere Anzahl an Privatpersonen hat jetzt auch RT-fähige GPUs - 5 Jahre nach Release.

Deswegen hab ich ja oben auf grob 2030 geschätzt bis die Nummer hier zu Hause wirklich relevant wird. KI wird zwar wahrscheinlcih schneller wachsen als RT damals aber dafür sind die Nutzungszeiten von CPUs daheim höher als die von GPUs was es wieder verlangsamt.

Wie gesagt es geht nicht um die Technik oder den späteren Nutzen davon, die Kritik ging rein darauf, dass man jetzt ausschließlich mit einem Feature wirbt das erst in vielen jahren überhaupt relevant wird (und genau wie RT eher die übernächste Generation an Hardware erfordern wird um gut zu laufen und nicht Arrowlake) weil man offenbar mit den anderen Eigenschaften wenig punkten kann.
 
Ich bezweifle, dass die im Heimbereich im Jahre 2024 in irgeneiner Form nen nennenswerten Unterschied macht und entsprechend die Werbung damit als USP irreführend für den Endkunden ist.
Dann verstehe ich die Kritik inhaltlich nicht. Das läuft ja nach dem Motto: "Wasch mir den Pelz aber mach mich nicht nass dabei". Natürlich bieten selbst heute schon einige Tools, unter anderem von Adobe KI Erweiterungen an.
Irgendwann musst du mit den Dingen einfach mal anfangen.

Die Software ist gerade dabei sich deutlich umzukrempeln.
Keine passende Hardware zu liefern wäre absolut töricht. Dass Marketing immer übertreibt, ist nix neues.
Natürlich wird ein 0815 Nutzer 2024 kaum Vorteile daraus ziehen, aber so ein Rechner wird ja nicht schon nach einem Jahr weggeschmissen.
Das wird laufen wie mit allen anderen neuen Technologien auch. Beispielsweise bei Raytracing - da hat NVidia auch 2018 die Trommel gerührt ohne Ende wie revolutionär und ultrageil RT ist... es gab nur halt bis auf ein paar Techdemos nix das es benutzte und es dauerte Jahre bis es mehr als ne Handvoll spiele oder mehr als spiegelnde Wasserpfützen darin gab.
Das ist ja nicht wirklich korrekt. Bereits ein paar Monate später gab es gute RT GI in Metro Exodus.
Und bei KI ist man schon deutlich weiter als bei Raytracing Anno 2018.
(und genau wie RT eher die übernächste Generation an Hardware erfordern wird um gut zu laufen und nicht Arrowlake) weil man offenbar mit den anderen Eigenschaften wenig punkten kann.
RT lief auch auf Turing und RDNA 2 schon ziemlich gut und tut es selbst bei aktuellen Titeln noch ganz gut auf dem Turing Flaggschiff.
Intel könnte auch noch was anderes bewerben, als nur KI, nur passt der Zeitpunkt vielleicht nicht.
 
Ich bezweifle nicht dass man die brauchen wird. Ich bezweifle, dass die im Heimbereich im Jahre 2024 in irgeneiner Form nen nennenswerten Unterschied macht und entsprechend die Werbung damit als USP irreführend für den Endkunden ist.

Werden Arrow-Lake CPUs nur zuhause eingesetzt? Nein.

Das wird laufen wie mit allen anderen neuen Technologien auch. Beispielsweise bei Raytracing - da hat NVidia auch 2018 die Trommel gerührt ohne Ende wie revolutionär und ultrageil RT ist... es gab nur halt bis auf ein paar Techdemos nix das es benutzte und es dauerte Jahre bis es mehr als ne Handvoll spiele oder mehr als spiegelnde Wasserpfützen darin gab. Heute haben wir eine ganz gute Verbreitung von RT und in zumindest einigen dieser Spiele auch eine gute Nutzung davon und eine höhere Anzahl an Privatpersonen hat jetzt auch RT-fähige GPUs - 5 Jahre nach Release.

Und wenn man nicht damit anfängt, dann verbreitet sich nichts. Somit ist der Schritt damit anzufangen doch zu begrüßen.

Deswegen hab ich ja oben auf grob 2030 geschätzt bis die Nummer hier zu Hause wirklich relevant wird. KI wird zwar wahrscheinlcih schneller wachsen als RT damals aber dafür sind die Nutzungszeiten von CPUs daheim höher als die von GPUs was es wieder verlangsamt.

Home-User treiben sowieso wenig voran, es ist meist die Industrie. Wenn also alle Office-Rechner dedizierte KI-Einheiten haben, dann ist dort ein Markt den man mit Software ausfüllen wird.

Wie gesagt es geht nicht um die Technik oder den späteren Nutzen davon, die Kritik ging rein darauf, dass man jetzt ausschließlich mit einem Feature wirbt das erst in vielen jahren überhaupt relevant wird (und genau wie RT eher die übernächste Generation an Hardware erfordern wird um gut zu laufen und nicht Arrowlake) weil man offenbar mit den anderen Eigenschaften wenig punkten kann.

Wieso denn ausschließlich? Es wurde in dem Artikel ein Satz von Pat zitiert, aber das war wohl nicht das Einzige was er im Investoren-Call gesagt hat.
 
Wie gesagt es geht nicht um die Technik oder den späteren Nutzen davon, die Kritik ging rein darauf, dass man jetzt ausschließlich mit einem Feature wirbt das erst in vielen jahren überhaupt relevant wird (und genau wie RT eher die übernächste Generation an Hardware erfordern wird um gut zu laufen und nicht Arrowlake) weil man offenbar mit den anderen Eigenschaften wenig punkten kann.

Artikel schrieb:
...gab es auch ein Investorengespräch mit CEO Pat Gelsinger...

Große Investoren interessieren sich für gewöhnlich sehr dafür, was ein Unternehmen "in vielen Jahren" plant, Panther Lake ist die "übernächste Generation" und Intel hat KI zu dem Thema für die nächsten Jahre erklärt. Also über was hätte man bei dieser Gelegenheit sonst reden sollen? RPL-R ist kalter Kaffee von Vorgestern und MTL eins von gestern; dazu kann man alles aus der Presse erfahren. (Ich könnte da eine Webseite/ein Magazin empfehlen.^^) In Interviews mit CEOs geht es selten um Rückblicke, sondern um Dinge, die bislang nirgendwo anders zu hören waren.
 
Große Investoren interessieren sich für gewöhnlich sehr dafür, was ein Unternehmen "in vielen Jahren" plant, Panther Lake ist die "übernächste Generation" und Intel hat KI zu dem Thema für die nächsten Jahre erklärt. Also über was hätte man bei dieser Gelegenheit sonst reden sollen? RPL-R ist kalter Kaffee von Vorgestern und MTL eins von gestern; dazu kann man alles aus der Presse erfahren. (Ich könnte da eine Webseite/ein Magazin empfehlen.^^) In Interviews mit CEOs geht es selten um Rückblicke, sondern um Dinge, die bislang nirgendwo anders zu hören waren.
Genau das.
An der Börse wird immer die Zukunft gehandelt, nicht die Vergangenheit.

Und warum redet man momentan vor allem von KI? Weil es das Hype Thema schlecht hin ist. Für die meisten hier ist AI vielleicht nicht wichtig und vor allem normale traditionelle CPU Leistung das Interessante. Es interessiert aber, meiner Meinung nach, kaum jemanden außerhalb der Hardcore Hardware bubble (vor allem nicht Medien Leute), ob es da jetzt 10% oder 20% mehr Leistung gibt. Das ist langweilig und generiert keine Clicks.
Daher redet man momentan hauptsächlich von KI.
Aus den Gründen denke ich nicht, nur weil CPU Leistung nicht ewähnt wird, dass man da iwelche Rückschlüsse ziehen kann, ob die am Ende enttäuschend wenig ansteigt oder nicht.
 
Zurück