News Nutzer enttäuscht von Intel: Gaming-Booster APO nur für aktuelle CPUs und noch sehr limitiert

Es geht nicht um die Grafikkarte, sondern um die CPU Leistung?!
Die CPU Leistung hast du in jeder Auflösung...
Lies den Beitrag nochmal. In 4K hast dann noch satte 1% Mehrleistung die wohl auch als Messungenauigkeit durchgehen dürften. Lass es 1440p und 5-6% sein. Weit weg von "im Mittel 20%".

Folgendes wird passieren: Ende 2024 / Anfang 2025 kommt Arrow Lake und jeder Intel-User sitzt auf einer toten Plattform und darf nochmal erneut tief in die Tasche greifen um dann evtl. mit Zen 5 gleichzuziehen - ein halbes Jahr nach dessen Release.

Dann kommt wieder mal eine Runde X3D im zweiten Abverkauf und man hat wieder den fast schon gewohnten Abstand. Und wer wird dann noch über APO reden ? Vermutlich keiner - denn wenn sie da was entwickeln wird das für die neue Plattform sein und nicht eine alte.
Dein Denkfehler besteht darin, zu glauben, dass das Problem bei Arrow Lake verschwunden sein wird. Die setzen aber immer noch auf P und E Cores, von daher kann man das gut gebrauchen.
Stimmt. Und dann werden sie es genauso supporten wie aktuell bei 13th Gen Raptor Lake. Oh wait... :ugly:
Denkfehler und so. Leicht zu unterstellen aber einfach zu machen. :lol:
 
Stimmt. Und dann werden sie es genauso supporten wie aktuell bei 13th Gen Raptor Lake. Oh wait... :ugly:
Denkfehler und so. Leicht zu unterstellen aber einfach zu machen. :lol:

Es ging um die Frage, ob Intel jetzt noch in diese Funktion investiert.

Da wurde die Behauptung aufgestellt, dass dies nicht der Fall wäre, da Arrow Lake vor der Tür steht (also Ende 2024, ist also noch etwas hin). Ich habe die Behauptung aufgestellt, dass man dies auch noch für Arrow Lake gebrauchen kann.

Um die Frage, ob das ganze auch noch in Zukunft, also nach 2024, für die 14000er fortgeführt wird, ging es garnicht. Ich persönlich vermute es schon, solange es keine speziellen Anpassungen an Raptorlake braucht. Wenn dann irgendwann eine Version 2.0 oder etwas ganz neues rauskommt, dann dürften die alten CPUs Geschichte sein
 
Dein Denkfehler besteht darin, zu glauben, dass das Problem bei Arrow Lake verschwunden sein wird. Die setzen aber immer noch auf P und E Cores, von daher kann man das gut gebrauchen.

Ich bin mir sehr sicher, dass es das Feature bei arrow lake nicht mehr geben wird.
Der Aufwand wird für Intel in keinem Verhältnis zum Nutzen stehen und die werden 0 Interesse haben den Quark weiter zu unterstützen. knappe + teure Entwicklungsressourcen für so ein paar gamerhanseln mit ihren 37457 verschiedenen Spielen dauerhaft abzustellen macht einfach keinen Sinn. Lieber flansch ich da noch l3 / l4 cache drauf oder takte das Ding bis zur kotzgrense (ks), mach das Ding 100-200€ teuer und schreib gaming drauf.
 
Ich bin mir sehr sicher, dass es das Feature bei arrow lake nicht mehr geben wird.
Na, das sehe ich anders.
Das Feature wird es sicher noch geben, nur entweder genau so Schlimm wie beim 7950x3d das es über die GameBar funktioniert oder aber halt Intelligenter via AI. Irgendwo dazwischen wird dieses Feature fortgeführt werden.
 
Es ging um die Frage, ob Intel jetzt noch in diese Funktion investiert.
Da wurde die Behauptung aufgestellt, dass dies nicht der Fall wäre, da Arrow Lake vor der Tür steht (also Ende 2024, ist also noch etwas hin). Ich habe die Behauptung aufgestellt, dass man dies auch noch für Arrow Lake gebrauchen kann.
Jo das stimmt. Man kann das schon noch brauchen (evtl. - ich kenne die Interna nicht und weiss nicht was das generell bringen würde bei der dann neueren Architektur).

Um die Frage, ob das ganze auch noch in Zukunft, also nach 2024, für die 14000er fortgeführt wird, ging es garnicht. Ich persönlich vermute es schon, solange es keine speziellen Anpassungen an Raptorlake braucht. Wenn dann irgendwann eine Version 2.0 oder etwas ganz neues rauskommt, dann dürften die alten CPUs Geschichte sein
Ich denke auch dass das künstlich limitiert ist, aber hilft ja nix wenn dann nix gross weiter passiert. Die Frage die sich stellt ist einfach wie weit will Intel die alten Plattformen dann pflegen und kümmert man sich nicht lieber um Arrow Lake und die Zukunft dann ?

Da seh ich jetzt Intel nicht als Vorzeigefirma in diesem Bereich und hab daher schon gewisse Zweifel. Die Zeit wirds zeigen und evtl. die harte Konkurrenz. Wenn Zen 5 einschlägt kann man sich nicht mehr viel erlauben seitens Team Blau.
 
Es ging um die Frage, ob Intel jetzt noch in diese Funktion investiert.

Da wurde die Behauptung aufgestellt, dass dies nicht der Fall wäre, da Arrow Lake vor der Tür steht (also Ende 2024, ist also noch etwas hin). Ich habe die Behauptung aufgestellt, dass man dies auch noch für Arrow Lake gebrauchen kann.

Um die Frage, ob das ganze auch noch in Zukunft, also nach 2024, für die 14000er fortgeführt wird, ging es garnicht. Ich persönlich vermute es schon, solange es keine speziellen Anpassungen an Raptorlake braucht. Wenn dann irgendwann eine Version 2.0 oder etwas ganz neues rauskommt, dann dürften die alten CPUs Geschichte sein

Es ist anzunehmen, dass solche Optimierungen für jede CPU einzeln erfolgen müssen. Das Schedulingprinzip von ADL/RPL ist an Einfachheit nicht zu überbieten: "Nimm die P-Cores. Wenn da nichts mehr frei ist, dann nimm lieber die E-Cores als gar nichts zu tun."

Wenn Spiele nicht gerade Threads mit extrem stark schwankender Rechenlast spawnen (sodass der Task immer dann auf braucht-P-Niveau explodiert, wenn er wegen Untätigkeit gerade in einen E-Cluster verbannt wurde), gibt es da eigentlich nichts allgemeines zu optimieren. Beinahe alle Spiele laufen heute out-of-the-box rund auf den Hybrid-CPUs. Der Teufel steckt erst im Detail: Manche Spiele spawnen viel zu viele Threads, die mehr zusätzlichen Overhead denn Nutzen generieren, wenn man ihnen entsprechend viele Kerne anbietet. Umgekehrt entlastet die Verlagerung von Aufgaben auf E-Cores die P-Kerne nicht nur, sondern sie nagt auch am Energie- und Temperaturbudget. Es kann also durchaus sein, dass der E-Core-Einsatz sieben von acht P-Cores planmäßig entlastet, dass Spiel aber trotzdem langsamer läuft, weil die Framerate an einem übergroßen Main-Thread auf Core 8 hängt. In solchen Szenarien wäre es sinnvoller, die E-Cores oder möglicherweise auch einzelne P-Cores gar nicht zu nutzen, um den maximalen Dual-Core-Boost zu halten, auch wenn dadurch andere Tasks länger in Bearbeitung sind.

Solche Rückkoppelungen kann der Threaddirector aber nicht auflösen und von der Dringlichkeit einzelner Tasks weiß er sowieso nichts – wenn der 24 Aufgaben sieht, von denen eine sowieso länger braucht, dann stellt er nicht die anderen 23 zurück, um sich voll auf die eine zu konzentrieren, sondern arbeitet erst einmal ab, was er erledigen kann. Jedes andere Verhalten muss händisch optimiert werden und das mit Blick auf die jeweilige CPU und ihr Power Budget. (Ob Intel das im Rahmen von APO macht, weiß ich nicht. Die Dokumentation ist ... knapp. Aber mir würde nichts anderes einfallen, wie sie aus der alten 10-nm-Technik sonst noch Mehrleistung rausquetschen können sollten.)
 
Zuletzt bearbeitet:
Wen wundert das bei Intel, der Firma die jeden Sockel maximal 2 Gens supportet und immernoch die Chips hinter K SKU's und Z-Mainboards lockt. Hätte ich nicht erwartet von Intel :ugly:
 
Na, das sehe ich anders.
Das Feature wird es sicher noch geben, nur entweder genau so Schlimm wie beim 7950x3d das es über die GameBar funktioniert oder aber halt Intelligenter via AI. Irgendwo dazwischen wird dieses Feature fortgeführt werden.

Wie soll das funktionieren? Offensichtlich muss man sich intensiv mit dem Spiel beschäftigen und den Thread director darauf optimieren, wann er welchen thread welchen cores zuweist. Oder bringen sie zum Spaß nur 2 unterstützte Applikationen zum Start? Einfach nur wie mit der game bar erkennen "dies ist ein Spiel, deswegen parke ich die Hälfte meiner cores" ist das nicht.
"AI" aka ein simpler Algorithmus (aber heute muss alles gleich AI sein) könnte bei der Analyse der optimalen Lastverteilung und Ressourcennutzung helfen, aber da steckt immernoch ne Menge menschliche Arbeit drin. Und das für jedes Spiel.
 
Wie soll das funktionieren? Offensichtlich muss man sich intensiv mit dem Spiel beschäftigen und den Thread director darauf optimieren, wann er welchen thread welchen cores zuweist. Oder bringen sie zum Spaß nur 2 unterstützte Applikationen zum Start? Einfach nur wie mit der game bar erkennen "dies ist ein Spiel, deswegen parke ich die Hälfte meiner cores" ist das nicht.
"AI" aka ein simpler Algorithmus (aber heute muss alles gleich AI sein) könnte bei der Analyse der optimalen Lastverteilung und Ressourcennutzung helfen, aber da steckt immernoch ne Menge menschliche Arbeit drin. Und das für jedes Spiel.
Zum Thema AI:
genau das meinte ich ja entweder die Dumme Variante mit GameBar oder was Intelligentes mit AI (was ich mal nicht glaube ). Oder halt was Dazwischen via Whitlisted und Händischer Optimierung.
Die Gamebar sollte aber easy sein.
Denn bei Intel Zählt wie auch bei AMD in 98% der fälle laufen die Spiele auf den reinen P Cores Schneller als auf den p+e Cores. Bzw im fall von AMD Only Cache Cores.
Sogar SMT aus bringt bei nativen 8 Kernen meist leistung.

Deswegen APO light . wäre dann GameBar erkennt Game Only P Core load für diesen Prozess.
APO etwas besser wäre Intel ME erkennt game only P core Game
noch besser wäre Intel ME erkennt Game was mit bis zu 8 kernen umgehen kann only P core,
game kann mit allen Kernen Umgehen P+e Core.

Irgendwo in diesen varianten wird sich Arrow lake Rumschlagen.
 
Du hast einfach nicht genau gelesen, ich rede von der CPU und nicht von der GPU und dessen Limit.
Die CPU leistet für sich selbst gesehen in jeder Auflösung das gleiche, es sei denn das Seitenverhältnis ändert sich.
Ein reiner Marketing-Witz, bis jetzt :ka:
Andere haben sehr wohl Unterschiede gemessen. Ob das ein Witz ist oder nicht, wird man sehen müssen.
Potentiell mehr Leistung ist immer gut.
 
Du hast einfach nicht genau gelesen, ich rede von der CPU und nicht von der GPU und dessen Limit.
Die CPU leistet für sich selbst gesehen in jeder Auflösung das gleiche, es sei denn das Seitenverhältnis ändert sich.
Du redest von "Im Mittel 20% Mehrleistung".
Während schon bei den Tests welche verlinkt sind in 4k nur 1% gemessen sind.
Wenn du dir also ein über gamer Rig zusammengestellt hast um nur FHD zu zocken dann mag das bei dir im Mittel 20% geben.
Realistisch sind 98% der User mit einer 4090 aber eher in 3440*1440 und aufwärts unterwegs.

Und dort wirds dann im Mittel irgendwo zwischen Messungenauigkeit und 5% bleiben.
 
Lies den Beitrag nochmal.
Ja, bitte lese meinen Beitrag.
Ich rede ausschließlich von einem CPU Vergleich, nicht von einer GPU und dessen Limit!
Ich vergleiche 7950X3D und 14900K, nicht die GPUs untereinander.
Und ja die CPU leistet in jeder Auflösung dasselbe. Probiere es einfach mal in Anno mit entsprechendem Spielstand aus. Egal welche Auflösung du einstellst, die CPU Leistung bleibt gleich hoch.
Folgendes wird passieren: Ende 2024 / Anfang 2025 kommt Arrow Lake und jeder Intel-User sitzt auf einer toten Plattform und darf nochmal erneut tief in die Tasche greifen um dann evtl. mit Zen 5 gleichzuziehen - ein halbes Jahr nach dessen Release.
Und vor einem Jahr habe ich den 13900K gekauft, und spiele dann knapp 2 Jahre bevor wirklich schnellere CPUs herauskommen.:ka:
Wenn die neuen AMD CPUs dann schneller sind, kaufe ich diese, ist doch klar.
Dann kommt wieder mal eine Runde X3D im zweiten Abverkauf und man hat wieder den fast schon gewohnten Abstand.
Und danach kommt Intels Cache Entwicklung und überbietet AMD? Wer weiß das schon.
Und wer wird dann noch über APO reden ? Vermutlich keiner - denn wenn sie da was entwickeln wird das für die neue Plattform sein und nicht eine alte.
Hersteller brechen ihre Versprechen. Kann schon sein, dass Intel APO nicht mehr verfolgt.
Jedenfalls gibt es keinen Grund dafür, denn ich wüsste nicht, dass Intel ihre Architektur in Zukunft was die E Kerne betrifft, ändert.
Stimmt. Und dann werden sie es genauso supporten wie aktuell bei 13th Gen Raptor Lake. Oh wait... :ugly:
Intel hat den Support nur für die 14te "Generation" beworben, insofern ist Intel soweit nichts vorzuwerfen.
Aber mir ist schon klar worum es dir geht. Du hast einen 7950X3D in deiner Signatur und musst das Feature schlechtreden, bevor überhaupt klar ist, was es kann und wie es sich entwickelt.
Denkfehler und so. Leicht zu unterstellen aber einfach zu machen. :lol:
Dass Intel keinen Support mehr bieten wird, wenn in einem Jahr neue Produkte kommen, ist rein spekulativ von dir.
AMD wollte Ryzen 5000 zunächst auch nicht mit den alten Chipsätzen anbieten, ich würde mir keine Illusionen machen und auf irgendeine lange Unterstützung im PC Markt bauen.
Bei Nvidia findets doch jeder geil das DLSS3 nur mit 4000er Karten geht.
Im Nvidia Headquarter sicherlich. Als User? Kann ich mir nicht vorstellen.
 
Zuletzt bearbeitet:
Bei Nvidia findets doch jeder geil das DLSS3 nur mit 4000er Karten geht.

Also darf Intel das auch. Wer a sagt muss auch b sagen.

Gibt ja auch weiterhin etwa 2 Spiele die DLSS3 überhaupt unterstützen. Killerfeature.

Du lügst in jeder Hinsicht.

Keiner findet es "geil" dass DLSS FG (nicht DLSS3) nur auf Ada läuft. Es ist so wie es ist, Hersteller haben das letzte Wort, kann man akzeptieren oder nicht.

Und was soll der Unsinn mit "2 Spiele die DLSS3 unterstützen"?

https://www.techgoing.com/nvidia-dl...ready-supporting-frame-generation-technology/

Und da ist UE4, UE5 und Unity dabei...

Edit: BTW bietet AMD Antilag+ auch nur für RDNA3 an. Oh wait, das Feature ist broken to the core und wird aktuell überhaupt nicht mehr unterstützt. Und jetzt?
 
Das ist wohl der neue Trend.
NVIDIA hats das ja mit DLSS zum Teil ja schon äußerst erfolgreich vorgemacht also nicht wundern, wenn da jetzt noch mehr Trittbrettfahrer kommen.
 
Du redest von "Im Mittel 20% Mehrleistung".
Ja. Gesetz dem Falle Intels Feature bringt den versprochenen Erfolg und der 14900K ist übertaktet.
Während schon bei den Tests welche verlinkt sind in 4k nur 1% gemessen sind.
Da limitiert die GPU. Ich spreche nicht von der GPU, ist das so schwer?
Wenn du dir also ein über gamer Rig zusammengestellt hast um nur FHD zu zocken dann mag das bei dir im Mittel 20% geben.
Ich habe nie gesagt, dass ich in Full HD spiele, ich verglich lediglich die CPU Leistung und die ist nun einmal in allen Auflösungen gleich hoch, egal welche GPU verwendet wird. Die GPU berechnet Pixel. Die CPU die Physik und NPC.
Klar jetzt?
 
Ja. Gesetz dem Falle Intels Feature bringt den versprochenen Erfolg und der 14900K ist übertaktet.

Da limitiert die GPU. Ich spreche nicht von der GPU, ist das so schwer?

Ich habe nie gesagt, dass ich in Full HD spiele, ich verglich lediglich die CPU Leistung und die ist nun einmal in allen Auflösungen gleich hoch, egal welche GPU verwendet wird. Die GPU berechnet Pixel. Die CPU die Physik und NPC.
Klar jetzt?
Oke dann nochmals für dich. Deine CPU kriegt nicht 20% MEHR leistung.
Die Leistung die bereits vorhanden ist, wird besser eingesetzt. Schau dir das Gamers Nexus video an.
Diese "Leistungssteigerung" kriegst du also nur in Games und nur wenn von Hand optimiert wird.
Weil das Scheduling manuel angepasst werden muss.

Und da dieser Anwendungsfall nur auf Games zutrifft, bist du da normalerweise im GPU limit.
Also hast du im Mittel keine bis kaum eine Leistungssteigerung...

Und ich bin einigermassen sicher, dass Physik nicht nur CPU seitig berechnet wird. Siehe Raytracing z.B. oder PhysX
Klar jetzt?
 
Ich habe nie gesagt, dass ich in Full HD spiele, ich verglich lediglich die CPU Leistung und die ist nun einmal in allen Auflösungen gleich hoch, egal welche GPU verwendet wird. Die GPU berechnet Pixel. Die CPU die Physik und NPC.
Klar jetzt?

So ganz richtig ist das nicht. Die DrawCalls kommen meines Wissens nach weiterhin von der CPU, heißt die GPU wartet auf Eingaben von der CPU.

Es gibt einige Spiele die sehr CPU-abhängig sind (je nach Engine), aber spätestens in 4K ist man meist im GPU Limit und dann bringt einem ein CPU Boost wenig was FPS angeht. Wobei man natürlich sagen kann dass eine "stärkere" CPU weniger Watt benötigt um dieselben FPS zu erreichen.

Zurück zum Topic: ich denke dass Intel den Pfad weiter verfolgt und vielleicht sogar ein Zusammenspiel mit den ARC Karten baut. An einem Feature welches die iGPU Cores zusammen mit den ARC Cores Bilder berechnen lässt haben sie ja schon gezeigt (glaube das gibt es sogar schon). Vielleicht gibt es das dann auch für Echtzeit-Rendering.

Außerdem denke ich werden wir bei Arrow-Lake auch 3D-Cache sehen (ich glaube dazu gab es bereits eine offizielle Bestätigung oder zumindest einen Teaser von Intel).
 
Und da dieser Anwendungsfall nur auf Games zutrifft, bist du da normalerweise im GPU limit.
Ich rede aber nicht von der GPU, ist das wirklich sooo schwer? Ich vergleiche die Leistung der CPU.
Und die ist in jeder Auflösung dieselbe, es sei denn das Seitenverhältnis ist anders.
Auch in 8K bringt die CPU 1:1 so viel FPS wie in 720p.
aber spätestens in 4K ist man meist im GPU Limit und dann bringt einem ein CPU Boost wenig was FPS angeht...
Was du nicht sagst, das sind ja Neuigkeiten. Davon sprach ich aber nicht.
 
Zuletzt bearbeitet:
Und ich bin einigermassen sicher, dass Physik nicht nur CPU seitig berechnet wird. Siehe Raytracing z.B. oder PhysX
Klar jetzt?
Raytracing hat nichts mit Physik Berechnungen der Game-Engine zu tun. Allerdings muss die CPU für Raytracing ordentlich rechnen, das in jedem Fall.
Ich rede aber nicht von der GPU, ist das wirklich sooo schwer?

Man spielt viel häufger im GPU als im CPU Limit. Daher ist das schon ein berechtigter Einwand. Um die CPU Limits zu testen muss man runter auf 720p und RT off setzen, das hat seinen Grund.
 
Zurück