Special Intel Core Ultra 200 (Arrow Lake) zu langsam? Diese Stellschrauben und Tipps helfen!

PCGH_Raff

Bitte nicht vöttern
Teammitglied
Intels neue Prozessor-Generation namens Core Ultra 200 hinterlässt in den Tests den Eindruck, dass irgendwo Leistung liegenbleibt. Die richtigen Einstellungen sind der Schlüssel zum Erfolg, weshalb wir die bekannten Stolperfallen und optimalen Settings erläutern.

Was sagt die PCGH-X-Community zu Intel Core Ultra 200 (Arrow Lake) zu langsam? Diese Stellschrauben und Tipps helfen!

Bitte beachten: Thema dieses Kommentar-Threads ist der Inhalt der Meldung. Kritik und allgemeine Fragen zu Online-Artikeln von PC Games Hardware werden hier gemäß der Forenregeln ohne Nachfrage entfernt, sie sind im Feedback-Unterforum besser aufgehoben.
 
Also die Idee ist jetzt, die Leistungsaufnahme durch das Profil "Hohe Leistung" / "Höchstleistung" zu erhöhen...bei einer CPU bei der primär immer die Effizienz erwähnt wurde?

Kommt mir das als einziger unsinnig vor? :ugly:
 
Kommt mir das als einziger unsinnig vor? :ugly:
Ja.

Der gemeine Nerd sollte wissen, dass "Höchstleistung" an der Leistungsaufnahme unter Last rein gar nichts ändert, es verhindert nur Stromsparfunktionen im Idle. Da das Aufwachen aus letzteren noch verbuggt ist sollte mans aktuell noch nicht benutzen, das ist aber etwas das normalerweise in kurzer Zeit gefixt werden sollte.

Das ist ein reiner Windows Bug ohne Relevanz für die Hardwareseitige Effizienz des Chips.
 
Hardware Unboxed hatte einen interessanten Test in ihrem Video mit A Plague Tale Requiem. Im Grafiklimit hatte der 285k die gleiche Leistung wie der 14900k. In einer anderen Szene, in der die CPU dann stärker belastet wurde, brach der 285k im Vergleich zum 14900k total ein :ugly:
 
PC Games Hardware,
Könnt ihr auch mal die neuen Core Ultra OC Optionen mit dem dazugehörigen "Intel XTU" testen.

Da soll es doch auch einen "AI Modus" geben? der automatisch intensiv testet und OC Werte einstellt.
Also vermutlich eine Implementierung des "Intel Performance Maximizers" ? in die XTU OC Software?

Intel® XTU Version 10.0 oder höher: unterstützt entsperrte Intel® Core™ Ultra Prozessoren (Serie 2)

Ich benutze mit meinem x299 Cascade Lake-X 14 Core CPU den älteren "Intel Performance Maximizer".
Der hat beim ersten mal sehr ausführliche Tests durchgeführt und alle Werte, speziell für mein System mit meiner CPU und mit Wasserkühlung, absolut stabil für jeden Workload konfiguriert.

Core Ultra:
2024-10-10_1-57-45.png
 
Hardware Unboxed hatte einen interessanten Test in ihrem Video mit A Plague Tale Requiem. Im Grafiklimit hatte der 285k die gleiche Leistung wie der 14900k. In einer anderen Szene, in der die CPU dann stärker belastet wurde, brach der 285k im Vergleich zum 14900k total ein :ugly:
nun ja...
Man spielt aber wahrscheinlich keine Games in nur HD 1.280 x 720, mit einem völlig neuen, noch nicht richtig unterstützten und nicht optimierten Core Ultra. :-)
Da wird dann vermutlich eine RTX 5.... in UHD oder 4K laufen und dort ist die CPU ggf. nicht ganz so wichtig, wie man bei den meisten CPU "Tests" annimmt.

zusätzlich erhält man:
einen sehr hohen Multicore Wert fürs arbeiten,
einen geringeren Stromverbrauch und damit geringere Temperaturen, die noch etwas OC potential bieten.
höhere Speicher Raten/Takte
einige PCIe 5.0 Lanes mehr usw.

Der Preis ist natürlich momentan hoch im Vergleich zu AMD.
Das wird noch spannend.

nur als Beispiel : HD / Full HD / UHD / 4k Tests
 
Zuletzt bearbeitet:
Ich hätte derzeit Arbeit für drei Mann. Warum kommst du nicht mal vorbei? ;)
Bei 400 km pro Weg müsste ich wenn du nennenswerte Arbeitszeiten und Wachheitsgrade erwartest zwei Nächte in der Redaktion pennen. :haha:

Da gibts doch Leute dies näher haben und schon mal hier und da was geschrieben haben für PCGH. *hust* Zonk *hust*
:-D

Aber hey, mach dir kein Stress - du hast mindestens so viel Zeit für die Detailtests wie Microsoft braucht um 24H2 zu fixen für ARL.^^
 
nur als Beispiel : HD / Full HD / UHD / 4k Tests
So ein unübersichtlicher Test :stupid:
Man kann noch nicht mal zurückblättern. Das Balkendiagramm ist so groß und lang, dass man auch noch ewig scrollen muß. Wer quält sich da durch und behält den Überblick?
 
Ja.

Der gemeine Nerd sollte wissen, dass "Höchstleistung" an der Leistungsaufnahme unter Last rein gar nichts ändert, es verhindert nur Stromsparfunktionen im Idle. Da das Aufwachen aus letzteren noch verbuggt ist sollte mans aktuell noch nicht benutzen, das ist aber etwas das normalerweise in kurzer Zeit gefixt werden sollte.

Das ist ein reiner Windows Bug ohne Relevanz für die Hardwareseitige Effizienz des Chips.
Wirklich? ;) In Diskussionen hier im Forum ist doch durchaus öfter der Idle-Verbrauch angesprochen worden - bezüglich letzten AMD Sockel AM5, da dieser dort recht hoch ist, als negativ kritisiert worden. Der Idle-Verbrauch von den Ultra Core ist laut Daves Test im Vergleich zu den vorigen CPU-Generationen etwas höher ausgefallen und würde sich wohl durch die 'High Performance' Einstellung weiter verschlechtern ...
 
Und was hat das mit dem Thema bzw. der hardware zu tun? :ka:

Bei AMD ist der Idle Verbrauch schlecht weil die Hardware es prinzipbedingt nicht besser kann, das ist dauerhaft und seit mittlerweile 4 Generationen so.
Bei Intel ist der Idleverbrauch schlecht wenn man manuell nen Bug-Workaround einstellt weil Windows die Architektur noch nicht kennt und den Ringbus nicht vernünftig ansteuern kann. Das hat mit der Hardware die all das prinzipiell kann nichts zu tun und wird wahrscheinlich innerhalb von ein, zwei Wochen behoben sein.

Die Idleverbrauch-Kritik an AMD existiert hauptsächlich, weil AMD an dem Thema seit über 5 Jahren nichts ändert weil es ihnen offensichtlich egal ist (bei GPUs ähnlich), weniger wegen der Handvoll Watt Unterschied.
 
Das wird schon alles noch werden.
Zumindest beim Asus z890 hero scheint es schon ein biosupdate zu geben, welches folgenden Eintrag enthält:
Update ME to 19.0.0.1753v4 hot fix
Könnt ja schon etwas in die richtige Richtung sein.

VG,
 
Wenn man sich die im Verhältnis zum Intel 13900KS und Ryzen 9 9 dramatisch schlecht erscheinenden L2 Cache Stats des Core Ultra ansieht, könnte man auf die Idee kommen, dass die neu gestaltete Cache Zuordnung, bei der sich nun einzelne E-Core Cluster erstmalig einen gemeinsamen L2-Cache-Pool teilen und nicht mehr jeder eigene CPU-Kern auf seinen ganz eigenen (0,5MB großen) L2-Cache zurückgreifen kann, wie es eben vorab oder auch bei AMD gehandhabt wird, womöglich einen konzeptionellen Schwachpunkt darstellt.
Der Zugriff mehrerer Kerne auf einen shared L3-Cache scheint da unkritischer zu sein. Jedenfalls machen das sowohl AMD als auch Intel und beide liegen irgendwo in grob vergleichbaren Bereichen was Transferraten und Latenzen betrifft.
Die Transferraten beim L2 des Core Ultra erscheinen nur halt echt mal derbe mies.
Beim Lesen erreicht dieser hier nur noch rund 50% des Leistungswertes eines 13900KS. (765GB/s vs 1539GB/s).
Is it a Bug or a Feature?^^
Fällt mir halt besonders ins Auge auf Grund der vermeintlichen "Verschlechterung" im direkten Vergleich zu einem hauseigenen Vorgänger-Modell.
 

Anhänge

  • Core_Ultra_E-Core_Cluster_shared_L2.jpg
    Core_Ultra_E-Core_Cluster_shared_L2.jpg
    783,1 KB · Aufrufe: 16
Zuletzt bearbeitet:
Selbst wenn man 100 Dinge ändert und Ultra 200 dann endlich so performt wie Intel das möchte, ich will ein System bauen, nix herumspielen mit der Software, es soll out of the box gut funktionieren.
Panther kommt nicht für den Desktop wie es aussieht, Nova frühestens 2026. Wird eine längere Durststrecke für Intel.
Spannend sind die Probleme mit dem Windows Scheduler wenn man bedenkt wie lange vorab Intel support liefert bei Linux, warum haut das bei Windows nicht hin?
Und: bringen AMD und Intel überhaupt neue Prozessoren aus nächstes Jahr? Ist ja gar nichnt notwendig, MS bringt einfach ein Update raus und BAM haben wir 15% mehr Leistung.
 
Zurück