News Intel Arrow Lake: Modelle und Spezifikationen durchgesickert

Ich surfe z.B. mit einem alten Intel Skylake 2-Kerner, der mit reduzierter Spannung und 3000Mhz keiner 8W zieht.
Das ist ja auch Zielgruppe von Desktop-CPUs mit "T" im Namen oder in dem Fall eher noch mobile-CPUs mit "U" am Ende.

Ein Intel Core 7-150U beispielsweise bietet dir 10 Kerne, bis 5,4 GHz und das bei <15W. Wenn du nur surfst (und das PL2 im BIOS auch auf 15 setzt um Peaks zu vermeiden) macht der dasselbe wie dein Skylake-2-Kerner bei sehr ähnlichem Verbrauch - nur sehr viel schneller.

Die genauen Anwendungen gibt Intel meinem Wissen nach nicht bekannt, aber es soll maximale fordernde Anwendungen repräsentieren. Es ist also kein konstruierter Worst-Case mit synthetischen Spezialcode, der einfach nur maximal Energie durchsetzt, aber bislang lagen real relevante Anwendungen eigentlich immer ein Stück über den Basistaktangaben.
Ich glaube mich zu erinnern dass Intel mal gesagt hatte es gibt Spezialcode der dafür da ist maximale Wärmeabgabe zu provozieren um Hotspots in Chipdesigns zu finden/optimieren und dass der auch genutzt wird um die Basistaktraten bei gesetzter TDP/PL1 zu ermitteln. Vielleicht irgendwo in dem Video wo Roman mit dem Intel-Ingenieur da sitzt, ich weiß es nicht mehr.

Wie auch immer, die für Nutzer relevante Definition von "Basistakt" dürfte in etwa sein "Der Takt, den die CPU mindestens dauerhaft halten kann, wenn alle Betriebsparameter eingehalten und die TDP nicht überschritten wird".

Die technisch korrekte Definition dagegen ist eher "Der Takt, den die CPU mindestens dauerhaft halten kann, wenn sie von einer Kühllösung gekühlt wird, die bei maximal erlaubter Tcase die TDP an Wärmeleistung abführen kann".
 
Ich will doch nur darauf hinaus, dass die Effizienz unter den absurden Maximalleistungen starkt leidet. Hersteller haben heute auch eine Verantwortung. Und wenn man den Fokus stärker auf Effizienz legen würde, hätte man mit kaum reduzierter Leistung einen erheblich reduzierten Verbrauch. Die Entwicklung geht in die falsche Richtung.
 
Hersteller haben heute auch eine Verantwortung.
Sagt wer?
Die Hersteller übernehmen nur so viel Verantwortung, wie sie sich grad noch Leisten können ohne in einem shitstorm zerfleischt zu werden.
Die Konsumenten haben mMn. die viel größere Verantwortung, weil: Angebot und Nachfrage.
Frage ich ein 1000PS Auto/10 Ghz Prozessor nach, dann wird selbstverständlich irgendjemand auf dieser Welt die Nachfrage befriedigen.
Geben sich alle mit nur 100PS Autos/ 4 Ghz CPUs zufrieden, wird auch Keiner mehr unnötig Entwicklung für "höher, schneller, weiter" betreiben.
So einfach ist das eigentlich in der Marktwirtschaft.
Natürlich gibt es gesetzliche Rahmenbedingungen, welche mal mehr, mal weniger sinnvoll eingreifen, aber im Endeffekt zählt immer nur: "Was du wolle?!"
 
Niemand zwingt dich, das Topmodell zum Internet surfen zu kaufen. Der Kunde hat ebenso eine Verantwortung zu tragen, nämlich die, die passende Hardware für seinen Anwendungsbereich auszuwählen.
Völlig richtig! Und gerade Du hast ja auch gezeigt, wie man mit kleinen Eingriffen eine CPU extrem effizient bekommt. Dazu bedarf es aber etwas Wissen, was dem gewöhnlichen Konsumenten fehlt.
 
Ich will doch nur darauf hinaus, dass die Effizienz unter den absurden Maximalleistungen starkt leidet.

Leider kommentierst du stattdessen aber PL4, das (wie gerade erst wieder verlinkt) nichts mit Effizienz und Maximalleistung zu tun hat. Genauso gut könntest du die Existenz von 15-A-Sicherungen in den vielen Wohnungen als "Anlass" nehmen, um gegen den (zweifelsfrei zu hohen) Stromverbrauch von GPUs zu wettern.
 
Leider kommentierst du stattdessen aber PL4,
Das war vielleicht ungeschickt. Aber auch PL2 und PL3 sind mir definitiv zu hoch, da hängen ja auch viele Folgekosten dran, insbesondere für Klimaanlagen in Großraumbüros. Ich freue ich schon auf ein Spezial Seitens der PCGH, in dem die CPU auf Effizienz hin getrimmt wird und mit erheblich weniger Verbrauch nur unmerklich weniger Rechenleistung erzeugt.
 
PL3 und PL4 existieren nur theoretisch, denn ein wirksames PL2 betrifft 99,9% der normalen Intel CPUs.

Und PL2 ist nun bekanntermaßen seit Jahren eigentlich "viel zu hoch" bei Intel, also wo ist nun eigentlich dein Problem @Neuer_User
Effiziente CPUs kannst du seit 2017 bei AMD käuflich erwerben.
insbesondere für Klimaanlagen in Großraumbüros
haben jetzt was genau mit dem Thema CPUs zu tun? :stupid:
 
Ich frage mich, wie die Spieleleistung ausfallen wird. Es stehen höhere Latenzen wegen des Chiplet-Designs und weniger Takt gegen mehr IPC, höheren RAM Takt und einen deulich größeren L2 Cache.

Das sieht nach einem Patt aus, wenn Intel nicht gerade magische Verbesserungen des Prefetchers hinbekommen hat. Ich denke nicht, dass Raptor Lake nennenswert geschlagen wird.
 
Zuletzt bearbeitet:
Ich frage mich, wie die Spieleleistung ausfallen.
Persönliche Prognose:

Ohne detaillierte Messungen zu machen wird ein Benutzer selbst im CPU-Limit nicht bemerken ob er einen 9000X3D oder einen CoreUltra benutzt. Im Detail rechne ich damit, dass im Mittel die avgfps für beide Topmodelle sehr sehr ähnlich sein werden, ArrowLake da aber bei den minfps bzw kleinen Perzentilen merklich besser abschneiden könnte einfach weil das Latenzproblem hier nicht da ist.
 
ArrowLake da aber bei den minfps bzw kleinen Perzentilen merklich besser abschneiden könnte einfach weil das Latenzproblem hier nicht da ist.
Welche Latenzprobleme meinst du? RAM oder Inter-Core? Arrow Lake wird durch das Chiplet-Design höhere Speicherlatenzen mitbringen im Vergleich mit den bisherigen monolithischen Designs.

Meiner Erfahrung nach wirken die Speicherlatenzen stärker als Inter-Core-Latenzen. Ich hoffe, dass der Interconnect hoch getaktet werden kann. Bei Skylake-X konnte man mit einem hohen Mesh-Takt ordentlich was rausholen.
 
Zuletzt bearbeitet:
Welche Latenzprobleme meinst du? RAM oder Inter-Core?
Zunächst dachte ich an Intercore zwischen Chiplets... das ist ja anscheinend übel bei ZEN5. Von Kernen im gleichen Chiplet zu Kernen in verschiedenen Chiplets ist die Latenz mal sportlich Faktor 10 schlechter.
(https://chipsandcheese.com/2024/08/14/amds-ryzen-9950x-zen-5-on-desktop/#jp-carousel-30901)
Ok, beim 1-Chiplet-8-Kerner fällt das weg, bei den größeren Modellen müsste dann der Scheduler sehr gut Threads verteilen.

Arrow Lake wird durch das Chiplet-Design höhere Speicherlatenzen mitbringen
Da bin ich sehr gespannt drauf wie gut/schlecht das wird. Einerseits ist Intels Chiplet-Ansatz deutlich fortschrittlicher als AMDs, andererseits ist das (im Desktop zumindest) der erste Wurf der naturgemäß noch nicht besonders ausoptimiert sein wird.
 
Das war vielleicht ungeschickt. Aber auch PL2 und PL3 sind mir definitiv zu hoch, da hängen ja auch viele Folgekosten dran, insbesondere für Klimaanlagen in Großraumbüros. Ich freue ich schon auf ein Spezial Seitens der PCGH, in dem die CPU auf Effizienz hin getrimmt wird und mit erheblich weniger Verbrauch nur unmerklich weniger Rechenleistung erzeugt.
Wenn Du nicht 24/7 im Cinebench unterwegs bist und nicht ausschließlich in 720p/1080p zockst, wirst Du dort noch nicht einmal PL2 sehen. Aktuelles Beispiel im Black Myth: Wukong Benchmark anbei (offene CPU im harten GPU Limit, wo sich sowieso fast alle befinden -> zwischen 35-60W). Da könnte man eher den Verbrauch der großen GPUs diskutieren.

QIX_BM_WU_7680x2160_Kino_Preset_RT_Ultra_DLSSFG_01.jpg QIX_BM_WU_7680x2160_Kino_Preset_RT_Ultra_DLSSFG_01_ABZoom.jpg
 
Wenn Du nicht 24/7 im Cinebench unterwegs bist und nicht ausschließlich in 720p/1080p zockst, wirst Du dort noch nicht einmal PL2 sehen.
Die Diskussion ist ja immer die gleiche.
Die Leute regen sich im Internet Tiradenweise über Powerlimits von CPUs auf obwohl es für die allerallermeisten User völlig Latte ist ob das Limit bei 150, 250, 350 oder 4096W liegt da deren tatsächlcher Workload nicht ansatzweise solche Verbräuche triggert (und nach einer Umfrage von 3DCenter vor einiger Zeit die PCs 80+% ihrer Laufzeit bei kleinstlasten unterwegs sind um das Wort "Idle" nicht zu verwenden).

Wenn man wirklich öfter Last hat die CPUs auf zig Kernen stark fordern dann kann man sich darüber Gedanken machen ob man eine CPU mit 250W Limit will und falls ja ob man dieses Limit nicht manuell woanders hinhaben will. Aber bei Leuten die nichts tun außer Internet surfen, Videos kucken, Musik hören, Mails schreiben und zocken wird auch ein 14900K nur selten die 100W sehen.
 
  • Like
Reaktionen: QIX
Wenn Du nicht 24/7 im Cinebench unterwegs bist ...
Hast Du schonmal in einem Großraumbüro mit 100 Konstrukteuren gesessen? Alle haben potente Rechner und die laufen oft im Limit. Da macht es einen großen Unterschied, was die Rechner an Strom verbraten. Darum schaue ich sehr sensibel auf die Entwicklung dieses Themas. Und dann wird seitens der Firmenleitungen an Klimaanlagen gespart. Ahnst Du, was das bei Sommern wie diesen bedeutet? Und ob ein Rechner 150W, 500W oder 1000W verbraucht, und dabei spielt natürlich vor allem auch die Grafikkarte eine entscheidende Rolle, ist dann sehr relevant.

Man bekommt die neuen Intel CPU ganz sicher auf ein "vernünftiges" Niveau, wenn man selber Hand anlegt, oder Hersteller die Mainboards "sinnvoll" konfigurieren
 
Zuletzt bearbeitet:
Hast Du schonmal in einem Großraumbüro mit 100 Konstrukteuren gesessen? Und alle haben potente Rechner und die laufen oft im Limit. Und da macht es einen großen Unterschied, was die Rechner an Strom verbraten. Darum schaue ich sehr sensibel auf die Entwicklung dieses Themas. Und dann wird an Klimaanlagen gespart.

Mit Konstrukteuren nicht, aber zahlreiche DEVs mit ähnlich potenter Hardware sehe ich in der Tat mind. einmal die Woche (aber keine 100, eher so 25 auf einmal). Ich weiß ja, worauf Du hinaus möchtest, nur sind diese Szenarien (selbst, wenn man Enduser in einer Gleichung potenziert, frei nach dem Motto, rettet den Planeten) mit den Zielen vieler Enduser und deren use cases mit Schwerpunkt hohe Leistung bei privaten Einzelsystemen nicht unbedingt übertragbar.
 
Hast Du schonmal in einem Großraumbüro mit 100 Konstrukteuren gesessen? Alle haben potente Rechner und die laufen oft im Limit. Da macht es einen großen Unterschied, was die Rechner an Strom verbraten. Darum schaue ich sehr sensibel auf die Entwicklung dieses Themas. Und dann wird seitens der Firmenleitungen an Klimaanlagen gespart. Ahnst Du, was das bei Sommern wie diesen bedeutet? Und ob ein Rechner 150W, 500W oder 1000W verbraucht, und dabei spielt natürlich vor allem auch die Grafikkarte eine entscheidende Rolle, ist dann sehr relevant.

Man bekommt die neuen Intel CPU ganz sicher auf ein "vernünftiges" Niveau, wenn man selber Hand anlegt, oder Hersteller die Mainboards "sinnvoll" konfigurieren

Die große Märchenstunde!

Als jemand, der von der Materie Ahnung hat sage ich, du denkst dir hier irgend etwas aus. Gerade im Bereich der Konstruktion ist der (Durchschnitts-)Verbrauch von PCs/Workstations überschaubar.

Die Rechner brauchen Peak-Leistung! Wie der Name schon sagt, konstruiert der Konstrukteur. Die Leistung wird dann nur kurzfristig gebraucht, um die Änderungen im Modell umzusetzen. Vielleicht wird einmal ein photorealistisches Rendering durchgeführt, aber das war's dann auch. Im Schnitt wird hier sicherlich deutlich weniger Wärme erzeugt als beim Gaming! Davon ab, wir bei großen Modellen oft Remote auf Servern gearbeitet, da ist der Verbrauch der Rechner in dem von dir (ausgedachten?) Großraumbüro überschaubar...

BTW:

Eingangs hast du geschrieben:
...

Ich surfe z.B. mit einem alten Intel Skylake 2-Kerner, der mit reduzierter Spannung und 3000Mhz keiner 8W zieht.

Du solltest hier vielleicht einmal überlegen, welche Performance (z.B. in MIPS) dein Skylake 2-Kerner liefert und dann einmal nachdenken, wie viel Energie (und Zeit) dieser für die gleiche Rechenaufgabe im Verhältnis zu einer auf den ersten Blick ineffizienten aktuellen CPU benötigt (und darum geht es am Ende). Dein Skylake dürfte so um die 10 bis 50-Mal langsamer im Vgl. zu aktuellen CPUs sein.

siehe z.B.
 
Das war vielleicht ungeschickt. Aber auch PL2 und PL3 sind mir definitiv zu hoch, da hängen ja auch viele Folgekosten dran, insbesondere für Klimaanlagen in Großraumbüros. Ich freue ich schon auf ein Spezial Seitens der PCGH, in dem die CPU auf Effizienz hin getrimmt wird und mit erheblich weniger Verbrauch nur unmerklich weniger Rechenleistung erzeugt.

Wie viele irreführende Posts kann man eigentlich in Folge absetzen, bis man sich mal mit der Materie beschäftigt?
Auch PL3 hat nichts mit Verbräuchen zu tun und PL2, dass bis eben gar nicht genannt wurde, ist für die Raumklimatisierung komplett egal. Frühestens PL1 würde da eine Rolle spielen, wird es aber nur in den wenigsten Fällen tun. Was in der Regel zählt ist die für einen bestimmten Zweck nötige Rechenleistung und die Effizienz, mit der diese erbracht wird. Ob eine große CPU die Berechnungen mit 125 W in 3 Minuten durchführt und dann 3 Minuten mit 5 W rumidled oder eine kleine CPU mit 65 W sie in 6 Minuten durchführt, ist dabei vollkommen egal. In beiden Fällen muss die Umgebung 6,5 Wh CPU-Abwärme abführen. Und im Falle eines Ingenieursarbeitsplatzes vermutlich auch noch einmal 20 Wh Abwärme von Monitoren und GPUs, die in den nächsten 18 Minuten weitere 60 Wh nachschieben, während die CPUs Däumchendrehen und der Ingenieur konstruktiv tätig ist, ohne dass sich schon etwas größeres ergeben hat, dass er neu durchrechnen lassen könnte.

Hast Du schonmal in einem Großraumbüro mit 100 Konstrukteuren gesessen?

Ich hoffe, dass ich nie bei einem Arbeitgeber lande, der 100 mit scheinbar wichtigen/fordernden Aufgaben betreute Personen in ein gemeinsames Büro sperrt. 10 Hardware-Redakteure kann schon ganz schön viel sein, wenn man konzentriert arbeiten muss.
 
... Ob eine große CPU die Berechnungen mit 125 W in 3 Minuten durchführt und dann 3 Minuten mit 5 W rumidled oder eine kleine CPU mit 65 W sie in 6 Minuten durchführt, ist dabei vollkommen egal. ....

Und genau das bezweifle ich. Es geht mir ja nicht um groß und klein, sondern um die konstruktive Auslegung. Und CPUs, die darauf ausgelegt sind, über 6GHz zu takten, sind eben nicht so effizient, wie es solche wären, die man von vornherein nur auf 4GHz oder weniger auslegt. Auch, wenn man den Takt ersterer reduziert. Dieser Test, ich denke, ihr habt ähnliches gemacht, ich finde es aber auf die Schnelle nicht, drückt aus, was mich stört und warum ich die aktuelle Entwicklung seit Jahren massiv kritisiere:

1724159341773.png


Ich weiß, ich weiß, andere CPU, wenige Effizienzkerne und und und. Es geht mir aber um die Tendenz. Es ist mitnicht so, dass halber Stromverbrauch mit halber Rechenleistung einhergeht. Und Du wirst es, wenn Du die neuen Mainboards testen wirst, sicherlich messen, was die Boardhersteller wieder an Leistung freigeben werden. Das wird ganz sicher nicht bei PL1 125W begrenzt sein. Ganz sicher nicht.

Ich persönlich kann diese Entwicklung nur mit :wall::wall::wall::wall: beschreiben. Andere werden das anders sehe. Alki schrieb ja schon, dass für mich vermutlich "U" und "T" CPUs die bessere Wahl sind. Damit hat er vermutlich Recht. Die Leitungsfähigkeit moderner Notebook und deren Stromverbrauch finde ich extrem interessant.

Ich behaupte aber weiter, wenn Intel nicht versuchen würde, den Takt in absurde Höhen zu schrauben, die gesamte CPU erheblich effizienter werden könnte. Und geht es um uns Spielenden, ist der Weg mit großen Cache der effektivere. Ich hätte nicht gedacht, dass die Diskussion so ausarten muss, vielleicht waren die vier Smilies als Beitrag wirklich zu kurz, das Zitieren von PL4 war mein Fehler, aber selber PL2 ist mir definitiv zu hoch. Das kann man doch einfach mal akzeptieren. Das betrifft Grafikkarten genauso.

Ich hoffe, dass ich nie bei einem Arbeitgeber lande, der 100 mit scheinbar wichtigen/fordernden Aufgaben betreute Personen in ein gemeinsames Büro sperrt. 10 Hardware-Redakteure kann schon ganz schön viel sein, wenn man konzentriert arbeiten muss.
Es hat auch Vorteile. Durch die Größe wird es leiser, weil reflektierende Wände weit weg sind, dazu viele Pflanzen und Raumteiler und es wird erträglich, wenn alle bemüht sind, leise zu arbeiten. Der Vorteil ist, man kann sich viel besser und schneller Abstimmen. Gerade Kollegen, die 80% der Zeit im Haus rum flitzen und mit denen man 2min reden muss, erreicht man viel schneller und ohne umständliche Termine.
Die große Märchenstunde!
Ich weiß ja nicht, wo Du arbeitest und was ihr für Produkte habt. Wenn ich 25 Jahre zurückdenke, lief es so, dass unsere Desktoprechner, auch das waren damals Workstations, mehr oder weniger nur dafür da waren, Geometrien einzugeben, dann gab man Oberflächen- oder FEM-Berechnungen an den Server, der irgendwo gut gekühlt stand, und man bekam Stunden oder Tage später die Ergebnisse.

Und dann kommen die üblichen Berater ins Haus und meinten, da liegt ja extrem viel Rechenleistung brach. Also wurden bei uns die Bürorechner so an die Server gekoppelt, dass sie, ähnlich wie bei Foldinghome, Berechnungspaket mit geringer Priorisierung zurück an die Buromaschinen schickten. Und die rödeln dann ordentlich rum und erzeugen ordentlich Wärme. Das ist bei aktuellen Sommern wirklich ein Problem. Vor allem, weil die Rechner dann auch Nachts durchlaufen, sämtliche Fenster aber geschlossen sein müssen. Und dann kommt man morgens um 8:00 in Büro und wird erst einmal erschlagen. Das sind keine Märchenstunden, sondern real Probleme in Büros. Und ob Rechner 100W oder 1000W verbraten, macht dann durchaus einen Unterschied.
 
Zuletzt bearbeitet:
Ja, wir haben solche Tests gemacht und gerade die zeigen dir doch, dass deine Mutmaßungen überhaupt nicht zutreffend sind. Ein 13900KS ist nicht ineffizient, weil er ein auf 300 W ausgelegtes Design statt dem von dir gewünschten 50-W-Schmalspur-Prozessor ist. Nein, eine 13900KS ist so ineffizient, weil er ein auf 45 W bis 125 W ausgelegtes Design ist, dass auf >250 W übertaktet wird. Mit erheblicher Steigerung des Energieverbrauchs und nur sehr beschränkter Verbesserung der Leistung. Du willst nur 100 W Verbrauch? Setze einfach PL1 und PL2 soweit runter oder starte schlichtweg keine Anwendungen, die mehr Rechenleistung benötigen.

Das zusätzliches Taktpotenzial am oberen Ende freigegeben wird heißt doch nicht, dass die CPUs nicht auch mit niedrigem Takt laufen können. Nicht umsonst werden Intel-Systeme immer wieder für ihren relativ* guten Verbrauch im Leerlauf und bei geringer Last gelobt: Genau darauf sind die halt ausgelegt, da es immer auch für den Notebook-Markt angebotene Chips sind. Ähnliches gilt für AMD-APUs. Und wenn dir das immer noch zu viel ist, gibt es darunter Mini-PCs mit den ULV-optimierten Mobile-Chips oder mit den kleinen Pentiums und Celerons (Alder Lake N), die nur aus E-Kernen bestehen und diese auch zu weiten Teilen tatsächlich im effizienten* Bereich betreiben, für den sie ursprünglich gedacht waren.

Es gibt derzeit niemanden, der CPU-Architekturen für 20, 30 oder gar 50 W Verbrauch konstruiert. Sowas wäre weder in Servern noch in Mobile verkaufbar und die letzte Desktop-first-Architektur dürfte Bulldozer gewesen sein. Dass High-End-Desktop-Prozessoren dennoch so viel mehr verbrauchen können, liegt schlichtweg daran, dass es Leute gibt, die diese Leistung ohne Rücksicht auf den Verbrauch nachfragen und es für Intel (und AMD) nur einen Dreh an der Einstellungsschraube erfordert, um diese Wünsche zu erfüllen. Aber das heißt ja nicht, dass du da zugreifen musst und es heißt auch nicht, dass du einen Hersteller dafür verteufeln solltest, dass er die Kundenwünsche erfüllt. Wenn dann eher die Kunden oder diejenigen, die denen so billigen Strom verkaufen, dass sowas weiterhin attraktiv bleibt.


*: Die Betonung liegt auf "relativ effizient". Absolut sind Core i natürlich immer noch Prozessoren in einem 10-nm-Prozess. Also auf dem Niveau von AMD anno 2019. Damit konnte man beim Alder-Lake-Launch noch etwas Eindruck machen, aber heute kriegt man keinen Blumentopf mehr dafür. Genau das ändert sich allerdings mit Arrow Lake als ersten (ITRS-)5-nm-x86-Prozessor.
 
Zurück