News Intel Arrow Lake: Modelle und Spezifikationen durchgesickert

PCGH_Sven

PCGH-Autor
Wie nun gleich mehrere Quellen übereinstimmend berichten, sind jetzt alle Modelle und sämtliche Spezifikationen zu Intels kommenden Desktop-CPUs der Serie Core Ultra 200 ("Arrow Lake") durchgesickert. Am 10. Oktober geht es demnach los.

Was sagt die PCGH-X-Community zu Intel Arrow Lake: Modelle und Spezifikationen durchgesickert

Bitte beachten: Thema dieses Kommentar-Threads ist der Inhalt der Meldung. Kritik und allgemeine Fragen zu Online-Artikeln von PC Games Hardware werden hier gemäß der Forenregeln ohne Nachfrage entfernt, sie sind im Feedback-Unterforum besser aufgehoben.
 
Am spannendsten sind fast noch die aufgebohrten Anbindungen, mit jetzt 20 statt nur 16 PCIe 5.0 lanes. Wahnsinn! :fresse:

Im AMD Labor derweil so:
Medium 1100952 anzeigen
oder auch so
1724019712071.png


Nicht, dass das für das Gros der Anwender irgendwie relevant wäre, aber es stimmt einen schon irgendwie traurig, wenn der Marktführer mit seinen neuen 800er "chipsätzen" immer noch schlechter dasteht, als die Konkurrenz mit den alten 600er. Und eben diese Konkurrenz bringt nun ebenfalls 800er boards raus, weil... Warum noch mal genau @PCGH_Torsten? =)
 
Zuletzt bearbeitet:
Hoi, nix 6,2 + GHz ? INTEL wird doch nicht effizient werden wollen/müssen.
Takt runter, dazu noch AVX512 und HT streichen, schon brauchts keine Brechstange mehr ... :daumen:
kann aber auch sein, dass der Verbrauch auch aus anderen Gründen runtergeht (es ist nicht mehr der für 2016 vorgesehene 10nm Prozess AKA Intel 7, auch nicht Intel 4... oder Intel 3... es ist - je nach Chipvariante - TSMC3B und Intel 20A
 
Hm .. der 10. Oktober ist noch bisl hin.
So richtig schlau werde ich aus den Auflistungen der Prozessoren nicht, wirkt aber oberflächlich leicht Verbrauchsreduziert. Die neue Plattform gefällt mir ganz gut mit 16+4 PCIe 5 und reichlich PCIe 4.
Achja, so Realtests von PCGH haben schon etwas beruhigendes und eine Art Gewissheit, dass man mit diesen Ergebnissen auch rechnen kann. Da freue ich mich schon auf das Heft mit Intels neuer Plattform und den neuen CPUs sowie auf anregende Gedankengänge zu Themen wie KI, NPU, Effizienz und Einsatz-Szenarien.
 
Am spannendsten sind fast noch die aufgebohrten Anbindungen, mit jetzt 20 statt nur 16 PCIe 5.0 lanes. Wahnsinn! :fresse:
Wenn man schaut wie oft die Boardpartner die 24 PCIe 5.0 Lanes der Zen4/5 bei AM5 ausnutzen, dann macht Intel damit eigentlich nichts falsch.
Bei vielen Boards lassen sie sogar häufig 4 Lanes der CPU ungenutzt. Oder stecken sie in irgendwelche ungünstig bis schlecht platzierte PCIe (4.0) 16x@4x Slots, die dann von der GraKa blockiert werden - oder die man frei lassen sollte, damit die Kühlung der GraKa nicht beeinträchtigt wird.
 
Schauen wir mal was das PCGH Team nach den vielen Tests sagt. Bis dahin kann nur spekuliert werden.
Und.... Bis dahin kommt erstmal die Gamescom 😅 + reichlich Black Myth: Wukong tests und zockerei. 😬
 
ja da bin ich mal auf die tests gespannt, erstmal hab ich ja noch ausgesorgt mit meinem 13600k. vorallem schau natürlich die nächsten jahre genauer hin, nicht das intel noch mal verkackt ^^
 
Das sieht gar nicht gut aus. Die Differenz im Basetakt zwischen 125W und 65W ist größer als bei Raptor Lake.
 
Erstmal diesen Raff test sichten, dann kann ich immer noch verzichten, sollte Intel scheiße Bauen, kann noch zu AMD abhauen! :D
 
Ich habe ja von Chipletdesignplanung null Ahnung.
Aber wird sowas nicht schon Jahre im Voraus geplant und dann sich darauf festgelegt?
Klingt ein bißchen nach pokern.. Würde aber auch erklären, warum es bei Intel keine bahnbrechenden Neuerungen gibt.
Gutes Beispiel war die damalige Intel-10nm-Entwicklung. Hier wollte man das Kupfer in den Interconnects durch Cobalt ersetzen und schlußendlich wurde das nach Jahren der Verspätung mehr oder weniger eingestampft.
Meine Prognose: spätestens 2028 wird Intel mit einem echten und neuen MCD rauskommen. Vlle sogar gepaart mit P -und E-Cores.
Gruß T.
 
Bin sehr gespannt wie die Leistung ausfallen wird. Es juckt mich schon in den Fingern, bei Arrow Lake zuzuschlagen. *-*

Aber ich glaube die Vernunft wird siegen und der Sockel einfach übersprungen. Bin zu 99% GPU limitiert und selbst wenn nicht, reicht mir die Leistung meines 12500 noch locker.

Erstmal wird die Grafikkarte aufgerüstet und dann womöglich der Nachfolgesockel 2027 geholt, dann vielleicht schon mit DDR6?
 
Hab ich hier schon so oft erklärt, warum PL4-Werte einem egal sein können. Aber die Freunde der "Brechstange"-Storys lassen sich ihren Spaß nicht vermiesen.

Wie wird denn der Basistakt definiert? Wahrscheinlich krassester AVX irgendwas Load?

Die genauen Anwendungen gibt Intel meinem Wissen nach nicht bekannt, aber es soll maximale fordernde Anwendungen repräsentieren. Es ist also kein konstruierter Worst-Case mit synthetischen Spezialcode, der einfach nur maximal Energie durchsetzt, aber bislang lagen real relevante Anwendungen eigentlich immer ein Stück über den Basistaktangaben.

Ich habe ja von Chipletdesignplanung null Ahnung.
Aber wird sowas nicht schon Jahre im Voraus geplant und dann sich darauf festgelegt?
Klingt ein bißchen nach pokern.. Würde aber auch erklären, warum es bei Intel keine bahnbrechenden Neuerungen gibt.

Taktraten und TDPs werden relativ kurzfristig geplant. Man definiert zwar Ziele, was eine Architektur/Fertigung schaffen soll, aber wie gut sie wirklich geworden ist, kann man frühestens ein Jahr vor Launch sagen. Bei neuen Fertigungen eher 6 Monate oder weniger. Je nach Konkurrenzsituation und Ausbeute der Serienfertigung kann es auch in den letzten Monaten noch Änderungen geben. Man versucht in der Regel knapp besser als der Gegner zu sein ("vorne liegen" ist marketingtechnisch viel wichtiger als "mit Abstand"), aber es müssen auch genug Exemplare in der nötigen Qualität gebint werden.
 
Hab ich hier schon so oft erklärt, warum PL4-Werte einem egal sein können. Aber die Freunde der "Brechstange"-Storys lassen sich ihren Spaß nicht vermiesen.
Torsten,

es ist keine Freude. Es wäre so schön, CPUs auf Effizienz hin zu trimmen. AMD macht das bedingt, Intel weniger. Und wenn man sich den globalen Energieverbrauch von Rechnern anschaut, ist das ein Problem.

Ich surfe z.B. mit einem alten Intel Skylake 2-Kerner, der mit reduzierter Spannung und 3000Mhz keiner 8W zieht.
 
Zurück