Alder Lake: Intel stoppt die Nutzung von AVX-512

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Alder Lake: Intel stoppt die Nutzung von AVX-512

Beim Thema AVX-512 und Alder Lake greift Intel nun durch. Künftig werden die Einheiten auf ausgelieferten CPUs per sogenanntem "Fusing" deaktiviert und sind dann nicht mehr zu nutzen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Alder Lake: Intel stoppt die Nutzung von AVX-512
 
Funktionseinheiten auch immer ein Thema für hohe Leistungsaufnahme der CPUs und damit einhergehend entsprechend hoher Temperaturen, die es zu kühlen galt.

Was für nen schwach Sinns Kommentar, sorry, klar wird die CPU besser Ausgelastet, aber im endefekt arbeitet sie mit AVX um einiges Effizienter
 
Der Verein wird mir immer unsympatischer.
Marktmonopolist und trotzdem weiter an der Stellschraube drehen und quetschen, bis nichts mehr kommt.
Oder ist da vllt eine Sicherheitslücke aufgetaucht? :devil:
Gruß T.
 
Aus Intels Sicht ist es gar nicht so blöd, hardwaretechnisch einzugreifen, anstatt mit den Boardpartnern zu reden. Vorallem schafft man so Tatsachen, ohne groß zu diskutieren oder irgendwelche Drohungen aussprechen zu müssen.

So kann das business as usual weitergehen und man verschlechtert nicht die Beziehung zu den Boardpartnern. Die können schlecht sich darüber beschweren, dass Intel ein nicht unterstütztes Feature gekappt hat, ohne deren Einverständnis. Und Intel muss nicht irgendwelche Drohkulissen aufbauen und schlechte Stimmung verbreiten.
 
Ist halt auch wieder ein beknacktes Vorgehen eines Hardwareherstellers (AMD und PCIe 4 auf alten Boards z.B. ebenso beknackt). Da nehmen die sich echt nichts - immer schön zum Nachteil der Kunden.

Aaaaaaber, was soll das hier:
Da möchte man sich gar nicht ausmalen, was noch beim ebenfalls eher ungeliebten BCLK-Overclocking passieren könnte. Bisher wird das von Intel geduldet; man würde aber vermuten, dass auch das ein Ende nimmt.
Solche Spekulationen ohne jegliche Fakten sind einfach komplett fehl am Platz...
 
Lol, ein Feature, dass es auf der CPU-Serie offiziell nie gab und auch nicht angekündigt wurde, wird nun mit hartem Riegel ausgeschlossen, weil sich einige MB-Hersteller unerlaubterweise darauf Zugriff verschafft haben ... ja, ja, dass kann man dem großen, bösen, blauen Schlumpf wahrlich anlasten.
Und dass das Feature voraussichtlich auf diesen CPUs auch gar nicht vollständig validiert wird, interessiert natürlich auch keinen, denn ansonsten hätte man ja nichts zu meckern. Früher meckerte man, wenn es da war und genutzt wurde, heute meckert man weil etwas, das eigentlich nie da war nun gesichert nicht mehr existiert und morgen hätte man gemeckert wenn vereinzelte, freigeschaltete CPU mit der Funktionalität zu sporadischen Rechenfehlern geführt hätten, weil Intel hier zweifellos zwecks besserem Yield optimieren wird.

[...] Und Intel hat Alder Lake nunmal als Gamer CPU bezeichnet ^^
Da ADL rund 60 CPU-Modelle umfasst/en wird, von denen nur ein kleiner Teil für Gamer relevant ist, ist das gesichert pauschal keine "Gamer-CPU". Wie man eine solche nennt, hängt bei solchen Firmen immer davon ab in welchem konkreten (Werbe)Kontext diese sich gerade äußeren.

Ergänzend: Was Intel für den Consumer-Markt diesbezüglich für wichtig erachtet, haben sie durch ihre ISA-Erweiterung auch recht deutlich zum Ausdruck gebracht indem sie nun 256bittiges VNNI implementiert haben, d. h. ML-Workloads.
 
Zuletzt bearbeitet:
Anstatt das einfach diese Generation auszusitzen und das mit der NextGen zu regeln, nein, lasst es uns kaputtmachen und lasst es die ganze Welt wissen, wir haben den Hammer und die Macht.

Intel Marketing vom feinsten. Es war so, ist so und wird wohl auch immer so sein.
 
Für Games wird es immer uninteressant bleiben.

Und Intel hat Alder Lake nunmal als Gamer CPU bezeichnet ^^
Warum, kein Spiel auf der Welt verwendet AVX512 und sehe auch nicht warum das in Zukunft passieren sollte, dafür gibt es AVX und AVX2
Das hat man damals bei AVX auch gesagt und irgendwann haben diejenigen, die sich 2011 einen Phenom II gekauft haben blöd dreingeschaut. Wenn man seine CPU langfristig nutzt, dann könnte es wichtig werden.
1. War das so circa 8 Jahre Später..
2. Kann man AVX512 definitiv nicht mit AVX vergleichen, der Vorteil für Spiele zwischen AVX/AVX2 und AVX512 ist nicht gegeben
 
Für Games wird es immer uninteressant bleiben.

Haben bei AVX auch viele gesagt und dann wurde es eines Tags Pflicht.

Und Intel hat Alder Lake nunmal als Gamer CPU bezeichnet ^^

Wirklich?

Soweit ich weiß sind Zocker für Intel nur eine eher unbedeutende Randgruppe.

1. War das so circa 8 Jahre Später..
2. Kann man AVX512 definitiv nicht mit AVX vergleichen, der Vorteil für Spiele zwischen AVX/AVX2 und AVX512 ist nicht gegeben

Zahlst du den Leuten neue CPUs, wenn es soweit ist?

Kann sein, dass es so ist, wie bei AVX2, das auch 9 Jahre nach Einführung noch nicht Pflicht ist. Kann sein, dass es so läuft wie bei AVX. In jedem Fall ist es besser AVX 512 zu haben, als es nicht zu haben. das wird in jedem Fall ein Pluspunkt für Zen 4, so wie er schon einer bei Rocket Lake und bisher Alder Lake war.
 
Haben bei AVX auch viele gesagt und dann wurde es eines Tags Pflicht.



Wirklich?

Soweit ich weiß sind Zocker für Intel nur eine eher unbedeutende Randgruppe.



Zahlst du den Leuten neue CPUs, wenn es soweit ist?

Kann sein, dass es so ist, wie bei AVX2, das auch 9 Jahre nach Einführung noch nicht Pflicht ist. Kann sein, dass es so läuft wie bei AVX. In jedem Fall ist es besser AVX 512 zu haben, als es nicht zu haben. das wird in jedem Fall ein Pluspunkt für Zen 4, so wie er schon einer bei Rocket Lake und bisher Alder Lake war.
Informier dich mal über AVX512 und welche Vorteile soll es den bitte für Games gegenüber AVX2 haben, ich sehe da keine....
Dafür ist es auch nicht konzipiert
Und ja, ne 9 bis 10 Jahre alte CPU kann man langsam tauschen, sorry

 
Haben bei AVX auch viele gesagt und dann wurde es eines Tags Pflicht.
Sry, da muss ich dir jetzt aber widersprechen, AVX ist nicht Plicht! Jedes Game läuft auch mit deaktivierten AVX. AVX kann maximal die FPS verbessern aber sonst gibs keine Nachteile zu Non AVX.
Wirklich?

Soweit ich weiß sind Zocker für Intel nur eine eher unbedeutende Randgruppe.
Ja, das hat Intel irgendwo bei der Vorstellung mal geäußert.
 
Mir ist es im allgemeinen egal, da die Spiele immer irgendwie gut laufen werden.

Aber was ich noch nicht ganz verstanden habe, wird dieses erst mit zukünftige Prozessoren sein? Bedeutet... alle die bereits solch ein Prozessor haben, sind nicht davon betroffen?
 
... im endefekt arbeitet sie mit AVX um einiges Effizienter
1+

Wer auf W10 bleibt und e-cores net nutzt, hat evtl. in Game XYZ was von AVX512.

Die CPU-Käufer der 1. Stunde sollten eigentlich AVX512 noch "drin" haben.
... um die Frage von IICARUS zu beantworten.
PCGH könnte ja mal recherchieren, ob man neuere gefused-te/geblockte CPU´s an Seriennr. erkennen kann.

btw.
Mit AVX512@Multi51x gibts theoretisch ne Grenze, die dann aber mit BCLK-OCen überwunden werden kann.
 

Anhänge

  • AVX512.gif
    AVX512.gif
    31,7 KB · Aufrufe: 33
Zuletzt bearbeitet:
Ich hab gerade ein Flashback, als AVX damals bei einigen Spielen verpflichtend wurde und Spiele bei diversen CPUs beim Start nur eine Fehlermeldung gezeigt haben. Habe es damals live miterlebt, als ich einem Kumpel half seinen Zweit-Rechner in seinem Elternhaus neuaufzsetzen. Er hatte glaube ich einen i7-970 (6C/12T) und einen i5-2500K (4C/4T) zur Verfügung. Da der i7 eine deutlich höherer Multicore- und eine fast identische Singlecore-Leistung hatte, haben wir den i7 eingebaut. Dann wollte er damals irgendein Spiel spielen und es startete nicht, weil der alte i7 kein AVX an Board hatte. Erst ab Sandy-Bridge, also mit dem i5-2500K, hatten die CPUs AVX und wir haben dann tatsächlich diesen einbauen müssen, damit er sein Spiel spielen konnte. Echt bitter. :D

Ich halte es für einen Fehler darauf zu verzichten. Sollten in 3, 4, 5 Jahren doch mal Spiele oder relevante Anwendungen, wider Erwarten, AVX512 benötigen (was ich auch nicht glaube), dann sind die CPUs im Grunde Elektroschrott. Aber naja, ich kann's auch verstehen. Wenn man heute nicht absehen kann, dass das gebraucht wird, dann kann man das auch wegrationieren. Es wird eh erst vermisst, wenn es dann am Ende doch gebraucht wird. Aber das interessiert ja heute keinen. =)

Aber solche Diskussionen sind auch uralt.

 
Ich halte es für einen Fehler darauf zu verzichten. Sollten in 3, 4, 5 Jahren doch mal Spiele oder relevante Anwendungen, wider Erwarten, AVX512 benötigen (was ich auch nicht glaube), dann sind die CPUs im Grunde Elektroschrott. Aber naja, ich kann's auch verstehen. Wenn man heute nicht absehen kann, dass das gebraucht wird, dann kann man das auch wegrationieren. Es wird eh erst vermisst, wenn es dann am Ende doch gebraucht wird. Aber das interessiert ja heute keinen. =)
Warum sollten PC Spiele Entwickler in 4-5 Jahren auf eine Technik setzten die schon vor dann 5 Jahren nicht mehr in CPU´s vorhanden waren? Macht doch keinen Sinn. Sie brauchen auch oft ewig um einen neuen Befehlssatz zu nutzen und noch länger um den vorrauszusetzen. Ich sehe da keine Gefahr.

Ich finde es nur seltsam von Intel neue Funktionen einzuführen und sie ein paar Jahre später ersatzlos wieder rauszuwerfen.
 
Naja, das wird zumindest den Preis am 2. Markt für ADLs der ersten Charge nicht senken.

Da ich ohnehin vorhabe mein Z690 mit einem RL auszustatten freue ich mich über diese Nachricht.
 
Viel Wind um nichts wie schon in den vorherigen Threads zu dem Thema. Syklake-X bietet seit 2017 offiziell AVX512 im Desktop - absolut niemanden interessiert es. Beim kleinen Alder Lake soll es hingegen auf einmal ein Problem sein ... :schief:

Die Relevanz von AVX512 im Desktop lag 2017 bei 0%, sie liegt heute bei 0% und wird auch in 10 Jahren bei 0% liegen. Selbst im Server und HPC Sektor ist es eine Nische weil man solche Aufgaben lieber auf GPUs auslagert weil massiv schneller und effizienter.
 
Zurück