News Instabile Core-CPUs: Intels Werkseinstellungen senken die Leistung um bis zu 11 Prozent [Bericht]

Ich verstehe nicht warum das so scheer zu begreifen ist für viele: Intel und AMD haben KEINE CHANCE einer Einflussnahme (auf technischer Ebene) auf all das bei unlocked CPUs! Wenn Asus da ab Werk 500A reinschreibt statt 300 können die das nicht verhindern! Die Verantwortung dafür liegt zu 100% beim Boardhersteller, NICHT bei Intel!
Moin,

ich glaube das Intel sehr wohl Einfluss hat solche Vorgaben durchzusetzen...
Wenn Asus aus dem Partner-Programm fliegt, ist das wohl nicht so gut.
Nvidia hat es ja auch schon vorgemacht, Intel ist nicht anders...

hier ein altes Beispiel...
 
[..] alles findet seinen Ursprung in irgend einem Prototyp [..]
Die haben für ihre CPUs Development-Boards, das sind schon sehr ausgereifte Prototypen, den Status werden die nie in Masse hergestellten Boards auch nicht verlieren. Am Anfang der Entwicklung wird da vielleicht auch ein Hardware-Fix eingepflegt, allerdings ist das mit den CPUs weniger komplex. Das schwierigste dürfte noch da VRM sein, aber da haben die auch genug erfahrene und fähige Ingenieure. Das bischen Peripherie wiederholt sich oder wird schnell angepasst, alles um PCIe ist Pillepalle. Seicheranbindung kann noch optimiert werden, sagt Intel selbst.

Noch ein Video von der8auer, da gibts ein Dev-Board für die 13. Gen zu sehen:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Ab 8:03 wirds auch sehr interessant, da werden uns ein paar Dinge über die VF-Curve verraten.

Nebenbei bemerkt, das hat mir nicht Roman sondern ein anderer Ingenieur verraten, werden auf sochen Plattformen auch mal Next-Gen Dinge getestet. Also es befindet sich dann auf dem Silizium bereits erste Versionen von zukünftigen Features. Lass es die nächste PCIe Gen sein, irgendwas, das dann später deaktiviert bleibt.

So, und da wird uns auch erklärt, das diese Dev-Boards intern entwickelt werden. Also die Platine, und dann geht das Design an einen Boardpartner, der davon dann wenige Exemplare fertigt. Am Ende dann wieder ein Auftragsfertiger. Klingt alles sehr plausibel und wirtschaftlich sinnvoll.

Bei meinem Coffee-Lake konnte ich auch noch "best case scenario" auswählen, und vor "Fail-Safe" gab es glaube ich sogar noch einen dritten Modus für die VID. Ist aber schon lange her. Da hab ich dann selbstständig die Powerlimits und Ampere-Grenzen überfahren müssen.
Intel hat also schon immer ermittelt, mit solchen Dev-Boards validiert, was die Parameter für die einzelnen Modis sind, von Fail-Safe bist Best-Case.
Ich glaube irgendwie nicht, dass bei der 13. und 14. Gen irgendwas verpasst wurde, also auch das niemand eine AVX2-Last getestet hat. Kann aber sein, das dieses Test-Scenario dann an der Realität vorbei ging, das ist wieder alles internes Betriebsgeheimnis.

Also ob nun die Boardhersteller die Schnapsidee hatten oder Intel hier verschlampt hat auf die Brechstange hinzuweisen, da die Dinger ab Werk schon grenzwertig laufen, wir wissen es nicht. Grundsätzlich liegt das aber in der Verantwortung von Intel selbst.
Das Intel das womöglich sogar forciert hat, nach den Aussagen von @PCGH_Dave würde ich das nicht (mehr) als weitere Möglichkeit betrachten. Sonst hätte man wahrscheinlich nur die guten Siliziumstücke und andere Spezis für ein Review verschickt. Oder einen höheren Standard festgelegt, aber gleich auf "Fail-Safe" zu gehen ist schon sonderbar. Das erhöht die VID, vor zu hohen Spannungen scheint man sich bei Intel also nicht zu fürchten. Das macht doch wieder Laune, und das meine ich tatsächlich positiv.

Für uns Kunden ist das aber nun auch vollkommen egal. Mit den Updates für die UEFIs der Boards muss der Kunde für Instabilität wieder selbst sorgen. Und das man gegen AMD am Rande der Möglichkeiten der eigenen Fabs kämpft, ist ja nix Neues. Hat AMD seit Ryzen gut in die Karten gespielt, und ist hoffentlich bald vorrüber. Sonst ist die Situation wieder weniger vorteilhaft für uns Kunden.
 
Zuletzt bearbeitet:
Heute habe ich einmal das neue UEFI von Gigabyte gecheckt. Bei dem Intel Baseline Profil werden bei einer 14700KF CPU folgende Werte gesetzt:
PL1 = 125 W
PL2 = 188 W
tau = 56s
PL4 = 293 W (neu)

IccMax = 249 A
IA Domain Loadline (AC/DC) = 1.700 / 1.700 mOhm

Interessanterweise gibt es jetzt ein neues Power Level 4, was es zuvor nicht gegeben hat. Die Werte entsprechen ebenfalls nicht dem Datenblatt von Intel. Sind aber sogar noch konservativer angesetzt.

@PCGH_Dave : Hat sich Intel schon bezüglich der Aussage PL1 = 125 Watt gemeldet?
 
Zuletzt bearbeitet:
Heute habe ich einmal das neue UEFI von Gigabyte gecheckt. Bei dem Intel Baseline Profil werden bei einer 14700KF CPU folgende Werte gesetzt:
PL1 = 125 W
PL2 = 188 W
tau = 56s
PL4 = 293 W (neu)

IccMax = 249 A
IA Domain Loadline (AC/DC) = 1.700 / 1.700 mOhm

Interessanterweise gibt es jetzt ein neues Power Level 4, was es zuvor nicht gegeben hat. Die Werte entsprechen ebenfalls nicht dem Datenblatt von Intel. Sind aber sogar noch konservativer angesetzt.

@PCGH_Dave : Hat sich Intel schon bezüglich der Aussage PL1 = 125 Watt gemeldet?
Hast du schon rausfinden können, wann dieses ominöse PL4 greift?
 
Hast du schon rausfinden können, wann dieses ominöse PL4 greift?
Ominös ist nichts daran, Intel nutzt das schon länger:

1714198395176.png


Es reicht ja aus, wenn der Boost für 10 Millisekunden instabil ist, für einen Absturz.
 
Ich hoffe, das Intel zumindest auf der Tonspur ganz deutlich macht, dass BIOSe in den Standard-Einstellungen die Specs einhalten sollen. Und Hersteller, die das nicht einhalten, zumindest kommunikativ anprangert, wenn es schon vertraglich nicht geht.
So wie es jetzt aussieht hattest Du damit recht und ich Unrecht, Intel hat in der Tat die Schuld jetzt zu den Boardpartnern geschoben und verlangt, daß den Kunden zukünftig ein "Default BIOS" zur Verfügung steht, bei dem Abweichungen deutlich gekennzeichnet werden. Finde ich grundsätzlich natürlich gut, allerdings auch ziemlich scheinheilig von Intel, weil sie diese Praxis seit Jahren dulden und oft sogar davon profitiert haben, auch in Ihren eigenen Benchmarks.
Bin sehr gespannt wie zukünftige Tests aussehen, weil nicht wenige Tests die ich gesehen habe bisher mit diesen Optimierungen gelaufen sind. Mal sehen wie das aussieht, wenn die Perfromancekrone jetzt vielleicht ein bißchen öfter zur Konkurrenz geht.
 
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

BÄM.

Gigabyte haut im Baseline einfach mal fast 1,7v in nen 14900K im Singlecore. Das ist ja völlig irre. Klar, technisch gesehen erlaubt Intel 1,72v vCore... aber das sind Spannungen wo der geneignte Nerd seit vielen vielen Jahren erstmal zuckt wenn kein LN2-Topf greifbar ist.
 
Beim Instand 6GHz sind es mit meinem 13700KF knappe 1.5V, da reichen aber auch 1.35V für.
Was allerdings ist, das bei Default, also quasi offenen PowerLimit, die Vcore trotzdem nicht über 1.35V geht, also sich der Singleboost für seine 5,4GHz dort nicht mehr nimmt und im Allcore bei 1.236V liegt.
 
Das ist ja völlig irre. Klar, technisch gesehen erlaubt Intel 1,72v vCore...
Kommt drauf an, wie irre die Spec ist. Im Video sieht man ja, dass die hohe Spannung nur bei geringer Last anliegt.

Da man sich bei Intel nicht auf die Fertigung verlassen konnte, hat man dort ja schon seit längerer Zeit auf höhere Spannungen optimiert. Tatsächlich ist diese maximale Spannung über die Jahre deutlich angestiegen.
Wie hoch das für einen Intel-Core, und nicht der gesamte Chip wird mit dieser Spannung laufen, also wie sich das auswirkt und wie hart das an der Grenze der Physik arbeitet, kann ich nicht beurteilen.

Aber macht doch Laune. Da bekommt der Ausdruck "Fail Safe" mal eine ganz neue Bedeutung bezüglich der Vcore. :D
 
Die Kurzfassung ist:
Intel sagt Herstellern wie Asus nicht konsequent genug, was Spezifikation ist.
Hersteller wie Asus haben eine eigene Vorstellung davon, was Spezifikation ist.
Intel sagt Herstellern wie Asus, dass sie eine Fail-Safe-Option anbieten müssen.
Intel sagt dagegen PCGH aber genauer, was Spezifikation ist.
PCGH testet CPUs also nach Intel Spezifikation.
User findet nun heraus, dass die Spezifikation anders ist, als PCGH sagt.
PCGH sagt, Intel hat das aber PCGH so gesagt.
Jetzt fragen wir Intel, was sie dazu sagen, was der User gesagt hat.
Torsten schlägt derweil vor, einfach alle CPUs ohne Limit zu testen, aka "macht doch, was ihr wollt!".
Ich sage, können wir nicht bringen, weil wir die Spezifikation schon seit etlichen Jahren predigen.
Und ihr wundert euch dann, warum ich nicht dazu komme, 800 CPUs in Manor Lords zu testen :ugly:

Selbst wenn ich zahlendes Mitglied wäre, würde ich sagen drauf geschi***... Ich bin mal so frei:

Wünschenswert wäre, wenn mit dem Begriff Test nicht derart inflationär umgegangen wird. Denn ein Test, der dem auch tatsächlich gereicht wird, sollte auch Langzeitstabilität nicht außer Acht lassen.

Und soweit ich das mitbekommen habe, berufen sich die jeweiligen Mainboard-Hersteller auf unterschiedliche Vorgaben. Wie zum Teufel soll dem Rechnung getragen werden? Mal abgesehen davon, dass im späteren Verlauf die ein oder andere Sicherheitslücke gestopft wird, die vorangegangenen Messungen wieder obsolet machen.

Das Dilemma an sich ist doch insbesondere solchen Testberichten geschuldet, weil es gilt, stets den längsten Balken sein Eigen zu nennen. Dummerweise läuft's jetzt mal andersherum, denn aktuell wünscht das Gro bzw. der jeweilige Eigner zu wissen, welche Abstriche er zukünftig hinzunehmen hat.


Erinnerst du dich an unsere Diskussion, hinsichtlich des längeren Balkens 5900X vs 7700? Mir persönlich ist es völlig Wurscht, ob nun der 5900X oder der 7700 im Gesamten vorn liegt, denn a: ist dies eine Frage der jeweiligen Anwendungen und b: ist es aus meiner Sicht nicht von Belang, ob nun der eine oder andere Proband 4 Sek. länger zum Rendern benötigt. Haltbarkeit hingegen sowie Stabilität ist für mich durchaus von Belang.

Wollt ihr beiden euch wirklich die Bürde auferlegen, der holden Community, bzw. den jeweiligen Eignern unter die Nase zu reiben, mit welchen Abstrichen sie zukünftig zu rechnen haben? Oder anders formuliert: Wäre nicht angebracht, ein gänzlich anderes Fazit aus der Geschichte zu ziehen, statt sich als Schildbürger zu opfern? Warum nicht Vorgaben zu erarbeiten, die auch zukünftig einen stabilen Betrieb ermöglichen, statt erneut auf Balkenjagt zu gehen?

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

BÄM.

Gigabyte haut im Baseline einfach mal fast 1,7v in nen 14900K im Singlecore. Das ist ja völlig irre. Klar, technisch gesehen erlaubt Intel 1,72v vCore... aber das sind Spannungen wo der geneignte Nerd seit vielen vielen Jahren erstmal zuckt wenn kein LN2-Topf greifbar ist.

Das 3DCenter hat sich u. a. dem gewidmet, wenn auch in Kurzform bzw. als Text, was ich persönlich bevorzuge.

Quelle: 3Dcenter/News des News des 30. April 2024

mit frdl. Gruß
 
Zuletzt bearbeitet:
Zurück