News Core Ultra 9 285K im V-Ray-Benchmark: Intel lässt die Vergangenheit hinter sich

Warten wir mal die Tests ab. Wenn das am ende mit 300W ist, dann ist das keine Kunst mehr sondern Brechstange.

Ja, Intel bietet gute Leistung, aber im Vergleich zum Verbrauch sind die eine Katastrophe bis jetzt.
Das wird besser, aber immer noch nicht AMD Niveau und das obwohl man den besseren TSMC Prozess verwendet.

Sollte Intel tatsächlich nochmal größere Schritte machen, wird das nicht vor Nova Lake passieren. Und auch da würde ich keine großartigen Sprünge erwarten wie damals bei Core 2.
Das Problem ist einfach: ja, man kann noch deultich mehr IPC rausholen, auch aus x86, das Märchen von ARM sei besser und effizienter ist ja mehrfach wiederlegt. Aber das Problem ist, dass eine neue CPU nicht einfach aus dem Boden gestampft wird. Sie wird immer designed mit Rücksicht auf: was funktioniert bereits, wie schaut aktuelle Software aus usw. Daher gibts keine komplett von Grundauf neue Architekturen, sondern eben nur deutliche weiterentwicklungen, aber mit Rücksicht auf dem was schon funktioniert und welche Software "da draußen" ist.
Würde man einfach nur auf maximale IPC hin entwickeln und ignorierne was "da draußen" ist, hat man das Problem, dass weder die Software, noch die Compiler drauf angepasst sind - und du hast dann das Problem, dass fast alles was (bei richtiger Ausnutzung der Architektur, Compiler etc) schneller laufen könnte, LANGSAMER läuft die ersten paar Jahre bis die Software aufholt.
Nur kann sich niemand im heutigen Umfeld eine CPU erlauben, die langsamer läuft als der Vorgänger obwohl viel Potential in der Architektur ist, dass sie dann noch schneller wird (siehe Zen 5 und wie schwer der Start war)
 
Zuletzt bearbeitet:
Nein? Die Intel liegen je nach Anwendung bei 100-200% mehr Verbrauch.

Der 14900K Brauch beim zocken mehr als das doppelte zum 7800x3D und ist langsamer. Auch zum 7950X braucht der 14900K gut das doppelte.

Nur Idle sind die Intel gut, aber sonst? Katastrophe.
"Nur" im Idle ist gut. Im Datacenter mag das wenig von Bedeutung sein, aber die meisten PCs sind zu 99% im Idle, Zocker PCs vielleicht etwas weniger. Oder glaubst du, dass beim Günther in der Verwaltung das im Hintergrund laufende Solitaire die CPU auslastet?

Für Zocker natürlich weniger relevant, aber schönreden sollte man sich den Idle Energieverbrauch von Ryzen auch nicht. In diesem Punkt sieht man, dass der Chiplet Ansatz mit HPC Wurzeln nicht nur Vorteile hat.

Würde man einfach nur auf maximale IPC hin entwickeln und ignorierne was "da draußen" ist, hat man das Problem, dass weder die Software, noch die Compiler drauf angepasst sind - und du hast dann das Problem, dass fast alles was (bei richtiger Ausnutzung der Architektur, Compiler etc) schneller laufen könnte, LANGSAMER läuft die ersten paar Jahre bis die Software aufholt.
Nur kann sich niemand im heutigen Umfeld eine CPU erlauben, die langsamer läuft als der Vorgänger obwohl viel Potential in der Architektur ist, dass sie dann noch schneller wird (siehe Zen 5 und wie schwer der Start war)
Im Consumer Bereich mag das stimmen, aber im HPC/Datacenter Bereich ist das nicht richtig, denn unoptimierte Software heißt da Geld zum Fenster rauszuwerfen. Deswegen wird die Software regelmäßig auf den neuen Unterbau optimiert, im Fall von Intel oft sogar mit dem Compiler vom Hersteller selbst.

Blöderweise ist Single-Core Performance im HPC Bereich halt längst nicht so wichtig wie auf dem Desktop, und wird wenn nötig der Packungsdichte und Effizienz geopfert.
 
"Nur" im Idle ist gut. Im Datacenter mag das wenig von Bedeutung sein, aber die meisten PCs sind zu 99% im Idle, Zocker PCs vielleicht etwas weniger. Oder glaubst du, dass beim Günther in der Verwaltung das im Hintergrund laufende Solitaire die CPU auslastet?

Für Zocker natürlich weniger relevant, aber schönreden sollte man sich den Idle Energieverbrauch von Ryzen auch nicht. In diesem Punkt sieht man, dass der Chiplet Ansatz mit HPC Wurzeln nicht nur Vorteile hat.


Im Consumer Bereich mag das stimmen, aber im HPC/Datacenter Bereich ist das nicht richtig, denn unoptimierte Software heißt da Geld zum Fenster rauszuwerfen. Deswegen wird die Software regelmäßig auf den neuen Unterbau optimiert, im Fall von Intel oft sogar mit dem Compiler vom Hersteller selbst.

Blöderweise ist Single-Core Performance im HPC Bereich halt längst nicht so wichtig wie auf dem Desktop, und wird wenn nötig der Packungsdichte und Effizienz geopfert.
der günther in der verwaltung braucht sicherlich keine high end cpu
 
Der Intel ist nicht so stark bei AVX512, dafür macht er bei allem anderen kurzen Prozess. :daumen:
Seit wann nutzt der V-Ray denn AVX512?

Sehe ich nicht so, die Effizienz war bei Zen 4 vs Raptor nur 10-15% höher.
??? Wo hast du denn das her? Ab einer gewissen Teillast (die im niedrigen Bereich liegt) zieht Zen 4 schon uneinholbar davon, Zen 5 ist dahingehend nochmals deutlich besser aufgestellt (was auch mit den niedrigeren TDPs der unteren Klassen zu tun hat.

Also 24 Kerne kommen gegen 16 Kerne nicht an. Freu mich schon auf PCGH benchmarks.
Das Problem ist doch, so einfach ist diese Welt nicht mehr.

Es treffen 16 große Kerne mit SMT auf 8 große und 16 kleine Kerne allesamt ohne HT/SMT. SMT bietet ca. 30% Performanceplus auf Kosten von Waferfläche und Sicherheit. Insofern ist diese Aussage in meinen Augen nicht zielführend. Ein Vergleich der Effizienz wäre denkbar, also 150W liefern Leistung X dort und Leistung Y drüben, ebenso wäre ggfls. ein Vergleich der Waferfläche denkbar, aber hier muss man schon wieder berücksichtigen, dass N3 gegen N4 antritt. Also auch schwierig.

Die Gesamtleistung kann heute durch die Hersteller relativ gut skaliert werden, im Desktop kommt es aber auf andere Sachen als V-Ray an, da kann so ein synthethischer Bench eben nur einen Rahmen stecken, nicht mehr und nicht weniger. Bspw. könnte AMD recht entspannt 32 Kerne in den Desktop bringen und würde in den meisten MC Benches das Feld absolut dominieren.

Na erstmal abwarten. Der Prozessor ist bisher nicht veröffentlicht und es gibt soweit ich weiß auch noch keine angepassten Board-Treiber, oder?
Da es ein neues Board, ein neuer Chipsatz ist, wird es wohl schon Treiber geben. Die werden exklusiv für AL entwickelt und daher kann diese Aussage so nicht stehen bleiben.

Ich verstehe den folgenden Satz nicht:
"Angesichts der geringeren Threadzahl von 24 zu 32 zwischen Arrow und Raptor Lake sollte dies ein passables Ergebnis im Multithread-Test von V-Ray 6 sein."
s.o.
Sehe ich genau so, wo fangen wir an, wo hören wir auf? Am Ende hat AMD eine Entscheidung aus Gründen getroffen "nur" 16 Kerne, dafür P-Cores mit SMT anzubieten, genauso wie Intel eine Entscheidung aus Gründen getroffen hat, 8P,16E ohne HT/SMT anzubieten. Das man auf der einen Seite Leistung verliert ist doch klar, aber auf Grund des geringeren Energieverbrauchs durch fehlendes HT wird Intel eben auch mehr Leistung generieren können, da mehr Powerlimit für den Haupttask zur Verfügung steht. Also Milchmädchenrechnung, ohne Sinn dieser Satz.

Der Satz müsste also heißen:
->Trotz 8 Kernen mehr kommt Intel nicht an AMD heran. Alles Andere macht logisch gesehen überhaupt keinen Sinn.
Halte ich auch für falsch, da Intel eben einfach einen anderen Weg geht als AMD, beide werden Gründe dafür haben und wir müssen nur den Output bewerten.
Oder man geht direkt noch einen Schritt weiter und ignoriert Alles und vergleicht einfach die Leistung, die Kosten und die Effizienz.
:daumen:

Nach den eher ernüchternden News der letzten Monate hinsichtlich fehlendem HT und niedrigerem Boost zeigen die ersten Cine-/Geek- und V-Ray Werte tendenziell in die richtige Richtung.
Ich weiß nicht, welches Bild du dir gemacht hattest; aber letztlich treffen die in den letzten Monaten gewagten und zu prognostizierenden Thesen allesamt ziemlich gut zu. Klar, man kann nicht auf 10% genau schätzen, aber das die SC Leistung nur mäßig steigt war abzusehen, weniger Takt, mehr IPC verrechnen sich und damit kommt man auf den einstelligen Zugewinn. MC war deutlich spannender, da die E-Cores massiv ausgebaut wurden und eben an einigen Stellen über 60% IPC Gewinn haben sollen. Dafür fehlt HT, was widerum tendenziell Leistung kostet. Alles in allem hat man hier mit einem Zugewinn gerechnet (zumindest hatte ich hier immer 15-20% geschätzt; was scheinbar ganz gut hinkommt).


Ohne OC/UV komm ich schon auf 42777 mit meinem 7950X. Mich beeindruckt das Ergebnis für eine 2 Jahre jüngere CPU nicht besonders.
Aktuell gehe ich noch davon aus, dass V-Ray kein AVX512 nutzt, aber dann ist eben genau dies das Problem von Intel. Man kommt mit einer frischen Architektur und einer sehr sehr guten Fertigung (seit langem erstmals besser als AMD) nicht so wirklich vom Fleck.

Genau so ist es: neue Plattform samt Fehlerchen und dann "nur" normale Mehrleistung, die im oberen Bereich nicht umhaut. Interessanter werden vllt noch die kleinen Modelle, aber in der Summe wartet dann doch jeder (wie bei AMDs 9000er Serie) auf bessere Vorstellungen wie den 9800x3D oder gar 9950x3D.
Also bis auf die neue Plattform eigentlich der Zen 5 Release?

Es wird sogar wieder eine KS version geben welche 5,9GHZ mit Boost schafft, also mit den P-Kernen.
Warten wir mal ab.

Ich kann auf die ganzen "E-cores" verzichten, und hätte Lieber ein 16 Kerner ganz nur mit P-cores.
Das fordere ich seit Alder Lake für den Desktop!

Reine Rohleistung im Single Core ist sogar jetzt schon ohne passenden Treiber echt hoch.
Paradedisziplin von Intel, dazu frage ich mich was hier im Thread die Problemstellung "Treiber" immer soll? AMD hat ggfls. ein paar Performanceprobleme mit Zen 5 gehabt, was aber so in der Art auch selten vorkam in der Geschichte der CPUs. Denn Treiberseitig gibt es da eigentlich nichts großes zu tun, der Scheduler (hat nix mit einem Treiber zu tun) war in den letzten Jahren immer mal ein kleineres Problemchen, aber eigentlich eher bei AMD denn bei Intel. Ansonsten ist es in den letzten 10 Jahren immer so gewesen, dass die CPUs merklich Leistung verloren haben über die Zeit; dafür sorgen dann die ganzen Sicherheitspatches im Microcode, die hier und dort Leistung kosten.
Das wird besser, aber immer noch nicht AMD Niveau und das obwohl man den besseren TSMC Prozess verwendet.
Woher weißt du?

Und auch da würde ich keine großartigen Sprünge erwarten wie damals bei Core 2.
Wieso nicht?

AMD hat es anno 2017 auch geschafft!

Wer weiß was bei Intel so alles im Keller gewerkelt wird (oder auch bei AMD); aber das die rumsitzen und sich keine Sachen einfallen lassen sollte man beiden Herstellern nicht unterstellen. Klar kann eine grundlegende Umstellung der Arch ein Risiko sein, allerdings war Intel in den letzten Jahren liquide genug um eben dies zu erforschen. Evtl. kommt noch was in dieser Richtung und am Ende wird es ja auch Zeit. Die neuen Techniken zur Fertigung sind ebenfalls ein wichtiger Schritt und werden sukzessive Leistung bringen, teilweise vermutlich auch mit echten Sprüngen.

"Nur" im Idle ist gut. Im Datacenter mag das wenig von Bedeutung sein, aber die meisten PCs sind zu 99% im Idle, Zocker PCs vielleicht etwas weniger. Oder glaubst du, dass beim Günther in der Verwaltung das im Hintergrund laufende Solitaire die CPU auslastet?
Wenn dein PC zu 99% im Idle ist, dann machst du was falsch! Ich hab es im Bürorechner mal geloggt und man ist überascht, wieviel Arbeit so ein Ding im Büro dann eben doch macht (22% Idle, 48% zwischen 25 und 75% Last und 30% sogar über 75% Last) und das wird wohl der Usecase mit dem höchsten Idle Anteil sein.
Wenn ich einen 99%igen Idle Anteil habe, kann ich von AMD bspw. auch die Monolithen nehmen, denn die bietet AMD als APU ja durchaus auch an.

aber im HPC/Datacenter Bereich ist das nicht richtig
kommt aber stark auf den Hersteller der Software an.
 
"Nur" im Idle ist gut. Im Datacenter mag das wenig von Bedeutung sein, aber die meisten PCs sind zu 99% im Idle, Zocker PCs vielleicht etwas weniger.
Hast du da auch mal das Verhältniss berücksichtigt?

Von wenig Verbrauch...noch etwas weniger sparen? Im Gegensatz zu Extrem hoher Verbrauch, deutlich weniger verbrauchen.

Wäre mal interessant wieviel eine Stunde Volllast AMD/INTEL im Idel wäre, vielleicht müsste ich dafür 100 Stunden Idle haben. :ugly:
 
Na erstmal abwarten. Der Prozessor ist bisher nicht veröffentlicht und es gibt soweit ich weiß auch noch keine angepassten Board-Treiber, oder?
"Da es ein neues Board, ein neuer Chipsatz ist, wird es wohl schon Treiber geben. Die werden exklusiv für AL entwickelt und daher kann diese Aussage so nicht stehen bleiben."

DOCH natürlich kann die Aussage genauso stehen bleiben. Was soll der Blödsinn? Icg beurteile Produkte erst nach deren Veröffentlichung. Etwas mehr Seriösität ist wohl angebracht.
 
Das bedeutet aber auch, dass ich da einige Cashback Aktionen kommen sehe, weil sie kaum was loswerden. Wobei sich Intel kaum Nachlässe leisten kann.
ja nur wenn sie garnix mehr los werden kann sich Intel ebenso nicht leisten. Was wohl besser ist garnix los werden dafür teuer oder viel los werden aber nur dank massiver Rabatte. denke mal das letzte wird dennoch besser sein als das erste. Wobei bei den teuren Variante intel bei den Intel fanboys ebenso was los werden wird aber halt nicht so viel.
 
Im Consumer Bereich mag das stimmen, aber im HPC/Datacenter Bereich ist das nicht richtig, denn unoptimierte Software heißt da Geld zum Fenster rauszuwerfen. Deswegen wird die Software regelmäßig auf den neuen Unterbau optimiert, im Fall von Intel oft sogar mit dem Compiler vom Hersteller selbst.

Blöderweise ist Single-Core Performance im HPC Bereich halt längst nicht so wichtig wie auf dem Desktop, und wird wenn nötig der Packungsdichte und Effizienz geopfert.
Das ist richtig, ich hätte wohl dazuschreiben sollen, dass ich mich hier auf den Consumerbereich beziehe.
Ob es sich auszahlt für den HPC Bereich eigene Architekturen zu entwickeln, oder ob man hier mit "Spezialhardware"(Pente Veccio Nachfolger, Gaudi 3 etc) besser die Lücken stopft, kann ich nicht einschätzen, bin ich momentan nicht belesen
 
Sehe ich nicht so, die Effizienz war bei Zen 4 vs Raptor nur 10-15% höher.
Mit dem besseren Idle Verbrauch war das insgesamt vernachlässigbar.
Zen 4 ist gerne mal bis um den Faktor 2 -3, im Bestfall sogar bis zu 5x besser als der hitzigste Raptor.
Das war natürlich noch vor dem Microcode pi pa po Doppel-Skandal.
Mit Bremse ist es schon viel besser, aber immer noch weit von gut und sparsam wie AMD.
Die Extreme hat man natürlich auch nicht dauernd anliegen.
Ein erhöhter Strombedarf ist aber nicht abzuweisen.
Wo kommen deine 10-15% Differenz eigentlich her?
Meinest du jetzt genau ein Programm?
Sich das alles mit Idle schönzureden ist übrigens Nonesense.
Es wird gearbeitet oder gespielt, oder zumindest Teillast beim Surfen und Vidoes schauen erzeugt.
Wer den Rechner absichtlich die meiste Zeit nur rumstehen lässt, ohne den PC zu nutzen, der macht grundlegend irgendetwas beim Energiehaushalt falsch.
Man kann Rechner auch schon mal nur für 20-30 Minuten ganz ausstellen, wenn man essen, duschen, oder nochmal kurz einkaufen geht.
Dauert keine 30 Sekunden, und bis ich sitze und evtl. noch was ins Glas gegossen habe, läuft alles wieder.
 
Zuletzt bearbeitet:
@Mephisto_xD
vom Beitrag 23
Nun apropo unoptimierte Software. Man kann selbst keine schreiben und wenn es eine unoptimierte bleibt, dann gibt es keine echte mehrleistung mehr oder sehe ich das falsch?
und es gibt auch Software die geht optimiert in die andere Richtung. Wie sieht es da dann aus?
in meinem Fall ist der 6 Kerner nicht mehr so weit weg zu den 16 Kernen.
Wenn das stimmt ist der 6 Kerner zum 16 kerner nur noch 24 % leistungsunterschied. Also sprich der 16 Kerner ist um 24 % schneller als ein 6 Kerner. Wie sähe da dann durch die Aussage die Meinung aus?
Wenn erst dank Zen 5 weniger Kerner dank der massiven breite an Leistung massiv steigern und die 12 und 16 kerner an der gleichen Stelle treten. Das ist die andere Art der Steigerung. Man kann sich dann fragen, was ist da denn schief gelaufen. Bei 100% auslastung der CPU, profitieren die mit weniger Kerner deutlich mehr als die mit mehr Kernen. Das ist interessante Entwicklung, was soll ich davon denn halten. Ich finde es jedenfall sehr interessant die Entwicklung. meinst du nicht auch?
 
DOCH natürlich kann die Aussage genauso stehen bleiben. Was soll der Blödsinn? Icg beurteile Produkte erst nach deren Veröffentlichung. Etwas mehr Seriösität ist wohl angebracht.
Nö!

Gerne kannst du die Produkte nach Release beurteilen, absolut gerechtfertig. Aber "es gibt noch keine angepassten Treiber" ist falsch und kann nicht so stehen bleiben.

Man kann Rechner auch schon mal nur für 20-30 Minuten ganz ausstellen, wenn man essen, duschen, oder nochmal kurz einkaufen geht.
Einfacher gehts nimmer, 5Min und das Ding geht in den Ruhezustand, dauert keine 2 Sekunden bis er wieder reagiert! Passworteingabe kann nervig sein, aber die kann man im Zweifel ja sogar ausstellen!
 
x86-CPUs laufen ohne Treiber (wie sollte Windows den auch laden, vor Nutzung der CPU?) und V-Ray nutzt die IGP nicht, von daher wäre die Aussage "es gibt keine angepassten Treiber" selbst nach Launch dauerhaft richtig.

Spannender ist genau deswegen aber auch die Frage nach finaler Firmware und dem Zustand CPU-naher Windows-Routinen. Bei Ryzen 9000 wäre man diesbezüglich froh, wenn bald 5 Monate nach der Vorstellung endlich mal so etwas wie ein fertiges Produkt testen zu können und bei Arrow Lake gibt es noch keine offiziellen Aussagen, was da genau überhaupt kommt, aber schon die ersten störenden Windows-Bugs. :-/
 
Zuletzt bearbeitet:
@Mephisto_xD
vom Beitrag 23
Nun apropo unoptimierte Software. Man kann selbst keine schreiben und wenn es eine unoptimierte bleibt, dann gibt es keine echte mehrleistung mehr oder sehe ich das falsch?
und es gibt auch Software die geht optimiert in die andere Richtung. Wie sieht es da dann aus?
in meinem Fall ist der 6 Kerner nicht mehr so weit weg zu den 16 Kernen.
Wenn das stimmt ist der 6 Kerner zum 16 kerner nur noch 24 % leistungsunterschied. Also sprich der 16 Kerner ist um 24 % schneller als ein 6 Kerner. Wie sähe da dann durch die Aussage die Meinung aus?
Wenn erst dank Zen 5 weniger Kerner dank der massiven breite an Leistung massiv steigern und die 12 und 16 kerner an der gleichen Stelle treten. Das ist die andere Art der Steigerung. Man kann sich dann fragen, was ist da denn schief gelaufen. Bei 100% auslastung der CPU, profitieren die mit weniger Kerner deutlich mehr als die mit mehr Kernen. Das ist interessante Entwicklung, was soll ich davon denn halten. Ich finde es jedenfall sehr interessant die Entwicklung. meinst du nicht auch?
Keine Ahnung was du sagen willst, aber ja, unoptimierte Software profitiert weniger von neuen Rechenwerken als Software, die auf jene angepasst wird. Der Punkt ist halt, dass im HPC Bereich die Optimierung zum guten Ton gehört. Denn da geht es nicht nur 24% oder 50%, sondern um Größenordnungen, und Rechenzeit auf einem Cluster kostet reales Geld.
Das ist richtig, ich hätte wohl dazuschreiben sollen, dass ich mich hier auf den Consumerbereich beziehe.
Ob es sich auszahlt für den HPC Bereich eigene Architekturen zu entwickeln, oder ob man hier mit "Spezialhardware"(Pente Veccio Nachfolger, Gaudi 3 etc) besser die Lücken stopft, kann ich nicht einschätzen, bin ich momentan nicht belesen
Ist kein richtiges "entweder-oder", sondern ein Spektrum. Viele HPC Anwendungen brauchen immer noch CPUs, denn nur die haben schnellen Zugriff auf größere Mengen Hauptspeicher und können lange komplexere Programme abarbeiten. Ein gutes Beispiel dafür sind Kernstrukturrechnungen. Dann gibt es Anwendungen die etwas weniger komplex sind und sich besser zerstückeln lassen, bei denen dann GPUs glänzen können. Und für extrem spezielle Anwendungen gibt es dann eben auch spezielle Chips.

Ich sehe aber nicht, warum eine neue Mikroarchitektur nicht erfolgreich sein sollte. Alle mir bekannten HPC Anwendungen liegen dem Anwender als Source code vor, d.h. wenn der Prozessorhersteller vor Release ordentlich gängige Compiler (aka GCC) optimiert, sollte es wenig Probleme geben.
 
Ich sehe aber nicht, warum eine neue Mikroarchitektur nicht erfolgreich sein sollte. Alle mir bekannten HPC Anwendungen liegen dem Anwender als Source code vor, d.h. wenn der Prozessorhersteller vor Release ordentlich gängige Compiler (aka GCC) optimiert, sollte es wenig Probleme geben.
Dazu übrigens ein Zitat von Phoronix, die den heute releasten Xeon testen:
As far as the Linux support goes for Intel Xeon 6 Granite Rapids, it is in great shape as we've come to expect and love over the years. Intel does a stellar job ensuring all of the necessary support is upstream in the Linux kernel and related components well ahead of launch. I continue to be impressed by Intel's timely upstream enabling of new hardware support and equally as important is all the work they continue investing into many open-source projects for ensuring optimal performance. The most stark difference in the AMD vs. Intel software support approach continues to be around the compilers... Intel began working on AMX-FP16 for the compilers in late 2022, Granite Rapids GCC support came in November 2022, and followed by the LLVM Clang target. Meanwhile AMD only added Zen 5 (znver5) support to GCC earlier in the year and literally just days ago to the LLVM/Clang compiler. For these competing server processors launching at roughly the same time, Intel had their GCC and LLVM/Clang support upstreamed nearly two years prior. This is important with GCC issuing new feature releases annual and LLVM on a half-year regiment while Linux distributions also are typically conservative in moving to new compiler releases (e.g. only Ubuntu 24.10 seeing GCC 14). In turn this allows Intel Granite Rapids HPC customers and others seeking optimized compiler support with "-march=graniterapids" to comfortable use the LLVM/Clang and GCC compilers found out-of-the-box in Ubuntu 24.04 LTS and other modern Linux distributions. AMD znver5 targeting won't enjoy that same level of out-of-the-box compiler support in Linux distributions now until beginning to hit more 2025 Linux distributions.

 
Keine Ahnung was du sagen willst, aber ja, unoptimierte Software profitiert weniger von neuen Rechenwerken als Software, die auf jene angepasst wird. Der Punkt ist halt, dass im HPC Bereich die Optimierung zum guten Ton gehört. Denn da geht es nicht nur 24% oder 50%, sondern um Größenordnungen, und Rechenzeit auf einem Cluster kostet reales Geld.
Ja meinte ob ne unoptimierte Software selbst unter diesen bedingung von wenigen Kernen die breiter gebraut werden Profitieren kann,auch wenn da bei der Software nix mehr passiert ist.
 
Warten wir mal die Tests ab. Wenn das am ende mit 300W ist, dann ist das keine Kunst mehr sondern Brechstange.

Ja, Intel bietet gute Leistung, aber im Vergleich zum Verbrauch sind die eine Katastrophe bis jetzt.
Ausser im Idle. Aber da macht es kaum einen Unterschied ob die CPU jetzt 10W mehr verbraucht oder nicht.
Wenig bleibt wenig!
Ok. Bei Laptop CPUs ist das was anderes. Da kommt es auf jedes Watt an.
 
Paradedisziplin von Intel, dazu frage ich mich was hier im Thread die Problemstellung "Treiber" immer soll? AMD hat ggfls. ein paar Performanceprobleme mit Zen 5 gehabt, was aber so in der Art auch selten vorkam in der Geschichte der CPUs. Denn Treiberseitig gibt es da eigentlich nichts großes zu tun, der Scheduler (hat nix mit einem Treiber zu tun) war in den letzten Jahren immer mal ein kleineres Problemchen, aber eigentlich eher bei AMD denn bei Intel. Ansonsten ist es in den letzten 10 Jahren immer so gewesen, dass die CPUs merklich Leistung verloren haben über die Zeit; dafür sorgen dann die ganzen Sicherheitspatches im Microcode, die hier und dort Leistung kosten.

Woher weißt du

DOCH!
Das ist sogar erst recht Heut zu Tage eine Riesen Sache! (Aber kein Problem sondern eher ein nötiger Prozess)

Wenn ein neues Spiel erscheint, wird dann ja auch dafür vom Grafikkarten Entwickler ein neuer Treiber dafür released.
Und man kann nich weiter gehen: Das spiel selber muss auch optimiert werden sonst käuft es wie misst, hat FPS drops, frisst ungebraucht übermässig recourcen ect.

Du kannst ja auch kein Roboter in eine Firma schicken, ohne den vorher Programmiert und Optimiert zu haben. Sonst funktioniert er entweder nicht und tut nicht was Er soll, oder Er ist uktra ineffizient.
 
Wenn ein neues Spiel erscheint, wird dann ja auch dafür vom Grafikkarten Entwickler ein neuer Treiber dafür released.
Moment, ich muss meine Aussage ein Stück weit revidieren, da ich blöderweise nur in Richtung CPU Leistung gedacht habe. Diese ist wenig abhängig von irgendwelchen Treibern, sondern eher relevant vom Microcode; dieser wird aber schon ziemlich sicher Releasestatus haben.

GPU Seitig kann da noch Leistung kommen, soweit habe ich nicht gedacht. Sorry.
Dazu übrigens ein Zitat von Phoronix, die den heute releasten Xeon testen:
Wie findet ihr das Ergebnis der Xeons?

Man schlägt mit 500W eine 400W CPU, mit 128 Kernen und 256 Threads eine 96 Kern CPU mit 192 Threads, gerade mal mit 11%, obwohl hier 25% mehr Powerlimit (wobei ich bei Heise bspw. gesehen habe, dass der AMD nur mit 360W konfiguriert ist; dann hätte man 38,88% mehr Strom am Intel) anliegen und 33% mehr Kerne? Dazu sollte Intel 3 ja nicht weit von TSMCs N5 entfernt sein; für mich alles in allem kein sonderlich herausragendes Ergebnis. Dazu kommen ja noch sehr sehr teure Features wie MRDIMMs mit 8800MT/s. Einzigen sinnvollen Einsatz sehe ich gegen AMDs Zen 4 Riege schon im AI Bereich wo man in INT8 Berechnungen natürlich hoffnungslos weit in Front ist. Fraglich halt, ob so etwas nicht günstiger und schneller auf GPU Seite geht? Mit 6400er normalem DDR wird man vermutlich auf Zen 4 Niveau zurückfallen (11% sind eben nicht viel).

Für mich sieht es aktuell auch im Serverbereich nach Brechstange aus, 500W, viele Kerne, teure Features um in Schlagdistanz zu AMDs Systemen zu kommen. Wenn Zen 5 seine Stärken (höhere Effizienz in niedrigen Taktraten) aus dem Desktop in den Server transportiert, dazu 128 Kerne (volle Zen 5 Kerne) kommen, 192 Zen5c Kerne dann wüsste ich kein realistisches Szenario in dem Intel auch nur den Hauch einer Chance hat, außer INT8!
 
Zuletzt bearbeitet:
Naja nur in einer Disziplin vorne zu sein reicht eben nicht aus um sich abzusetzen. Das ist wie sich an einen Strohhalm klammern, in der Hoffnung das alles gut gehen wird.
Mit so ner Schwachen Vorstellung wird Intel nicht viel bewegen können. Aber gut die bei Intel werden schon sehen was so gehen wird.
 
Zurück