Zen 3: 20% mehr Integer-Leistung im Vergleich zu Zen 2?

@Casurin
Vielleicht hat er einfach mehr Ahnung bzw. sieht mehr als Leute die nur paar Bits und paar Register zusammenzählen können? Findst du das mit Foundation und CD und PF und BW etwa schön? Und daß es alleine für diesen Müll eine ganze Roadmap :) gab/gibt?
Weißt du, daß man im "Kompilat" Code teilweise nicht erkennen kann obs jetzt AVX-2 oder AVX-512 verarbeitet wird?

p.s.:
Hier das gleiche auf Deutsch, falls es doch zu schwierig war
Scharfe Kritik an Intel AVX 512 | ZDNet.de
 
Warum soll ich nochmal AVX 512 im Desktop abschalten? Weil der Takt soweit einbricht, daß dann sogar weniger Leistung als normal da ist? Und wie kann man AVX 512 im Bios CPU abschalten? Fragen über Fragen und für mich einfach nur Blödsinn.
Wenn ein Programm AVX 512 nutzt, wäre es doch eher unsinnig diese Leistung nicht zu nutzen.
 
Sorry, im Gegensatz zu dir verstehe ich worum es geht und warum er sich aufgeregt hat
Ja gut, das sagst du jetzt halt einfach so salopp. Dem keinen Glauben zu schenken fällt jedenfalls nicht schwer...

@DaHell63
Ich denke kleinwenig Demut wäre sinnvoller. Z.B. sich selbst zugestehen, daß man die Hintergründe nicht so wirklich blickt und erstmal einfach nur weiter lauschen.

Nebenbei: Wenn Torvald mal Hasskappe hat und wir sollten das abschalten meint, dann meint er bestimmt nicht dich oder mich. Auch wenn ich mir wenigstens ab und zu die Mühe mache nachzuschauen um was es überhaupt wirklich geht.
Dein Unveständnis angesichts der dafür fehlender Biosoptionen ist daher nicht angebracht ;)

Casurin versuchte wieder einmal etwas zu implizieren (es muss wohl ein Taschenbuch von "Die Kunst der Implizierung" geben) aber um "AVX(2/512)" ging es überhaupt nicht. Auch AVX (-1) hat keiner kritisiert. Torvald schrieb gar, AVX-2 ist ist mehr als genug.
Es ging ihm um Intels Rumgemurkse an AVX-512.

edit:
Wenn man dann schon soweit geht das wenigstens grob zu verstehen, kann man sich natürlich auch fragen, ob man auf einer GPU auch einen Stream aus Integer rechnen kann... Gleitkoma können sie eh gut ;)

Oder, wenn man wirklich viel davon braucht, ob man egal für was, überhaupt noch eine GPU nimmt...
(schnell wie 16 DGX-A100 (!) und das für 260.000$, statt 3,2 Mio.$)

AVX ist schon ziemlich gut. auch mal Integer mit AVX2 ist schon sehr gut. Und dann ist es auch gut. Und ehrrlich gesagt, bei der Nutzung von SIMD hängt die Soft der Hardware bisher um knappe 9 Jahre hinterher. Mindestens. Ja, mich ärgert das auch.
 
Zuletzt bearbeitet:
@DaHell63
Ich denke kleinwenig Demut wäre sinnvoller. Z.B. sich selbst zugestehen, daß man die Hintergründe nicht so wirklich blickt und erstmal einfach nur weiter lauschen.

Nebenbei: Wenn Torvald mal Hasskappe hat und wir sollten das abschalten meint, dann meint er bestimmt nicht dich oder mich. Auch wenn ich mir wenigstens ab und zu die Mühe mache nachzuschauen um was es überhaupt wirklich geht.
Dein Unveständnis angesichts der dafür fehlender Biosoptionen ist daher nicht angebracht ;).

Jaja mein Unverständnis.........wenn es nicht um Mich Dich, oder sonst einen Normalo geht, was willst Du dann mit diesem Link in diesem Forum, wenn es uns doch garnicht betrifft.
Du kannst ja gerne Torvalds Meinung teilen, aber für mich ist es nicht maßgebend was der kleine Choleriker ab und zu vom Stapel läßt.

Und zu Cloudflare. Wenn ich schon jemanden rate AVX512 auf dem Desktop zu deaktivieren. Ja dann bitte schön wie und warum?
 
Zuletzt bearbeitet:
Jaja mein Unverständnis.........wenn es nicht um Mich Dich, oder sonst einen Normalo geht, was willst Du dann mit diesem Link in diesem Forum, wenn es uns doch garnicht betrifft.
Es betraf aber Casurin. Die Schweiferei um AVX rum war ja nicht meine Idee.

Du kannst ja gerne Torvalds Meinung teilen, aber für mich ist es nicht maßgebend was der kleine Choleriker ab und zu vom Stapel läßt.
Natürlich nicht. Schadet trotzdem nicht, wenn einem was zu lahm vorkommt und man nach AVX-512 jault, zu verstehen, warum der Entwickler "ah nöö, lass mal" antwortet.

Ich wäre schon begeistert, wenn die Leute sobald es geht durchgehend SSE nutzen würden und wo überall schon eh SSE4 FP genutzt wurde, sie das langsam nach AVX migrieren (AVX1). Kennt wer den ziemlich flinken FaststoneViewer? Fragt den Typen mal ob und welche SIMD-Befehle er nutzt ;)
 
Würde dir wirklich nicht schaden zu verstehen warum[...]
Wenn ich sowas lese krieg ich immer Kopfkino. Ich sehe auf dem Boden kokelnde Rauchkerzen oder ein Zimmer voller Teelichter... Kann mir da irgendwie nicht helfen.

Aber hey - wir können ja gerne nach Linus gehen und auch AVX2 (worüber er sich dort genauso auslässt) wieder abschaffen. Die Leute die Videos bearbeiten oder Physik-Berechnungen brauchen werden sich sicher freuen.
Ja... Was nehmen wir denn da? Den stets gut durchgetesteten Klassenprimus? Jemals bei Puget drübergeschaut was Cuda und was AVX(2) bringt? :)
 
Zuletzt bearbeitet:
Warum soll ich nochmal AVX 512 im Desktop abschalten? Weil der Takt soweit einbricht, daß dann sogar weniger Leistung als normal da ist? Und wie kann man AVX 512 im Bios CPU abschalten? Fragen über Fragen und für mich einfach nur Blödsinn.
Wenn ein Programm AVX 512 nutzt, wäre es doch eher unsinnig diese Leistung nicht zu nutzen.

Ich denke das Problem liegt darin, Intel sieht AVX -> Takt Offset.
Ist der AVX Anteil klein, verliert man Leistung. Gab doch immer wieder Probleme, wo Nvidias Treiber den AVX Offset auslöste.
AMD taktet einfach dynamisch nach Verbrauch und Temp, da fällt das nicht auf.
 
AVX2 offset kann man ja selber einstellen. Ich hab nur für AVX512 offset 5 eingestellt.

Der CPU-Z Benchmark ist eigentich kein Test in dem mein i9 gegen den R9 eine Chance hat.....aber
R9, den Takt weiß ich jetzt nicht mehr genau :ugly:. Auf jedenfall über @4.5GHz
6.PNG

Der i9, zwar mit weniger Takt, dafür hat er AVX512 an Bord.
AVX512 4.4GHz+.PNG

Man kann schon auch selber bestimmen welcher Takt anliegt.
 
Zuletzt bearbeitet:
@DaHell63
Wen genau meinst du? Es gibt eine Realität draußen. Wird beiläufig "Markt" genannt. Dieser Markt weiß weder von den Möglichkeit noch ggf. von der Notwendigkeit irgendein AVX Offset an seinem Intel einzustellen. Wie sind hier in einem Forum. Man kann nicht argumentieren, es lässt sich einstellen. Ggf. muss man wenigstens eine wirkende Kühlung dafür haben. Dieser MArkt, weiß nicht was Tower und was Topblowing Kühler ist. Es kauft "etwas ausreichendes wie, nicht fürs Übertakten".
Fertig,

Beim Sandy geht kein Offset, aber als ich damals PL1 auf 118W und PL2 auf 148W im Bios gestellt habe, wurde bei AVX nicht mehr runtergetaktet :) (Asus P8P67 Deluxe). Man konnte das also schon immer einstellen ;)
 
Ich hab zwar @hanfi104 geantwortet,,,aber gut.
Ich weiß jetzt nicht was Du mit Realität und Markt da draussen meinst? Einen Markt muß es wohl geben, sonst hätte Intel ja nichts verkauft ;).
Ja und Realität. Ich kaufe nachdem was für meinen Use Case m.M.n am besten ist. Das ist meine Realität. Die muß ja auch nicht mit denen anderer übereinstimmen.
2017 hatte Intel mit dem SkylakeX eben die performanteste Lösung, wenn es um 4K HEVC ging. AVX512 war dabei aber nie ein Thema.
Was der Markt weiß oder nicht weiß, ist mir gelinde gesagt scheiss egal. Ich werde sicher meinen Ram nicht auf 2133MHz laufen lassen. Oder eben die CPU unsinniger Weise und völlig unnötig runtertakten lassen, nur weil der Nvidia Treiber AVX 2 triggert und der Markt nichts davon weiß.
Der i9 durchläuft mit @4.6GHz 1.225v die Benches die AVX2 nutzen. Warum soll er dann in Spielen runtertakten? Da wird im Bios HT deaktiviert, auf 1.19v zurückgestellt und ab gehts. 12 echte Kerne @4.6GHz reichen wohl noch 1-2 Tage bevor es untragbar wird.

Oder mit dem R9 3900X, der jetzt hauptsächlich zur Videobearbeitung genutzt wird. Schluckt ja doch ein bißchen weniger als der I9 :ugly:.
Warum muß ich ein Video etliche Stunden mit stock Einstellungen rendern lassen, wenn ich mit angepassten @4.2GHz schneller und kühler unterwegs bin? Und das auch noch bei weniger Verbrauch.

@Wie sind hier in einem Forum. Man kann nicht argumentieren, es lässt sich einstellen
In einem Forum wie PCGH X sollte man sowas schon ansprechen dürfen....ansonsten besser mit dem nächsten freien Media Markt Mitarbeiter kurzschließen...da werden Sie geholfen :D.
 
Zuletzt bearbeitet:
Ich hab zwar @hanfi104 geantwortet,,,aber gut.
Ich weiß jetzt nicht was Du mit Realität und Markt da draussen meinst? Einen Markt muß es wohl geben, sonst hätte Intel ja nichts verkauft ;)
Ja, war bisschen zu schnell dahingeschwurbelt. Ich meinte, mit Hinweisen wie ist kein Ding kann man im Bios xy umstellen kein Argument für das RL ist.

2017 hatte Intel mit dem SkylakeX eben die performanteste Lösung, wenn es um 4K HEVC ging.
Das ist in Ordnung. Ich meitne das obige wie gesagt eher auf die Massen bezogen. Selbst auf die, die den Weg ins Bios finden können.
Was schätzt man überhaupt so wie viele Leute sich mit umkodieren von Videomaterial beschäftigen? Immer wenn es in Threads irgendwann um SIMD geht, hab ich das Gefühl die ganze Welt macht zu 60% nichts anderes am PC als Videos zu recodieren und ich selbst nicht in einer Foren-, sondern in einer RL-Blase lebe. Niemand für den ich je ein PC gebaut habe wollte/will damit Videos umwandeln. Ich hab irgendwie das falsche Umfeld, auch das weitläufigere, um mir über AVX Gedanken zu machen.

Oder eben die CPU unsinniger Weise und völlig unnötig runtertakten lassen, nur weil der Nvidia Treiber AVX 2 triggert [...]
Ab wann ist das überhaupt so? Das find ich jetzt garnicht so uninteressant :)

Der i9 durchläuft mit @4.6GHz 1.225v die Benches die AVX2 nutzen. Warum soll er dann in Spielen runtertakten? Da wird im Bios HT deaktiviert, auf 1.19v zurückgestellt und ab gehts. 12 echte Kerne @4.6GHz reichen wohl noch 1-2 Tage bevor es untragbar wird.
Da bin ich bei dir. Bzw. ich hab da auch nichts bei kritisiert, nur der... Absolutismus ;) mit welchem etwas als allgemein real erzählt wird, da wink ich gelegentlich mit der RL-Fahne.
Der ganz großer Freund von SMT bin ich aber auch nicht.

edit:
Ich hab das mal eher so durch Zufall rausgefunden :) CPU vs. GPU ohne Wertung in festen Verhältnissen. Für alle und nicht nur für Nv (Cuda). auch auf APUs/iGPUs bezogen.

Wer die theoretischen FP Leistungen jeweils findet und mit bisschen Mathe schauen will was wie schnell gehen könnte:
Beim gleichwertig gerechneten Ergebnis ist ein 2500k/4.5 mit SSE in etwa so schnell wie stock der Bonaire XTX auf der MSI R7 260X 2GD5 OC. In OpenCL1.2, am 128bit Vram hängend. Eine MSI RX470 GamingX 8GB ist dabei tatsächlich auch real um die 2.4x schneller als diese 260X. Real. Da passen die FP32 aus den Datenblättern schon recht gut zueinander.

Wie sich die CPUs real samt SSE/AVX ab da steigern, kann man dem RL entnehmen. Für die GPUs kann man dann ruhig die Datenblätter mit ihren FP Tflops nehmen.
Würde also bedeuten, eine RX470 mit 5087 Tflops ist bei dem was sie der CPU abnehmen kann, 2.5x schneller als ein 2500k/4.5.

Viel Spaß beim hochrechnen späterer GPUs auf Ryzens und Cores ;)
 
Zuletzt bearbeitet:
Hi an die ganzen Experten hier. SSE Instruktionen, das sind doch die Vorgänger von avx oder? Wie hoch ist denn die Bedeutung dieser Einheiten?
Also ich habe das gestern mal beim videoumwandeln ausprobiert die ganzen mmx, SSE Einheiten gegen getestet. Ich habe da zwar nen Laptop CPU getestet aber denke mal das man das auch auf andere cpus übertragen kann. Was sagt das ganze denn aus? Also beschleunigt hat das ganze workload ganze 10 Sekunden. Ich habe gedacht das wäre weitaus mehr. Limitiert da etwa was anderes oder kann man das denn sowas auf zukünftige cpus denn so 1 zu 1 übertragen? Was sagen denn die Experten dazu?
Und das mit den 10 Sekunden naja zwischen 5:55 und 6:05 Minuten sind echt nicht wirklich Welten. Wenn ich bedenke die CPU wird durch den Temperatur Problem gebremst und für das es nur nen i7 4700hq CPU ist, erwarte ich doch dennoch das die Beschleunigung weit mehr ist als nur 10 Sekunden. Woran liegt das denn das die ganzen Instruktionen hier so wenig beschleunigen und kann man das echt auf andere cpus überhaupt übertragen oder nicht?
 
Linpack, ist ein "Extrembeispiel" für AVX... Den RL Test hat latiose88 durchgeführt ;)

2x 128bit durchschleusen gegen 1x 256bit, ist zwar auch ein Extrembeispiel, aber in ganz anderem Kontext (facepalm)
 
Ja, SSE (die ganze Familie) ist ein Vorgänger von AVX.
Ob AVX2 was bringt - da kommt es auf soooo viele Faktoren an. Als aller erster muss das Program dafür geschrieben und entsprechend kompiliert werden - die Instruktionen werden nicht von allein verwendet. Dann kommt es, beim Videoumwandeln, auf das verwendete Quell/Ziel Material drauf an. Und am Ende auch noch RAM und SSD/HDD.
Wenn der verwendete Codec sich gut Vektorisieren lässt und die Daten entsprechend um Cache gehalten werden können und der Arbeitsspeicher genügend Daten liefern kann und die SSD nicht limitiert - ja dann kann AVX2 ich im realen Umfeld ~3x schneller sein als SSE4.

LinPack mit AVX2 ist auf Linux, von SSE zu AVX sinds ~75% schneller, von AVX zu AVX2 nochmal ~60%, insgesammt fast 3x so schnell.
Und Extrembeispiele
27 CPUs Benchmarked With AOM AV1, Intel SVT VP9/AV1/HEVC Video Encoders - Phoronix
Ein i9 7900X (10c20t) ist dort ~3x so schnell wie ein i9 9900K(8c16t aber höherer Takt) und noch immer gut 2x so schnell wie ein Threadripper 2990wx (32c64t) - wegen AVX512.
Erst seit Zen2 gibts bei AMD AVX2 mit vollen 256bit in Hardware (mit x265), was sich durchaus bemerkbar macht wenn man sich anschaut das ein Ryzen 7 1800X noch deutlich hinter einem i7 8700K liegt, selbst der ryzen 7 2700x ist noch hinter dem i7, aber Ryzen 7 3700X macht dann einen deutlich Sprung nach vorne mit gut 30% mehr Leistung und damit dann ziemlich gleich mit dem i9 9900K.
Benchmarking Performance: CPU Encoding Tests - The AMD 3rd Gen Ryzen Deep Dive Review: 3700X and 3900X Raising The Bar
Rendering, Encoding, Compression, Encryption - AMD Ryzen 9 3900X and Ryzen 7 3700X Review: Zen 2 and 7nm Unleashed - Tom's Hardware | Tom's Hardware
(Bei Handbrake benchmarks muss man etwas aufpassen da viele Review-Seiten AVX2 deaktiviert und nur AVX verwendet haben, teils aus reinem Unwissen/Unfähigkeit teils für "faire" vergleiche....)

Ok verstehe. Wie sieht es denn aus wenn man alle Instruktionen bis auf bmi1 abgeschaltet hatte. Bmi1 Vergleich war massiv gewesen. 15 Minuten vs 6 Minuten. Diese eine Instruktion Scheint wohl das meiste auszumachen. Auf welche Einheit bzw auf welchen Bereich basiert denn diese Instruktion? Danke schon mal im voraus für die Info.
 
Da musst du nichts deaktivieren, da es kein AVX512 im Desktop gibt. Und Software die das nutzt erst recht nicht.
Das haben nur die großen Xeons.
Bis auf den CPU-Z Benchmark und beim Time Spy extreme, bei denen man es testen kann wüßte ich jetzt nicht welche Anwendung es geben würde um AVX 512 einsetzen zu können. Zumindest ich habe kein Programm dafür.
Aber AVX512 war ja damals auch nicht der Kaufgrund für mich, sondern die AVX2 Performance.
 
Zuletzt bearbeitet:
Zurück