Ryzen 3000: AMD deutet OC-Event auf der E3 an, Ryzen 3700X mit Wraith Prism

Meine (als alter AVX-Nutzer) auch. Wir werdens sehen im Juli wie viel bei AVX-starken Anwendungen (etwa HEVC-Encoding auf der CPU) übrig bleibt. Wenn AMD da pro Takt auf Intel aufschließen kann (die in dem Gebiet aktuell deutlich vorne sind weil ihre AVX-Einheiten nunmal sehr stark sind verglichen mit Ryzen) wäre das sehr nett.
AVX512 wirds ja nicht geben (was unter bestimmten Bedingungen/Settings nochmal deutlich schneller ist beim encodieren) aber das wird durch die mehr Kerne für weniger Euro für mich mehr als wettgemacht.

Und, nur ums mal zu erwähnen, Ryzen3000 muss nach aktuellem Stand seine Taktraten nicht über die Maßen reduzieren wenn AVX-Code ausgeführt wird. Ob das jetzt daran liegt dass AMD das schlicht besser gelöst hat als Intel oder obs deswegen so ist weil die AVX-Einheiten von Ryzen3000 vielleicht langsamer sind / weniger Abwärme abgeben bleibt abzuwarten.
 
Meine (als alter AVX-Nutzer) auch. Wir werdens sehen im Juli wie viel bei AVX-starken Anwendungen (etwa HEVC-Encoding auf der CPU) übrig bleibt. Wenn AMD da pro Takt auf Intel aufschließen kann (die in dem Gebiet aktuell deutlich vorne sind weil ihre AVX-Einheiten nunmal sehr stark sind verglichen mit Ryzen) wäre das sehr nett.
AVX512 wirds ja nicht geben (was unter bestimmten Bedingungen/Settings nochmal deutlich schneller ist beim encodieren) aber das wird durch die mehr Kerne für weniger Euro für mich mehr als wettgemacht.

Und, nur ums mal zu erwähnen, Ryzen3000 muss nach aktuellem Stand seine Taktraten nicht über die Maßen reduzieren wenn AVX-Code ausgeführt wird. Ob das jetzt daran liegt dass AMD das schlicht besser gelöst hat als Intel oder obs deswegen so ist weil die AVX-Einheiten von Ryzen3000 vielleicht langsamer sind / weniger Abwärme abgeben bleibt abzuwarten.

@ Alk,

ist der Blender Test von der Keynote nicht ein Hinweis darauf, das die AVX Einheiten des Ryzen 3000 ordentlich arbeiten?
Soweit ich weiß arbeitet doch Blender mit AVX 256 Bit und der Ryzen 12 Kerner war ja 18% schneller als der Intel Core i9-9920X in der Keynote, fragt sich bloß wie groß der Unterschied beim All Core Takt war.
 
Und, nur ums mal zu erwähnen, Ryzen3000 muss nach aktuellem Stand seine Taktraten nicht über die Maßen reduzieren wenn AVX-Code ausgeführt wird. Ob das jetzt daran liegt dass AMD das schlicht besser gelöst hat als Intel oder obs deswegen so ist weil die AVX-Einheiten von Ryzen3000 vielleicht langsamer sind / weniger Abwärme abgeben bleibt abzuwarten.
Moderne Spiele behandeln AVX stiefmütterlich bei Intel genau wegen der Temperatur/ des Verbrauchs, sondern hätte man Riesen-IPC-Zuwachs auf einen Schlag. Ich hoffe sehr, dass Ryzen 3000 das Problem viel besser in den Griff bekommen hat als Intel, dann kann Intel nachziehen/kopieren => Profit für uns :kaffee:
 
@ Alk,

ist der Blender Test von der Keynote nicht ein Hinweis darauf, das die AVX Einheiten des Ryzen 3000 ordentlich arbeiten?
Soweit ich weiß arbeitet doch Blender mit AVX 256 Bit und der Ryzen 12 Kerner war ja 18% schneller als der Intel Core i9-9920X in der Keynote, fragt sich bloß wie groß der Unterschied beim All Core Takt war.

Wie gesagt, die genaue Performance muß man noch abwarten. Im Cinebench20 war der AMD 3900x Multicore 6% schneller als der I9 9920x. Allerdings sind die Taktraten weder von AMD noch von Intel bekannt. Der i9 9920x hat glaube ich 4.0GHz allcore.Jetzt wäre halt interessant was AVX2 offset eingestellt war.
Verbessert hat sich AMD auf alle Fälle und ich hoffe mindestens gleichgezogen.

18% waren es vom 2700X auf den 3700x

Screenshot_2019-05-31 RYZEN 3000 (Zen 2) 3700X, 3800X 3900X Specs Performance - YouTube.jpg
 
Moderne Spiele behandeln AVX stiefmütterlich bei Intel genau wegen der Temperatur/ des Verbrauchs, sondern hätte man Riesen-IPC-Zuwachs auf einen Schlag. Ich hoffe sehr, dass Ryzen 3000 das Problem viel besser in den Griff bekommen hat als Intel, dann kann Intel nachziehen/kopieren => Profit für uns :kaffee:

Ahja - weil Intel CPUs in AVX die letzten 10 Jahren deutlich schneller waren wurde es in Spielen nicht eingesetzt - ok, klar doch XD
 
Ahja - weil Intel CPUs in AVX die letzten 10 Jahren deutlich schneller waren wurde es in Spielen nicht eingesetzt - ok, klar doch XD
Nein, weil ein typischer Intel-Prozessor sehr heiß wird und stark heruntertakt, dann geht der Zugewinn wieder flöten, es sei denn es geht um eine Renderfarm oder eine Grafikanwendung, die voll auf AVX setzt, so hat man trotz der Temperaturen und dem niedrigen Takt Vorteile.
Alc kann dir mehr darüber erzählen, er benutzt das wirklich. Bei Spielen wird AVX in 12-13% der Fälle benutzt, sonst benutzen sie verschiedene SSE Varianten.
 
Wie gesagt, die genaue Performance muß man noch abwarten. Im Cinebench20 war der AMD 3900x Multicore 6% schneller als der I9 9920x. Allerdings sind die Taktraten weder von AMD noch von Intel bekannt. Der i9 9920x hat glaube ich 4.0GHz allcore.Jetzt wäre halt interessant was AVX2 offset eingestellt war.
Verbessert hat sich AMD auf alle Fälle und ich hoffe mindestens gleichgezogen.

18% waren es vom 2700X auf den 3700x

Anhang anzeigen 1047069

Ähm nein,

YouTube

1:07:50

18% schneller bei Blender!
Ryzen 12 Core gegen Intel i9 9920X
 
Nein, weil ein typischer Intel-Prozessor sehr heiß wird und stark heruntertakt, dann geht der Zugewinn wieder flöten, es sei denn es geht um eine Renderfarm oder eine Grafikanwendung, die voll auf AVX setzt, so hat man trotz der Temperaturen und dem niedrigen Takt Vorteile.
Alc kann dir mehr darüber erzählen, er benutzt das wirklich. Bei Spielen wird AVX in 12-13% der Fälle benutzt, sonst benutzen sie verschiedene SSE Varianten.

Was aber vor allem daran liegt, das sich der Algorithmus überhaupt für AVX eignen muss. Diese Algorithmen eignen sich dann meistens aber auch direkt für eine Berechnung auf der GPU.
 
Was aber vor allem daran liegt, das sich der Algorithmus überhaupt für AVX eignen muss. Diese Algorithmen eignen sich dann meistens aber auch direkt für eine Berechnung auf der GPU.

...welche dann wieder teilweise um Größenordnungen schneller sind, als eine CPU. Genau so ist es. AVX ist eben nicht für alle Anwendungsfälle gemacht.
gRU?; cAPS
 
Ahja - weil Intel CPUs in AVX die letzten 10 Jahren deutlich schneller waren wurde es in Spielen nicht eingesetzt - ok, klar doch XD

Das Problem ist, dass Intel-CPUs auf Werkseinstellung wenn nur eine einzige Zeile AVX-Code kommt ihren Takt um einige 100 MHz senken. Natürlich ist der AVX-befehl dennoch weitaus schneller als ihn ohne AVX mit vollem Takt zu berechnen - aber wenn ein Spiel aus 5% AVX-Code besteht, dieser sauschnell ist und dafür die anderen 95% langsamer werden haste nix gewonnen bzw. in der Gesamtheit verloren. Deswegen wird AVX in Spielen nur dann eingebaut, wenn der Codeanteil hoch genug ist dass man trotz niedriger taktender CPU schneller ist.

Es ist nicht immer alles so volltrivial wie man anfangs glauben möchte. ;)
 
Das Problem ist, dass Intel-CPUs auf Werkseinstellung wenn nur eine einzige Zeile AVX-Code kommt ihren Takt um einige 100 MHz senken. Natürlich ist der AVX-befehl dennoch weitaus schneller als ihn ohne AVX mit vollem Takt zu berechnen - aber wenn ein Spiel aus 5% AVX-Code besteht, dieser sauschnell ist und dafür die anderen 95% langsamer werden haste nix gewonnen bzw. in der Gesamtheit verloren. Deswegen wird AVX in Spielen nur dann eingebaut, wenn der Codeanteil hoch genug ist dass man trotz niedriger taktender CPU schneller ist.

Es ist nicht immer alles so volltrivial wie man anfangs glauben möchte. ;)
Die jetztigen Konsolen haben noch Jaguar mit der lahmen 128 FPU. Da hat sich gar nicht gelohnt den Code dafür zu optimieren. Mit Zen 2 in PS5 und Xbox Scarlett, werden die Multiplayertitel definitiv AVX2 nutzen. Es wird dann auf PCs rüberschwappen.
Intel hat mit den Celerons und Pentiums damals die Verbreitung von AVX/AVX2 auch noch gehindert. Wenn man mit AVX compiliert und den Code auf einem Celeron laufen lässt, kommt der Unknown Instruction Fehler ( so hat Intel selbst verhindert, dass die eigenen Prozzi schneller laufen :D), dann stürzt alles ab :daumen2: So ließen viele Programmierer/Game Engines Leistung wegen der Kompatibilität auf der Strecke.
 
Bei meinem MSI Board ist der AVX Offset 0 bei Standard Settings. Kann man alles nicht pauschalisieren. Im Retail sollte man heute sowieso das BIOS auf die CPU abstimmen.
 
Intel hat mit den Celerons und Pentiums damals die Verbreitung von AVX/AVX2 auch noch gehindert. Wenn man mit AVX compiliert und den Code auf einem Celeron laufen lässt, kommt der Unknown Instruction Fehler ( so hat Intel selbst verhindert, dass die eigenen Prozzi schneller laufen :D), dann stürzt alles ab :daumen2: So ließen viele Programmierer/Game Engines Leistung wegen der Kompatibilität auf der Strecke.

Wobei man seinen Code auch mit ifdef an verschiedene Plattformen und System anpassen kann. Man müsste dann halt nur für mehrere System kompilieren. Das lässt sich aber notfalls auch über ein Buildsystem automatisieren.
 
Zurück