AMD Epyc 7742: 79 Fps im 8K-HEVC-Material-Echtzeit-Encoding

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu AMD Epyc 7742: 79 Fps im 8K-HEVC-Material-Echtzeit-Encoding

Der Software-Anbieter Beamr Imaging nutzt einen AMDEpyc 7742, um 8K-Videomaterial in HDR mit HEVC in Echtzeit zu Encodieren. Unter Nutzung aller 64 Kerne und 128 Threads der CPU schafft das System 79 Fps.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: AMD Epyc 7742: 79 Fps im 8K-HEVC-Material-Echtzeit-Encoding
 
lineare Annahme
Kerne 12/64=0.1875
GHz 4/3=1,33
Leistung des 3900X@4GHz ~ 0.25 des 64 Kerner@3GHz

79/4=19,75 FPS

Ist natürlich ne Milchmädchenrechnung.
12 Kerne sind viel leichter auszulasten aber der 64er hat ein 8-Channel SI
 
Zuletzt bearbeitet:
Intel: "rEal wOrLd"

Ja stimmt, weil >99% aller PC-Anwender den ganzen Tag große Videos transcodieren.

12 Kerne sind viel leichter auszulasten aber der 64er hat ein 8-Channel SI

Naja, sind sechs vs. acht Kerne pro Channel und wenn der Algorithmus entsprechend designt ist, sollte der viele Kerne gut auslasten können. Bildverarbeitung bietet sich für so was eigentlich an, muss aber natürlich drauf zugeschnitten sein.
 
Ja stimmt, weil >99% aller PC-Anwender den ganzen Tag große Videos transcodieren.



Naja, sind sechs vs. acht Kerne pro Channel und wenn der Algorithmus entsprechend designt ist, sollte der viele Kerne gut auslasten können. Bildverarbeitung bietet sich für so was eigentlich an, muss aber natürlich drauf zugeschnitten sein.

Der Epyc richtet sich nicht an "normale" PC Anwender.

Daher ist das durchaus ein realer Usecase der hier präsentiert wird.
 
Es geht hier um einen komerziellen Anwendungsfall. "Realer" wirds nicht.

Mal abgesehen davon, dass das Real-World-Marketing natürlich ein ziemlich gestreckter Versuch war, die geringen Vorteile, die Intel noch bietet, hervorzuheben, ist aber eigentlich ersichtlich, dass Intel mit Real-World-Performance auf die Alltagsperformance des durchschnittlichen Anwenders abgezielt hat. Halt das, was die meisten am meisten machen.

Ist dir überhaupt klar was du für ein.... verzapfst mit solchen und anderen Aussagen, oder bist du wie immer im bash Mode? Was anderes sieht man ja leider auch nicht von dir...

Stimmt, ich bin definitiv hier reingekommen und habe erst mal kontextfrei gegen AMD gebasht. Eindeutig ersichtlich. Vielleicht siehst du aber auch nur nichts anderes, weil du nur liest, was ich in den von dir quasimoderierten Threads schreibe.
 
Zuletzt bearbeitet:
Stimmt, ich bin definitiv hier reingekommen und habe erst mal kontextfrei gegen AMD gebasht. Eindeutig ersichtlich. Vielleicht siehst du aber auch nur nichts anderes, weil du nur liest, was ich in den von dir quasimoderierten Threads schreibe.

Sry, aber anders sind solche Aussagen nicht erklärbar, doch schon, nur will ich dir sowas nicht unterstellen...

Ja stimmt, weil >99% aller PC-Anwender den ganzen Tag große Videos transcodieren.

Größer 99% schreibst du noch, Hallo gehts noch? Du weißt schon worum es hier geht oder?
Kannst es ja gerne erklären, wie du in einem epyc 7742 Thread zu solch einer glorreichen Aussage kommst, vllt siehst du ja Sachen die wir nicht sehen.
 
Gibts noch keinen Encoder auf einer "preiswerteren" Graka, der 8K in Echtzeit mit 60FPS encodieren (aufnehmen) kann?

Nvidia NVENC steht ja aktuell afaik bei 8K mit 30FPS, oder?
 
Sry, aber anders sind solche Aussagen nicht erklärbar, doch schon, nur will ich dir sowas nicht unterstellen...

In aller Regel ist das wenn überhaupt dann Gebashe gegen das ständige Gebashe. Du musst mir mal einen Thread zeigen, in dem ich irgendwie auf AMD rumgehackt hätte oder seit dem Erscheinen von Zen 2 Intel empfohlen habe. Ich kann aber die Worte "Speicherkrüppel", "Heizplatte" (gilt wohlgemerkt nur für ineffizientere CPUs, nicht GPUs), "Kotzgrenze" (ein Zustand, der bei AMD "optimiert" heißt, wobei die Mechanismen bei AMD ja auch tatsächlich fortschrittlicher sind) und die entsprechenden Auswüchse davon einfach nicht mehr hören.

Größer 99% schreibst du noch, Hallo gehts noch? Du weißt schon worum es hier geht oder?

OK, >90%, damit sollte ich auf der sicheren Seite sein.

Kannst es ja gerne erklären, wie du in einem epyc 7742 Thread zu solch einer glorreichen Aussage kommst, vllt siehst du ja Sachen die wir nicht sehen.

Weiß nicht, vielleicht. Ich meine, vielleicht habe ich auf die Intel-Anspielung etwas überreagiert, aber es kommt mir, wie schon erwähnt zu den Ohren raus. Als hätte man jeden CPU-Thread zwischen 2012 und 2017 mit "LOL, wie kacke ist eigentlich Bulldozer?" eingeleitet.

Gibts noch keinen Encoder auf einer "preiswerteren" Graka, der 8K in Echtzeit mit 60FPS encodieren (aufnehmen) kann?

Vermutlich nicht, sollte aber bis zur größeren Verbreitung verfügbar sein.
 
Das hat schon etwas mit der Leistung in der echten Welt zu tun, ich habe früher durchaus DVDs gerippt, ab und zu mache ich das auch heute noch. Noch wichtiger ist das Abspielen. Meine GTX 980Ti beherrscht leider kein h.265, also bleibt es an der CPU hängen. In 4K kann sie 80-90% des Testmaterials problemlos wiedergeben, wenn jedoch der Bildinhalt sich stark verändert, dann bricht die Leistung ein und bei bestimmten Problemszenen ist dann Schicht im Schacht, da bin ich dann bei etwa 1FPS. Von daher ist mehr Leistung in dieser Hinsicht nie schlecht, mit einem 6 Kern i7 könnte ich mir die 4K Filme wohl ansehen. Mit dem 12 Kern R93900X dürfte man deutlich besser für die Zukunft gerüstet sein, als mit dem i9 9900K

Ist dir überhaupt klar was du für ein.... verzapfst mit solchen und anderen Aussagen, oder bist du wie immer im bash Mode? Was anderes sieht man ja leider auch nicht von dir...

Du bist doch nur auf seine "Real World Performance" neidisch :ugly:

OK, >90%, damit sollte ich auf der sicheren Seite sein.

Das "Argument", CPU XY reicht doch auch aus, war schon falsch als die Inteljünger es beim P4 benutzen, es wurde auch nicht besser, als es die AMD Kultisten es beim Phenom I und Bulldozer übernahmen und jetzt wird es auch nicht gut.
 
Zuletzt bearbeitet:
Das "Argument", CPU XY reicht doch auch aus, war schon falsch als die Inteljünger es beim P4 benutzen, es wurde auch nicht besser, als es die AMD Kultisten es beim Phenom I und Bulldozer übernahmen und jetzt wird es auch nicht gut.

Das habe ich auch nirgendwo behauptet. Intel hat aber bei dem etwas slapstickhaften Marketingstunt aber auf die Alltagsperformance abgezielt, bei der Intel je nach Auslegung zumindest noch sehr gut mithalten kann. Ich fand die Erwähnung desselben hier deshalb einfach fehlplatziert, aber hätte zugegebenermaßen auch weniger sarkastisch sein können.
 
8K Encoding in Echtzeit sollte 2019 nun wirklich jede Notebook CPU beherrschen. Wofür ein Notebook, wenn nicht dafür?!
 
Intels Real World Datenanalyse basiert auf Laptops und Tablets.
Da ist ein 7742 sicher die richtige Wahl für:ugly:

Zur Richtigstellung: Die gerne als "Real World" bezeichnete Datenerhebung bezieht sich auf Consumer/Gamer-Hardware. Diese im Zusammenhang mit Servern anzuführen ist reichlich sinnbefreit.
Abgesehen davon wurden diese Daten auch auf Desktops erhoben und dort sahen die Verbreitungswerte gängiger Software vergleichbar aus, insbesondere auch bzgl. des vielzitierten Cinebench. Ein entsprechender Sheet findet sich bei AnandTech.
Intels Fehler war es, in die IFA-Präsentation einen aktuelleren Auszug zu kopieren, der gesammelte Daten von Mobilgeräten auswies anstatt die Daten zu verwenden, die man bspw. AnandTech vorgelegt hatte. Dann hätte man sich einiges an Diskussion ersparen können.
(Und wer ein wenig nachdenkt, wird auch schnell von selbst darauf kommen, dass bspw. der vielgescholtene Cinebench für Consumer/Gamer i. d. R. irrelevant ist, denn dessen Workload hat weder was mit Office- noch Game-Engine-typischen Workloads zu tun.)
 
(Und wer ein wenig nachdenkt, wird auch schnell von selbst darauf kommen, dass bspw. der vielgescholtene Cinebench für Consumer/Gamer i. d. R. irrelevant ist, denn dessen Workload hat weder was mit Office- noch Game-Engine-typischen Workloads zu tun.)
Klar, ein Benchmark der ALLE Kerne stark auslastet ist zum Vergleichen nicht sinnvoll, weil er nicht realitätsnah ist?
Am ende kommt noch, dass 720p Benches sinnlos sind... :ugly:
 
Zur Richtigstellung: Die gerne als "Real World" bezeichnete Datenerhebung bezieht sich auf Consumer/Gamer-Hardware. Diese im Zusammenhang mit Servern anzuführen ist reichlich sinnbefreit.
Abgesehen davon wurden diese Daten auch auf Desktops erhoben und dort sahen die Verbreitungswerte gängiger Software vergleichbar aus, insbesondere auch bzgl. des vielzitierten Cinebench. Ein entsprechender Sheet findet sich bei AnandTech.
Intels Fehler war es, in die IFA-Präsentation einen aktuelleren Auszug zu kopieren, der gesammelte Daten von Mobilgeräten auswies anstatt die Daten zu verwenden, die man bspw. AnandTech vorgelegt hatte. Dann hätte man sich einiges an Diskussion ersparen können.
(Und wer ein wenig nachdenkt, wird auch schnell von selbst darauf kommen, dass bspw. der vielgescholtene Cinebench für Consumer/Gamer i. d. R. irrelevant ist, denn dessen Workload hat weder was mit Office- noch Game-Engine-typischen Workloads zu tun.)

Klar ist es klar, das auch ein paar Desktop dabei sind.
Das ist aber vollkommen irrelevant, wenn es um Server Hardware geht :ugly:
Genau deshalb ist ja Intels Marketingaktion so toll angekommen.
Intel vergleicht Normalos mit Poweruser....
 
Zurück