Videobearbeitung: x86, Intel Quick Sync, Cuda, etc. - Vergleiche gesucht

GoldenMic

Kokü-Junkie (m/w)
Hallo,
seit einer Weile interessiere ich mich etwas für das Thema, allerdings hab ich sehr wenig Ahnung davon.
Es geht mir um den Vergleich der Rendermöglicgkeiten, soweit ich weiß gibt es da x86, Intel Quick Sync, Cuda...und nochwas für AMD graks?
Jedenfalls habe ich es bisher so aufgefasst:
Qualität: x86 > Quick Sync > Cuda
Schnelligkeit: Quick Sync > Cuda > x86

Ist das soweit richt?

Ich würde jetzt am liebsten eine gerenderte Szene über jede Technik sehen und dazu wissen was dabei wie lang gebraucht hat. Könnte mir das jemand bieten? Wäre sehr dankbar.
Ansonsten lasse ich mich natürlich auch gern über alles andere bezüglich des Topics Videobearbeitung aufklären.

Danke schonmal :)
 
Ich habe keine Erfahrungen mit QuickSync gemacht, was ich dir aber sagen kann ist dass CUDA zwar schnell aber qualitativ nicht zu empfehlen ist.
CUDA ist nicht deswegen viel schneller weil die GPU viel schneller ist als die CPU sondern weil intern schnellere (also weniger qualitative) Einstellungen gewählt werden, sei es aus technischen Gründen (weil Berechnungen evtl nur schwer emulierbar sind für die GPU) oder aus marketingtechnischer Sicht. Jedenfalls ist es beim konvertieren so, dass ich mit meiner CPU bei gleichen Einstellungen wie CUDA sie nutzt kaum langsamer bin als eine GTX580 - und das Ergebnis deutlich besser aussieht (oder eben die Datei deutlich kleiner wird bei gleicher Qualität).

Ich bin daher (noch) ein Verfechter von x86 und glaube persönlich eigentlich auch nicht dass sich da in absehbarer Zukunft viel ändert.

EDIT: Zum vergleich hab ich hier einen Filmausschnitt gewählt, Quelle ist eine unkomprimierte BluRay, VC-1, 1080p.
Das Ganze (das heißt eine Minute des Films^^) wurde auf der CPU in meinen Einstellungen in x.264 kodiert --> Bild CPU.
Dann selbiger Clip per CUDA im Profile "High" (da nicht mehr geht) ebenfalls konvertiert --> Bild GPU.
Die Dateigrößen sind vergleichbar (CPU: 63MB, GPU: 59MB), die Qualität wie man deutlich erkennen kann nicht.
Von der Rechenzeit her war die GTX580 etwa 2,5x so schnell wie meine CPU (wobei ich sicher bin bei der abgelieferten Qualität dürfte der Unterschied gegen 0 gehen wenn ich die Settings der CPU runterschraube...).
Auch sollte man bemerken, dass CUDA automatisch die Ränder "gecroppt" hat (und das noch zu viel) und offensichtlich einen Weichzeichner verwendet oder eben die Weichzeichnung durch das konvertieren selbst entsteht, ich habe automatische Einstellungen laufen gehabt außer das Profil auf höchstmögliche Stufe zu setzen.
Achso, als Konvertierer kamen HDConverttoX für die CPU und MediaCoderCUDA für die GPU zum Einsatz.

CPU.JPG
GPU.JPG
 
Zuletzt bearbeitet:
Ok dankeschön :)
Jetzt bräuchte ich nur noch wen der mir mal was zeigen kann was mit Hilfe von Quick Sync erstellt wurde.
Danke jedenfalls für die investierte Zeit, man sieht deutliche Unterschiede.
Könntest du zum Vergleich nochmal die CPU in den gleichen Einstellungen laufen lassen? Für die Zeit und Größeneinordnung der Datei im Bzeug zur Qualität wäre das interessant.
 
Könntest du zum Vergleich nochmal die CPU in den gleichen Einstellungen laufen lassen? Für die Zeit und Größeneinordnung der Datei im Bzeug zur Qualität wäre das interessant.

Naja dafür müsste ich voraussetzen, dass das Profil "High" in der CPU dasselbe ist wie "High" in CUDA wovon ich einfach mal nicht ausgehe (da da ja jeder Programmierer einstellen kann was er will und es dann als HIGH abspeichern).
Was ich tun kann ist natürlich das gewöhnliche High-Profil ("Slow") von x.264 zu nutzen auf der CPU aber was dabei rauskommt kann ich dir ohne es zu machen schon aus Erfahrung sagen: Das Bild ist nicht weichgezeichnet wie bei der GPU aber an den Kanten minimal unschärfer als im CPU-Original - insgesamt sieht man kaum einen Unterschied in der Qualität. Der Unterschied dabei zu meinen ich nenne es mal HQ-Einstellungen ist, dass die Datei grob 1,5x so groß wird (da einfach der CRF Modus dann die Bitrate hochschraubt wenn er den gewünschten Detailgrad mit weniger Rechenleistung erreichen soll) und die Rechenzeit um Mindestens die Hälfte sinkt (normalerweise bewege ich mich so bei 2-3fps in 1080p, im SLOW Profil sinds eher 5-10 je nach Material, meine Einstellungen liegen irgendwo zwischen VERY SLOW und PLACEBO :ugly:).

Beim CPU-Rendering sieht man eben kaum unterschiede zwischen den Einstellungen da ich den ConstantRateFactor nutze der ja eben versucht die Qualität konstant zu halten - "schlechtere" Einstellungen resultieren lediglich in minimal schlechterer Randschärfe und größeren Dateien.
 
Zuletzt bearbeitet:
ich glaub cuda ist schneller als quicksync da cuda von der graka stammt und die in renderings immer schneller ist als cpus
(bin mir aber nicht sicher)
Oha, alter Thread aber dennoch:
Die Geschwindigkeit von Quicksync ist etwa zwischen 2 und 3x schneller bei Quicksync als bei Cuda (also Quicksync ist super), die Qualität angeblich eine Spur besser.
 
Zuletzt bearbeitet:
läuft MediaCoder NT - Download - CHIP Online auch mit amd karten?

ich Konvertiere über DXVA/ in H264-MKV , muss sagen das man über Quicksync-IGPU im eigentlichen super ist, was überhaupt nicht gut ging war AMD-APP, da hatte ich richtig viele Fehler, sprich das bild ging nicht sauber, der Anfang hinkelte ab und mal dann kam dazu das es ums 3 fache gedauert hatte, gegen über Quicksync, das Problem hatte ich aber mit dem AMD TREIBER 12.10 , seit ich den 13.1 drauf hab kam sowas nicht mehr vor sprich bis jetzt keine Fehler mehr gesehen. hmmmm vielleicht kann amd nur hier trüber Codieren (DXVA), siehe unten..

Grafik-Chipsatz :
AMD Radeon HD 7900 Series
Unterstützte Video-Codecs :
DXVA_MODE_H264
DXVA_MODE_VC1
DXVA_MODE_MPEG2
ATI_MODE_H264
ATI_MODE_VC1
ATI_MODE_MPEG2

was Heist eigentlich DXVA? / Direkt Computer 5.0????
hab auch mal CUDA genutzt über meine gestorbene 580GTX Ergebnis waren eigentlich auch gut, aber auch da gab es ab und mal bild Fehler. mit DXVA und Quicksync hatte ich bis jetzt keine Fehler entdecken können, über CPU gehts auch super.


emmm ich zieh die Bitrate immer auf Maximum, und audio auf 512BIT, Auflösung 1920x1080, MKV. was sind eure Settings?
 
Zuletzt bearbeitet von einem Moderator:
Wo mit erzielt man die beste Qualität? Nur Bitrate auf Maximum ist auch nicht das ideale. Es bröselt leicht im Hintergrund , hat jemand ein tip?

Was für Codecs nutzt ihr?
 
Zuletzt bearbeitet von einem Moderator:
Das beste Ergebnis erhält man beim Decoding und Encoding per CPU (x86)...

Als Codec nutze ich h264, als Encoder x264 in der Kommandozeile + avisynth als Frameserver.
Für einige Sachen auch Virtualdub(mod).
Man kann auch xMediaRecode & Handbrake verwenden, wenn man eine GUI benötigt oder die Audiospur nicht getrennt bearbeiten möchte.


Eine Bitrate einzustellen ist übrigens nicht das Beste, encode doch per CRF.
Was meinst du mit Bröseln? Filmkorn?
 
Wie soll ich es dir erklären, bei Musik zb hört man wen es eine schlechte Qualität ist das rauschen raus, und so ist das mit dem Bild, das Bild ist im Hintergrund bröselig, sprich Rausch nur das man's sehen kann, denk mal es liegt an zu hoher bitrate. Was ist CRF?
 
An einer zu hohen Bitrate liegt es ganz sicher nicht :ugly:
CRF = Constant Rate Factor Dabei wird eine bestimmte Qualität festgelegt die gehalten wird, egal wie hoch oder niedrig die dafür benötigte Bitrate ausfällt.

Poste doch mal einen Snapshot von Quelle und Encode!
 
Hab zuzeit kein pc mit dem ich dir ein Bild hoch posten kann, da mein Bruder ihn zum zocken brauch, bin mit dem Smartphone online, ich kanns Dir/ euch nur beschreiben wie ich es empfinde.

hab auf User setting, maximale Bitrate, ich bearbeite meine privaten Videos , die kann dann mal locker 12gb haben.

sagt mal Leute, codiert eine amd Karte schlechter als eine nvidia Karte? Amd hat ja nun den neuen Stream im Einsatz. Irgendwie kommt es mir so vor das die amd Karte am Ende eine schlechterer quali liefert, wo dran liegt es? Dazu muss ich sagen das die nvidia auch ihre macke hat, cuda ist auch nicht perfekt. Dann ist mir aufgefallen, das dass Bild eine wenig blass ist, wo dran liegt es?
 
hab auf User setting, maximale Bitrate, ich bearbeite meine privaten Videos , die kann dann mal locker 12gb haben.
1. Weiß ich nicht einmal welches Programm du verwendest... wahrscheinlich das von dir verlinkte MediaCOder NT!?
2. Weiß ich nicht, wie deine Einstellungen aussehen
3. Sagt die Dateigröße ohne andere Angaben (Encodingsettings, Auflösung, Framerate, Progressive/Interlaced,...) nicht unbedingt etwas über die Qualität aus...

Mach am Besten einen Screenshot, wenn du wieder Zugriff auf den Rechner hast!

sagt mal Leute, codiert eine amd Karte schlechter als eine nvidia Karte? Amd hat ja nun den neuen Stream im Einsatz. Irgendwie kommt es mir so vor das die amd Karte am Ende eine schlechterer quali liefert, wo dran liegt es? Dazu muss ich sagen das die nvidia auch ihre macke hat, cuda ist auch nicht perfekt. Dann ist mir aufgefallen, das dass Bild eine wenig blass ist, wo dran liegt es?
Grafikkarten transcodieren so gut, wie es der Encoder zulässt, bei meinem letzten Vergleich war die Qualität bei AMD-Karten besser, allerdings waren sie auch langsamer.
Es kann durchaus sein, dass das inzwischen anderst aussieht, geblieben ist aber die schlechte Qualität und Kompression.
Inwiefern an Kontrast oder co. herumgepfuscht wird, müsste man schauen...


@Placebo

Ich sehe keinen Grund für PCGH so etwas zu testen, dazu gibt es genug spezialisierte Foren und wahrscheinlich auch einige kostenpflichtige Vergleiche...
Ein alter Codec Vergleich: [SIZE=-1]Fifth MPEG-4 AVC/H.264 Comparison (May 2009)[/SIZE]
Hier die neueste gekürzte Version: Eighth MPEG-4 AVC/H.264 Video Codecs Comparison - Standard Version
Außerdem dürfte es nur einen minimalen Teil der Leser interessieren und man müsste [SIZE=-1]sehr viele[/SIZE] Fachbegriffen definieren.
 
@soth blöd ist das man davon so gut wie nix dran versteht.
@Placebo ich wäre auch dafür das PCGH dies mal testet.

1.DVDFab , gibts bei Amazon zu kaufen, und par weitere freeware softys.
Settings, da dreh ich nur an die bit-rate und am Sound hoch sprich 512bit
3.ja das weis ich ja, mich stört es auch das die Datei am ende so viel GB belagert, da ist Forschung bedarf drin.

also ich hab die Erfahrung gemacht das dass AMD-Stream sowohl auch Nvidia-Cuda nicht immer sauber codieren ,Denk mal das es eine Treiber Sache ist.
ich finde bis jetzt die Intel-IGPU zum codieren immer noch besser als die amd und nvidia Lösung, naja über die CPU hab ich auch schon schlechte Ergebnis raus bekommen, ich kann das nicht bestätigen das codieren über die CPU das beste sei.

@soth sag mal gibts auch interne Settings im catalyst oder NVcontroll fürs codieren? sprich Profile für Stream oder Cuda? in dem Gebiet bin ich nicht ganz fresh, wäre für jede Lehrgang Minute hier dankbar, kann leider kein English, deswegen sind deine links für mich fürn Po.
 
@soth blöd ist das man davon so gut wie nix dran versteht.[...]
sprich Profile für Stream oder Cuda? in dem Gebiet bin ich nicht ganz fresh, wäre für jede Lehrgang Minute hier dankbar
Was verstehst du nicht? Die Berichte (Links) oder mein Geschwafel? :D
Über CUDA, Quicksync und APP kann ich nicht viel erzählen, nur das es qualitativ nicht an ein x86-Encode heranreicht.
Das ist für die Meisten auch schon das K.O.-Kriterium und wohl mit einer der Gründe, warum es zu dem Thema nicht allzu viel Lesestoff gibt.

1.DVDFab , gibts bei Amazon zu kaufen, und par weitere freeware softys.
Ich wusste gar nicht, das man DVDFab in Deutschland legal erwerben kann :ugly:
Sonst geht man ja immer massiv gegen solche Software vor...

sag mal gibts auch interne Settings im catalyst oder NVcontroll fürs codieren? sprich Profile für Stream oder Cuda?
Nicht das ich wüsste...
Es könnte allerdings sein, das die Decodingeinstellungen gegebenenfalls vom Programm übernommen werden. (Wenn das Programm per GPU decodiert)
 
ja DVDfab gibt's bei amazon.

So Leute bin nun hier raus, pcgh sollte dieses Tehma mal aufdecken und belegen was am besten zum codieren ist, GPU oder CPU.
 
Zuletzt bearbeitet von einem Moderator:
So Leute bin nun hier raus, pcgh sollte dieses Tehma mal aufdecken und belegen was am besten zum codieren ist, GPU oder CPU.


Es gab vor einiger Zeit einen Artikel dazu in der Print (fragt mich bitte nicht welche Ausgabe), aufgrund des Alters dieses Artikels und der sicherlich mittlerweile geschehenen Verbesserungen und Neuheiten wäre ein "Update" aber wünschenswert. :)
 
Zurück