Ryzen 1700 vs. Core i7-7700K: AMD hat beim Live-Streamen viel mehr Puste

Das was du sagst ist grundsätzlich nicht falsch. Es kommt aber immer darauf an, wie hoch die Bitrate des Streaming Dienstes im Verhältnis zum Ausgangsmaterial ist. Je höher die Bitrate, desto eher siehst du die Unterschiede, die du beschrieben hast. Je niedriger die Bitrate, desto geringer werden die Unterschiede, bis zu dem Punkt, an dem es keinen Unterschied mehr geben kann. Die Videostreaming dienste sind ganz nah an letzterem.


Das kann wie gesagt jeder selbst testen. Lad bei Google Drive einen 1080p Stream hoch, einmal mit 50 Mbps und einmal mit 10 Mbps und lass die Videos verarbeiten und schau dann ob du nach dem Encoding einen Unterschied sehen kannst.
Was du im Screenhsotvergleich sehen wirst, sind zwei Encodings, die im Detail leicht unterschiedlich aussehen. Beide Ergebnisse sind aber gleich schlecht bzw. gleich weit vom Ausgangsmaterial entfernt und du wirst nicht mehr feststellen können, welches Video das 50 Mbps Video ist, und welches das 10 Mbps Video.




Kann mir hier irgend jemand nen Twitch Stream mit 10-15 Mbps Bitrate zeigen?

Das maximum was ich immer finde sind ca. 7 mbps und die Qualität ist auf Source bei JEDEM Streamer, den ich bisher gesehen habe unterirdisch schlecht, auch bei Streamern, die mit CPU encodieren.
Also doch reencoding trotz "Source" Einstellung?!

Du hast recht mehr als 7mbit hab ich bisher auch noch nicht gesehen.
Allerdings frage ich mich was du für Probleme hast. Die Streams mit 7mbit bieten doch top Qualität.
Ich bin schon relativ verwöhnt was das angeht, aber sowas als Matsch oder unterirdisch schlecht zu bezeichnen ist schon sehr weit daneben.
 
Wie sieht denn das mit dem GPU Encoding aus, wenn die GPU eh schon zu 99,9% ausgelastet ist?

Wenn ich aktuelle Spiele spiele, dann bin ich immer im GPU Limit. Ist da noch genug Luft für das GPU Encoding?
Betrachtet man BF1 als Beispiel, so ist da ein i7 auch schon stark ausgelastet, trotz GPU Limit, während ein Ryzen mit seinen 8 Kernen noch einiges an Luft hat und somit auch locker nebenbei CPU Encoding machen kann.
 
Naja eigentlich konntest du die ersten Athlon Sockel A auch noch per LvL Mod zum Athlon-MP machen und auf ein Server Board packen. Und 2 CPUs hatten auch schon vorher Vorteile, z. B. bei Quake 3 unter Windows 2000 :D Aber lassen wir Mal die Vergangenheit Vergangenheit sein ...

Eine CPU fürs hier und jetzt zu kaufen hat beim 2500K / 3570K noch funktioniert ( 2012 mit 4,2 GHz im OC ) aber selbst bei Star Craft 2 / WoW zersägt der 1700X @ Stock mit 2 x 16 GB DDR 3200 meinen ehemaligen 3570K @ 4,2 GHz regelrecht. Ryzen liegt von der IPC her ( zumindest in meinem Anwendungsfall ) zwischen Haswell und Broadwell, mit Tendenz zum Letztern.

Diese Vergleiche mit 7700K vs. 1700 langweilen mich nur noch. 1800X vs. 7820X hätte Mal was. Skylake mit Mesh und Last auf allen Kernen, da ist nicht viel mit Turbotakt. Der Vergleich ist viel interessanter.
 
Wobei wir wieder bei dem Thema wären, dass es die Leistung zum beinahe selben Preis schon seit ein paar Jährchen in Form des 5820k gibt, mit dem Unterschied, dass hier der Speicher kein solch limitierender Faktor ist, gerade hinsichtlich des CCX Aufbaus bei Ryzen.
 
Ist jetzt nicht so die Überraschung. Ich kann auf meinem Ryzen 1700X auch viel mehr nebenbei machen als auf meinem i7 6700K. Ich streame nicht aber was ich mache ist:

Simulationsberechnung und nebenbei was anderes (Arbeit, Browser oder mal ein Spiel)

Rendern(mache ich nicht so oft) und nebenbei anderes

Der 6700K hat hier auch deutlich mehr Probleme, allerdings hat der Arbeits-PC mit Ryzen auch 32GB Arbeitsspeicher. Die 16GB beim i7 sind sowieso knapp für Simulation.
 
Nein ist es nicht. Die GPU kann das wesentlich besser und den minimalen Qualitätsunterschied siehst du aufgrund der niedrigen Qualität (niedrige Bitrate/ecoding Qualität) einfach nicht.
Daher gilt dein Einwand nur bedingt und ist mehr oder weniger Haarspalterei.
GPU, wo steht da etwas in dem Post auf den ich eingegangen bin? Davon mal ab, da GPU beim Zocken oft den Flaschenhals darstellen macht es wohl wenig Sinn denen das encodieren zu überlassen.^^



Ja ne tolle Binsenweisheit, trotzdem kanns völlig egal sein, außer man macht eine Wissenschaft draus.
Ich kenne keinen Streamer der mit mehr als 10 Mbps Bitrate Streamt.
Alles klar, du bezeichnest Fakten als Binsenweisheiten, dem ist nichts mehr hinzuzufügen. :ugly:

MfG
 
Viele Youtuber/Streamer nutzen einfach (externe o. interne) Recodier-Hardware (Capture-Boxen), die über USB3/PCIe angebunden sind, und das Material über HDMI abgreifen, in Echtzeit recodieren, ggf. noch "Schnick-Schnack" einbinden, und es dann direkt auf die entsprechende Plattform streamen - ohne die CPU nennenswert zu belasten. Und "Profis" nehmen direkt nen 2ten PC.
Eben nicht. Wenn wirs mal der Einfachheit halber nur auf die Bitrate runterbrechen. Ob du jetzt bei YouTube ein 1080p Video mit 50.000 kbps hochlädtst oder ein Video mit 8-9000 kbps macht keinen Unterschied für das fertige Video.
....
Da ich es aus Neugier selbst schon ausprobiert habe, kann ich dir sagen, du liegst falsch. Ich habe auf Youtube Videos von <5MBit/s bis ~100Mbit/s hochgeladen. Die Videos wurden mit der CPU (im Nachgang) oder der GPU (on the fly) recodiert. Und ich habe mehrfach festgestellt, je besser die Qualität des hochgeladenen Materials ist, desto besser sieht das Ergebnis auf Youtube aus. Entscheidend ist hier nicht nur die Bitrate, sondern das Zusammenspiel aus Bitrate und Codec. Denn Youtube recodiert eigentlich nur aus einem Grund IMMER das hochgeladenen Material, weil es nämlich in allen möglichen Auflösungen (und mit unterschiedlichen Codecs) zum abspielen angeboten wird.

Um sich den Schritt der (CPU-)Recodierung zu sparen, kann man also auch problemlos mit zb. Shadowplay und 90-100MBit/s aufnehmen, und die Aufnahme direkt auf Youtube hochladen (natürlich nur wenn man mit entsprechender Bandbreite ans Internetz angebunden ist). Das sieht dann im fertigen Ergebnis zb. so aus: Half Life 2 - Episode 0 CM13 - 07.02.2016 00:56 Test - YouTube (die meisten Test-Videos hab ich mittlerweile wieder gelöscht)

Wie du siehst, ich habe (u.a.) dieses Testvideo mit Shadowplay und DSR in 3840x2160@1080p mit 90MBit aufgenommen und unbehandelt hochgeladen, trotzdem kannst du das Video auf Youtube nicht nur bis 1080p (=h264@4MBit), sondern auch bis hoch in 4k (VP9@22MBit) anschauen. Hätte ich das Quell-Video jetzt vorher recodiert, und mit reduzierter Bitrate hochgeladen, die Qualität der recodierten Videos wäre zumindest tlw. erkennbar reduziert.

Und auch beim Streaming werden in der Regel unterschiedliche Auflösungen (=Bitraten und tlw. Codecs) angeboten. Ergo ist auch hier eine Recodierung (on the fly, vom Anbieter) erforderlich. Also zählt auch hier, je besser der "Quell-Stream", desto besser die ausgespielten Streams. Nur das hier die meisten Anbieter einen Riegel bzgl. max. Bitrate vorschieben. Also ist es gerade hier am wichtigsten, die beste Qualität mit zb. 6MBit (Twitch) anzubieten. Und da ist der Unterschied zwischen on the fly über die CPU auf hohe Qualität codiert, oder über die GPU mit reduzierter Genauigkeit/Qualität, auch eher erkennbar. Sieht man ja an den Streams, die tlw. enorme Unterschiede bzgl. Bildqualität aufweisen.
 
Zuletzt bearbeitet:
Ehrlich jetzt ? Ein 8-Kerner kann nebenbei mehr Dinge erledigen als ein 4-Kerner ? Diese besondere Überraschung haut mich von den Füßen. :D
Der Test wäre höchstens gegen einen aktuellen Intel 8-Kerner interessant.

Wie sieht denn das mit dem GPU Encoding aus, wenn die GPU eh schon zu 99,9% ausgelastet ist?
Wenn ich aktuelle Spiele spiele, dann bin ich immer im GPU Limit. Ist da noch genug Luft für das GPU Encoding?
Betrachtet man BF1 als Beispiel, so ist da ein i7 auch schon stark ausgelastet, trotz GPU Limit, während ein Ryzen mit seinen 8 Kernen noch einiges an Luft hat und somit auch locker nebenbei CPU Encoding machen kann.

Das Encoding läuft größtenteils über die Video Engine (extra Chip), die GPU wird nur minimal belastet, es wird lediglich der Framebuffer (NVFBC) durch den Encoder gejagt (NVENC). Bei den 10x0-Karten ist das kaum noch merklich, bei Witcher 3 z.B. macht Shadowplay-Beweisaufnahme ~2-3fps aus (bei mir: 2560x1440 Ultra mit Hairworks auf einer 1080ti). Hat man VSync z.B. auf 60Hz merkt mans gar nicht. Bei Windowed-Games geht das nicht so einfach, da gibt es tatsächlich einen etwas größeren Abfall bei der Performance.

Anders schaut es aus, wenn nicht Shadowplay genutzt wird, sondern z.B. Videos umcodieren mit XMedia-Recode. Wenn ich eine unkomprimierte 4096x1716 AVI-Datei aus After Effects in XMedia-Recode zum komprimieren auf 150-200 MBit/s h.264 MP4 reinschicke, dann ist die Video Engine voll ausgelastet, die GPU liegt dann bei ca. 11-12% (encoding mit ~200-250fps). Das ist aber nicht der normale Use-Case, von daher muss man sich um Shadowplay GPU Encoding keine Sorgen machen ;)
 
Zuletzt bearbeitet:
Diese Vergleiche mit 7700K vs. 1700 langweilen mich nur noch. 1800X vs. 7820X hätte Mal was. Skylake mit Mesh und Last auf allen Kernen, da ist nicht viel mit Turbotakt. Der Vergleich ist viel interessanter.
Warum sollten Sie? Die Masse kauft CPUs zwischen 150 und 350 Euro und da lohnt die Werbung. CPUs um die 650 Euro sind über der anvisierte Preisklasse und für die Meisten auch keine Option. Ob ein 650 Euro Prozessor 5% schneller wie ein 350Euro Prozessor ist dürfte Ottonormalgamer wurscht sein. Preislich liegt der 7820X ja schon fast am EPIC 1920 wenn er gegen den auch kein Land sehen dürfte. Auch einen 450Euro X1800 mit einem 650Euro 7820X zu vergleichen macht nicht viel Sinn für die Meisten.
 
Ich nutze meinen Gamer-Laptop mit Capture Card zum streamen, mein i7-4790k ist dafür völlig ungeeignet.
Deshalb ist Ryzen auch so interessant für mich, findet sicherlich Beachtung in meinem nächstem PC Zusammenbau.
 
Ehrlich jetzt ? Ein 8-Kerner kann nebenbei mehr Dinge erledigen als ein 4-Kerner ? Diese besondere Überraschung haut mich von den Füßen. :D
Der Test wäre höchstens gegen einen aktuellen Intel 8-Kerner interessant.

nur da bewegen wir uns in ganz anderen Preisbereichen. 1700 und 7700K sind vom Preis her ähnlich und wird auch von viele Kunden genutzt
 
Sobald die Kerne richtig Ausgelastet werden geht die Spiele Leistung runter, da Ryzen es irgendwie nicht schafft die Grafikkarte zu befeuern. Können alle mal gerne ausprobieren die einen Ryzen haben. Einfach ein Spiel anmachen und mit irgend einem Programm 5 Threads oder mehr belasten. Ab circa 60% CPU Auslastung fängt das Theater an. Sieht man auch in vielen Live Stream Videos (wo ein Ryzen zum Einsatz kommt) auf YouTube oder in einem anderem Forum gibt es darüber einen Thread.

AMD - Limitiert AMDs RyZen die Grafikkarte??? UPDATE | HardwareInside Forum
 
Nehmt dem AMD vier Kerne weg und dann mal schauen... So ein Vergleich ist blödsinn und der Preis der CPU hat da auch nix mit zu tun....
 
Ich verstehe deshalb immernoch nicht, wozu jemand seinen Stream per CPU Encodiert. Bildqualitätsmäßig kommt beim Zuschauer absolut gar nichts davon an.
Zumal das Encoding per GPU nicht viel schlechter ist. Wir reden hier von ein paar Prozentpunkten die der Codec auf der GPU weniger Effizient komprimiert. Das wars dann aber auch schon.

Und deshalb kann ich auch AMDs Aussage nicht nachvollziehen, dass die CPU für Streamer besonders gut geeignet wäre...

verstehe ich nicht, hier geht es darum was ist schneller wenn man mit der CPU kodiert. Nicht darum ob du lieber die GPU nimmst.
 
Ehrlich jetzt ? Ein 8-Kerner kann nebenbei mehr Dinge erledigen als ein 4-Kerner ? Diese besondere Überraschung haut mich von den Füßen. :D
Der Test wäre höchstens gegen einen aktuellen Intel 8-Kerner interessant.

Es geht dabei aber wohl eher um preislich vergleichbare CPUs. ;)
 
Zurück