Ryzen 1700 vs. Core i7-7700K: AMD hat beim Live-Streamen viel mehr Puste

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Ryzen 1700 vs. Core i7-7700K: AMD hat beim Live-Streamen viel mehr Puste

AMD bewirbt bei seinen großen Ryzen-7-CPUs die Streaming-Fähigkeiten. Acht Kerne genügen, um welche vom Spiel abzuzwacken und zum Enkodieren zu nutzen. Ein unabhängiger Test des Ryzen 7 gegen Intels Core i7-7700K zeigt, dass das stimmt, der Unterschied aber vor allem in Zukunft zum Tragen kommen kann.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Ryzen 1700 vs. Core i7-7700K: AMD hat beim Live-Streamen viel mehr Puste
 
Gängig ist ein Enkodieren über die H.264- oder HEVC-Einheiten moderner GPUs mittels Open Broadcaster Software (OBS), AMD Relive oder Nvidia Shadowplay - das kostet nahezu keine Performance, bietet dafür aber auch nicht die beste Bildqualität für Zuschauer.

Sowohl Twitch, als auich YouTube koprimieren den Stream nochmal neu. Und zwar mit viel zu geringer Bitrate.
Im Endeffekt ist die Qualität immer ziemlich schlecht, egal, wie gut der Stream ist, den man Hochlädt.

Ich verstehe deshalb immernoch nicht, wozu jemand seinen Stream per CPU Encodiert. Bildqualitätsmäßig kommt beim Zuschauer absolut gar nichts davon an.
Zumal das Encoding per GPU nicht viel schlechter ist. Wir reden hier von ein paar Prozentpunkten die der Codec auf der GPU weniger Effizient komprimiert. Das wars dann aber auch schon.

Und deshalb kann ich auch AMDs Aussage nicht nachvollziehen, dass die CPU für Streamer besonders gut geeignet wäre...
 
Sowohl Twitch, als auich YouTube koprimieren den Stream nochmal neu. Und zwar mit viel zu geringer Bitrate.
Im Endeffekt ist die Qualität immer ziemlich schlecht, egal, wie gut der Stream ist, den man Hochlädt.

Ich verstehe deshalb immernoch nicht, wozu jemand seinen Stream per CPU Encodiert. Bildqualitätsmäßig kommt beim Zuschauer absolut gar nichts davon an.
Zumal das Encoding per GPU nicht viel schlechter ist. Wir reden hier von ein paar Prozentpunkten die der Codec auf der GPU weniger Effizient komprimiert. Das wars dann aber auch schon.

Und deshalb kann ich auch AMDs Aussage nicht nachvollziehen, dass die CPU für Streamer besonders gut geeignet wäre...
Ganz einfach. Um so besser das Ausgangsmaterial bei nachträglicher Komprimierung um so besser ist dann auch das Endergebnis.

MfG
 
Hm, über Geforce Experience war das in den seltenen Fällen wo ich streamte immer fluffig.

Ich hoffe allerdings auch, dass zukünftig nicht jeder Depp auf die Idee kommt, seine Grütze zusätzlich streamen zu müssen...

Gesendet von meinem HTC 10 mit Tapatalk
 
Ganz einfach. Um so besser das Ausgangsmaterial bei nachträglicher Komprimierung um so besser ist dann auch das Endergebnis.

MfG


Eben nicht. Wenn wirs mal der Einfachheit halber nur auf die Bitrate runterbrechen. Ob du jetzt bei YouTube ein 1080p Video mit 50.000 kbps hochlädtst oder ein Video mit 8-9000 kbps macht keinen Unterschied für das fertige Video.
Die Bitrate und allgemein die encoding qualität ist bei den Videodiensten einfach viel zu schlecht, als dass da auch nur ein Fünklechen von dem übrig bleiben würde, was du vorher an Bitrate oder Qualität investierst hast.
Erst wenn bei deinem Ausgangsmaterial kompressions artefakte sichtbar sind, wirst du die im finalen Video sehen. Solange aufgrund der Bitrate bei den zwei genannten Videos nur minimalste Unterschiede bei der Detailschärfe sichtbar sind, wird das so oder so alles wegkomprimiert und im Matsch untergehen.

Ich hab genau deswegen selbst einige Tests bzw. Screenshot Vergleiche mit Google Drive und YouTube gemacht. Bei der starken Kompression ist jegliche Mühe völlig umsonst.

Stell dir als Analogie vor, du hast eine starke Sehschwäche und schaust auf ein 720p Display und zum Vergleich auf ein 4K Display. Du wirst keinerlei Unterschied erkennen können. Hier verhält es sich ähnlich.
 
Eine gute Freundin von mir die streamt ist vor einiger Zeit auch von nem 6700K auf einen 1700X gewechselt.

Tatsächlich hatte ihre alte CPU wirklich hier und da mal Last mit dem encoden hinterher zu kommen, derbe aufgefallen komischerweise bei Rise of the Tomb Raider. Da musste tatsächlich zwischendurch richtig beschnitten werden, weil es sonst nicht lief. - Erklärbar war das für mich zwar auch nicht, weil der 6700K das eigentlich locker hätte packen müssen.

Mit dem 1700X ist sie sehr, sehr zufrieden und klagt über keinerlei Leistungseinbüße und kann Seelenruhig noch nebenher was machen. :daumen:
 
Eben nicht. Wenn wirs mal der Einfachheit halber nur auf die Bitrate runterbrechen. Ob du jetzt bei YouTube ein 1080p Video mit 50.000 kbps hochlädtst oder ein Video mit 8-9000 kbps macht keinen Unterschied für das fertige Video.
Die Bitrate und allgemein die encoding qualität ist bei den Videodiensten einfach viel zu schlecht, als dass da auch nur ein Fünklechen von dem übrig bleiben würde, was du vorher an Bitrate oder Qualität investierst hast.
Erst wenn bei deinem Ausgangsmaterial kompressions artefakte sichtbar sind, wirst du die im finalen Video sehen. Solange aufgrund der Bitrate bei den zwei genannten Videos nur minimalste Unterschiede bei der Detailschärfe sichtbar sind, wird das so oder so alles wegkomprimiert und im Matsch untergehen.

Ich hab genau deswegen selbst einige Tests bzw. Screenshot Vergleiche mit Google Drive und YouTube gemacht. Bei der starken Kompression ist jegliche Mühe völlig umsonst.

Stell dir als Analogie vor, du hast eine starke Sehschwäche und schaust auf ein 720p Display und zum Vergleich auf ein 4K Display. Du wirst keinerlei Unterschied erkennen können. Hier verhält es sich ähnlich.

Sorry aber das ist einfach Quatsch. Um so besser das Ausgangsmaterial um so besser dann das Endergebnis beim erneuten Komprimieren. Ist auch logisch, da bereits durch das erste verlustbehaftete encoding Informationen verloren gehen, komprimiert man dann diese erneut, gehen weitere Informationen verloren. Um so weniger also bei ersten encoding an Informationen verloren geht um so besser wird das Ergebnis beim erneuten Komprimieren.

MfG

MfG
 
Ich verstehe deshalb immernoch nicht, wozu jemand seinen Stream per CPU Encodiert. Bildqualitätsmäßig kommt beim Zuschauer absolut gar nichts davon an.

GPU-Encoding stinkt gegen CPU-Encoding einfach ab.
Den Qualitätsverlust siehst du beim Stream / Aufnahme.

P.S.: Und natürlich preist AMD seinen als Optimal für Streamer an. X.264 profitiert von Kernen statt Takt.
P.S.2: Twitchstreaming, wie sich das ganze bei Youtube-Live verhält, habe ich nicht ausprobiert.
 
Sowohl Twitch, als auich YouTube koprimieren den Stream nochmal neu. Und zwar mit viel zu geringer Bitrate.
Im Endeffekt ist die Qualität immer ziemlich schlecht, egal, wie gut der Stream ist, den man Hochlädt.

Da Twitch bei jedem Stream auch die "Source" Qualitätsstufe anbietet, was im Endeffekt 1:1 Qualität vom Uploader ist, stimmt diese Aussage nur zum Teil- bei YT trifft das zu, bei Twitch nicht.
 
Die beste Möglichkeit ist ja eine externe Lösung, die es hardwaremäßig macht oder ein zweiter PC, ist halt eben etwas teuer.

Sorry aber das ist einfach Quatsch. Um so besser das Ausgangsmaterial um so besser dann das Endergebnis beim erneuten Komprimieren. Ist auch logisch, da bereits durch das erste verlustbehaftete encoding Informationen verloren gehen, komprimiert man dann diese erneut, gehen weitere Informationen verloren. Um so weniger also bei ersten encoding an Informationen verloren geht um so besser wird das Ergebnis beim erneuten Komprimieren.

Die Frage ist ob das ganze noch Praxisrelevant ist. Klar gibt es einen theoretischen Unterschied, wenn man ein 4K/60Hz@ 100 MBit Video oder eine normale 1080p Blu Ray auf 320x240/30HZ@56 KBits komprimiert, einen wirklichen Unterschied wahrnehmen wird man jedoch nicht.
 

Oh ja.
Spätestens wenn man aber in die Zukunft mit steigenden Auflösungen, Bild- und Bitraten denkt...
Daher finde ich die ganzen Benchmarks irgendwie ~unpassend. Ist idR. ne Momentaufnahme ohne der Möglichkeit nur einen Millimeter weiter nach vorne zu schauen.
Finde es lustig wenn Leute ihre CPU 5+ Jahre behalten aber nur an das <Jetzt> denken = kaufen; wird dann ne Intel CPU weil die ja ua. bei Starcraft2 (deutlich?) schneller ist. Fragt man wann die das letzte mal Starcraft2 gezockt haben kriegt man idR. ein ähmm zu hören. :klatsch:
Man könnte auch fragen / mal nachdenken was war vor 5 Jahren und was ist heute up-to-date. Könnte man diese Erfahrung ggf. auf die nächsten 5+ Jahre hochinterpolieren?
Ich sage dazu einfach mal ja.
 
Zuletzt bearbeitet:
Sorry aber das ist einfach Quatsch. Um so besser das Ausgangsmaterial um so besser dann das Endergebnis beim erneuten Komprimieren. Ist auch logisch, da bereits durch das erste verlustbehaftete encoding Informationen verloren gehen, komprimiert man dann diese erneut, gehen weitere Informationen verloren. Um so weniger also bei ersten encoding an Informationen verloren geht um so besser wird das Ergebnis beim erneuten Komprimieren.

MfG

MfG

Das was du sagst ist grundsätzlich nicht falsch. Es kommt aber immer darauf an, wie hoch die Bitrate des Streaming Dienstes im Verhältnis zum Ausgangsmaterial ist. Je höher die Bitrate, desto eher siehst du die Unterschiede, die du beschrieben hast. Je niedriger die Bitrate, desto geringer werden die Unterschiede, bis zu dem Punkt, an dem es keinen Unterschied mehr geben kann. Die Videostreaming dienste sind ganz nah an letzterem.


Das kann wie gesagt jeder selbst testen. Lad bei Google Drive einen 1080p Stream hoch, einmal mit 50 Mbps und einmal mit 10 Mbps und lass die Videos verarbeiten und schau dann ob du nach dem Encoding einen Unterschied sehen kannst.
Was du im Screenhsotvergleich sehen wirst, sind zwei Encodings, die im Detail leicht unterschiedlich aussehen. Beide Ergebnisse sind aber gleich schlecht bzw. gleich weit vom Ausgangsmaterial entfernt und du wirst nicht mehr feststellen können, welches Video das 50 Mbps Video ist, und welches das 10 Mbps Video.


Da Twitch bei jedem Stream auch die "Source" Qualitätsstufe anbietet, was im Endeffekt 1:1 Qualität vom Uploader ist, stimmt diese Aussage nur zum Teil- bei YT trifft das zu, bei Twitch nicht.

Kann mir hier irgend jemand nen Twitch Stream mit 10-15 Mbps Bitrate zeigen?

Das maximum was ich immer finde sind ca. 7 mbps und die Qualität ist auf Source bei JEDEM Streamer, den ich bisher gesehen habe unterirdisch schlecht, auch bei Streamern, die mit CPU encodieren.
Also doch reencoding trotz "Source" Einstellung?!
 
Zuletzt bearbeitet:
**Das kann nicht sein die müssen einen Fehler gemacht haben.

Kein Mensch brauch mehr als 4 Kerne, und schon garnicht Spieler so ein Quatsch, ich weigere mich zu glauben das ich mehr als 4Kerner + SMT kaufte und unterm Strich noch etwas sinnvolles getan habe.

Das passt nicht zu mir.

Fake News soweit ist PCGH schon gefallen ;-) **

Vorsichtshalber :
**könnte Spuren von Ironie enthalten**
 
Daher finde ich die ganzen Benchmarks irgendwie ~unpassend. Ist idR. ne Momentaufnahme ohne der Möglichkeit nur einen Millimeter weiter nach vorne zu schauen.
Finde es lustig wenn Leute ihre CPU 5+ Jahre behalten aber nur an das <Jetzt> denken = kaufen; was war vor 5 Jahren und könnte man diese Erfahrung ggf. auf die nächsten 5+ Jahre hochinterpolieren?
Ich sage dazu einfach mal ja.

Nicht wirklich, was so in den nächsten 5 Jahren passiert kann heute keiner sagen, dass hat sich auch in den letzten 15 Jahren öfters geändert. Bis etwa 2006 brauchte man eine möglichst hoch getaktete 1 Kern CPU, es gab zwar auch Multi CPU Boards (bis zum P3 konnte man da sogar normale CPUs verbauen), doch die spielten bei Spielen keine Rolle. Ab 2006 konnte man nichtmehr höher takten, dafür waren mehr Kerne angesagt, am besten bis zu 4. Nach dem Bulldozerflopp blieb es bei 4 schnellen Kernen , wer sich ab 2011 eine i7 oder i5 Intel CPU gekauft hat, der hat alles richtig gemacht, noch "richtiger" ging es nur auf der Entusiastenplattform.

Nun hat AMD dafür gesorgt, dass es wieder mehr Kerne gibt, 8 für Normalos, bzw 16 für Leute, die 1000€ hinlegen und nächstes Jahr steigt die Kernzahl eines CCX Clusters sogar auf 6, sprich für Normalos gibt es dann wohl 12 Kerne und für die Enthusiasten ganze 24 Kerne. Wie es in den 3 Jahren danach weitergeht kann keiner sagen, gut möglich, dass wir dann bei 32 bis 64 Kernen sind und ob die in Spielen genutzt werden können kann auch keiner sagen, sie Amdahlsches Gesetz.
 
Sorry aber das ist einfach Quatsch.

Nein ist es nicht. Die GPU kann das wesentlich besser und den minimalen Qualitätsunterschied siehst du aufgrund der niedrigen Qualität (niedrige Bitrate/ecoding Qualität) einfach nicht.
Daher gilt dein Einwand nur bedingt und ist mehr oder weniger Haarspalterei.


Um so besser das Ausgangsmaterial um so besser dann das Endergebnis beim erneuten Komprimieren.

Ja ne tolle Binsenweisheit, trotzdem kanns völlig egal sein, außer man macht eine Wissenschaft draus.
Ich kenne keinen Streamer der mit mehr als 10 Mbps Bitrate Streamt.
 
Zuletzt bearbeitet:
Zurück