Das was du sagst ist grundsätzlich nicht falsch. Es kommt aber immer darauf an, wie hoch die Bitrate des Streaming Dienstes im Verhältnis zum Ausgangsmaterial ist. Je höher die Bitrate, desto eher siehst du die Unterschiede, die du beschrieben hast. Je niedriger die Bitrate, desto geringer werden die Unterschiede, bis zu dem Punkt, an dem es keinen Unterschied mehr geben kann. Die Videostreaming dienste sind ganz nah an letzterem.
Das kann wie gesagt jeder selbst testen. Lad bei Google Drive einen 1080p Stream hoch, einmal mit 50 Mbps und einmal mit 10 Mbps und lass die Videos verarbeiten und schau dann ob du nach dem Encoding einen Unterschied sehen kannst.
Was du im Screenhsotvergleich sehen wirst, sind zwei Encodings, die im Detail leicht unterschiedlich aussehen. Beide Ergebnisse sind aber gleich schlecht bzw. gleich weit vom Ausgangsmaterial entfernt und du wirst nicht mehr feststellen können, welches Video das 50 Mbps Video ist, und welches das 10 Mbps Video.
Kann mir hier irgend jemand nen Twitch Stream mit 10-15 Mbps Bitrate zeigen?
Das maximum was ich immer finde sind ca. 7 mbps und die Qualität ist auf Source bei JEDEM Streamer, den ich bisher gesehen habe unterirdisch schlecht, auch bei Streamern, die mit CPU encodieren.
Also doch reencoding trotz "Source" Einstellung?!
Du hast recht mehr als 7mbit hab ich bisher auch noch nicht gesehen.
Allerdings frage ich mich was du für Probleme hast. Die Streams mit 7mbit bieten doch top Qualität.
Ich bin schon relativ verwöhnt was das angeht, aber sowas als Matsch oder unterirdisch schlecht zu bezeichnen ist schon sehr weit daneben.