Netflix-App in UHD: Geforce und Radeon nicht geeignet - Kaby Lake einzige Option

Es ist offensichtlich und altbekannt, dass die gammel HW Encoder/Deoder von Nvidia und Amd immer Jahre dem aktuellen Stand hinterherhinken.
Der HW Decoder in den Pascal GPUs unterstützt HEVC bis hoch zu Main12, etwas fortschrittlicheres wirst du auch Abseits von PCs aktuell nirgends finden. Also tu uns einen Gefallen und hör auf Bullshit zu labern.
 
Stimmt. Das Problem ist, dass selbst ein 6950X nicht ansatzweise schnell genug ist, um ein HEVC10-Video mit entsprechender 4K-Bitrate (bis 128 MBit/s) abzuspielen. Ein kleiner 7200U dagegen macht das mit <5% CPU-Last in Hardware.

In FullHD und ohne 10bit ist das kein Problem, das kann jeder bessere Desktop-Prozessor in Software das stimmt. Aber wir reden hier von 4K/HDR - das geht selbst mit der schnellsten Hardware nicht ansatzweise per Softwareemulation.
Probiers aus (120 MBit HEVC 10bit wählen): http://jell.yfish.us/media/jellyfish-120-mbps-4k-uhd-hevc-10bit.mkv
Das kann nämlich weder deine CPU noch deine GTX980. ;-)


Hier gehts doch um Netflix oder nicht? Haben die 4K Streams mit HDR wirklich so hohe Anforderungen? Ich bezweifle das sehr stark. netflix empfiehlt 25 Mbit/s für UHD Streaming.

Abgesehen davon gabs auch zu h.264 Zeiten anfangs auf schwächeren Rechnern mit den ersten Decodern Probleme, 1080p Videos ruckelfrei abzuspielen. Das ist jetzt eigentlich nichts neues, zumal 25 Mbit/s UHD eigentlich locker mit halbwegs aktuellen CPUs laufen sollte.


Ach ja, und was das verlinkte Video betrifft.
Läuft bei mir absolut flüssig.

GPU wird zu 30% Ausgelastet und die CPU zu 45%.
Genutzt wird der Standard Windows 10 Player "Filme & TV"

Ja, bei einer derart großen Datenmenge wirds für die CPU alleine schwierig, was die Softwaredecodierung im VLC zeigt. Aber wie gesagt, wir reden hier über Netflix...
 
Zuletzt bearbeitet:
4K bedeutet nicht automatisch HEVC10. 4K kann auch im alten AVC kodiert sein (schafft jede Hardware die nicht viele Jahre alt ist) oder im HEVC8 was auch Laptopgrafikkarten schon länger in Hardware können.

Es ist halt schwer zu differenzieren wenn man sich nicht die Codierungsdetails genau ansieht. Alleine das "4K" macht leider keine Aussage.
Man kann sich die Freeware MediaInfo schnappen (ist im KLite Pack sowieso dabei) und die Details einer Mediendatei auslesen. Da findet man dann Infos über Codec, Bittiefe und Bitrate - das sind die Dinge die entscheiden wos läuft und wo nicht (nicht die Auflösung).

100% korrekt sollte jemand mal wissen wie man dem Pc HDR bei bringen kann wäre das ja mal der HIT ich hatte einen trick der funzte aber nur gelegentlich:

ich hab ezb resident 7 gestartet und dann mit Taskmanager unterbrochen der das Spiel steuerte den tv immer noch per HDR an und ich konnte die videos in Hdr sehen allerdings mit ruckeln und etwas übertriebener HDR(verglichen zum internen Palyer des TV)
aber es hat geklappt theoretisch denke ich muss die Software nur der Grafikkarte sagen : hey hdr an! so wie es eben das spiel macht!
 
Streams in HDR müssen zwingend Main10, also 10bit verwenden (um echtes HDR zu speichern und abzuspielen, also nicht nachträglich drüberzufiltern wie es aktuelle Spiele tun). Das ist der Punkt wo viele Decoder aufgeben weil die ersten HW-Decoder nur bis 8bit können. Und das ist der Pnkt wo extrem viel rechenpower benötigt wird um das in Software zu erledigen.

Wenn Netflix 25 MBit/s empfiehlt gehe ich mit Puffer mal davon aus, dass ihr Material bei irgendwas zwischen 10 und 20 MBit an Bitrate liegen wird (macht übrigens auch ne Aussage über deren Qualität wenn man die Bitrate einfach mal halbiert bis drittelt...).
In AVC kann das eine 10 Jahre alte CPU und im HEVC8 eine halbwegs aktuelle (also ein SandyBridge oder sowas) - das Problem ist das HDR und entsprechend HEVC10 - da wirds bei 25 MBit schon eng wenn man nicht grade eine schnelle aktuelle CPU hat (und das ist in der breiten Masse nunmal nicht so die auf viele jahre alten DualCores rumeiert).

Aber nochmal - das reine Rechenpowerproblem würde sich von selbst lösen - die hardware wird schneller (auch in der breiten Masse) und die hardwarebeschleunigung solcher Codecs wird auch automatisch immer verbreiteter wenn Leute aufrüsten und neu kaufen. Die DRM-Begrenzung ist dagegen künstlich und wird sich nicht von selbst lösen - egal welche Hardware.
 
Streams in HDR müssen zwingend Main10, also 10bit verwenden (um echtes HDR zu speichern und abzuspielen, also nicht nachträglich drüberzufiltern wie es aktuelle Spiele tun). Das ist der Punkt wo viele Decoder aufgeben weil die ersten HW-Decoder nur bis 8bit können. Und das ist der Pnkt wo extrem viel rechenpower benötigt wird um das in Software zu erledigen.

Wenn Netflix 25 MBit/s empfiehlt gehe ich mit Puffer mal davon aus, dass ihr Material bei irgendwas zwischen 10 und 20 MBit an Bitrate liegen wird (macht übrigens auch ne Aussage über deren Qualität wenn man die Bitrate einfach mal halbiert bis drittelt...).
In AVC kann das eine 10 Jahre alte CPU und im HEVC8 eine halbwegs aktuelle (also ein SandyBridge oder sowas) - das Problem ist das HDR und entsprechend HEVC10 - da wirds bei 25 MBit schon eng wenn man nicht grade eine schnelle aktuelle CPU hat (und das ist in der breiten Masse nunmal nicht so die auf viele jahre alten DualCores rumeiert).

Aber nochmal - das reine Rechenpowerproblem würde sich von selbst lösen - die hardware wird schneller (auch in der breiten Masse) und die hardwarebeschleunigung solcher Codecs wird auch automatisch immer verbreiteter wenn Leute aufrüsten und neu kaufen. Die DRM-Begrenzung ist dagegen künstlich und wird sich nicht von selbst lösen - egal welche Hardware.

20 mbit davon kann ich hier nur träumen wir erreichen hier gerade mal 7-10 lol das nervt extrem:(
 
Streams in HDR müssen zwingend Main10, also 10bit verwenden (um echtes HDR zu speichern und abzuspielen, also nicht nachträglich drüberzufiltern wie es aktuelle Spiele tun). Das ist der Punkt wo viele Decoder aufgeben weil die ersten HW-Decoder nur bis 8bit können. Und das ist der Pnkt wo extrem viel rechenpower benötigt wird um das in Software zu erledigen.

Wenn Netflix 25 MBit/s empfiehlt gehe ich mit Puffer mal davon aus, dass ihr Material bei irgendwas zwischen 10 und 20 MBit an Bitrate liegen wird.
In AVC kann das eine 10 Jahre alte CPU und im HEVC8 eine halbwegs aktuelle (also ein SandyBridge oder sowas) - das Problem ist das HDR und entsprechend HEVC10 - da wirds bei 25 MBit schon eng wenn man nicht grade eine schnelle aktuelle CPU hat (und das ist in der breiten Masse nunmal nicht so die auf viele jahre alten DualCores rumeiert).

Aber nochmal - das reine Rechenpowerproblem würde sich von selbst lösen - die hardware wird schneller (auch in der breiten Masse) und die hardwarebeschleunigung solcher Codecs wird auch automatisch immer verbreiteter wenn Leute aufrüsten und neu kaufen. Die DRM-Begrenzung ist dagegen künstlich und wird sich nicht von selbst lösen - egal welche Hardware.

Gut, aber wie erklärst du dir, dass das von dir verlinkte Video bei mir absolut flüssig läuft? Müsste es ja bei dir auch mit Windows 10.

Also was auch immer benötigt wird, scheint vorhanden zu sein.
Ich meine, es funktioniert bei mir JETZT schon flüssig, mit zwei Jahre alter Hardware. Zwar scheinbar mit Hardware Decodierung, aber es funktioniert.
Und das ist zudem ja noch ein ziemlich übertriebenes 120 Mbps Video...
 
Gut, aber wie erklärst du dir, dass das von dir verlinkte Video bei mir absolut flüssig läuft?

Erkläre ich dir gerne. Deine CPU kann den HEVC in Hardware decodieren - allerdings nur bis 8bit. Nun hat Intel bei Skylake die Fähigkeiten der iGPU und der CPU kombiniert und ein "hybrid-HEVC10" geschaffen - die iGPU decodiert das was sie kann und der Rest wird auf die CPU ausgelagert. Dieses ist zwar bei weitem nicht so schnell wie echte HEVC10 hardware Decodierung, reicht aber offenbar für das 120er Jellyfish Video noch aus (was mich zugegeben etwas verwundert - denn wie gesagt beim 6600K meiner Frau ruckelts^^).

Eine andere Möglichkeit wäre, dass ein (Software-)Decoder verwendet wird der "Abkürzungen" geht, also nicht alle Details darstellt und ggf. auch mal nen Frame verwirft - oder schlichtweg neuer/effektiver ist als unserer bzw. vielleicht läuft bei meiner Frau noch einer der das Hybrid-HEVC10 nicht unterstützt und es rein auf der CPU eiert was dann nicht reicht.
 
Erkläre ich dir gerne. Deine CPU kann den HEVC in Hardware decodieren - allerdings nur bis 8bit. Nun hat Intel bei Skylake die Fähigkeiten der iGPU und der CPU kombiniert und ein "hybrid-HEVC10" geschaffen - die iGPU decodiert das was sie kann und der Rest wird auf die CPU ausgelagert. Dieses ist zwar bei weitem nicht so schnell wie echte HEVC10 hardware Decodierung, reicht aber offenbar für das 120er Jellyfish Video noch aus (was mich zugegeben etwas verwundert - denn wie gesagt beim 6600K meiner Frau ruckelts^^).

Eine andere Möglichkeit wäre, dass ein (Software-)Decoder verwendet wird der "Abkürzungen" geht, also nicht alle Details darstellt und ggf. auch mal nen Frame verwirft.

OK, klingt plausibel. Aber meine IGPU ist deaktiviert. :)
Für Hardware en- und decoding muss die doch aktiviert sein oder nicht? Wenn ich z.B. in Handbrake ein Video per Intel QuickSync encodieren möchte, muss ich die IGPU im UEFI aktivieren und unter Windows installieren, sonst kann ich die Funktionen nicht nutzen. Müsste ja beim decoding genauso sein... Ich kann mir nicht vorstellen, dass der Player den hardwaredecoder erkennen kann, wenn die IGPU nichtmal im Gerätemanager ist. :ugly:

EDIT:
So sieht das bei mir auslastungstechnisch aus:
Screenshot.png

(hab vorhin die Auslastung nur im Fenstermodus abgelesen. Mit maximiertem Fenster ist sie etwas höher.)

Auffällig ist, die CPU Taktet nichtmal hoch...
 
Zuletzt bearbeitet:
Wenn das aber so kompliziert ist das Angebot von Netflix zu benutzen dann lassen das halt viele! Man kann es auch übertreiben mit Kopierschutz und Systemanforderungen....

Vorallem das die nVidia und Radeon Grafikkarten nicht den nötigen Support für sowas bieten (muss ja nicht nur bei Netflix bleiben) finde ich sehr sehr schade.... das Zeugt von zu viel Geldplänen (von wem genau auch immer) oder ganz einfacvh von "den Herstellern ist es es egal"

Am Ende blöd für den Kunden... dann schaue ich halt lieber kein Netflix in UHD... denn so nen Netzanschluss über 20MB/s kostet ja nun auch einiges an Geld!
 
Für Hardware en- und decoding muss die doch aktiviert sein oder nicht?
Ja. Deaktiviert kann sie nix machen.

So sieht das bei mir auslastungstechnisch aus:
Anhang anzeigen 938205

Ok, deine 4 kerne der CPU sind fast voll ausgelastet (fast 50%, die anderen 50% sind die SMT-Threads) und deine Grafikkarte scheint da noch mitzumischen.
keine Ahnung wer da jetzt mit welchem Codec was macht... aber es scheint ja zu funktionieren :ugly:

Bei meiner Frau ist die CPU auf 99% am Anschlag und die GTX970 macht gar nix (1%). So funktionierts nicht^^
 
Wenn das aber so kompliziert ist das Angebot von Netflix zu benutzen dann lassen das halt viele! Man kann es auch übertreiben mit Kopierschutz und Systemanforderungen....

Vorallem das die nVidia und Radeon Grafikkarten nicht den nötigen Support für sowas bieten (muss ja nicht nur bei Netflix bleiben) finde ich sehr sehr schade.... das Zeugt von zu viel Geldplänen (von wem genau auch immer) oder ganz einfacvh von "den Herstellern ist es es egal"

Am Ende blöd für den Kunden... dann schaue ich halt lieber kein Netflix in UHD... denn so nen Netzanschluss über 20MB/s kostet ja nun auch einiges an Geld!

Ich kann dir sagen das ne 16mbit leitung für 4k inhalte bei netflix reicht, läuft bei mir über die App aufm Hisense Fernseher
 
Die Bitrate muss verdammt niedrig sein, wenn eine 16 MBit Leitung reichen soll.

Tja, Bildqualität und Bitrate sind nicht werbewirksam.
"Voll krass 4K und läuft auf meiner Leitung" dagegen schon. Die allerwenigsten User werden bemerken, dass die Qualität von Netflix-4K unterirdisch schlecht ist im Vergleich zu UHD-BD-4K - genauso wie Netflix-FullHD ein Witz ist gegen eine BluRay... bei Netflix kannste wenn man drauf achtet die Kompressionsartefakte mitzählen.

Die Bitraten die Netflix (und auch andere Streamer) für 4K vorsehen wären für anständiges FullHD ausreichend... mehr nicht.
 
Tja, Bildqualität und Bitrate sind nicht werbewirksam.
"Voll krass 4K und läuft auf meiner Leitung" dagegen schon. Die allerwenigsten User werden bemerken, dass die Qualität von Netflix-4K unterirdisch schlecht ist im Vergleich zu UHD-BD-4K - genauso wie Netflix-FullHD ein Witz ist gegen eine BluRay... bei Netflix kannste wenn man drauf achtet die Kompressionsartefakte mitzählen.

Die Bitraten die Netflix (und auch andere Streamer) für 4K vorsehen wären für anständiges FullHD ausreichend... mehr nicht.

jup das ist so was von Korrekt daher muss ich auch immer schmunzeln wenn ps4 pro User mir klar machen wollen das es kein uhd Laufwerk braucht weil ja netflix genau so gut ist wie eine UHd brrrrr....
 
Tja, Bildqualität und Bitrate sind nicht werbewirksam.
"Voll krass 4K und läuft auf meiner Leitung" dagegen schon. Die allerwenigsten User werden bemerken, dass die Qualität von Netflix-4K unterirdisch schlecht ist im Vergleich zu UHD-BD-4K - genauso wie Netflix-FullHD ein Witz ist gegen eine BluRay... bei Netflix kannste wenn man drauf achtet die Kompressionsartefakte mitzählen.

Die Bitraten die Netflix (und auch andere Streamer) für 4K vorsehen wären für anständiges FullHD ausreichend... mehr nicht.
Das ist auch der entscheidende Punkt, warum Streaming für mich niemals die Blu-ray ersetzen kann. Ich bin ein Bildqualitätsfetischist und kaufe mir wann immer es möglich/sinnvoll ist Blu-rays. Am PC nutze ich den MPC-HC in Verbindung mit der neuesten Version von madVR und dessen NGU Algorithmus auf mittleren bis hohen Einstellungen. Beim direkten Abspielen eines BDMV Streams muss meine GTX 1080 mit den Einstellungen alles geben, es liegen die vollen 2050 MHz Takt an, ~70°C Temperatur und sie brät 180-200W weg :D
 
Tja, Bildqualität und Bitrate sind nicht werbewirksam.
"Voll krass 4K und läuft auf meiner Leitung" dagegen schon. Die allerwenigsten User werden bemerken, dass die Qualität von Netflix-4K unterirdisch schlecht ist im Vergleich zu UHD-BD-4K - genauso wie Netflix-FullHD ein Witz ist gegen eine BluRay... bei Netflix kannste wenn man drauf achtet die Kompressionsartefakte mitzählen.

Die Bitraten die Netflix (und auch andere Streamer) für 4K vorsehen wären für anständiges FullHD ausreichend... mehr nicht.

Das ist richtig.

Wobei man aber sagen muss, dass Bitrate und damit Qualität immer nach oben skaliert. Für 1080p empfiehlt Netflix 5 Mbit/s. Ich habe 16 Mbit/s und wenn ich nen Stream laufen lasse, dann wird meine Leitung zu 80% ausgelastet.

Ich kann aber genauso gut zwei 1080p Streams laufen lassen. Netflix zeigt dann immernoch an, dass die Auflösung 1080p beträgt (es gibt ja auch 720p und 480p) aber man sieht, dass die Bitrate niedriger ist.
Ich vermute mal, dass die Angaben eher dem entsprechen, was man mindestens braucht. Hat man mehr Bandbreite, bekommt man auch bis zu nem gewissen Punkt mehr Bitrate.

Abgesehen davon hat sich die Qualität der 1080p Streams in letzter Zeit verbessert. Anfangs gabs bei Filmen wie Transformers oder Avangers in bewegungslastigen Szenen relativ viel Matsch zu sehen. Das hat sich IMHO deutlich reduziert. Netflix hat letztes Jahr auch mal die komplette Videosammlung neu encodiert, um die Qualität bei gleicher Bitrate zu verbessern. Gab da auch ellenlange Blogeinträge über encoder Settings usw...


Die Qualität geht für mich mittlerweile völlig in Ordnung und übertrifft z.B. natives 1080i SAT-TV bei weitem. Klar, eine BluRay ist besser, aber das was Netflix beim Auslasten meiner Bandbreite an Qualität hergibt ist mehr als ordentlich und auch um Welten besser, als 4K Youtube. Letzteres sieht deutlich schlechter aus, um nicht zu sagen zum k*tzen und läuft nicht ohne zwischenpuffern.
 
und ich hab schon an mir gezweifelt?!

Wenn Netflix nicht will das wir da sehen... wo ist die Konkurrenz?
 
Zurück