Netflix-App in UHD: Geforce und Radeon nicht geeignet - Kaby Lake einzige Option

obwohl die alte Hardware und erstrecht der PC locker dazu in der Lage wären┐

Eben nicht. Ist das so schwer zu kapieren? Ich weiß auch nicht, was diese Artikel zu der Sache ständig sollen auf allen möglichen Seiten. Es ist simpel und nicht erwähenswert. Entweder man hat den unterstützen HW Encoder, oder nicht. Was hat das jetzt mit "geht nur mit Intel, Nvidia und AMD sind raus" zu tun!? Es ist offensichtlich und altbekannt, dass die gammel HW Encoder/Deoder von Nvidia und Amd immer Jahre dem aktuellen Stand hinterherhinken.
 
Eben nicht. Ist das so schwer zu kapieren? Ich weiß auch nicht, was diese Artikel zu der Sache ständig sollen auf allen möglichen Seiten. Es ist simpel und nicht erwähenswert. Entweder man hat den unterstützen HW Encoder, oder nicht. Was hat das jetzt mit "geht nur mit Intel, Nvidia und AMD sind raus" zu tun!? Es ist offensichtlich und altbekannt, dass die gammel HW Encoder/Deoder von Nvidia und Amd immer Jahre dem aktuellen Stand hinterherhinken.

Du verstehst es nicht oder?
Man braucht keinen Hardware Decoder. Software kann und macht das gleiche, nur nicht so effizient. Das ist alles. Bei Hardware decodern gehts rein um die Effizienz, um Aufwändige Codecs auch auf Smartphones oder Settop Boxen nutzen zu können.

Kaby Lakes Hardware Decoder ist nur deswegen notwendig, weil er "zufällig" den passenden Kopierschutz unterstützt. Nicht der Decoder wird benötigt, sondern der Kopierschutz.
Der Hardware Decoder von Kaby Lake ist aus rein technischer Sicht eigentlich nur für Notebooks intressant, weil er den Stromverbrauch beim abspielen von Videos reduziert.

Grundsätzlich sind ja auch Software decoder die quasi "Grundlage" für das abspielen von Videos. Hardware Decoder kommen dann meist erst Jahre oder Monate später, um eben den Rechenaufwand/Stromverbrauch im Griff zu halten. Von "benötigt" kann da nicht die Rede sein. Hardware Decoder sind völlig optional, wenn nicht irgendwelche Trottel mit rein politischen Entscheidungen alles kaputt machen würden.
 
Es ist offensichtlich und altbekannt, dass die gammel HW Encoder/Deoder von Nvidia und Amd immer Jahre dem aktuellen Stand hinterherhinken.

Achso?
Lass mich nachsehen...
Der neue HEVC wurde im Januar 2013 von der ITU als standard angenommen und im Juni 2013 veröffentlicht, die erste offizielle Anwendung war auf der neuen UHD-BluRay im Mai 2015.

Den HEVC unterstützt NVidia in Hardware mit PureVideo ab Version 7 - auf dem Markt seit Januar 2015 mit Maxwell1.0 (GTX750 usw.)
Den HEVC unterstützt AMD in Hardware mit UnifiedVideoDecoder ab Version 6 - auf dem Markt seit September 2014 mit Tonga (R9 285 usw.)

Sowohl AMD als auch NVidia hatten ein halbes Jahr lang bereits Hardware auf dem Markt die den Codec in Hardware konnte BEVOR er überhaupt von der Industrie eingesetzt wurde.
Wo das "hinterherhinken" ist musste mir mal erklären. :schief:

Du verstehst es nicht oder?
Man braucht keinen Hardware Decoder. Software kann und macht das gleiche, nur nicht so effizient. Das ist alles.
Stimmt. Das Problem ist, dass selbst ein 6950X nicht ansatzweise schnell genug ist, um ein HEVC10-Video mit entsprechender 4K-Bitrate (bis 128 MBit/s) abzuspielen. Ein kleiner 7200U dagegen macht das mit <5% CPU-Last in Hardware.

In FullHD und ohne 10bit ist das kein Problem, das kann jeder bessere Desktop-Prozessor in Software das stimmt. Aber wir reden hier von 4K/HDR - das geht selbst mit der schnellsten Hardware nicht ansatzweise per Softwareemulation.
Probiers aus (120 MBit HEVC 10bit wählen): http://jell.yfish.us/media/jellyfish-120-mbps-4k-uhd-hevc-10bit.mkv
Das kann nämlich weder deine CPU noch deine GTX980. ;-)
 
Zuletzt bearbeitet:
Apropos hinken, wie lange hat Intel gebraucht um einfaches 23.976 fps Material ohne Ruckler (alle 42 Sekunden oder alle 5 Minuten) wiederzugeben? Mehrere Generationen an GPUs(Video-Engines) und/oder Chipsätzen iirc... und dann von Gammel HW bei AMD/Nvidia reden.
 
Achso?
Lass mich nachsehen...
Der neue HEVC wurde im Januar 2013 von der ITU als standard angenommen und im Juni 2013 veröffentlicht, die erste offizielle Anwendung war auf der neuen UHD-BluRay im Mai 2015.

Den HEVC unterstützt NVidia in Hardware mit PureVideo ab Version 7 - auf dem Markt seit Januar 2015 mit Maxwell1.0 (GTX750 usw.)
Den HEVC unterstützt AMD in Hardware mit UnifiedVideoDecoder ab Version 6 - auf dem Markt seit September 2014 mit Tonga (R9 285 usw.) .

LULZ!? :P Alles falsch. Es gibt nicht nur den einen "HEVC" es gibt zich Derivate. Die gammel Encoder von Nvidia und AMD können nur eine von zich nötigen und beherrschen zB kein HEVC2 bzw alles jenseits vom Main Profil. Darunter sind sie nicht in der Lage die nötigen Kopierschutzrichtlinien einzuhalten für 4k Material. Es war schon immer so, dass verabschiedete Codes ca 10 Jahre benötigt haben um in den Karten von AMd/Nvidia zu landen und dann waren sie auch schon wiedder veraltet. Intel war da immer "nahe an der Lizenz" und war immer ein Schritt vorraus, das war in den letzten 15 Jahren so und wird immer so bleiben.
 
Eben nicht. Ist das so schwer zu kapieren? Ich weiß auch nicht, was diese Artikel zu der Sache ständig sollen auf allen möglichen Seiten. Es ist simpel und nicht erwähenswert. Entweder man hat den unterstützen HW Encoder, oder nicht. Was hat das jetzt mit "geht nur mit Intel, Nvidia und AMD sind raus" zu tun!? Es ist offensichtlich und altbekannt, dass die gammel HW Encoder/Deoder von Nvidia und Amd immer Jahre dem aktuellen Stand hinterherhinken.

Da spricht das geballte Unwissen in der IT.. unglaublich wie beharrlich manche einem ihr nicht vorhandes Wissen aufzuwingen wollen :( Sorry, aber deine Aussage ist mal sowas von falsch und daneben, das mir die Haare zu Berge stehen!
 
Also deswegen kaufe ich mir bestimmt nicht nen neuen Prozessor ^^ Zum Glück gibts andere wege...

Ob die Rysen CPUs auch fen Hardware Decoder haben ? Wenn nicht war es ein guter Marketing Trick von Intel...
 
LULZ!? :P Alles falsch.
Oh, da hat wieder einer das Wissen gefressen und alle anderen sind doof. Das sind die besten. Besonders das "LULZ" (und auch das "süß") zeugt von beängstigender Reife. :D

Es gibt nicht nur den einen "HEVC" es gibt zich Derivate.
Ja. Und es gibt einen Industriestandard. Wenn man sich dran hält funktionieren auch die Hardwaredecoder. Wenn nicht ggf. eben nicht. Das ist das Problem von dem der irgendein Nischenderivat benutzt statt dem Standard.
Das ist der Trick an "Standard" dass jeder dasselbe macht und es deswegen funktioniert.

Die ganze Kopierschutzkette ist ne andere Geschichte... wenn sich die Verantwortlichen alle paar Monate nen neuen Spaß ausdenken können Chipentwickler die nur alle 2 Jahre mal ne Architektur auflegen nunmal nicht jeden Pups mitmachen. Hier sehe ich aber die Schuld beim DRM, nicht bei AMD, Intel oder NV.
Es könnte so einfach sein - aber "einfach" und "DRM" waren noch nie kompatibel^^
 
Oh, da hat wieder einer das Wissen gefressen und alle anderen sind doof. Das sind die besten. Besonders das "LULZ" zeugt von beängstigender Reife. :D
[...]
Lass den mal, aus einer PN von ihm:
>> Ich hab in allen erdenklichen Themenbereich mehr Ahnung als 99% der Leute die sich im Internet tummeln, und besonders als die meisten hier im Forum. <<

Da verbrennst Du Dir noch die Finger an so einem Höchstleister.
 
Alk - danke für den Link den du gepostet hast,werde den gleichmal ausprobieren.
Aber: Die bitraten dort sind fern von dem worum es hier eigentlich geht. Selbst Bluray hat niedriger bitraten als hier angeboten werden. Netflix zB schlägt 25 MBit/s für 4K als minimum an um ohne buffer den Film schaun zu können. Solches Filmmaterial is leicht in Software decodierbar.

Und du solltest wirklich die Finger von 'Experten' wie Wurstkuchen lassen - sein name scheint auch sein motton für Bildung sein - keine Ahnung von nix, aber dick Auftragen.
 
Alk - danke für den Link den du gepostet hast,werde den gleichmal ausprobieren.
Aber: Die bitraten dort sind fern von dem worum es hier eigentlich geht. Selbst Bluray hat niedriger bitraten als hier angeboten werden.

BluRay (UHD) "darf" theoretisch bis 128 MBit auch wenn das quasi nie ausgereizt wird, höchstens in VBR-Peaks mal sehr kurzzeitig.
Dennoch, Bitraten um die 50-60 MBit sind bei 4K-BluRays durchaus üblich... und da ists nicht viel anders, sprich auch da kommen Softwaredecoder nicht nach auf aktueller Highend Hardware.
Du kannst dir den Jellyfish ja auch mit 60 MBit HEVC 10bit runterladen als vergleich zu "was so üblich ist" an 4K-Bitrate auf UHD-BR. Das ist zwar hier nur FullHD, die Auflösung spielt aber ja keine Rolle, die Bitrate muss er ja packen.

Ich weiß nicht wo die Grenze liegt da ich das in Hardware auf der Titan mache aber der PC meiner Frau (6600K@4,2 + GTX970) klappt auch bei Bitraten von 60 MBit schon zusammen im HEVC10. Also ohne Hardwarebeschleunigung ist zumindest 10bit-HEVC nicht drin momentan. Bei 8bit gehts besser, meist aber deswegen weil das schon in älteren Chips in Hardware drin ist (das kann Skylake ja auch schon).

Ums auf Netflix zu bringen - da könnte es (ohne den DRM-Käse) noch gehen - "Netflix-4K" dürfte wohl kaum mehr als 15 MBit haben. :ugly:
 
Zuletzt bearbeitet:
hab mir mal das Testvideo runtergeladen: jellyfish-120-mbps-4k-uhd-hevc-10bit

und läuft flüssig auf meinem I7-4770k, ok cpu last ist bei 90% aber es läuft flüssig.

Edit: 4,4GHz
 
Zuletzt bearbeitet:
Lass den mal, aus einer PN von ihm:
>> Ich hab in allen erdenklichen Themenbereich mehr Ahnung als 99% der Leute die sich im Internet tummeln, und besonders als die meisten hier im Forum. <<

Da verbrennst Du Dir noch die Finger an so einem Höchstleister.

Dunning-Kruger lässt grüßen :)

Zum Thema: Ärgerlich! Ein Grund mehr das Abo zu kündigen.
 
Der 2700er schaffts nicht aber du kannst es in Hardware von deiner GTX1070 machen lassen (K-Lite Codec-Pack + MPC regelt ;-)).

vielleicht braucht er auch nur Codecs welches Format ist das Test fiele??

ich habe am Anfang bei 4k auch immer ruckeln gehabt aber zb der clasicc player spielt 4k extrem sauber ab dazu noch ein paar Codec und alles läuft Butter weich außer halt leider hdr :(
 
Du brauchst ein Programm das die Hardwarebeschleunigung nutzt (MediaPlayerCalssic / MPC zum beispiel) und die entsprechenden Codecs, falls nicht sowieso schon vorhanden beispielsweise per Klite CodecPack.

Dass es dann bei dir flüssig läuft ist klar - auch du hast eine Pascal-Grafikkarte die HEVC10 in Hardware kann. Die Ruckler vorher waren ohne HW-Beschleunigung auf dem 6700K der je nach Bitrate zu langsam ist per Softwaredecode.
 
Du brauchst ein Programm das die Hardwarebeschleunigung nutzt (MediaPlayerCalssic / MPC zum beispiel) und die entsprechenden Codecs, falls nicht sowieso schon vorhanden beispielsweise per Klite CodecPack.

Dass es dann bei dir flüssig läuft ist klar - auch du hast eine Pascal-Grafikkarte die HEVC10 in Hardware kann. Die Ruckler vorher waren ohne HW-Beschleunigung auf dem 6700K der je nach Bitrate zu langsam ist per Softwaredecode.

ja nur das ich 4k schon länger schaue als ich die Hardware habe habs auch schon auf nen Laptop zum laufen gebracht ohne Probleme ;)
 
4K bedeutet nicht automatisch HEVC10. 4K kann auch im alten AVC kodiert sein (schafft jede Hardware die nicht viele Jahre alt ist) oder im HEVC8 was auch Laptopgrafikkarten schon länger in Hardware können.

Es ist halt schwer zu differenzieren wenn man sich nicht die Codierungsdetails genau ansieht. Alleine das "4K" macht leider keine Aussage.
Man kann sich die Freeware MediaInfo schnappen (ist im KLite Pack sowieso dabei) und die Details einer Mediendatei auslesen. Da findet man dann Infos über Codec, Bittiefe und Bitrate - das sind die Dinge die entscheiden wos läuft und wo nicht (nicht die Auflösung).
 
Zurück