• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Versatile Video Coding (VVC) ist fertig: Bis zu 50 Prozent sparsamer als HEVC

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu Versatile Video Coding (VVC) ist fertig: Bis zu 50 Prozent sparsamer als HEVC

Das Berliner Fraunhofer Heinrich-Hertz-Institut hat die Fertigstellung des Videokodierungsstandards Versatile Video Coding oder kurz VVC bzw. H.266 verkündet. Noch bis Herbst soll ein Software-De- und -Enkodierer bereitstehen. An Chips wird bereits gearbeitet, aber die werden noch etwas Zeit brauchen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Versatile Video Coding (VVC) ist fertig: Bis zu 50 Prozent sparsamer als HEVC
 

Pu244

Lötkolbengott/-göttin
Wer nicht weiß, wofür er sich einen 12 oder 16 Kerner zulegen sollte, jetzt weiß er es.

Bis die Grakas das können wird wohl nochmal eine Generation ins Land gehen, also bis 2022.

PCGH schrieb:
(...)und auch maßgeblich davon abhängen, wie schnell H.266 von der Content-Industrie adaptiert wird.

Die sind da recht schnell, immerhin können sie so eine der Hauptkostenfaktoren einsparen. Für den Endkunden könnte das eine deutlich höhere Qualität bedeuten (man wird ja noch träumen dürfen...).
 

x1337x

PC-Selbstbauer(in)
Juhu, ein weiterer Codec der erst in 10 Jahren überall kompatibel sein wird. Selbst h.265 geht auf jeder zweiten Platform nicht.

Bis die Grakas das können wird wohl nochmal eine Generation ins Land gehen, also bis 2022.

Grakas können noch nichtmal H264 oder H265 was Effizienz angeht.
Mit der CPU h264 zu encoden ist leider immer noch 20-30% effizienter. Für Streaming ist GPU-Encoding nett, für Archivierung (Filme/Serien etc) leider nicht.
 

Locuza

Lötkolbengott/-göttin
Ich bin gespannt auf die Zukunft mit AV1 und VVC.
AV1 ist ein kostenfreier Standard, der VP9 bei YouTube ersetzen wird und worauf auch Netflix vermehrt in der Zukunft setzen möchte.
Nun ist es interessant, wie gut VVC vs. AV1 abschneidet und wann AV2 standardisiert wird und ob H266 + mögliche Nachfolger den Erfolg von früher genießen werden oder der Markt sich dagegen stellen wird und lieber AV1 vorantreibt.
 

Prozessorarchitektur

Lötkolbengott/-göttin
av1 sowie vp9 haben einen nachteil sie haben kein encoder/decoder in hardware
Der encoder ist verschmerzbar aber min 10 mal so langsam wie hevc
ähnlich zu vp9
Das liegt vor allem daran das dies singlethread basierend sind.

ich wäre mal froh wenn man hevc in DVD und bluray in authoring bringen würde.
Auf datenspeicher der flüchtig ist , ist es fast egal als streamijng format schwebt die Gefahr bei handy und Konsolen mit das dieser nicht decodet werden kann.
Da wo es Sinnvoll ist wird hevc nicht angewendet und da wo es nicht nötig ist wird cbr eingesetzt was den standard als obsolete wird. (dvb-t2)
Dabei ist hevs schon sehr sparsam mit cfr 20 sieht vom losssless kein unterschied mehr meist reicht auch crf 23
In h264/avc sind crf20 min und crf17 zu empfehlen.
Aber die Größe von streams hängt maßgeblich an der geschwindugkeit des Filmes ab.
Sehr langsam kaum Änderungen im bild crf hohe bitrate
cq kleine bitrate
cq=constant quantisieren
crf=constant rate factor basierend von Bewegungsanalysen je weniger Bilder und schneller die Bildveränderung desto geringer wird die bitrate. Da nicht genau quatensiert wird (Blöcke sind gröber).
Also was soll da nochmal ein codec an Datenrate verringern irgendwo müssen doch die Farbinfos hin
Klar in 4k macht das Sinn.

Im Tv ist aber aktuell erst bei HD angekommen FHD oft Wunschtraum
Und weil man sehr stark auf cbr setzt und die qualität stark vom signal abhängt dvb s t2 c
Wird damit nix besser eher schlechter. In internet webseiten fehlt ein standard bei den browsern.

In TV und Endgeräte wie Konsolen fehlt ein decoder.
Wenn der standard eine chance haben will müsste zuerst hevc von den Lizenzen befreit werden der x265 standard ist frei wieso nutzt den keiner.
Mir wäre es am liebsten man würde endlich in authorimg hevc einsetzen für blurays
Ganze Serienstaffeln in sd / HD mit 26 folgen auf einer 25gb disk
oder Filmserien.
bsp Tatort sehr beliebt bzw wird von ÖR zelebriert. Seit 50 Jahren
nebenbei 1130 folgen je 90-110 Minuten
nach x264 komprimiert sind das in HD etwa 3637gb (eine 4Tb HDD)
In hevc crf etwa 1859gb (eine 2TB HDD)
Da deutsche filme immer recht langsam sind erwarte in in x264 etwa 4,5mbits und in hevc etwa 2.3mbits
VVc soll dann nochmal 30% kleiner sein also dann 1,61mbits
Angabe gilt für HD
Wie groß die bitrate wird hängt maßgeblich vom material ab je schneller desto kleiner die bitrate
oder je mehr gleiche Bilder desto kleiner ist die bitrate = cq Methode.

CBR ist wie mitn hammer aufn Kopf hauen. Oft zu hohe bitrate, wenn zuwenig bitrate entstehen Bildblöcke im bild.
Wer kennt sie nicht die xvid Katastrophen bei dvd rips
 

Pilo

Freizeitschrauber(in)
Na vielleicht wird es ja so revolutionär für Video, wie es damals MP3 (1982 bis 1992) für Audio war, ebenfalls von einem Fraunhofer-Institut (Erlangen) angestoßen und weiterentwickelt.
 

latiose88

Freizeitschrauber(in)
av1 sowie vp9 haben einen nachteil sie haben kein encoder/decoder in hardware
Der encoder ist verschmerzbar aber min 10 mal so langsam wie hevc
ähnlich zu vp9
Das liegt vor allem daran das dies singlethread basierend sind.

ich wäre mal froh wenn man hevc in DVD und bluray in authoring bringen würde.
Auf datenspeicher der flüchtig ist , ist es fast egal als streamijng format schwebt die Gefahr bei handy und Konsolen mit das dieser nicht decodet werden kann.
Da wo es Sinnvoll ist wird hevc nicht angewendet und da wo es nicht nötig ist wird cbr eingesetzt was den standard als obsolete wird. (dvb-t2)
Dabei ist hevs schon sehr sparsam mit cfr 20 sieht vom losssless kein unterschied mehr meist reicht auch crf 23
In h264/avc sind crf20 min und crf17 zu empfehlen.
Aber die Größe von streams hängt maßgeblich an der geschwindugkeit des Filmes ab.
Sehr langsam kaum Änderungen im bild crf hohe bitrate
cq kleine bitrate
cq=constant quantisieren
crf=constant rate factor basierend von Bewegungsanalysen je weniger Bilder und schneller die Bildveränderung desto geringer wird die bitrate. Da nicht genau quatensiert wird (Blöcke sind gröber).
Also was soll da nochmal ein codec an Datenrate verringern irgendwo müssen doch die Farbinfos hin
Klar in 4k macht das Sinn.

Im Tv ist aber aktuell erst bei HD angekommen FHD oft Wunschtraum
Und weil man sehr stark auf cbr setzt und die qualität stark vom signal abhängt dvb s t2 c
Wird damit nix besser eher schlechter. In internet webseiten fehlt ein standard bei den browsern.

In TV und Endgeräte wie Konsolen fehlt ein decoder.
Wenn der standard eine chance haben will müsste zuerst hevc von den Lizenzen befreit werden der x265 standard ist frei wieso nutzt den keiner.
Mir wäre es am liebsten man würde endlich in authorimg hevc einsetzen für blurays
Ganze Serienstaffeln in sd / HD mit 26 folgen auf einer 25gb disk
oder Filmserien.
bsp Tatort sehr beliebt bzw wird von ÖR zelebriert. Seit 50 Jahren
nebenbei 1130 folgen je 90-110 Minuten
nach x264 komprimiert sind das in HD etwa 3637gb (eine 4Tb HDD)
In hevc crf etwa 1859gb (eine 2TB HDD)
Da deutsche filme immer recht langsam sind erwarte in in x264 etwa 4,5mbits und in hevc etwa 2.3mbits
VVc soll dann nochmal 30% kleiner sein also dann 1,61mbits
Angabe gilt für HD
Wie groß die bitrate wird hängt maßgeblich vom material ab je schneller desto kleiner die bitrate
oder je mehr gleiche Bilder desto kleiner ist die bitrate = cq Methode.

CBR ist wie mitn hammer aufn Kopf hauen. Oft zu hohe bitrate, wenn zuwenig bitrate entstehen Bildblöcke im bild.
Wer kennt sie nicht die xvid Katastrophen bei dvd rips

Ja da hast du völlig recht.Willst du damit sagen es gibt noch bessere art als CRF? Weil das verwende ich immer für meine TV Aufnahmen die alle in Mpeg 2 TS sind.HD ist allerdings nur in den ersten 3 Sendern ARD,ZDF und das Dritte standard.Bei den anderen Sendern kostet HD Geld und ist somit noch immer nicht standard.Das wird sich auch in nächster Zeit nicht ändern.Ich nehme jedenfalls alles in SD Qualität auf,bis auf die ersten drei Sender die ich dann in HD auf.Oder was gibt es denn sonst noch so für Tipps die ich am besten Anwenden kann?

Ich sehe den Standard nicht so schnell durch kommen.Auch der h265 wird nicht wirklich angenommen.Auch wenn vp9 und so bei youtube immer häufiger angewendet wird.Für mich ist das allerdings ein sehr unpraktisches Format weil das ja von all meinen geräten nicht abgespilt werden kann und auch VLC kann es nicht abspielen.So ist der aktuellste Stand bei mir.
 

gerX7a

Software-Overclocker(in)
Ich bin gespannt auf die Zukunft mit AV1 und VVC. [...]

Gemäß "The Battle of the Video Codecs in the Healthcare Domain - A Comparative Performance Evaluation Study Leveraging VVC and AV1" scheint VVC ggü. AV1 noch einmal um die 20 - 25 % Bitrate Savings zu ermöglichen.
"[...] we found that the emerging VVC standard gave the best coding efciency to date. Our comparison shows that VVC outperforms AV1 as reported in [40]. For higher video resolutions, AV1 outperformed HEVC implementations. [...]"
Wie du schon anmerktest ... die Frage wird sein, wie der Markt den erneut lizenzbehafteten Codec annehmen wird. Wenn man sich ansieht, wie viele Firmen sich in der AOM organisiert haben und wenn man bedenkt, dass VVC bereits seit 2017 entwickelt wird, dann könnte man das so interpretieren, dass man a) entweder kein Vertrauen in die VVC-Entwicklung oder deren zeitliches Vorankommen hatte, oder b) dass man der Lizenzfrage doch eine größere Bedeutung beimisst und von daher gezielt auf AOM/AV1 setzte.
Die Zeit wird es zeigen. Zumindest in der Anfangsphase (durchaus mehrere Jahre), werden sicherlich beide Standards parallel genutzt werden.

Und Hardware gibt es bereits zu AV1 auch in vielfältiger Art, obwohl die breite Verwendung des Codecs noch nicht einmal wirklich angelaufen ist: AV1 - Wikipedia
Schlussendlich könnte ich mir durchaus vorstellen, dass man eher die AV1-Entwicklung vorantreiben wird seitens dieser Firmen und dafür "sorgenfrei" implementieren und nutzen kann.
 

Khabarak

BIOS-Overclocker(in)
Für Fernsehsender ist es eher kompliziert, den Videocodec umzustellen.
Die Empfangsgeräte müssen den dann nämlich auch dekodieren können.
Die sind zu schwach, um es auf der CPU zu leisten. Da braucht es passende Hardware.

Die DVB-X Kunden werden sich bestimmt nicht jubelnd in die Schlange stellen, wenn sie ihre noch nicht so alten Geräte gegen neue tauschen müssen.

Edit:
Ähnliches gilt für Hersteller von DVD und Blu-Ray Mastern. Man kann den Kunden schwer vermitteln, dass man nach wenigen Jahren schon wieder einen neuen Player braucht, nur weil mal wieder ein neuer Codec um die Ecke kam.
Daher wird die breite Adaption noch deutlich länger dauern und hoffentlich mal einen Standard treffen, der dann nicht gleich wenige Jahre später wieder ersetzt wird.
 

Nebulus07

Software-Overclocker(in)
Bin gespannt wann das Ende bei Video erreicht wird. Bei Audio wurde ja mit mp3 das Limit erreicht. Bei Video scheint es immer weiter zu gehen... Der Sprung war immer Bahnbrechend... Ich erinere mich noch an meine erste VIDEO CD und dann Super Video CD. Und dann kam die DVD mit MPEG2.

Ich denke h266 wird für 8K Filme angewendet werden...
 

Prozessorarchitektur

Lötkolbengott/-göttin
Einhergehend steigert sich bei videos die auflösung bei audio war man aber von anfang an auf eine raw data menge limitiert
video cd war 360-280 und entsprach den VHS standard
Svideo dem Svhs 480-360
Und dann kam schon die dvd was 720-576
erst 2007 lam dann die HD dvd vs Bluray und 1280-720
zuletzt wurde 3840-2160 UHD spezifiziert ~2014
Der nächste schritt geht Richtung 8k

Nun zum Problem einzig Datenträger wie Bluray werden für neuere Auflösungen genutzt
Weil immer mehr über streamen geht. verändert man den letzten authoring standard von bluray nicht
Das wäre der bd 2.0 als UHD standard das wird selten genutzt und gibt es nur als quad layer bluray.
Wozu dann auch neue Geräte benötigt werden die sauteuer sind.
und weil die meisten Leute ihre filme mittlerweile lieber streamen als zu kaufen sehe ich da schwarz für einen neuen codec.
vor 2030 wenn alle Geräte es decodieren können vielleicht.
Wie gesagt mir wäre froh wenn ein avchd Standard mit hevc gäbe oder bluray mit 50hz/60hz 1080p sowie bei 4k
mir geht es primär um Platzersparnis und einen standard der lange bestand hat.

Kristall player wäre mal eine idee theoretisch machbar ewig haltbar sofern man die Technik dahinter pflegt.
Material vidia (Künstliche diamanten)
 

latiose88

Freizeitschrauber(in)
ALso das mit den Diamanten Technik würde mich ebenso interessieren wie bei dir auch.

Nun das mit dem 8k ist halt ne andere Frage und ich sehe da auch so die Probleme.Selbst im Kino benutzen diese ja Fake 8k bzw fake 4k so das sie in wirklichkeit bei der echten Auflösung weit drunter sind.Das ganze mit der AUflösung mutet irgendwie verarschung meistens zu.

Bei 8k Auflösung müssten die Bildschirme dann wieder wachsen.Die Meisten haben allerdings ja garnicht so viel Platz um sich einen 50 " oder größer zu gönnen.Bei 27 " braucht man mit 8k garnicht erst anfangen.Ich hatte mal einen 24 " 4k gehabt und weis wie klein alles wird.Ich hatte den Jahre lang genutzt ,bis es mir dann auf den Sack gegangen war.27 " 8 k wird also wohl noch schlimmer sein als 24" 4k.
ALso müssen die Bildschirme größer werden.Das heißt dann im Umkehrschluss mehr abwärme und nen höheren Stromverbrauch.Und man braucht zudem auch noch einen größeres Zimmer.
Ich habe nicht den Platz für solch große Bildschirme.Das TV ist auf 720x576 auf sd Qualität beschränkt.Wenn man freilich bereit ist,jedes jahr 60 € oder ist es inzwischen teurer geworden zu zahlen.Dann auch noch eingeschränkt zu sein,weil man dann nicht mehr so einfach sachen schneiden kann,sowie danach Archivieren.Ich konnte z.b bei den HD Aufnahmen bei z.b ARD nicht in den Schnittmodus wechseln.
Solche Restiktionen werde ich dann auch nicht bei den Privaten sender Unterstüzen.Reichen ja die Freien Rechtlichen Sender schon aus.
Klar weis ich das das mit den Steuerzahlern gezahlt wurde und wird.Das ich es indiekt eben auch zahle.
Das wird somit für mich die Ausgangssituation für mich nicht mehr ändern.

Wenn ich was von Youtube runterlade,dann nervt mich das ganze das manche Videos in AV1 und VP9 vorfinde.Darum wähle ich bewusst von 4k und WQHD auf 1080p um H264 zu haben.Damit kann ich es dann wenigstens auf allen Geräten abspielen.
Mein Festplatten Reciver kann keine VP9 & AV1 abspielen.Auch mein Netzwerk streamer kann das nicht.Der Bildschirm könnte ebenso diese Auflösung nicht abpsielen.Entweder er müsste dann runter skalieren,was details kostet oder ich sehe ein teil des Bildes dann nciht mehr weil aufnahme zu groß.Sofern es den flüssig wieder gegeben wird.

Meine ganzen Player auf WIndows 7 haben ebenso ihre Probleme.Entweder dann bei solchen Formaten ohne Bild nur mit Ton oder er spielt es garnciht erst ab,weil er dann mit ner Fehlermeldung mich abspeist.

Darum bleibe ich wohl auf H264.Ich weis das dieser Codec kein 4k kann.Bzw nicht so gut.ABer da es ja im Fernsehen ja eh auch in Zukunft keine 4k kommen werden,brauche ich mir da ja eh keine Sorgen zu machen.Mir bringt also der neue Codec ebenso wenig wie HEVC.
Ich bin somit ja eh schon out of the Box.Ich hoffe nur das die Software auch langfristig H264 können wird.
 

DKK007

PCGH-Community-Veteran(in)
Damit würde man das einen UHD-Spielfilm problemlos auf DL-DVD bekommen und müsste keine teuren Blurays verwenden.
 

SlaveToTheRave

Freizeitschrauber(in)
Gute Sache!
Auch wenn ich mit h.265, das ich seit 2016 intensiv nutze, eigentlich wunschlos glücklich bin...

Andererseits: bis für h.266 die passende Hardware breit verfügbar ist (Tablet, Smartphone, Grafikkarte)
und ich die Hardware auch kaufen muss um alte zu ersetzen, werden noch Jahre vergehen.

h.265 war 2013 offiziell fertig.
Mein erstes h.265 fähiges Gerät war mein Galaxy S5, dass ich mir 2015 gegönnt habe.
2016 kamen die Radeon RX-480 und das Galaxy Tab A (2016) hinzu
und erst mit diesem Tablet habe ich h.265 intensiv genutzt.

Seit 2019 (Galaxy Tab Pro 4) kann ich auch h.265 High-10 mit Hardwarebeschleunigung und damit ruckelfrei abspielen.
Mein Nokia 3.1 + (2019) detto.

Ich schätze also vor 2023 wird h.266 für mich keine Relevanz haben.
 

tom_111

Komplett-PC-Aufrüster(in)
Bin gespannt wann das Ende bei Video erreicht wird. Bei Audio wurde ja mit mp3 das Limit erreicht. Bei Video scheint es immer weiter zu gehen... Der Sprung war immer Bahnbrechend... Ich erinere mich noch an meine erste VIDEO CD und dann Super Video CD. Und dann kam die DVD mit MPEG2.

Ich denke h266 wird für 8K Filme angewendet werden...

Ähm, mp3 ist nicht das Limit, sondern hat etliche Limitierungen. AAC und Ogg-Vorbis sind deutlich besser.
 

Prozessorarchitektur

Lötkolbengott/-göttin
das betrifft aber nur die bitrate, an der audio qualität ist anzuzweifeln da ist mp3 einfach das beste. 320bit cbr ohne filter
Alle anderen codec basieren auf annahmen mit filtern high pass und lowpass
aac nur in mitten erträglich man muss die audiodatei im eq nachjustieren
OGG ist veraltet da der codec noch älter als mp3 ist.
vorbis ist besser aber kaum verbreitet und kann quasi nur am pc abgespielt werden.

Das beste bleibt aber flac und raw data (MS ist das wave)
 

Freakless08

Volt-Modder(in)
das betrifft aber nur die bitrate, an der audio qualität ist anzuzweifeln da ist mp3 einfach das beste.
Haben schon einige Blindtests wiederlegt.
320bit cbr ohne filter
Macht bei einem verlustbehafteten Codec wenig sinn auf 320 CBR zu gehen.
Alle anderen codec basieren auf annahmen mit filtern high pass und lowpass
Wenn es danach geht müsstest du FLAC benutzen und weder MP3 noch sonst verlustbehaftete Codecs.
OGG ist veraltet da der codec noch älter als mp3 ist.
OGG ist kein Codec sondern ein Container.
vorbis ist besser aber kaum verbreitet und kann quasi nur am pc abgespielt werden.
Das kann jedes 08/15 Smartphone und wird auch für Smart TV Apps (Netflix und Co.) verwendet.

Das beste bleibt aber flac und raw data (MS ist das wave)[/QUOTE]
 

BxBender

BIOS-Overclocker(in)
Neue Standard sind ja gut und schön, aber wer hat schon Lust ständig neue Probleme ins Haus zu holen, oder aber viel geld für eine Rundumerneuerung in Sachen Hardware durchzuführen?
Mir geht das ja jetzt schon auf den Sack, dass irgendwelche Sachen irgendwo einfach nicht flüssig laufen, nur weil irgendein komische Audio-oder Video-Codec verwendet wird.
Mal ruckelts hier, mal stotterts da, mal komtm kein Sound, dies udn das.
Mal gehts mit dem einen gerät, mal dafür mit dem anderen, wo das andere vorher geruckelt hat.
Pi pa po.
Man sollte neue Standards für eine neue Sache einführen, Meinetwegen 8K.
Aber wenn dann jeder alles durcheinanderwirbelt, hat man den Salat.
Da besitzt man Geräte, die sind 1, 2 oder 3 Jahre alt, und irgendwas geht schon wieder nicht, obwohl man nur z.B. FullHD abspielen will.
So fühlt man sich in die 90er zurückversetzt, wo man vor dem PC saß und man in einem DOS Spiel keinen vollwertigen Sound hatte, weil die Programmierer genau deine Karte nicht ordentlich unterstützt hatten.
Also meiner Meinung nach sollte imerm erst eine gewisse Zeit vergehen, bis so etwas auf die Welt losgelassen wird, also möglichst viele schon automatisch eine abspielfähige Hardware zusammengekauft haben dürften.
Den gleichen Käse hat man im Mobilfunkbereich.
3G wurde nie ordentlich ausgebaut. Als jeder so ein Gerät hatte, wurde stattdessen schon LTE ausgebaut und verlangt, das man sich solche Geräte holt.
Nun wiederhotl sich das Spiel. jeder soll 5G kaufen, obwohl LTe nie wirklich voll da war udn imerm noch Lücken da sind, oder die Verbindung zu schlecht oder zu langsam ist.
Wer glaubt, mit 5G würde es besser werden? Pah! Eher kommt 6G.
Da wünsch tman sich fast schon die guten alten zeiten zurück.
Radio und TV Gerät, läuft, Jahrzehnte ohne Stress wegen Inkompatibilitäten und Upgradezwänge etc..
 

Maverick3k

BIOS-Overclocker(in)
Wer nicht weiß, wofür er sich einen 12 oder 16 Kerner zulegen sollte, jetzt weiß er es.

Videoencoding lässt sich nicht richtig parallelisieren. Fast immer profitiert der Encoder vom höheren Takt. Der einzige Vorteil ist hier, dass man mehrere Videos gleichzeitig encoden kann. ("mehrere", natürlich abhängig von der Anzahl der Kerne)
 

Rollora

Kokü-Junkie (m/w)
Bin gespannt wann das Ende bei Video erreicht wird. Bei Audio wurde ja mit mp3 das Limit erreicht. Bei Video scheint es immer weiter zu gehen... Der Sprung war immer Bahnbrechend... Ich erinere mich noch an meine erste VIDEO CD und dann Super Video CD. Und dann kam die DVD mit MPEG2.

Ich denke h266 wird für 8K Filme angewendet werden...

Was? Bei MP3? Machst du Witze?
 

soonsnookie

Komplett-PC-Aufrüster(in)
Neue Standard sind ja gut und schön, aber wer hat schon Lust ständig neue Probleme ins Haus zu holen, oder aber viel geld für eine Rundumerneuerung in Sachen Hardware durchzuführen?
Mir geht das ja jetzt schon auf den Sack, dass irgendwelche Sachen irgendwo einfach nicht flüssig laufen, nur weil irgendein komische Audio-oder Video-Codec verwendet wird.
Mal ruckelts hier, mal stotterts da, mal komtm kein Sound, dies udn das.
Mal gehts mit dem einen gerät, mal dafür mit dem anderen, wo das andere vorher geruckelt hat.
Pi pa po.
Man sollte neue Standards für eine neue Sache einführen, Meinetwegen 8K.
Aber wenn dann jeder alles durcheinanderwirbelt, hat man den Salat.
Da besitzt man Geräte, die sind 1, 2 oder 3 Jahre alt, und irgendwas geht schon wieder nicht, obwohl man nur z.B. FullHD abspielen will.
So fühlt man sich in die 90er zurückversetzt, wo man vor dem PC saß und man in einem DOS Spiel keinen vollwertigen Sound hatte, weil die Programmierer genau deine Karte nicht ordentlich unterstützt hatten.
Also meiner Meinung nach sollte imerm erst eine gewisse Zeit vergehen, bis so etwas auf die Welt losgelassen wird, also möglichst viele schon automatisch eine abspielfähige Hardware zusammengekauft haben dürften.
Den gleichen Käse hat man im Mobilfunkbereich.
3G wurde nie ordentlich ausgebaut. Als jeder so ein Gerät hatte, wurde stattdessen schon LTE ausgebaut und verlangt, das man sich solche Geräte holt.
Nun wiederhotl sich das Spiel. jeder soll 5G kaufen, obwohl LTe nie wirklich voll da war udn imerm noch Lücken da sind, oder die Verbindung zu schlecht oder zu langsam ist.
Wer glaubt, mit 5G würde es besser werden? Pah! Eher kommt 6G.
Da wünsch tman sich fast schon die guten alten zeiten zurück.
Radio und TV Gerät, läuft, Jahrzehnte ohne Stress wegen Inkompatibilitäten und Upgradezwänge etc..

5g ist nicht nur wegen max speed besser, sondern weil mehr leute gleichzeitig pro zelle ihre 50-100mbit bekommen können. in eine 5g zelle passen mehr leute mit 50mbit als in 4g und wenn nic hvoll is mehr max speed da
lohnt sich so oder so
 

Rollora

Kokü-Junkie (m/w)
Neue Standard sind ja gut und schön, aber wer hat schon Lust ständig neue Probleme ins Haus zu holen, oder aber viel geld für eine Rundumerneuerung in Sachen Hardware durchzuführen?
Mir geht das ja jetzt schon auf den Sack, dass irgendwelche Sachen irgendwo einfach nicht flüssig laufen, nur weil irgendein komische Audio-oder Video-Codec verwendet wird.
Mal ruckelts hier, mal stotterts da, mal komtm kein Sound, dies udn das.
Mal gehts mit dem einen gerät, mal dafür mit dem anderen, wo das andere vorher geruckelt hat.
Pi pa po.
Man sollte neue Standards für eine neue Sache einführen, Meinetwegen 8K.
Aber wenn dann jeder alles durcheinanderwirbelt, hat man den Salat.
Da besitzt man Geräte, die sind 1, 2 oder 3 Jahre alt, und irgendwas geht schon wieder nicht, obwohl man nur z.B. FullHD abspielen will.
So fühlt man sich in die 90er zurückversetzt, wo man vor dem PC saß und man in einem DOS Spiel keinen vollwertigen Sound hatte, weil die Programmierer genau deine Karte nicht ordentlich unterstützt hatten.
Also meiner Meinung nach sollte imerm erst eine gewisse Zeit vergehen, bis so etwas auf die Welt losgelassen wird, also möglichst viele schon automatisch eine abspielfähige Hardware zusammengekauft haben dürften.
Den gleichen Käse hat man im Mobilfunkbereich.
3G wurde nie ordentlich ausgebaut. Als jeder so ein Gerät hatte, wurde stattdessen schon LTE ausgebaut und verlangt, das man sich solche Geräte holt.
Nun wiederhotl sich das Spiel. jeder soll 5G kaufen, obwohl LTe nie wirklich voll da war udn imerm noch Lücken da sind, oder die Verbindung zu schlecht oder zu langsam ist.
Wer glaubt, mit 5G würde es besser werden? Pah! Eher kommt 6G.
Da wünsch tman sich fast schon die guten alten zeiten zurück.
Radio und TV Gerät, läuft, Jahrzehnte ohne Stress wegen Inkompatibilitäten und Upgradezwänge etc..

Mein 12 Jahre alter i7 hat kein Problem mit neueren Codecs und gibt das dann brav weiter sn den AV Receiver oder Verstärker. Ich weiß, neue Standards sind oft blöd, wenn man den Rest wieder tauschen muss, aber oft reicht es Ein Gerät zu tauschen
 

DKK007

PCGH-Community-Veteran(in)
3G wurde nie ordentlich ausgebaut. Als jeder so ein Gerät hatte, wurde stattdessen schon LTE ausgebaut und verlangt, das man sich solche Geräte holt.
Nun wiederhotl sich das Spiel. jeder soll 5G kaufen, obwohl LTe nie wirklich voll da war udn imerm noch Lücken da sind, oder die Verbindung zu schlecht oder zu langsam ist.

LTE wird weiter ausgebaut. Die 5G Frequenzen fürs Land, also unter 2,2 GHz werden außerdem sowohl bei Vodafone, als auch bei der Telekom mit 3G und 4G flexibel geteilt. Zumindest bei 4G wird das auch so bleiben, wenn 3G nächstes Jahr abgeschalten wird.
Dynamic Spectrum Sharing: Deutsche Telekom bringt 5G bei 2.100 MHz in die Flaeche - ComputerBase
Dynamic Spectrum Sharing: Vodafone bringt 5G und LTE bei 700 MHz in die Flaeche - ComputerBase

Das Problem sind schließlich nicht die Antennen, sondern die Masten. Wenn die erstmal da sind, kann da der Betreiber problemlos alles mögliche an Antennen draufsetzen.
 
Zuletzt bearbeitet:

JTRch

Software-Overclocker(in)
Fragt sich wieviel Performance ein Software Decoder auf alter Hardware (auf h.264/h.265) frisst. Denn TVs werden ja nicht jeden Tag ersetzt. Die ersten Geräte mit Hardware Decoder in Massen auf den Markt dürften dann entsprechende Smartphones sein.
 

Pu244

Lötkolbengott/-göttin
Grakas können noch nichtmal H264 oder H265 was Effizienz angeht.
Mit der CPU h264 zu encoden ist leider immer noch 20-30% effizienter. Für Streaming ist GPU-Encoding nett, für Archivierung (Filme/Serien etc) leider nicht.
Videoencoding lässt sich nicht richtig parallelisieren. Fast immer profitiert der Encoder vom höheren Takt. Der einzige Vorteil ist hier, dass man mehrere Videos gleichzeitig encoden kann. ("mehrere", natürlich abhängig von der Anzahl der Kerne)

Mir ging es ums decodieren und das ist die Graka nicht zu schlagen, es sei denn man setzt auf Spezialhardware.

Bin gespannt wann das Ende bei Video erreicht wird. Bei Audio wurde ja mit mp3 das Limit erreicht.

Die Grenze wurde noch lange nicht erreicht, da ist noch massig Luft nach oben.

Der entscheidende Punkt ist einfach, dass wird heute Speicherplatz und Bandbreite im Überfluß haben. 192-256KBit, die MP3 benötigt, damit man es fast nicht heraushören kann, fallen nicht weiter ins Gewicht. Wenn man aber auf 128, 64 oder gar 32 KBit geht, dann sieht die Sache völlig anders aus. AAC bekommt das ganze meines Wissens etwa mit der Hälfte der Bandbreite, die MP3 benötigt, hin.

Nimmt man 500-1000 MBit, dann gibt es auch mit dem 30 Jahre alten MPEG1 kein Problem, was 4K und 8K angeht. Allerdings möchte man möglichst viel Bandbreite sparen, damit ist man dann teilweise mit 25 MBit unterwegs.

EDIT:
Die DVB-X Kunden werden sich bestimmt nicht jubelnd in die Schlange stellen, wenn sie ihre noch nicht so alten Geräte gegen neue tauschen müssen.

Bei DVB T ist da ja die Frage ob es eingestellt wird oder man auf 4K gehen kann. Mehr Frequenzen wird es wohl nichtmehr geben, die haben die Mobilfunkkonzerne gefressen. Von daher wird man dann entweder auf ein DVB T3 setzen müssen oder das Antennenfernsehen ist Geschichte. Beim Kabelfernsehn stellt sich die Frage in wie weit sich die klassische Fernsehübertragung noch aufrechterhalten läßt. Große Teile des Kabels mit TV Sendern zu verstopfen hat jedenfalls keine Zukunft mehr. Von daher steht so oder so ein Tausch an. Nur die Satellitenanbieter können eine ganze Zeit noch das alte Programm ausliefern.
 
Zuletzt bearbeitet:

RRe36

Freizeitschrauber(in)
Wurde der Vergleich denn bei identischer Ziel-Bitdepth durchgeführt? Bei x264 kann man mit 10 Bit Encodierung auch im Schnitt etwa 20% Speicher ggü. 8 Bit bei gleichbleibender Qualität sparen. Das hat mich schon bei H265 gestört, da wurde meine Ich gerne mal 8 Bit H264 mit 10 Bit H265 verglichen :ugly:
 
Oben Unten