Muss es 120 Hz sein? 24 Fps judder?

shotta

PC-Selbstbauer(in)
Hi,
muss mir jetzt meinen ersten eigenen TV fürs Wohnzimmer kaufen. 55 " würden langen.
Der TV dient nur für Netflix und Youtube, darauf wird niemals gezockt. Raum ist relativ hell.

Da ich wirklich keinen großen Anspruch an Bild etc habe reicht mir ein Mittelklassegerät um die 500 bis 600 €.

Also 4k und 55 ".
Ist Judder wirklich noch real? Muss es deshalb 120 Hz und nicht 100 Hz sein?

Oder ist das bei mir eh Perlen vor die Säue und es tun auch 50 Hz? Denn wie gesagt, ich schau da abends mal Youtube und Netflix. Zwar werden das bestimmt auch 2 h pro Tag sein aber wie gesagt.
 
Nabend!
60Hz hat doch jeder Standard TV heutzutage und ich denke da bekommst du schon ab 300-500€ ordentliche Teile bei 55 Zoll!
Als Marke kann ich LG, Samsung, Panasonic, Sony, und Xiaomi. Vor allem die Xiaomi sollen sehr günstig und dennoch gut sein. Hatte selbst bisher aber nur LG oder Panasonic und Sony.
Würde mich einfach mal ein paar YouTube Ratgeber geben. Da wirst du sicherlich schnell fündig. Viel Erfolg
 
Naja, willst Du den original Film-Look?
Dann hat der TV kein Problem auf 24hz zu schalten.
Oder willst Du den Soap-Look? Denn schaltest Du Zwischenbildberechnung ein.

Judder ist Real, denn er ist gewollt. Was Du willst macht dann das Ergebnis.
 
Ist Judder wirklich noch real? Muss es deshalb 120 Hz und nicht 100 Hz sein?

Hier eine kurze aber präzise Erläuterung zum judder effect:

judder.PNG
 
Erstmal muss geklärt werden wo der Bedarf ist.
Judder? Gibt's in der Form eigentlich nicht mehr. Jedes moderne Display kann 24p.

Für 3:2 Pulldown gibt es keinen Bedarf mehr. Bei uns gibt es keine reinen 60hz TVs mehr, die 50hz/25p?/24p verarbeiten müssen.

Ruckeln? Tja, hier Musst Du entscheiden. Ruckeln oder Zwischenbildberechnung?

Beim Fußball schalte ich die Zwischenbildberechnung gern an. Sieht gut aus und ist scharf. Trotz aller Schärfe kann ich mich aber nicht an den Soapeffekt bei Filmen gewöhnen. An das Ruckeln habe ich mich aber nach 5 Minuten gewöhnt.

Fürs Zocken ist VRR und 120Hz einfach geil.

Naja, und nen 500€ TV würde ich mir nicht mehr kaufen. Ohne OLED ohne mich. :D
 
also wie gesagt, der TV wird für Netflix und Youtube genutzt. VIeleicht mal um die Tour de France zu schauen. Gezockt wird ausschließlich am PC.

Und da ich mir gerade eine ganze Wohnungseinrichtung kaufe muss es noch kein OLED 1,3 k € TV sein :D
 
Solange du nur modern produziertes Material schaust halten sich die Nebeneffekte in Grenzen. Selbst die meisten Spielfilme werden aus Kostengründen mittlerweile digital gedreht und da sind 60Hz oder mehr üblich.
YT und neuere Netflix etc. Produktionen sollten daher ohne Umstände gut laufen.

Problematisch können Fernsehinhalte aus den 90ern sein, wo man Serien zunehmend digital für die alten Fernseher gedreht hat; dort irritieren sowohl niedrige Auflösung und u.U. Judder. Auch nicht neu auf digitale Formate konvertierte/remasterte alte Spielfilme(klassisches "Judder") können problematisch sein.
 
Selbst die meisten Spielfilme werden aus Kostengründen mittlerweile digital gedreht und da sind 60Hz oder mehr üblich.
Wat? Mir fallen aus dem Stand kaum eine Handvoll Filme ein die in mehr als 24fps produziert wurden und davon hat es genau einer als "60 fps"-Film auf 4K Blu-ray geschafft und zwar Gemini Man. Der gesamte Rest läuft in 24Hz und das wird sich auch in absehbarer Zeit nicht ändern.
 
Ich würde mir darum keinen Kopf machen Fernseher mit 50/60 Hz nativ reichen aus um Filme gut aussehen zu lassen. Persönlich mag ich den klassischen Filmlook und schalte die Zwischenbilder aus. Als da geh mal ganz nach Geldbeutel und Helligkeit.
 
Wat? Mir fallen aus dem Stand kaum eine Handvoll Filme ein die in mehr als 24fps produziert wurden und davon hat es genau einer als "60 fps"-Film auf 4K Blu-ray geschafft und zwar Gemini Man. Der gesamte Rest läuft in 24Hz und das wird sich auch in absehbarer Zeit nicht ändern.
Moderne digitale Filmkameras unterscheiden da zwischen der sog "project framerate"(mehr ne Art timestamp falls man beim Schnitt parallel auch mit Analogmaterial arbeitet und auch zur Synchronisation für post-processing) und der tatsächlichen Framerate, also dem was wirklich an Bildern aufgenommen wird: z.B. hier Sony Venice2
Das fertige Material kann man dann je nach Vertriebsweg/Zielformat weitestgehend verlustfrei aufbereiten. Da gibt dann der Codec die Grenzen vor, aufgenommen wird prinzipiell "zu viel".
Ich würde mir darum keinen Kopf machen Fernseher mit 50/60 Hz nativ reichen aus um Filme gut aussehen zu lassen. Persönlich mag ich den klassischen Filmlook und schalte die Zwischenbilder aus. Als da geh mal ganz nach Geldbeutel und Helligkeit.
Man möchte ja auch in der Regel sehen, was der Regisseur zeigen wollte, gerade bei Spielfilmen mit einem Mindestmaß an künstlerischem Anspruch. Jede Nachbearbeitung durch das Abspielgerät ist da weniger erwünscht.
 
Moderne digitale Filmkameras unterscheiden da zwischen der sog "project framerate"(mehr ne Art timestamp falls man beim Schnitt parallel auch mit Analogmaterial arbeitet und auch zur Synchronisation für post-processing) und der tatsächlichen Framerate, also dem was wirklich an Bildern aufgenommen wird: z.B. hier Sony Venice2
Das fertige Material kann man dann je nach Vertriebsweg/Zielformat weitestgehend verlustfrei aufbereiten. Da gibt dann der Codec die Grenzen vor, aufgenommen wird prinzipiell "zu viel".
Und welche Relevanz hat das am Ende für mich als User? Filme landen in 99,999999% der Fälle mit 24fps auf der Leinwand. Mit was die Kamera selbst aufnimmt ist völlig Latte.
 
Zurück