8K und 60 Fps: Neue Gameplay-Videos mit Project Cars 2, Far Cry Primal und Trackmania 2

@juko888: Auflösung hat auch nix mitm Farbraum zu tun.

was man für nen Schwund hier zu lesen bekommt ...

du hast doch Null Ahnung was Schärfe eigentlich ist.
du kannst 4K vollkommen plörrig, verschwommen, unscharf haben und deine dämlichen 140p total knackig scharf. und umgekehrt, es kommt dabei nicht auf die Auflösung an, obs Bild scharf oder unscharf ist.

Ganz ehrlich, daß was du schreibst sind einfach nur prollige Anfeindungen ohne Hand und Fuß ... ich wünschte mir etwas mehr Verstand beim Schreiben von Beiträgen die mehr enthalten als allem "Schund" zu unterstellen!

Sicherlich kann 4K schlechter aussehen wenn ich den Monitor auf s/w stelle, der 4K Monitor / TV nichts taugt, die 750ti bei 4K scheitert...usw. Aber das hat doch wenig mit der Realität zu tun, ich vergleiche das Bild welches meine 1080ti rendert mit 1080p und 2160p auf einem vernünftigen Gerät, das Bild ist wesentlich schärfer und hat deutlich mehr Details zu bieten.

Die gewisse Engstirnigkeit mancher User und deren Ergüsse nehme ich persönlich ebenfalls als "Schund" wahr.
 
@nibi030: wenn man eins deiner geilen scharfen 4k-Bilder nimmt und davon ne 800x600 Ecke ausschneidet, ist die Ecke dann deiner Logik nach unschärfer, weil sie weniger darstellt. das meinst du ernst, oder?
wenn ich aus so nem hammergeilscharfen 4k-Bild ne 800x600 Ecke ausschneide, ist die Ecke noch ganz genauso scharf, wie zuvor.

wieso sollte sich die Schärfe eine Bildes ändern, wenn man davon nur nen Teilausschnitt betrachtet? setzt dann magischer Weise irgendein Blurfilter ein? und wo kommt der her? :lol:

du meinst, dass man mit dem Mehr an Pixeln bei 4k im Vergleich zu zB 1080p mehr Details darstellen kann. was ja auch richtig ist. nur hat das überhaupt gar nichts mit der Schärfe zu tun. Schärfe ist die klare Abtrennung der Pixel zueinander durch Kontrast, das is was ganz anderes, als mehr Details zeichnen können, weil es mehr Pixel gibt.

extremes Beipiel: ein und dasselbe Bild. das kleinere ist klar schärfer, weil ich beim 4k-Bild dafür gesorgt habe, dass die Pixel keinen klaren Kontrast zueinander mehr haben.
1080p_scharf.jpg UHD_unscharf.jpg
 
Zuletzt bearbeitet:
Kommt darauf an, was er meinte, bei den Fernsehern gibt es ja den UHD Standard und der geht über die reine Auflösung hinaus, von daher hatte er recht.

Auflösung hat überhaupt gar nichts mitm Farbraum zu tun; das eine bedingt das andere in keinster Form.
welcher UHD Standard, bitte? den von Wiki? da is kein Farbraum standardisiert.
da steht zu Farbraum nur: "Zusätzlich bietet Ultra HD einen deutlich größeren Farbraum und Farbauflösung." was aber ne Null-Aussage ohne Vergleichswerte ist und die sind dort bitte welche "größer als was?" als 8bit-Grafiken? bei welchem Panel? TN, IPS, etc. ... welche dann den sRGB-Farbraum zu 100% abdecken? oder nur zu 90%?
welcher soll denn das bitte sein? CMYK? RGB? sRGB? Adobe RGB? LAB? und zu wieviel % muss der dann abgedeckt sein, um diesen unfindbaren UHD Standard bezüglich des Farbraums auch zu erfüllen?
bei all den Faktoren ist ne schlichte Pauschalaussage, wie sie hier manche treffen, einfach falsch.

Schärfe hat was mitm Bildmaterial zu tun, Farbräume mit der zu Grunde liegenden Technik und nichts davon wird von der Auflösung bedingt.
 
Zuletzt bearbeitet:
Auflösung hat überhaupt gar nichts mitm Farbraum zu tun; das eine bedingt das andere in keinster Form.
welcher UHD Standard, bitte? den von Wiki? da is kein Farbraum standardisiert.
da steht zu Farbraum nur: "Zusätzlich bietet Ultra HD einen deutlich größeren Farbraum und Farbauflösung." was aber ne Null-Aussage ohne Vergleichswerte ist und die sind dort bitte welche "größer als was?" als 8bit-Grafiken? bei welchem Panel? TN, IPS, etc. ... welche dann den sRGB-Farbraum zu 100% abdecken? oder nur zu 90%?
welcher soll denn das bitte sein? CMYK? RGB? sRGB? Adobe RGB? LAB? und zu wieviel % muss der dann abgedeckt sein, um diesen unfindbaren UHD Standard bezüglich des Farbraums auch zu erfüllen?
bei all den Faktoren ist ne schlichte Pauschalaussage, wie sie hier manche treffen, einfach falsch.

Schärfe hat was mitm Bildmaterial zu tun, Farbräume mit der zu Grunde liegenden Technik und nichts davon wird von der Auflösung bedingt.

Dir ist schon klar das du in einem Thread trollst der wie folgt lautet: AW: 8K und 60 Fps: Neue Gameplay-Videos mit Project Cars 2, Far Cry Primal und Trackmania 2

Und ich beginne mich zu fragen was dein Problem sein mag, ob du dich nicht verstanden fühlst, alle anderen zu dumm oder dir einfach nur langweilig ist ;)

PS: die Wahnvorstellungen habe ich schon an der richtigen Stelle plaziert, denn nichts von dem was du da faselst habe ich geschrieben... auch nichts von Bildausschnitten und dergleichen! Ich Vergleiche hier 1080p vs 2160p Content und natürlich hat nativer 2160p Content mehr Schärfe als 1080p auf den entsprechenden Geräten, also 1080p LCD vs 2160p LCD. Da kannst du noch so sehr den Klugscheißer raus hängen lassen, es ändert nichts daran oder willst du mir erklären das ein aktueller Film der auf einer UHD BD in nativen 2160p ausgeliefert wird, genauso scharf dargestellt wird auf einer 576i Röhre wie auf einem TV der der 2160p bietet?! Serious?
 
Doch, Rec.2020 und wenn du da drauf klickst, findest du eine Abdeckung die höher ist als AdobeRGB und damit wesentlich höher als zB sRGB welche normalerweise bei Monitoren angegeben wird.

Ne, da hat slot schon Recht. Die Auflösung sagt nichts über den Farbraum aus.
UHD wird im Spiele-bereich eigentlich immer nur als bezeichnung für die Auflösung, nicht den UHD Fernsehstandart verwendet.
Samsung U28E590D - UHD Monitor, nur der deckt nichtmal sRGB voll ab und die angeblichen 10 bit Farbtiefe sind nur 8.

Rec.2020 beitet einen größeren Farbraum - schon klar. Aber das müssen die Geräte ncihtmal darstellen können - sie müsen nur den farbraum unterstüzen (ähnlich wie damals das ganze mit HD-Ready, HD-TV und dem ganzen).
 
Also ich persönlich sehe den Unterschied beim Bild zwischen FHD und UHD auch auf 3-5m Entfernung noch sehr deutlich.
Tja, wenn du einen >2m großen Bildschirm hast ok. Darunter? nicht wirklich.

ist sogar ganz einfache Mathematik:
Rayleigh-Kriterium Theta ~= 1.22*lambda/D, ergibt knapp ~1 Bogenminute (real ist man nochmal um den Faktor 2 schlechter)
Gehen wir mal von deinen 3 Metern aus. Pixelgröße = Abstand*sin(Winkel) - sind dann 0.9 mm Pixelgröße.
Horizontale Auflösung von 2160 Pixel * 0.9 mm => 1.8m
Wenn du also absolut perfekte Augen hast - besser als je ein Mensch gehabt hat, und der Raum schön dunkel ist, und du auf ein grünes Grün-Blaues Bild schaust (am wenigsten Beugung), dann brauchst du schon einen 75Zoll ++ Bildschirm um die details noch wahrzunehmen.
Auf 5m dann ist es schon so weit das selbst mit übermenschlichen Augen der utnerschied zwischen 2160p und 1440p nichtmehr wahrnehmbar ist.

Also hop hop hop, schnell zur nächsten Universität und den Nobelpreis der Physik und Biologie abholen .
 
Tja, wenn du einen >2m großen Bildschirm hast ok. Darunter? nicht wirklich.

ist sogar ganz einfache Mathematik:
Rayleigh-Kriterium Theta ~= 1.22*lambda/D, ergibt knapp ~1 Bogenminute (real ist man nochmal um den Faktor 2 schlechter)
Gehen wir mal von deinen 3 Metern aus. Pixelgröße = Abstand*sin(Winkel) - sind dann 0.9 mm Pixelgröße.
Horizontale Auflösung von 2160 Pixel * 0.9 mm => 1.8m
Wenn du also absolut perfekte Augen hast - besser als je ein Mensch gehabt hat, und der Raum schön dunkel ist, und du auf ein grünes Grün-Blaues Bild schaust (am wenigsten Beugung), dann brauchst du schon einen 75Zoll ++ Bildschirm um die details noch wahrzunehmen.
Auf 5m dann ist es schon so weit das selbst mit übermenschlichen Augen der utnerschied zwischen 2160p und 1440p nichtmehr wahrnehmbar ist.

Also hop hop hop, schnell zur nächsten Universität und den Nobelpreis der Physik und Biologie abholen .

Wie oft wurde die ganze Schei*e mit Auflösung, FPS und Hertz und weiß Gott nicht alles durchgekaut, das menschliche Auge ist viel viel zu komplex um es mit solchen Werten auch nur annähernd zu vergleichen.
Was eine Universität mit einem Nobelpreisgewinn zu tun hat erschließt sich mir irgendwie auch nicht.
 
edit: Das Thema hat sich dann ja auch erledigt.
 
Zuletzt bearbeitet von einem Moderator:
Tja, wenn du einen >2m großen Bildschirm hast ok. Darunter? nicht wirklich.

ist sogar ganz einfache Mathematik:
Rayleigh-Kriterium Theta ~= 1.22*lambda/D, ergibt knapp ~1 Bogenminute (real ist man nochmal um den Faktor 2 schlechter)
Gehen wir mal von deinen 3 Metern aus. Pixelgröße = Abstand*sin(Winkel) - sind dann 0.9 mm Pixelgröße.
Horizontale Auflösung von 2160 Pixel * 0.9 mm => 1.8m
Wenn du also absolut perfekte Augen hast - besser als je ein Mensch gehabt hat, und der Raum schön dunkel ist, und du auf ein grünes Grün-Blaues Bild schaust (am wenigsten Beugung), dann brauchst du schon einen 75Zoll ++ Bildschirm um die details noch wahrzunehmen.
Auf 5m dann ist es schon so weit das selbst mit übermenschlichen Augen der utnerschied zwischen 2160p und 1440p nichtmehr wahrnehmbar ist.

Also hop hop hop, schnell zur nächsten Universität und den Nobelpreis der Physik und Biologie abholen .

Pixelabstand = 2*Abstand * tan(Winkel/2)

Wie oft wurde die ganze Schei*e mit Auflösung, FPS und Hertz und weiß Gott nicht alles durchgekaut, das menschliche Auge ist viel viel zu komplex um es mit solchen Werten auch nur annähernd zu vergleichen.
Was eine Universität mit einem Nobelpreisgewinn zu tun hat erschließt sich mir irgendwie auch nicht.

Das Reyleighkriterium schätzt die Trennbarkeit von zwei Lichtquellen ab. Das hat erstmal nichts mit dem Auge zu tun;
Aber... ich wäre da auch etwas vorsichtig.
Es geht ja weniger darum z.B. zwei weiße Pixel direkt nebeneinander trennen zu können, sondern um feinere Strukturen. Also zwei weiße Pixel getrennt druch einen schwarzen Pixel oder sowas. Dazu kommt dann noch die Größe der Pixel und der Abstand der Pixel voneinander.

Beim 3D-Bild hat man dann noch das Problem, dass der gezeigte Inhalt nicht gleich ist in verschiedenen Auflösungen.
Wobei der Gewinn so oder so abnimmt mit höherer Auflösung und ich weiterhin der Meinung bin, dass sich 8k auf einem TV oder Monitor nie lohnen wird.
 
Oh man, manche sturköpfe wollen sich doch tatsächlich 8K oder 16 so schön reden wie der Sprung auf 4K.

Aber nochmal. Je höher die Auflösung, desto GERINGER werden die sichtbaren Unterschiede.

Je höher die Auflösung, desto weniger rentiert es sich, zu wechseln, weil die Detaildichte nicht mehr sichtbar zunimmt.

Nehmen wir mal nen 8K Monitor mit 30 zoll bei 50 cm Sitzabstand. Man könnte die Auflösung nun auf meinetwegen 50K oder 100K erhöhen und es wäre für einen Menschen, möge er auch noch so gut sehen keinerlei Unterschied mehr sichtbar. Selbst wenn man die Auflösung ins unendliche steigert, dann wird der Zugewinn für die Detaildichte unendlich klein. Das ganze ist quasi umgekehrt proportional zueinander.

Das Auflösungsrennen wird schneller ein ende finden, als manche glauben. Aber was rede ich hier, viele begreifen ja nichtmal, dass es überhaupt ein Ende geben wird und gehen vermutlich stur davon aus, dass auch in 20 oder 50 Jahren höhere Auflösungen die Menschen in Staunen versetzen werden... :lol:

Und natürlich wird man auch auf nem Smartphone den Unterschied zwischen nem 4K und 8K Display sehen, ach was rede ich, die meisten werden selbst auf Smartwatches von 8K profitieren!!! :ugly: Jeder, der das nicht schon aus 10 Metern entfernung sieht, hat doch was an den Augen!
 
Mit meinem 4k (28 Zoll, 60cm sitzabstand) seh ich noch locker einen unterschied zwischen Kantenglättung an (bsp. 2 oder 4xMSAA) und aus bzw. Downsampling von 8k auf 4k in Spielen sehe.
8K sehe ich noch als sehr brauchbar an, um auch das letzte aliasing zu killen.
 
Zuletzt bearbeitet:
Viele vergessen immer wieder, dass es nicht ausschließlich um die Auflösung geht, sondern z.B. auch um den Farbraum, der dann abgedeckt wird. Also ich persönlich sehe den Unterschied beim Bild zwischen FHD und UHD auch auf 3-5m Entfernung noch sehr deutlich. Das ist eben nicht nur Marketing, sondern Realität. Aber was soll's, genau die Sprüche gab's bei jeder Entwicklung. Wie viele Leute gepredigt haben, dass es keinen Unterschied machen würde ob 720/768p oder 1080p, denen würde ich heute noch gerne links und rechts... Naja, egal. :D
All die Leute müssten heute noch mit einem Smartphone herumlaufen, bei dem die Displayauflösung maximal 800x480 beträgt und behaupten auch dort gebe es keinen Unterschied, weil das Display ja so klein ist. Komisch, auch da erkenne ich den Unterschied zwischen 1440p und 1080p, obwohl das ja angeblich gar nicht möglich sein soll. ^^

Natürlich werden über die Zeit auch Farbräume und Bitraten besser aber hier sprechen wir hauptsächlich über die Auflösung. Und da ist zwar natürlich mit den heutzutage größeren Bildschirmen auch ne höhere Auflösung wichtig (man schalte halt mal von 1080P in 720P aber das meiste ist Gewohnheit. Abgesehen davon werden die Wow! Effekte immer kleiner. Ich hab selbst noch Fuöö HD und laut 3Dcenter umfrage ist es selbst bei den PC begeisterten noch die deutlich meistgenutzte Auflösung. 4K kommt bei den meisten also erst -und wird auch erst dann zum Standard- wenns einem wegen 8K oder gar 16K hinterhergeworfen wird. Insofern freu ich mich über 8K und die kommenden fallenden Preise. Aber ich muss hier schon lachen wie sich manche aufregen weil sie dem inneren Aufrüstzwang wie ein kleines Kind nicht widerstehen können und so tun als MÜSSTEN sie nun aufrüsten :-D
 
Mit meinem 4k (28 Zoll, 60cm sitzabstand) seh ich noch locker einen unterschied zwischen Kantenglättung an (bsp. 2 oder 4xMSAA) und aus bzw. Downsampling von 8k auf 4k in Spielen sehe.
8K sehe ich noch als sehr brauchbar an, um auch das letzte aliasing zu killen.

Ja, richtig. Aber das ist ein Effekt, der auf die Computergrafik zurückzuführen ist und hat erstmal nichts direkt mit der Auflösung des Displays zu tun.

Das durch Aliasing erzeugte Flimmen bzw. diese Treppchen treten IMMER auf egal wie hoch die Displayauflösung ist. Damit ein Pixel den Korrekten Farbwert annimmt, muss die Grafik pro Pixel,immer mehrfach abgetastet werden. Sprich mit Multisampling, Super Sampling usw. also das, was wir als AntiAliasing kennen, muss angewendet werden, damit das bild auch „Korrekt“ bzw. mit maximaler Präzision aufs Pixelraster des Displays gebracht wird.

Einfach gesagt hat man ohne AntiAliasing gegenüber der nativen Auflösung immer einen Verlust an Bildschärfe bzw. Detaildichte. Natürlich vermindert eine noch höhere Displayauflösung, dass der Effekt sichtbar ist. Fakt ist aber trotzdem, dass man selbst bei 16k ohne AntiAliasing genauso viel an Bildqualität verliert, wie in meinetwegen 720p. Ab ner Gewissen Auflösung ist aber halt auch das einfach nicht mehr Auffällig.

Und wenn man ab ner gewissen Auflösung nichtmal mehr den Bildqualitätsverlust durch fehlendes AntiAliasing erkennen kann, dann bestätigt das nur meine Aussage, dass die Vorteile immer höherer Auflösungen immer geringer werden.


Und man kann das ganze ja auch ganz einfach selbst testen. Einfach mal in nem Spiel nen Screenshot ohne Supersampling machen, und dann nen Screenshot von irgend ner Website mit schrift oder ähnlichem. Wenn man dann die Bilder auf 1/1 bzw. 100% darstellt (also ohne verkleinerung oder vergrößerung), dann sollte eigentlich, wenn man näher ands Display geht auffallen, dass die Spielegrafik sehr, sehr viel „grober“ und pixeliger ist, als z.B. der Text auf ner Website oder meinetwegen die Windows Oberfläche, Symbole, Icons usw. alles ist deutlich schärfer, als Spielegrafik...
 
Zuletzt bearbeitet:
Einfach gesagt hat man ohne AntiAliasing gegenüber der nativen Auflösung immer einen Verlust an Bildschärfe bzw. Detaildichte. Natürlich vermindert eine noch höhere Displayauflösung, dass der Effekt sichtbar ist. Fakt ist aber trotzdem, dass man selbst bei 16k ohne AntiAliasing genauso viel an Bildqualität verliert, wie in meinetwegen 720p. Ab ner Gewissen Auflösung ist aber halt auch das einfach nicht mehr Auffällig.

Und wenn man ab ner gewissen Auflösung nichtmal mehr den Bildqualitätsverlust durch fehlendes AntiAliasing erkennen kann, dann bestätigt das nur meine Aussage, dass die Vorteile immer höherer Auflösungen immer geringer werden.


Und man kann das ganze ja auch ganz einfach selbst testen. Einfach mal in nem Spiel nen Screenshot ohne Supersampling machen, und dann nen Screenshot von irgend ner Website mit schrift oder ähnlichem. Wenn man dann die Bilder auf 1/1 bzw. 100% darstellt (also ohne verkleinerung oder vergrößerung), dann sollte eigentlich, wenn man näher ands Display geht auffallen, dass die Spielegrafik sehr, sehr viel „grober“ und pixeliger ist, als z.B. der Text auf ner Website oder meinetwegen die Windows Oberfläche, Symbole, Icons usw. alles ist deutlich schärfer, als Spielegrafik...

Schärfeeindruck ist nicht gleich Schärfe.
Jedes AA macht das Bild unscharf. Es werden Farbwerte gemischt um eben eine deutliche Abgrenzung zu vermeiden, das kann keine Schärfe produzieren.

Aber man hat einen besseren Eindruck, weil Konturen subjektiv unterbrechungsfreier abgebildet werden und es in der Realität durch Beugungseffekte keine absolut scharfen Kanten gibt.
 
Schärfeeindruck ist nicht gleich Schärfe.
Jedes AA macht das Bild unscharf. Es werden Farbwerte gemischt um eben eine deutliche Abgrenzung zu vermeiden, das kann keine Schärfe produzieren.

Aber man hat einen besseren Eindruck, weil Konturen subjektiv unterbrechungsfreier abgebildet werden und es in der Realität durch Beugungseffekte keine absolut scharfen Kanten gibt.


Ist doch wuppe, jeder weiß, was gemeint ist. Warum du darum jetzt so nen Aufriss machst verstehe ich nicht.

Fakt ist, dass mit AntiAliasing die Detaildichte im Bild trotz gleicher Ausgabeauflösung erhöht wird.

Z.B. ein gebüsch in weiter entfernung ist ohne AA meist nur eine undefinierte Pixelsuppe. Die Kanten mögen scharf sein, wenn aber die Strukturen nicht mehr erkennbar sind, passt deine Argumentation mit Schärfe = Abgerenzung der Pixel auch nicht so, denn genau genommen würde durch den Pixelmatsch die Schärfe sinken. Mit Supersampling werden aber die feinen Strukturen sichtbar, und das obwohl die Displayauflösung gleich bleibt, somit steigt die schärfe.

Ob dir der Begriff "Schärfe" passt oder nicht ist mir jetzt erstmal egal. Kannst ja mal Vorschläge für alternative Begriffe machen. Aber eigentlich ist das auch völlig wurscht. Je mehr Details unser Auge erkennen kann, desto besser, und mit AntiAliasing lässt sich diese Detailmenge steigern, eben soweit, wie es die eigentliche Displayauflösung erlaubt. Heißt, eigentlich steigt die Detaildichte, Schärfe, whatever mit AA nicht, sie ist ohne AA einfach nur geringer, als maximal möglich.

Und deswegen sollte man die Schärfe von Spielegrafik auch nicht mit der Schärfe der Displayauflösung gleichsetzen (ja, ich weiß, dass dich dieser satz bzw. meine Wortwahl wohl ziemlich triggern wird)
 
Zurück