eRaTitan
PCGHX-HWbot-Member (m/w)
Ich nehm 32 Zoll, wqhd, 240 hz, oled, und das wenn's geht unter 700 eier - dankebitteciao.
Stimme ich zu. Wobei ich 360hz passender finde
Ich nehm 32 Zoll, wqhd, 240 hz, oled, und das wenn's geht unter 700 eier - dankebitteciao.
Gibt es dazu eine Quelle? Während ich mir sicher bin dass wir mehr wie 120Hz warnehmen und es dafür auch genug Beweise gibt höre ich zum ersten Mal das wir bis ca. 1kHz warnehmen sollen.1: die obere Grenze liegt bei etwa 1000Hz.
Sehr schöne Analogie. Solange wir einzelne Pixel im Kontrastreichen Darstellungen warnehmen solange bringt mehr Auflösung auch mehr. Erst wenn wir nativ ohne jegliches AA keine Aliasingeffekte mehr warnehmen dürften wir den Punkt erreicht haben in dem mehr Auflösung keinen Vorteil mehr hat. Aber die DPI ist noch ein ganzes Stück entfernt. Der qualitative Vorteil wird aber immer geringer und wir haben mit 4k bereits einen Punkt erreicht ab dem es nur noch kleine Vorteile aber hohe "Kosten" für gibt.Nimm einfach ein Haar. Das Haar ist etwa so breit, wie ein Pixel eines 27" 8K Monitors. Du kannst das Haar sehen? dann kannst du auch den Unterschied von 8K wahrnehmen. Nun legst du das Haar auf etwas weißes, etwa ein gut geputztes Waschbecken oder eine Badewanne. Jetzt sticht es noch deutlicher ins Auge. Nun gehst du solange zurück, bis du das Haar nicht mehr siehst. Du wirst sehr weit zurückgehen müssen. Damit kannst du dann auch sehen, dass selbst 16K, 32K und 64K Monitore noch einen gewissen Nutzen haben. Ein anderer Punkt, der einem ins Auge springt ist der Treppenstufeneffekt.
Ja, aber was haben wir davon? Rechtfertigt der optische Gewinn von bspw. 8K gegenüber 4K den Leistungshunger? Klar, wenn es um scharfe Schrift im Homeoffice geht, dann ist die gestiegene Leistungsaufnahme gering. Bzw. ist der Gewinn von 240 hz gegenüber 120 hz den doppelten Leistungshunger Wert?Sehr schöne Analogie. Solange wir einzelne Pixel im Kontrastreichen Darstellungen warnehmen solange bringt mehr Auflösung auch mehr. Erst wenn wir nativ ohne jegliches AA keine Aliasingeffekte mehr warnehmen dürften wir den Punkt erreicht haben in dem mehr Auflösung keinen Vorteil mehr hat. Aber die DPI ist noch ein ganzes Stück entfernt. Der qualitative Vorteil wird aber immer geringer und wir haben mit 4k bereits einen Punkt erreicht ab dem es nur noch kleine Vorteile aber hohe "Kosten" für gibt.
Das muss jeder für sich selber entscheiden.Ja, aber was haben wir davon? Rechtfertigt der optische Gewinn von bspw. 8K gegenüber 4K den Leistungshunger? Klar, wenn es um scharfe Schrift im Homeoffice geht, dann ist die gestiegene Leistungsaufnahme gering. Bzw. ist der Gewinn von 240 hz gegenüber 120 hz den doppelten Leistungshunger Wert?
Ja, ich habe es auch so gemeint, dass es jeder mit sich ausmachen muss. Die Grenzen sind ja auch fließend. Es könnten aber gerne auch noch mehr Abstufungen geben. 2K 3K 4K 5K 6K 7K 8K usw.Das muss jeder für sich selber entscheiden.
Wie bereits angemerkt muss das jeder selbst entscheiden.Ja, aber was haben wir davon? Rechtfertigt der optische Gewinn von bspw. 8K gegenüber 4K den Leistungshunger? Klar, wenn es um scharfe Schrift im Homeoffice geht, dann ist die gestiegene Leistungsaufnahme gering. Bzw. ist der Gewinn von 240 hz gegenüber 120 hz den doppelten Leistungshunger Wert?
Gibt dich genug Abstufungen.Ja, ich habe es auch so gemeint, dass es jeder mit sich ausmachen muss. Die Grenzen sind ja auch fließend. Es könnten aber gerne auch noch mehr Abstufungen geben. 2K 3K 4K 5K 6K 7K 8K usw.
Ich bin ja jetzt sogar runter von 4K auf 3440 x 1440...
Für mich auch eher Marketing als praktischer Nutzen.Braucht keine Sau. Bringt 27 Zoll, WQHD, OLED und 165-180 Hz und das für 400 € und das Ding wird gekauft.
Alles darüber soll doch nur meine GPU zum kotzen bringen, das ich mir in 2 Jahren ja eine neue kaufen soll.
Menschen sind Unterschiedlich. Ich z.b bin mit 60 FPS sehr zufrieden. Einen Unterschied zu 144Hz an meinem TV merke ich schon. Aber der Unterschied ist extrem vom Spiel abhängig. Ein Alien Isolation , Hitman oder Baldurs Gate machen bei mir kein Unterschied. Rennspiele oder schnelle Shooter merke ich doch schon.Ich hab zuhause drei Monitore.240hz mit 240fps befeuert und mit dem ich spiele.120hz für frauchen und 60hz für die Kinder.Wir spielen alle Fortnite.Wenn ich mal,am 60hz Monitor der Kinder kurz spiele, ist es unerträglich mit 60fps.Selbst auf dem 120hz Monitor meiner frau spürt man den Unterschied deutlich zu 240 fps.Wie ignorant, können manche Menschen nur sein.Einfach stur zu behaupten, das wir kein Unterschied erkennen würden.Manche Menschen behaupten sogar das man nicht mehr als 24fps erkennen könnte
Erstmal ist die Bilderwiederholrate = Frames per Second (FPS) nicht das selbe wie die Bildwiederholfrequenz (Hz) des Monitors oder TVs.Ich hab zuhause drei Monitore.240hz mit 240fps befeuert und mit dem ich spiele.120hz für frauchen und 60hz für die Kinder.Wir spielen alle Fortnite.Wenn ich mal,am 60hz Monitor der Kinder kurz spiele, ist es unerträglich mit 60fps.Selbst auf dem 120hz Monitor meiner frau spürt man den Unterschied deutlich zu 240 fps.Wie ignorant, können manche Menschen nur sein.Einfach stur zu behaupten, das wir kein Unterschied erkennen würden.Manche Menschen behaupten sogar das man nicht mehr als 24fps erkennen könnte