Unterschied zwischen 2560x1600 und 2880x1620 bei Grafikaufwand etc?

barcelona78

Komplett-PC-Aufrüster(in)
Hey
Hätte mal ne frage :
Ein Freund hat einen 2560x1600 Monitor und ich einen Full Hd Monitor der mit downsampling auf 2880x1620 läuft . Jetzt wollte ich fragen :
Bei welcher Auflösung IST der Grafikaufwand höher ?
welche Auflösung siehts optisch besser aus ?

Danke :-)
 
Bei 2880x1620 muss die Grafikkarte logischerweise mehr schuften, wenn auch nicht viel mehr. (~9-14%)
Optisch ist IMO der Monitor mit nativen 1440p/1600p ganz klar vorne, ich pers. bin von einem 23" Eizo FS2332 1080p auf einen 27" NEC PA271W mit 1440p umgestiegen (worden, der Eizo war defekt).
 
wenn mehr pixel berechnet werden müssen, zieht es auch mehr grafikkartenleistung.
die qualitäseinstellung frisst aber die meiste leistung und vorallem videospeicher.
 
downsampling wie der name sagt wird die höhere auflösung heruntergerechnet, sodass die glättung jedes objekt erfasst. [texturen/pixelshader]
 
Wenn Dowmsampling die Kanten glättet was genau macht dann 2560x1600 ,also bei 27 Zoll Monitoren?

Na ohne Glättung die native Auflösung anzeigen. Das sieht deswegen besser aus als dein FullHD weil die Pixel kleiner sind (die Pixeldichte größer ist).

Verstehe folgendes:
1.) Je mehr Pixel pro Fläche, desto besser.
2.) Wenn du einen Bildschirm mit einer Pixelzahl von X mit genau der Pixelzahl X ansprichst dann hat jeder Pixel eine Information bekommen wie er auszusehen hat, das ist Normalzustand.
3.) Wenn der Bildschirm weniger Pixelinformationen (=Auflösung) bekommt siehts verwaschen aus (das passiert wenn du FullHD-TFTs nur mit 1680x1280 oder sowas betreibst), dann hat nicht jeder Pixel seine Information wie er auszusehen hat und muss aus den anderen interpoliert (=geschätzt) werden.
4.) Wenn der Bildschirm mehr Pixelinfos bekomt als er eigentlich hat (das passiert bei Downsampling) dann hat jeder Pixel nicht nur seine Informationen wie er aussehen soll sondern auch noch Informationen darüber wie seine Nachbarn denn so aussehen und kann sich entsprechend anpassen - das nennt sich AntiAliasing. Downsampling ist nur ein anderer Ausdruck für eine sehr hochqualitative und sehr leistungsfressende Form des AntiAliasings (genauer: Downsampling ist OGSSAA, OrderedGridSuperSampliungAntiAliasing :ugly:)
 
Na ohne Glättung die native Auflösung anzeigen. Das sieht deswegen besser aus als dein FullHD weil die Pixel kleiner sind (die Pixeldichte größer ist).

Verstehe folgendes:
1.) Je mehr Pixel pro Fläche, desto besser.
2.) Wenn du einen Bildschirm mit einer Pixelzahl von X mit genau der Pixelzahl X ansprichst dann hat jeder Pixel eine Information bekommen wie er auszusehen hat, das ist Normalzustand.
3.) Wenn der Bildschirm weniger Pixelinformationen (=Auflösung) bekommt siehts verwaschen aus (das passiert wenn du FullHD-TFTs nur mit 1680x1280 oder sowas betreibst), dann hat nicht jeder Pixel seine Information wie er auszusehen hat und muss aus den anderen interpoliert (=geschätzt) werden.
4.) Wenn der Bildschirm mehr Pixelinfos bekomt als er eigentlich hat (das passiert bei Downsampling) dann hat jeder Pixel nicht nur seine Informationen wie er aussehen soll sondern auch noch Informationen darüber wie seine Nachbarn denn so aussehen und kann sich entsprechend anpassen - das nennt sich AntiAliasing. Downsampling ist nur ein anderer Ausdruck für eine sehr hochqualitative und sehr leistungsfressende Form des AntiAliasings (genauer: Downsampling ist OGSSAA, OrderedGridSuperSampliungAntiAliasing :ugly:)

das heißt also, man braucht AntiAliasing eig gar nicht mehr zuschalten? Ich hab auch noch ne Frage dazu, warum wird die Hz-Anzahl des Monitors eig weniger? Also ich hab nen ASUS VG248QE und wenn ich auf 2880x1620 stelle, muss ich die Hz-Anzahl auf 100Hz reduzieren..
 
Du spielst mit 1.5x downsampling mit 100 hz? Wenn ich bei mir höher als 60 einstelle, kann ich dir Auflösung ingame nicht mehr einstellen.
Wenn du downsampling und AA vereinst ist es halt echt perfekt. Spiele grad alan wake, 2.79 bei steam... auch mit 2880x1620 und 4x AA
 
3.) Wenn der Bildschirm weniger Pixelinformationen (=Auflösung) bekommt siehts verwaschen aus
Zu ergänzen wäre noch, dass das Bild nicht nur dann unscharf ("verwaschen") wird, wenn man interpoliert, sondern auch dann wenn man extrapoliert (also beim Downsampling). Ist ja auch logisch, denn Kantenglättung ist nichts anderes als partielle Kontrastverringerung.

Je krummer der Faktor, desto schlimmer die Unschärfe. Faktor 1,5 (2880x1620 @ 1920x1080) ist da schon sehr grenzwertig und mir persönlich schon zu unscharf, gemessen an der auch nicht gerade guten Kantenglättung (noch schlechter als 2xSGSSAA). Richtig gut sieht nur der gerade Faktor 2,0 aus (3840x2160 @ 1920x1080, also 4k auf einem FullHD Monitor).

Wer ein scharfes Bild möchte, ist daher mit einem 2560x1440 Monitor besser beraten.
 
das heißt also, man braucht AntiAliasing eig gar nicht mehr zuschalten?

Wenn die Auflösung des Bildschirms (genauer: die Pixeldichte) groß genug ist sind die Pixel so klein dass du sowieso keine "Treppchen" mehr sehen kannst weil du schlicht die einzelnen Pixel mit deinem Auge nicht mehr auflösen kannst.
Bei 1440p auf 27 Zoll wenn du nahe vorm TFT sitzt und gute Augen hast kann man AA noch vertreten, spätestens bei 4K oder wenn du weiter vom Bildschirm wegsitzt ists aber nicht mehr nötig.

Wenn du die möglichkeit hast betrachte mal High-End Smartphones. Die haben eine viel höhere Pixeldichte als TFT-Monitore (da sie FullHD und mehr auf der Fläche einer Hand darstellen) - da siehst du bei geschwungenen Linien beispielsweise auch keine "Treppchen" mehr ohne dass hier AA verwendet wird. Leider ist der Smartphone-Markt extrem am boomen und die Hersteller hauen Pixeldichten von 400 Pixel pro Zoll raus wo FullHD-TFTs noch bei grob 100 rumgurken.

@KrHome: Natürlich hast du Recht. Der "Verwaschungseffekt" ist bei Downsampling aber viel viel geringer als bei Interpolation deswegen hab ich das um keine weitere Verwirrung zu erzeugen geschickt weggelassen. :-D
 
Die würde nicht so extrem steigen. Jedenfalls nicht in völlig unvertretbare Bereiche würde ich mal sagen. Der Anschaffungspreis eines derart hochaufgelösten Panels in der Größe dürfte das bei weitem überwiegen :ugly:

Das ist aber im Prinzip auch nur so weil hier die Nachfrage nicht da ist. So schnell wie 4K-Monitore im Preis fallen wenn sie gefragt sind so schnell würden es auch derartige TFTs tun (im dann 8K-Bereich) - aber solche Piuxeldichten sind (genausowenig wie auf Smartphones wo sie auch nuir der große Zahlen verkaufen-Taktik dienen) ja nicht nötig - 4K auf 30 Zoll sind für meine Begriffe wunderbar... und leider aktuell unbezahlbar und schlecht machbar (Reaktionszeiten sind noch hoch, keine hohen Wiederholraten, je nach Spiel nur mit Mikroruckelnden SLI/CF-Systemen flüssig befeuerbar usw.).

Warten wir noch ein paar Jahre ab. Ich denke spätestens 2020 kann man mit ner einzelnen High-End Grafikkarte einen bezahlbaren 4K-TFT befeuern (zumindest hoffe ich das :fresse:).
 
guck dir mal die Leistungsaufnahme der 4k Displays an und das sind 30 Zöller.
Und rechne dann mal 400dpi in 30 Zoll um was du dann für eine Auflösung hast. Da hast du schon eine nicht zu verachtende Leistungsaufnahme.
 
Naja, es wäre wenn man etwas darauf achtet mit 250W realisierbar - das hat die Leute auch nicht von Plasma-TVs abgehalten.
Aber wie gesagt die Auflösung wäre da ja weit jenseits der 4K was nicht wirklich nötig ist.

Man könnte sagen "das hat man bei 800x600 und bei FullHD auch schon gesagt" aber bei einem 4K-TFT sehe ich die einzelnen Pixel aus meinem Sitzabstand (der nicht mal allzu groß ist, bei 1440p sehe ichs noch wenn ich explizit drauf achte) nicht mehr, ab dem Punkt sind mehr Pixel für mich also nicht mehr nötig, es sei denn man möchte ne 40er als Monitor :ugly:
 
Zurück