Ich denke, dass etwa 150ppi bei Notebooks ein sinnvoller Wert sind, alles drüber ist Spielerei.
Mein x121e hat 1366*768 bei 11,6" und beim normalen Arbeiten arbeiten erkenne ich beim besten willen keine einzelnen Pixel.
Anders war das beim 17" Notebook mit 1440*900, da wären mehr Pixel schon ganz nett, Full-HD wäre da super.
Es geht nicht nur die Erkennbarkeit einzelner Pixel, es geht auch um die Skalierung konventionell aufgelösten Materials. Bei 3D Grafik und Text hast du da kein Problem, aber alles was als Bildelement vorliegt (angenfangen bei Fotos bis runter zu graphisch gestalteten Menüelementen), ist unter Annahme einer bestimmten Pixeldichte erstellt worden. Steigerst du deine Pixeldichte zu weit, stehst du vor einem Dilemma: Entweder die Darstellung wird so klein, dass der Nutzerkomfort leidet, oder du musst die Grafik skalieren und deine Anzeigequalität verschlechtert sich, wo du sie doch eigentlich verbessern wolltest. Die einzige Lösung ist die, die Apple beim iPad3 gewählt hat: Verdoppelung der Auflösung. Damit erhälst du zwar Pixeldichten, die nur noch eingeschränkt sinnvoll sind, aber du kannst einfach 1:2 Skalieren und so alles ohne Qualitätsverlust darstellen (und das, was als Vektorgrafik oder Polygonmodell vorliegt, in höherer Qualität).
Ich persönlich finde Apples derzeitige Ansätze da sinnvoller, als z.B. Desktopmonitore mit 130-160 dpi. Bei denen muss man dann nämlich in <50 cm Entfernung vor >50 cm Diagonale hocken, oder man landet genau in obigem Dilemma.
Könnte schwierig werden. Bei 15" Bildschirmgrößen sind solche Pixeldichten machbar aber wie sieht es bei 24" oder größer aus? Man darf gespannt sein.
Ansteuerungen bis afaik in 8k Bereich existieren und die Substrate, aus denen die Panels geschnitten werden, sind sowieso wesentlich größer. D.h. wenn du die Pixeldichte in 5" fertigen kannst, kannst du es auch in 50" - die Frage ist nur, ob sie da sinnvoll ist, oder ein sündteures Feature, dass niemand kaufen will.
Problematisch wäre eher noch die Ansteuerung - die meisten Consumergrafikkarten dürften mit einem 200dpi 32" Display nicht umgehen können und selbst diejenigen, die es können, müssen mehrere Ausgänge bündeln, was ggf. zu Softwareproblemen führt, da es aus Systemsicht ein Multimonitor-Setup ist.
Crysis und Metro sind natürlich Extrembeispiele. Aber das MB packt zum Beispiel Diablo 3 in der Auflösung. Ohne AA sogar halbwegs flüssig. Denn man darf nicht vergessen, dass AA bei diesen Auflösungen nicht mehr zwingend nötig ist, und dadurch natürlich viel, viel Rechenleistung gespart wird. Bestes Beispiel ist Max Payne 3, wo das MSAA enorme Ressourcen verschlingt.
Die Auflösung als solche verschlingt genausoviel Rechenleistung, wie (hier ~x4) SSAA. "Weniger" Rechenleistung brauchst du garantiert nicht
Wie schon gesagt sind das Extrem-Beispiele. Es gibt mehr als genügend Games in denen aktuelle Grakas in hohen Auflösungen absolut spielbare Framerates liefern. Zudem, bis solche Screens wirklich verfügbar und vor allem bezahlbar sein werden, wird noch etwas Zeit vergehen. Dann sind wir mindestens noch eine Graka-Generation weiter
Und?
Diese nächste Grafikkartengeneration kann dann vielleicht heutige Spiele in der nativen Auflösung darstellen. Die nächste Grafikkartengeneration kauft man sich aber, um Spiele der nächsten und übernächsten Generation zu spielen...