Apple MacBook Pro: Die ersten Tests zum Retina-Notebook samt Video

Ich hoffe, dass Apples Vorstoß dabei hilft die "Full-HD Schallmauer" zu durchbrechen.

Das hoffe ich auch. Ich finde das beim MB Pro schon klasse, dass man beispielsweise auf dem 15" Screen beim Videoschnitt das Video "Pixel to Pixel" in Full-HD darstellen kann und rundherum noch genügend Platz für die Bedienelemente des Schnittprogramms ist.
Ich hoffe, dass sich solche Pixeldichten auch bei Desktop-Monitoren zügig durchsetzen, denn zum Arbeiten eröffnet das neue Möglichkeiten (beim Gamen natürlich auch ;))
 
Das hoffe ich auch. Ich finde das beim MB Pro schon klasse, dass man beispielsweise auf dem 15" Screen beim Videoschnitt das Video "Pixel to Pixel" in Full-HD darstellen kann und rundherum noch genügend Platz für die Bedienelemente des Schnittprogramms ist.
Ich hoffe, dass sich solche Pixeldichten auch bei Desktop-Monitoren zügig durchsetzen, denn zum Arbeiten eröffnet das neue Möglichkeiten (beim Gamen natürlich auch ;))
Könnte schwierig werden. Bei 15" Bildschirmgrößen sind solche Pixeldichten machbar aber wie sieht es bei 24" oder größer aus? Man darf gespannt sein.

MfG
 
Das hoffe ich auch. Ich finde das beim MB Pro schon klasse, dass man beispielsweise auf dem 15" Screen beim Videoschnitt das Video "Pixel to Pixel" in Full-HD darstellen kann und rundherum noch genügend Platz für die Bedienelemente des Schnittprogramms ist.
Ich hoffe, dass sich solche Pixeldichten auch bei Desktop-Monitoren zügig durchsetzen, denn zum Arbeiten eröffnet das neue Möglichkeiten (beim Gamen natürlich auch ;))

damit sind aktuelle grafikkarten aber auch deutlich überfordert. ich warte schon lange auf eine grafikkarte, die Crysis Warhead oder Metro 2033 flüssig in meiner Auflösung von 2560x1440 schafft. Bisher gibt es keine. Von Kantenglättung ganz zu schweigen... Also wird man nicht nur sehr viel für den Monitor löhnen müssen, sondern auch für potente Grafiklösungen
 
damit sind aktuelle grafikkarten aber auch deutlich überfordert. ich warte schon lange auf eine grafikkarte, die Crysis Warhead oder Metro 2033 flüssig in meiner Auflösung von 2560x1440 schafft. Bisher gibt es keine. Von Kantenglättung ganz zu schweigen... Also wird man nicht nur sehr viel für den Monitor löhnen müssen, sondern auch für potente Grafiklösungen

Crysis und Metro sind natürlich Extrembeispiele. Aber das MB packt zum Beispiel Diablo 3 in der Auflösung. Ohne AA sogar halbwegs flüssig. Denn man darf nicht vergessen, dass AA bei diesen Auflösungen nicht mehr zwingend nötig ist, und dadurch natürlich viel, viel Rechenleistung gespart wird. Bestes Beispiel ist Max Payne 3, wo das MSAA enorme Ressourcen verschlingt.
 
Crysis und Metro sind natürlich Extrembeispiele. Aber das MB packt zum Beispiel Diablo 3 in der Auflösung. Ohne AA sogar halbwegs flüssig. Denn man darf nicht vergessen, dass AA bei diesen Auflösungen nicht mehr zwingend nötig ist, und dadurch natürlich viel, viel Rechenleistung gespart wird. Bestes Beispiel ist Max Payne 3, wo das MSAA enorme Ressourcen verschlingt.

Das Aliasing-Problem erledigt sich natürlich Pixeldichtenbedingt, aber gerade mit neuen Konsolengenerationen und sogar potenten Smartphones, denke ich nicht, dass entsprechende Spiele wirklich flüssig laufen werden in der nativen Auflösung. Da sollte man entweder eine ressourcenschonende Engine finden, die Polygone ablöst, oder aber man spart schon mal auf endlose teure Grafikbeschleuniger^^
 
Könnte schwierig werden. Bei 15" Bildschirmgrößen sind solche Pixeldichten machbar aber wie sieht es bei 24" oder größer aus? Man darf gespannt sein.

Das stimmt natürlich. Bei großen Screens wird die Pixeldichte wohl deutlich niedriger liegen.
Aber an einem 32" Screen mit Sharp's IGZO Panel mit 3840 × 2160 Pixeln hätte ich schon Spaß ;)

Das Aliasing-Problem erledigt sich natürlich Pixeldichtenbedingt, aber gerade mit neuen Konsolengenerationen und sogar potenten Smartphones, denke ich nicht, dass entsprechende Spiele wirklich flüssig laufen werden in der nativen Auflösung. Da sollte man entweder eine ressourcenschonende Engine finden, die Polygone ablöst, oder aber man spart schon mal auf endlose teure Grafikbeschleuniger^^

Wahrscheinlich werden viele Games dann wohl trotzdem leider in niedrigeren Auflösungen laufen (müssen). Beim Pro z.B. in den gewohnten 1440 x 800.
 
Zuletzt bearbeitet:
Könnte schwierig werden. Bei 15" Bildschirmgrößen sind solche Pixeldichten machbar aber wie sieht es bei 24" oder größer aus? Man darf gespannt sein.

MfG

Wie ich schon geschrieben habe hat IBM 2001 (!!) bereits einen Monitor mit 46,4cm /22" Diagonale und einer Pixeldichte von über 200 PPI auf den Markt gebracht.

11 Jahre später sollte doch echt mehr möglich sein...

Und tatsächlich: mit IGZO sollten 4k 24" Bildschirme relativ bequem machbar sein, wenn die Technologie erstmal etabliert ist.

Auch mit OLEDs ist es viel einfacher große Pixeldichten auf großen Monitoren umzusetzen.

damit sind aktuelle grafikkarten aber auch deutlich überfordert.

Immer dieses Totschlagargument "die GraKas halten nicht mit"

1) Das hätte man bisher bei jeder Erhöhung der Auflösung behaupten können (...)

2) In den allermeisten Spielen schaffen moderne High-End GraKas wie etwa die Radeon HD 7970 in 4k durchaus spielbare Frameraten

3) Eine derart hohe Auflösung/Pixeldichte macht Kantenglättung überflüssig; ob Full-HD mit 2x SSAA oder 4k ohne AA ist für die GraKa völlig egal.

4) In den meisten aktuellen Spielen (v.A. Konsolenports) langweilen sich aktuelle High-End GraKas sowieso

5) Spiele sind nicht alles

6) Mit einem 4k Monitor kann man zur Not nativ Full-HD darstellen.
 
Immer dieses Totschlagargument "die GraKas halten nicht mit"

1) Das hätte man bisher bei jeder Erhöhung der Auflösung behaupten können (...)

2) In den allermeisten Spielen schaffen moderne High-End GraKas wie etwa die Radeon HD 7970 in 4k durchaus spielbare Frameraten

3) Eine derart hohe Auflösung/Pixeldichte macht Kantenglättung überflüssig; ob Full-HD mit 2x SSAA oder 4k ohne AA ist für die GraKa völlig egal.

4) In den meisten aktuellen Spielen (v.A. Konsolenports) langweilen sich aktuelle High-End GraKas sowieso

5) Spiele sind nicht alles

6) Mit einem 4k Monitor kann man zur Not nativ Full-HD darstellen.

Ich sitze hier an einem 2560x1440er und dank PCGH-Tests dürfte jeder hier wissen, dass eine HD7970 die von mir genannten Spiele NICHT in der Auflösung packt. Es ist zwar knapp, aber trotzdem ist es so. Mit der nächsten oder übernächsten Generation dürfte das endlich geschafft sein. Aber bis zur Spielbarkeit auf 4K ist es noch ein mittellanger Weg. Du hast aber Recht, dass Spiele nicht Alles sind. Schon beim Arbeiten ist es ein toller Komfort, so viel Fläche nutzen zu können
 
Ich sitze hier an einem 2560x1440er und dank PCGH-Tests dürfte jeder hier wissen, dass eine HD7970 die von mir genannten Spiele NICHT in der Auflösung packt.

Wie schon gesagt sind das Extrem-Beispiele. Es gibt mehr als genügend Games in denen aktuelle Grakas in hohen Auflösungen absolut spielbare Framerates liefern. Zudem, bis solche Screens wirklich verfügbar und vor allem bezahlbar sein werden, wird noch etwas Zeit vergehen. Dann sind wir mindestens noch eine Graka-Generation weiter
 
Ich denke, dass etwa 150ppi bei Notebooks ein sinnvoller Wert sind, alles drüber ist Spielerei.
Mein x121e hat 1366*768 bei 11,6" und beim normalen Arbeiten arbeiten erkenne ich beim besten willen keine einzelnen Pixel.
Anders war das beim 17" Notebook mit 1440*900, da wären mehr Pixel schon ganz nett, Full-HD wäre da super.

Es geht nicht nur die Erkennbarkeit einzelner Pixel, es geht auch um die Skalierung konventionell aufgelösten Materials. Bei 3D Grafik und Text hast du da kein Problem, aber alles was als Bildelement vorliegt (angenfangen bei Fotos bis runter zu graphisch gestalteten Menüelementen), ist unter Annahme einer bestimmten Pixeldichte erstellt worden. Steigerst du deine Pixeldichte zu weit, stehst du vor einem Dilemma: Entweder die Darstellung wird so klein, dass der Nutzerkomfort leidet, oder du musst die Grafik skalieren und deine Anzeigequalität verschlechtert sich, wo du sie doch eigentlich verbessern wolltest. Die einzige Lösung ist die, die Apple beim iPad3 gewählt hat: Verdoppelung der Auflösung. Damit erhälst du zwar Pixeldichten, die nur noch eingeschränkt sinnvoll sind, aber du kannst einfach 1:2 Skalieren und so alles ohne Qualitätsverlust darstellen (und das, was als Vektorgrafik oder Polygonmodell vorliegt, in höherer Qualität).
Ich persönlich finde Apples derzeitige Ansätze da sinnvoller, als z.B. Desktopmonitore mit 130-160 dpi. Bei denen muss man dann nämlich in <50 cm Entfernung vor >50 cm Diagonale hocken, oder man landet genau in obigem Dilemma.


Könnte schwierig werden. Bei 15" Bildschirmgrößen sind solche Pixeldichten machbar aber wie sieht es bei 24" oder größer aus? Man darf gespannt sein.

Ansteuerungen bis afaik in 8k Bereich existieren und die Substrate, aus denen die Panels geschnitten werden, sind sowieso wesentlich größer. D.h. wenn du die Pixeldichte in 5" fertigen kannst, kannst du es auch in 50" - die Frage ist nur, ob sie da sinnvoll ist, oder ein sündteures Feature, dass niemand kaufen will.
Problematisch wäre eher noch die Ansteuerung - die meisten Consumergrafikkarten dürften mit einem 200dpi 32" Display nicht umgehen können und selbst diejenigen, die es können, müssen mehrere Ausgänge bündeln, was ggf. zu Softwareproblemen führt, da es aus Systemsicht ein Multimonitor-Setup ist.


Crysis und Metro sind natürlich Extrembeispiele. Aber das MB packt zum Beispiel Diablo 3 in der Auflösung. Ohne AA sogar halbwegs flüssig. Denn man darf nicht vergessen, dass AA bei diesen Auflösungen nicht mehr zwingend nötig ist, und dadurch natürlich viel, viel Rechenleistung gespart wird. Bestes Beispiel ist Max Payne 3, wo das MSAA enorme Ressourcen verschlingt.

Die Auflösung als solche verschlingt genausoviel Rechenleistung, wie (hier ~x4) SSAA. "Weniger" Rechenleistung brauchst du garantiert nicht ;)


Wie schon gesagt sind das Extrem-Beispiele. Es gibt mehr als genügend Games in denen aktuelle Grakas in hohen Auflösungen absolut spielbare Framerates liefern. Zudem, bis solche Screens wirklich verfügbar und vor allem bezahlbar sein werden, wird noch etwas Zeit vergehen. Dann sind wir mindestens noch eine Graka-Generation weiter

Und?
Diese nächste Grafikkartengeneration kann dann vielleicht heutige Spiele in der nativen Auflösung darstellen. Die nächste Grafikkartengeneration kauft man sich aber, um Spiele der nächsten und übernächsten Generation zu spielen...
 
Die Auflösung als solche verschlingt genausoviel Rechenleistung, wie (hier ~x4) SSAA. "Weniger" Rechenleistung brauchst du garantiert nicht ;)

Das war missverständlich von mir ausgedrückt. Klar geht das, was du an Rechenleistung durch fehlendes AA einsparst an der hohen Auflösung wieder verloren ;).

Und?
Diese nächste Grafikkartengeneration kann dann vielleicht heutige Spiele in der nativen Auflösung darstellen. Die nächste Grafikkartengeneration kauft man sich aber, um Spiele der nächsten und übernächsten Generation zu spielen...

Na ja, eines ist so oder so klar. Wer jetzt gerne in 2560x1440 oder 2560x1600 spielen möchte und dazu auch noch etwas Zukunftssicherheit möchte, der muss sich eine GTX690 kaufen, also verdammt viel Geld investieren. Und ich sprach ja davon, dass mindestens noch eine Graka Generation vergeht, bevor diese ultra-hochauflösenden Screens bezahlbar sein dürften bzw. besser gesagt, bevor sie eine Relevanz am Markt haben werden. Eines ist aber auch dabei klar: Es wird absolute High-End Hardware nötig sein, um die Spiele der Zukunft auf diesen Screens zu spielen.
 
Nein:
Es wird eben mehr, als absolute High-End-Hardware nötig sein. Du brauchst heute eine GTX690, um auf 2560x1600 vernünftig zu zocken und du brauchtest vor fünf Jahren zwei Geforce 8800 Ultra, um auf 2560x1600 vernünftig zu zocken. Der Leistungsgewinn der Hardware wird nahezu vollständig durch die steigenden Ansprüche der Top-Spiele aufgefressen (die zwar nicht immer besser aussehen, aber immer schlechter optimiert zu sein scheinen :schief:). Für höhere Auflösungen bleibt da nur wenig übrig (vielleicht würde heute auch HD7950 CF reichen, anstelle der 690 - aber mehr als 10-15% über die damalige Flüssigkeit wird man vermutlich nicht kommen). Ehe wir genug Reserven für einen Bildschirm mit verdoppelte Pixeldichte hätten, wäre in diesem Tempo das Ende des Jahrzehnts erreicht.
 
Das sehe ich anders. Wenn ich sehe, was die GTX690 in 2560x1600 in den aktuellsten DX11 Titeln wie z.B. Bf3, Crysis 2 oder Max Payne 3 inklusive AA für Framerates erreicht, dann wird schon die nächste Graka-Generation im Dual-GPU Verbund in der Lage sein in noch höheren Auflösungen Spiele flüssig darzustellen, auch da man dann auf AA verzichten kann (die hohe Auflösung plus AA wäre natürlich der Killer für jede Graka...).
Und so extrem steigen die Ansprüche der Spiele von Jahr zu Jahr nicht an.
 
Zuletzt bearbeitet:
Ansteuerungen bis afaik in 8k Bereich existieren und die Substrate, aus denen die Panels geschnitten werden, sind sowieso wesentlich größer. D.h. wenn du die Pixeldichte in 5" fertigen kannst, kannst du es auch in 50" - die Frage ist nur, ob sie da sinnvoll ist, oder ein sündteures Feature, dass niemand kaufen will.
Problematisch wäre eher noch die Ansteuerung - die meisten Consumergrafikkarten dürften mit einem 200dpi 32" Display nicht umgehen können und selbst diejenigen, die es können, müssen mehrere Ausgänge bündeln, was ggf. zu Softwareproblemen führt, da es aus Systemsicht ein Multimonitor-Setup ist.

So einfach ist das leider nicht... soweit ich weiß wird es immer schwieriger die immer größere Zahl an TFTs in den einzelnen Pixeln auf der großen Fläche mit Strom zu versorgen. IGZO ist hier aber ein erheblicher Fortschritt.
 
Davon habe ich ehrlich gesagt noch nichts gehört - aber mir ist auch nicht so ganz klar, wieso es schwerer sein sollte, ein Pixel in der Mitte eines 50" Full-HD-Displays mit Strom zu versorgen, als ein Pixel in der Mitte eines 50" 4k Displays. Die Entfernung bleibt die gleiche, der Strombedarf (ohnehin minimal) sinkt sogar.
 
Was wohl tatsächlich ein Problem ist: die Beleuchtung. Die Hintergrundbeleuchtung muss wohl etwas stärker sein bei höherer Pixeldichte.
 
Das ist klar - und bei Notebooks auch kein unwichtiger Faktor, schließlich ist das ein Großverbraucher.
Aber hier wurde ja über Monitore gefachsimpelt und wenn ich in der Lage bin, auf 20" eine ausreichend hohe Leuchtdichte zu realisieren, dann kann ich das auch auf 200". Schließlich arbeitet ein (hochwertiges) Monitor-Backlight ja eh "pro Fläche" und die Leistung skaliert somit, wenn man die Fläche vergrößert.
 
Zurück