1080p auf 2560x1440 monitor

Ganz normal. Im Prinzip ist es sogar schärfer als wenn man einen nativen 1080p-Monitor hat, da mehr Bildpunkte zur Verfügung stehen.
Dennoch hängt es auch von dem verwendeten Monitormodell ab.
 
@Davins Theorie

Das ist zu 100% FALSCH...

...also wenn man keine Ahnung hat, einfach mal....!


Du hast mit 1080p die auf 1440p interpoliert werden ein "matschiges" Bild während wenn auf einem gleich grossen Panel mit 1080p das Bild "schärfer" erscheinen würde.

MfG
Pixelkeeper
 
Zuletzt bearbeitet von einem Moderator:
Also...

...wenn zum Beispiel ein Bild mit 1200 Pixel in der Höher auf meinem 30 Zöller mit 1600 Pixel in der Vertikalen angezeigt werden, wirde jedes 4te Pixel doppelt dargestellt, dadurch sieht es leicht Unscharf aus. Jetzt aber, wenn grössere Pixel auf diesen 30" Bildfläche verbaut wären, so dass es 1200 Pixel in der Vertikalen hätte, währe es perfekt scharf, aber du würdest zum Beipiel in Spielen den Treppeneffekt stärker wahrnehmen.

(manchen Leuten kann scheinbar echt nicht mehr geholfen werden)

Im Gegensatz zu gewissen Anderen, basieren meine Statements auf Fakten und nicht auf Aberglauben!

MfG
Pixelkeeper
 
(manchen Leuten kann scheinbar echt nicht mehr geholfen werden)


Im Gegensatz zu gewissen Anderen, basieren meine Statements auf Fakten und nicht auf Aberglauben!

MfG
Pixelkeeper

Tut mir wiklich unwahrscheinlich dolle Leid, ich bin wohl zu dumm und minderwertig für dieses Forum. Ich werde sofort die Löschung meines Acc beantragen. :schief:
 
Ich wollte ja ned böse sein, aber wenn du es nicht wirklich weisst, dann tu nicht als ob.

Wenn du eine Annahme als Fakt verkaufst ist es daneben, also deklarier es auch so.

MfG
Pixelkeeper
 
@ Pixelkeeper

Noch immer macht hier der Ton die Musik. So eine aggressive Art muss hier wirklich nicht sein. :schief:
Schließlich willst du von den anderen auch nicht so behandelt werden.
 
Bei einer wirklich guten Interpolation ist das Bild fast gleich scharf, im Normalfall wirkt das Bild auf der nativen Auflösung (bei selber Diagonale und selbem Seitenformat) aber schärfer.
Ob dir das ohne direkten Vergleich allerdings auffällt ist die Frage...
 
ok, und spielt anti aliasing bei 2560x1440 auf 27" noch eine rolle? wollte schon games wie bf3 auf ultra spielen , mit einer gtx770 lightning!?
 
@Soth

Das fällt MIR definitiv auf und ob "fast gleich scharf" ist kommt halt nun mal darauf an wie gross die Diskrepanz zwischen dem Inhalt und der nativen Auflösung ist.

Ausserdem muss man hier von PC-Monitoren und nicht von Fernseher ausgehen, bei Fernseher wird effektiv noch was hochgerechnet, bei den meisten PC-Monitoren wird einfach das Bild hochskaliert (Pixel doppelt dargestellt).

Als Beispiel:
wenn ich Stargate SG1 in SD auf meinem 30" mit 1600p schaue sieht das wie schei**** aus, aber auf dem 32" Uraltfernseher mit 768p gehts noch und sieht durchaus besser aus.

MfG
Pixelkeeper
 
Also vielleicht stimmt es nicht, aber es klingt logisch für mich.
Wenn du bei 1080p 4x MSAA benötigt hast, damit die Kanten schön aussehen, dann könntest du bei 1440p mit 2x MSAA fast das identische Resultat haben. Denk ich jetzt zumindest... Alle Angaben ohne Gewähr :P
Wenn ich falsch liege, bitte verbessert mich... Denn das interessiert mich auch schon seit geraumer Zeit

@Pixelkeeper
Stargate sieht deswegen auf 1600p so beschissen aus, weil das SD Material ja hochskaliert wird.
Ist ja wie z.B. beim Nintendo 64... Wenn du den an einen HD Fernseher anschließt, sieht das Bild nich so schön aus wie auf nem Röhrenfernseher mit viel kleinerer Auflösung... Weil es eben da nicht hochskaliert wird
 
ok, und spielt anti aliasing bei 2560x1440 auf 27" noch eine rolle? wollte schon games wie bf3 auf ultra spielen , mit einer gtx770 lightning!?

Kantenglättung brauchst du auch da noch, da die Pixeldichte nicht genug hoch ist um einfach darauf verzichten zu können (wenn man ein ruhiges Bild will).

Besonders BF3 ist da sehr anfällig und ich spiele BF3 auch mit 4xMSAA + low FXAA um das Bild einigermassen treppenfrei zu halten.

Mit 2xMSAA und low FXAA und Medium - High Detail wirst du BF3 mit durchgehend 60 FPS spielen können (wenn deine CPU mitspielt)

MfG
Pixelkeeper

@Pixelkeeper
Stargate sieht deswegen auf 1600p so beschissen aus, weil das SD Material ja hochskaliert wird.
Ist ja wie z.B. beim Nintendo 64... Wenn du den an einen HD Fernseher anschließt, sieht das Bild nich so schön aus wie auf nem Röhrenfernseher mit viel kleinerer Auflösung... Weil es eben da nicht hochskaliert wird

Danke, genau das versuche ich ja damit zu sagen. (Habe ich oben doch auch geschrieben, oder?)

Also vielleicht stimmt es nicht, aber es klingt logisch für mich.
Wenn du bei 1080p 4x MSAA benötigt hast, damit die Kanten schön aussehen, dann könntest du bei 1440p mit 2x MSAA fast das identische Resultat haben. Denk ich jetzt zumindest... Alle Angaben ohne Gewähr
Wenn ich falsch liege, bitte verbessert mich... Denn das interessiert mich auch schon seit geraumer Zeit

Nein, denn du verwechselst da MSAA mit SSAA. Bei MSAA wird nur die Geometrie feiner abgetastet. SSAA (SuperSampling) ist im Grunde genommen das selbe, was mit DS (Downsampling) gemacht wird. 2x SSAA bedeutet das im gesamten genau die doppelte Menge an Pixeln intern berechnet werden. Also 1080p mit 2xSSAA sind mal 1.41 auf jeder Kante (1920x1080 -> 2715x1527) und mit 4xSSAA mal 2 (1920x1080 -> 3840x2160).

Aber du hast in dem Sinne recht, dass Kantenflimmern weniger sichtbar und störend ist, umso höher die Pixeldichte wird.

Mit

Hier wird Supersampling gut erklährt wenn man den Grundgedanken verstanden hat:

Supersampling - Wikipedia, the free encyclopedia
 
Zuletzt bearbeitet von einem Moderator:
@ Pixelkeeper

Bitte keine Doppelposts! Wenn du etwas nachtragen willst, nutze bitte den "Bearbeiten"-Button.
Vielen Dank! :daumen:

Gruß
Pain
 
@Moderator

Alles klar, sorry.

Noch zu Battlefield 3:

Bei Battlefield 3 ist das schlechteste was man tun, das Ultra Preset zu verwenden. FXAA auf Hoch vermatscht das Bild schon so sehr, dass man im Grunde genommen wieder viel von den Details die man durch teure Rechenleistung und Zeit erkauft hat, "wegretuschiert". Also möglichst immer auf Custom und FXAA auf "Niedrig (Low)" stellen.

MfG
Pixelkeeper
 
SSAA ist doch aber kein OGSSAA oder nicht? OGSSAA ist wie Downsampling und SSAA bzw SGSSAA verdoppelt ja nicht die Auflösung.
 
SSAA ist doch aber kein OGSSAA oder nicht? OGSSAA ist wie Downsampling und SSAA bzw SGSSAA verdoppelt ja nicht die Auflösung.

Also ich habs mal nachgelesen, ist aber ne Ewigkeit her und ich hab keinen Plan mehr.

Aber eines kann ich sagen, OGSSAA hat sicher nichts mit DS direkt zu tun, der Effekt könnte aber ähnlich sein.

Nachtrag:

Also OGSSAA ist SSAA bei Nvidia.

Quelle:
http://www.computerbase.de/forum/showthread.php?t=829877

Computerbase schrieb:
SSAA & MSAA
Die zweite Möglichkeit ist die Erhöhung der Abtastrate durch mehrfache Abtastung der vorhandenen Pixel in Form von Subpixeln.
Es wird somit mehr als nur die Pixelmitte abgetastet. Je danach ob ein Subpixel bedeckt wurde oder nicht, wird diesem eine Farbe zugewiesen. Am Ende werden die Farben der Subpixel gemischt und es entsteht die letztendliche Farbe des Pixels, aber nicht nur schwarz oder weiß, sondern auch Grauabstufungen. Durch farbliche weichere Übergänge kommt es dazu, dass die Kanten subjektiv glatter wirken. Dies ist das sogenannte Super Sampling, welches als OG-, RG- und SGSSAA gibt. Die Unterschiede bestehen dabein in der Anordnung der Subpixel(der Masken ) und der Effektivität.

Quelle:

http://www.computerbase.de/artikel/grafikkarten/2010/bericht-ssaa-mit-geforce-gtx-400/2/

MfG
Pixelkeeper
 
Zuletzt bearbeitet:
Das fällt MIR definitiv auf
Ich habe von einer guten Interpolation gesprochen, dabei aber mit keinem Namen deinen Monitor erwähnt ;)

kommt halt nun mal darauf an wie gross die Diskrepanz zwischen dem Inhalt und der nativen Auflösung ist.
Wenn es gut gemacht ist: Nein!
Bloß ist das eben bei Monitoren im Gegensatz zu Fernsehern quasi nie der Fall, wobei es auch bei Fernsehern noch riesige Unterschiede gibt. Und auch bei Mediaplayern am PC sind Unterschiede vorhanden.
Der Vergleich zwischen einem 32" (Röhrenfernseher?) und einem PC Monitor hinkt daher gewaltig, alleine schon aufgrund von Decoding und Deinterlacing.
Dazu kommen dann noch unterschiedliche Panelbeschichtungen -sofern vorhanden-, generell unterschiedliche Panel/Röhren, unterschiedlicher Sitzabstand,...


Aber nochmal:
Bei Computermonitoren gilt, dass ein mit nativer Auflösung angesteuertes Panel die besseren oder mindestens ebenbürtige Ergebnisse erzielt.
 
Aber nochmal:
Bei Computermonitoren gilt, dass ein mit nativer Auflösung angesteuertes Panel die besseren oder mindestens ebenbürtige Ergebnisse erzielt.

Gilt das auch für höhere Auflösungen als die native? Also sieht das Bild auf einem 1080p Monitor, der mit 1080p angesteuert wird, besser aus als wenn er mit z.B 1440p oder 2160p angesteuert wird?
 
Zurück