The Witcher 3: 1080p auf Playstation 4 und Xbox One nicht sicher

Zocke auf 65", der Unterschied bei 1080p zu 720p ist mehr als deutlich!

900p habe ich noch nicht probiert, dürfte sich aber zumindest bei Spielen mit viel Text ähnlich verhalten.

Wer natürlich auf <55" zockt, sieht den Unterschied nicht.

In meinem Fall sinds 32" auf fast 2 meter. Also ja, da gibts wirklich nichts groß sichtbares was zu Unterscheiden wäre.
 
In meinem Fall sinds 32" auf fast 2 meter. Also ja, da gibts wirklich nichts groß sichtbares was zu Unterscheiden wäre.
Da lohnt's nicht mal HD-Content zu gucken.

1. das neue Infamous wurde für die PS3 entwickelt? Hast du eine Quelle für mich...
2. was für ein Vergleich? Ich habe mit dem Video nur ein anderen User hier ein Link gepostet bzgl. 30 FPS...
3. hast du das Game gespielt? Dein Spieleeindruck über Bewegungsradius Nebel, Nacht und co kann ich überhaupt nicht nachvollziehen...
1. Ok, hab's mit dem 2ten Teil verwechselt.
2. Eben, er hat den Vergleich gebracht, du hast dazu das passende Video verlinkt.
3. Nein, ich weiß aber, dass es Open-World ist. Dennoch zeigt das Video doch deutlich den Bewegungsausschnitt des Protagonisten(schmale Straßen, Brücken), ebenso den Nebel und die dunkle Nacht im Hintergrund sind nicht zu übersehen, da bleibt nicht viel Weitsicht.

Wenn dem nicht so ist, taugt das Video nicht als Vergleich.
 
Zuletzt bearbeitet:
Da lohnt's nicht mal HD-Content zu gucken.

Bin halt kein Fan von über großen Displays. :p
Aber bei Blu-rays zu normalen HDTV (720p) erkennt man zwar nicht an Bildschärfe aber an den Artekfakten, also lohnt es sich iwie schon noch.
Zumal ich nicht den Sinn sehe mich noch näher davor zu setzen, geschweige einen größeren zuholen nur um Pixel zählen zu spielen, besonders wenn der Sitzsbstand sowieso erhöht werden müsste und alles wieder für umsonst war. ^^
Aber so bin ich, man muss mich nicht verstehen :D
 
Bin halt kein Fan von über großen Displays. :p
Aber bei Blu-rays zu normalen HDTV (720p) erkennt man zwar nicht an Bildschärfe aber an den Artekfakten, also lohnt es sich iwie schon noch.
Zumal ich nicht den Sinn sehe mich noch näher davor zu setzen, geschweige einen größeren zuholen nur um Pixel zählen zu spielen, besonders wenn der Sitzsbstand sowieso erhöht werden müsste und alles wieder für umsonst war. ^^
Aber so bin ich, man muss mich nicht verstehen :D
Also ich sitze 3-3,5m weg, perfekt für 65". Daher dürfte für dich 50" auf 2m optimal sein.

Es geht ja nicht um die Pixel, sondern um den Gesamteindruck des Bildes. Man sieht einfach mehr Details, die einem bei einer kleinen Bilddiagonale versteckt bleiben bzw. man einfach übersieht.
 
Du meinst Hauptsache wir PC-Spieler können am 24.Feb 2015 in 1080p mit mehr als 30FPS spielen. :lol:
Ich zocke sowieso in 1080p und ein bisschen mehr als 30FPS erhoffe ich mir schon. Deshalb sage ich ja sie haben bis zum 24.Feb Zeit die PC Version zu optimieren ;)
Die Konsoleros gehen mir da so ziemlich am Allerwertesten vorbei ;)

Also ich sitze 3-3,5m weg, perfekt für 65". Daher dürfte für dich 50" auf 2m optimal sein.
So unterschiedlich kann man sein.:D Ich sitze bei 5m von meinem 65" Fernseher entfernt und empfinde ich in doch schon als ziemliche Grenze. 50" auf 2m würde ich als unzumutbar empfinden.
 
Zuletzt bearbeitet:
Sollte man auf der PS4 High Settings mit 900p und stabilen 30 Fps haben, wäre das für mich in Ordnung.
Wäre mir ehrlich gesagt lieber als Medium Settings in 1080p.
Ich könnte aber auch mit Medium Settings, 900p und anständigem AA leben. Das wäre in dieser rießigen Welt sicher sehr brauchbar.
 
So unterschiedlich kann man sein.:D Ich sitze bei 5m von meinem 65" Fernseher entfernt und empfinde ich in doch schon als ziemliche Grenze. 50" auf 2m würde ich als unzumutbar empfinden.
Da dürften dir aber einige Details flöten gehen. Es sei denn, du verfügst über eine außergewöhnliche Sehkraft.

Je weiter man wegsitzt, desto geringer wird wieder der Unterschied zu SD. Bei 5m würde ich eher einen Beamer verwenden.:D
 
Ich sitze 2 bis 2,5 Meter vor 65 Zoll VTW60B (der ist nach dem KE55S9C der beste Consumer-Fernseher überhaupt und er zerstört sämtliche 4k LCDs) und die Unterschiede zwischen 900p und 1080p sind hier nicht für jede Person erkennbar. Ich wette, dass dies bei 95% der Spieler schon Raten wäre. Dabei bin ich im Fernsehbereich schon ein Enthusiast, da ich das Gerät mit 25 000€ teuren Geräten von einen der besten Plasmakalibrierer in Deutschland kalibrieren lasse. Wichtiger als die Auflösung ist und bleibt die Kantenglättung. Supersampling kann meiner Meinung nach durch nichts ersetzt werden. 1080p mit FXAA sieht schlechter als 900p mit 4fach SMAA aus. Das ist aus meiner Sicht ein Fakt und wer mir da widerspricht, hat keine Ahnung. ^^

Das Ideal ist natürlich SSAA oder SGSSAA.

2,5 Meter sind bei 65 Zoll und FullHD übrigens im Optimum. Da könnt auch selbst Experten wie norbert.s fragen.
 
Zuletzt bearbeitet:
2,5 Meter sind bei 65 Zoll und FullHD übrigens im Optimum. Da könnt auch selbst Experten wie norbert.s fragen.

Vielleicht habe ich auch einfach ne falsche Zahl im Kopf :ugly: Muss nochmal nachmessen.
Ein Freund hatte zwischen 2 und 2.5m Abstand zu einem 55" Fernseher und ich empfand das als schrecklich. Mir geht es dabei nicht um die Auflösung sondern um das Bild das ich einfach als zu Gross empfinde für diese Distanz. Bei einem Actionfilm weiss ich kaum mehr wohin ich sehen muss da einfach ein viel zu kleiner Teil des Bildes im tatsächlichen Blickfeld ist.
 
Vielleicht habe ich auch einfach ne falsche Zahl im Kopf :ugly: Muss nochmal nachmessen.
Ein Freund hatte zwischen 2 und 2.5m Abstand zu einem 55" Fernseher und ich empfand das als schrecklich. Mir geht es dabei nicht um die Auflösung sondern um das Bild das ich einfach als zu Gross empfinde für diese Distanz. Bei einem Actionfilm weiss ich kaum mehr wohin ich sehen muss da einfach ein viel zu kleiner Teil des Bildes im tatsächlichen Blickfeld ist.

2m bis 2,5m sind auch bei Leibe nicht der ideale Sitzabstand bei 63". Bei einem Monitor sagt man sollte man mindestens soweit davon entfernt sitzen das man den linken und den rechten Rand des Monitors noch im Blick hat, um eben nicht den Kopf dauernd nach links und Rechts drehen zu müssen um etwas im Blick zu behalten.
Bei Fernsehrn ist das nicht viel anders.

Der Artikel auf Chip ist diesbezüglich ganz gut:

TV-Tipps: Der optimale Sitzabstand zum Fernseher - CHIP
 
Konsolero vs. PC in 3,2,1...:D

Unnötig. Ich habe als PC-Spieler viel mehr Mitgefühl mit denjenigen, die sich für etliche hundert Euro eine Konsole kaufen, und dann nach wenigen Monaten der Markteinführung schon ins Hintertreffen geraten und Abstriche machen müssen.

Abgesehen davon werden Ressentiments unter beiden Gruppen von bestimmten Konzernen geschürt - bekanntestes Mittel ist da vielleicht die Exklusivität von Titeln für bestimmte Plattformen. Von Natur aus hegt niemand einen Groll gegeneinander. Es sind die Umstände. Und da sind die Verantwortlichen weder die Konsolen- noch die Computerspieler. Ich finde es albern sich darüber zu erfreuen, wenn sich Leute in die Wolle kriegen.
 
Wichtiger als die Auflösung ist und bleibt die Kantenglättung. Supersampling kann meiner Meinung nach durch nichts ersetzt werden. 1080p mit FXAA sieht schlechter als 900p mit 4fach SMAA aus. Das ist aus meiner Sicht ein Fakt und wer mir da widerspricht, hat keine Ahnung. ^^

Das Ideal ist natürlich SSAA oder SGSSAA.
Wofür die Konsolen wiederum viel zu schwach sind. Da ist allerhöchstens 2xSMAA drin bei einem Schlauchlevelspiel. W3 dürfte maximal FXAA auf den Konsolen bieten.

Da liege ich ja mit meinen 3m absolut im Rahmen.

Wobei das auch auf das Genre ankommt. Strategiespiele wie z.B. Civ5 oder Total War besitzen auch viel Text-Menüs, da sind 3m schon grenzwertig. Da rücke ich dann auch näher ran. Total War-Massenschlachten herangezoomt auf nem 65" sind einfach gigantisch.:D
 
Zuletzt bearbeitet:
Unnötig. Ich habe als PC-Spieler viel mehr Mitgefühl mit denjenigen, die sich für etliche hundert Euro eine Konsole kaufen, und dann nach wenigen Monaten der Markteinführung schon ins Hintertreffen geraten und Abstriche machen müssen.
Ich habe Mitleid mit denjenigen, die sich alle 1-2 Jahre für etliche hundert Euro eine Grafikkarte kaufen, und dann trotzdem Abstriche machen müssen, weil die Entwickler wegen Mantle oder Nvidia Gameworks oder anderen Dingen (PhysX, HBAO+ etc.) das Konkurrenzprodukt künstlich drosseln, bzw. nicht ordentlich optimieren (Watch Dogs z.B.) Ich habe Mitleid mit denjenigen, die sich regelmäßig teure Hardware kaufen (müssen), weil sie nicht damit leben können wenn da mal 100 Partikel weniger sind, oder zwei Effekte fehlen. Das ist für mich Geldverbrennung pur -> so hat jeder seine eigene Meinung.
 
Es bleibt auch erst mal abzuwarten wie viele PCs The Witcher 3 mit maximalen Details durchgehend flüssig packen werden. The Witcher 2 war zum Release ein Hardwarefresser wie er im Buche steht. Die High-End Karten vor 3 Jahren (GTX 580 und HD 6970) haben im Schnitt auch nur 40-50 FPS bei 1080p geschafft ;). SSAA brauchte man erst gar nicht ausprobieren. Ich prophezeie jedenfalls jetzt schon, dass The Witcher 3 alles andere als genügsam sein wird und am Ende sind wieder die Entwickler schuld weil sie zu unfähig zum Optimieren sind.
 
Wenn The Witcher 3 so ein Hardwarefresser wird kann man sich an Konsole sowieso von FullHD und brauchbarer Kantenglättung verabschieden. Die Details werden vielleicht wie bei WD eine bunte Mischung aus low und high. Ich hätte kein Problem damit nach fast drei Jahren mal wieder aufzurüsten, nur lohnen muss es sich auch, was beim Witcher mit an Sicherheit grenzender Warscheinlichkeit der Fall sein wird. :hail:
 
Wenn The Witcher 3 so ein Hardwarefresser wird kann man sich an Konsole sowieso von FullHD und brauchbarer Kantenglättung verabschieden. Die Details werden vielleicht wie bei WD eine bunte Mischung aus low und high. Ich hätte kein Problem damit nach fast drei Jahren mal wieder aufzurüsten, nur lohnen muss es sich auch, was beim Witcher mit an Sicherheit grenzender Warscheinlichkeit der Fall sein wird. :hail:
Ich gehe davon aus, dass zumindest die PS4 1080p packen wird. Man kann viel besser optimieren, wenn man nur 3 statt 5 Plattformen gleichzeitig bedienen und keine Rücksicht auf Last-Gen Konsolen nehmen muss. Deswegen laufen Watch Dogs oder BF4 auch unterhalb von 1080p. 5 Plattformen gleichzeitig inkl. PS3/360 und starker Termindruck fordern nun mal ihren Tribut. Mich würde es nicht wundern, wenn BF Hardline deshalb auch nur mit 900p auf der PS4 läuft. Die Beta lief zumindest immer noch mit 900p, wie es bei der Final aussieht wird sich zeigen.
 
Abwarten, aber ich bleibe skeptisch was 1080p beim Witcher angeht. Diese News hier liest sich diesbezüglich auch nicht gerade optimistisch. Eigentlich liest sich das fast schon wie ein Eingeständnis das es keine 1080p werden.
 
Unnötig. Ich habe als PC-Spieler viel mehr Mitgefühl mit denjenigen, die sich für etliche hundert Euro eine Konsole kaufen, und dann nach wenigen Monaten der Markteinführung schon ins Hintertreffen geraten und Abstriche machen müssen.

Abgesehen davon werden Ressentiments unter beiden Gruppen von bestimmten Konzernen geschürt - bekanntestes Mittel ist da vielleicht die Exklusivität von Titeln für bestimmte Plattformen. Von Natur aus hegt niemand einen Groll gegeneinander. Es sind die Umstände. Und da sind die Verantwortlichen weder die Konsolen- noch die Computerspieler. Ich finde es albern sich darüber zu erfreuen, wenn sich Leute in die Wolle kriegen.

Ehrlich gesagt,gebe ich nicht nur den Entwicklern/Publishern Schuld - viel mehr tragen auch die Fanboy Lagers dazu bei ,und manchmal ist es wirklich recht amüsant
Manchmal gehts aber auch wirklich zu weit
Aber das ist und bleibt ein ewiges,menschliches,natürliches Problem - Pc vs Konsole,Xbox vs Sony,Samsung vs Apple,Mayo vs Ketchup :ugly:
Und was dein Mitleid betrifft,sry aber brauchste nicht,die meisten Konsolenzocker sind zufrieden mit ihrer Konsole
Letzten Endes geht es nämlich um Spass,und das ist Plattformunabhängig ;) Wer den ultimativen Spass haben will ,hat eben beides :D Multiplatformmasterrace ftw

Abwarten, aber ich bleibe skeptisch was 1080p beim Witcher angeht. Diese News hier liest sich diesbezüglich auch nicht gerade optimistisch. Eigentlich liest sich das fast schon wie ein Eingeständnis das es keine 1080p werden.

Naja ich glaube,dass es vielen auch egal - also zumindest den Konsolenspielern,einige Pc Spieler haben dann aber wieder was zum Bashen
Hauptsache aber die Pc Version stimmt :daumen:

Es bleibt auch erst mal abzuwarten wie viele PCs The Witcher 3 mit maximalen Details durchgehend flüssig packen werden. The Witcher 2 war zum Release ein Hardwarefresser wie er im Buche steht. Die High-End Karten vor 3 Jahren (GTX 580 und HD 6970) haben im Schnitt auch nur 40-50 FPS bei 1080p geschafft ;). SSAA brauchte man erst gar nicht ausprobieren. Ich prophezeie jedenfalls jetzt schon, dass The Witcher 3 alles andere als genügsam sein wird und am Ende sind wieder die Entwickler schuld weil sie zu unfähig zum Optimieren sind.

Das ist sowieso immer so ne Sache,viele Leute schreien nach Pc Titeln,die alles aus ihrer Hardware schöpfen
Aber wehe es läuft dann nicht auf Ultra+ allem drum dran,dann hat der Entwickler Mist gebaut :ugly:
Natürlich ist das auch manchmal berechtigt,man siehe sich WD an - von Optimierung ist da keine Rede,das lief ne zeitlang unabhängig von der Hardware bei vielen Pc Spielern schlecht
 
Das ist sowieso immer so ne Sache,viele Leute schreien nach Pc Titeln,die alles aus ihrer Hardware schöpfen
Aber wehe es läuft dann nicht auf Ultra+ allem drum dran,dann hat der Entwickler Mist gebaut
Naja, es gibt nen Unterschied, ob die Einstellungen bei einem Spiel mit konstanten 16.66% CPU-Last und 20-30% GPU-Auslastung zwischen 5 und 10 FPS entscheiden, oder ob wahlweise CPU oder GPU auf ≥70 respektive =99% geprügelt werden und ein paar Klicks im Einstellungsmenü reichen, um das Spiel irgendwie gut ans Laufen zu bekommen. In Fall 1, der ja besonders bei MMOs und Strategiespielen die Regel sein dürfte, darf man ruhig mal über die Entwickler meckern. :ugly:

Im Falle von Witcher 3 bin ich zufrieden, wenn das Spiel irgendwie 30 FPS auf meiner Hardware hinbekommt und dabei gut aussieht. Sollte für das Spiel mehr als ausreichen, mehr schafft Witcher 2 auf meiner Kiste dank SSAA auch nicht.

von Optimierung ist da keine Rede,das lief ne zeitlang unabhängig von der Hardware bei vielen Pc Spielern schlecht
Witzigerweise aber vor dem ganzen Gepatche besser als danach.
 
Zuletzt bearbeitet:
Ich habe Mitleid mit denjenigen, die sich alle 1-2 Jahre für etliche hundert Euro eine Grafikkarte kaufen, und dann trotzdem Abstriche machen müssen, weil die Entwickler wegen Mantle oder Nvidia Gameworks oder anderen Dingen (PhysX, HBAO+ etc.) das Konkurrenzprodukt künstlich drosseln, bzw. nicht ordentlich optimieren (Watch Dogs z.B.)
Solange es besser als auf der Konsole aussieht, reicht das. :D Letzteres war in der Vergangenheit immer der Fall und das wird auch in Zukunft so sein.

Ich habe Mitleid mit denjenigen, die sich regelmäßig teure Hardware kaufen (müssen), weil sie nicht damit leben können wenn da mal 100 Partikel weniger sind, oder zwei Effekte fehlen. Das ist für mich Geldverbrennung pur -> so hat jeder seine eigene Meinung.
Für den einen ist das was du sagst Geldverbrennung - für den anderen ist Geldverbrennung, wenn man in 5 Jahren immernoch seine Uralthardware mit Lizenzgebühren für jedes Spiel quersubventioniert. Alles Ansichtssache.
 
Zurück