Star Citizen: Neue Roadmap, aber schlechte Aussichten für Squadron 42

15 fps ?

letztens mal wieder probiert PU3.11 / 4K ca. 5-30 fps / Server Probleme usw.
nicht rund zum spielen, aber geht zum Bilder machen.

Da hast aber echt Pech, Ich hab beim zocken (4k / Very High) genug FPS und seltenst mal unter 30 FPS:

hier noch ein altes Video von mir aus der 3.10 und seit dem wurde es immer besser mit der Performance:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
...SC ist in mehrere spiele zerteilt worden, (nein, es gibt die Singleplayer SQ42 und den MMO part SC)...

... In fast jedem Satz alles an Aussage falsch ist. Ich habe in Klammern meine Korrekturen beigefügt.

Ist schon faszinierend wie sich eine falsche Behauptung verbreitet, es ist völlig korrekt SC und SQ42 waren ursprünglich als ein Spiel geplant, Star Citizen, SQ42 war kein eigenes Spiel sondern am Anfang nur der Name der Single Player Kampagne innerhalb von Star Citizen. Wobei SQ42 inzwischen auch in drei Episoden unterteilt wurde, also aus einem Spiel wurden 4 (Wobei das mit den Episoden noch nicht so ganz klar ist, vielleicht werden es auch wieder weniger oder noch mehr).
Selbst wenn es also zu einem Release von SQ42 kommt, so handelt es sich wahrscheinlich nur um SQ42 Episode 1.
 
Ist schon faszinierend wie sich eine falsche Behauptung verbreitet, es ist völlig korrekt SC und SQ42 waren ursprünglich als ein Spiel geplant, Star Citizen, SQ42 war kein eigenes Spiel sondern am Anfang nur der Name der Single Player Kampagne innerhalb von Star Citizen. Wobei SQ42 inzwischen auch in drei Episoden unterteilt wurde, also aus einem Spiel wurden 4 (Wobei das mit den Episoden noch nicht so ganz klar ist, vielleicht werden es auch wieder weniger oder noch mehr).
Selbst wenn es also zu einem Release von SQ42 kommt, so handelt es sich wahrscheinlich nur um SQ42 Episode 1.
Du findest es faszinierend, wie sich falsche Behauptungen verbreiten? Schon interessant:
- SC42 ist NICHT in drei Episoden geteilt worden. Lies mal die Stretchgoals nach! Es wurden durch neue "Spenden" Stretchgoals erreicht und immer mehr Missionen dazu gefügt. Dann wurde ein zweites Kapitel ausgelobt, danach ein drittes. Da wurde nichts "geteilt". Das ursprüngliche SQ42 wurde also nie "aufgeteilt".
- Es wurde auch kein Teil aus SC "herausglöst", wie @geist4711 behauptete, sondern der Singlepart von Star Citizen (SQ42 genannt) wurde separat kaufbar gemacht. Nichts anderes war das. Zu Beginn mußte jeder SC inkl.SQ42 kaufen, auch wenn er nur einen der beiden Parts haben wollte. 2016 wurde das getrennt, damit Interessenten separat den Teil kaufen können, den sie haben möchten, ohne den Teil bezahlen zu müssen, den man nicht mag. Die Nachfrage nach Interessen für SQ42 war so, das CIG sich bereit erklärte, die beiden Spiele zu teilen und separat erhältlich zu machen.

Nichts anderes ist diese ganze Geschichte! Und durch das Trennen gewann CIG auch eine Menge Käufer dazu.
Und ebenso war der Solo-Part ein eigenes Spiel im Gesamtpaket, denn es war von Anfang an nie zwingend, das man diese Kampagne durchspielen MUSS. lediglich haben die, die es machen und die Kampagne gewinnen, einen Spielvorteil in SC (schon erreichter Bürgerstatus, den sich Nicht-SQ42-Spieler anders erarbeiten müssen, spezielle Schiffe, höhere Reputation bei UEN und anderen).
 
Ist schon faszinierend wie sich eine falsche Behauptung verbreitet, es ist völlig korrekt SC und SQ42 waren ursprünglich als ein Spiel geplant, Star Citizen, SQ42 war kein eigenes Spiel sondern am Anfang nur der Name der Single Player Kampagne innerhalb von Star Citizen. Wobei SQ42 inzwischen auch in drei Episoden unterteilt wurde, also aus einem Spiel wurden 4 (Wobei das mit den Episoden noch nicht so ganz klar ist, vielleicht werden es auch wieder weniger oder noch mehr).
Selbst wenn es also zu einem Release von SQ42 kommt, so handelt es sich wahrscheinlich nur um SQ42 Episode 1.
Teil 2 des Singleplayers, Behind Enemy Lines, wurde zeitnah angekündigt und auch, dass Backer der ersten Stunden (vor Erreichen der 6Mio-Marke) nichts dafür zahlen müssen.
 
Du findest es faszinierend, wie sich falsche Behauptungen verbreiten? Schon interessant:
- SC42 ist NICHT in drei Episoden geteilt worden. Lies mal die Stretchgoals nach! Es wurden durch neue "Spenden" Stretchgoals erreicht und immer mehr Missionen dazu gefügt. Dann wurde ein zweites Kapitel ausgelobt, danach ein drittes. Da wurde nichts "geteilt". Das ursprüngliche SQ42 wurde also nie "aufgeteilt".
- Es wurde auch kein Teil aus SC "herausglöst", wie @geist4711 behauptete, sondern der Singlepart von Star Citizen (SQ42 genannt) wurde separat kaufbar gemacht. Nichts anderes war das. Zu Beginn mußte jeder SC inkl.SQ42 kaufen, auch wenn er nur einen der beiden Parts haben wollte. 2016 wurde das getrennt, damit Interessenten separat den Teil kaufen können, den sie haben möchten, ohne den Teil bezahlen zu müssen, den man nicht mag. Die Nachfrage nach Interessen für SQ42 war so, das CIG sich bereit erklärte, die beiden Spiele zu teilen und separat erhältlich zu machen.

Nichts anderes ist diese ganze Geschichte! Und durch das Trennen gewann CIG auch eine Menge Käufer dazu.
Und ebenso war der Solo-Part ein eigenes Spiel im Gesamtpaket, denn es war von Anfang an nie zwingend, das man diese Kampagne durchspielen MUSS. lediglich haben die, die es machen und die Kampagne gewinnen, einen Spielvorteil in SC (schon erreichter Bürgerstatus, den sich Nicht-SQ42-Spieler anders erarbeiten müssen, spezielle Schiffe, höhere Reputation bei UEN und anderen).

Das Stretchgoal war eine Mission Disk also mehr oder weniger ein DLC für Star Citizen, es war aber immer noch ein Spiel. Du musstest die beiden zusammen kaufen weil sie nur ein Spiel waren...
 
Das Stretchgoal war eine Mission Disk also mehr oder weniger ein DLC für Star Citizen, es war aber immer noch ein Spiel. Du musstest die beiden zusammen kaufen weil sie nur ein Spiel waren...
Es ist doch alles nach wie vor. Der einzige Unterschied, das man es nun auch getrennt erwerben kann. Und diesen Umstand hat @geist4711 dann als negativ hingestellt? Das Ausgliedern als alleiniges Spiel ist doch ein Gewinn gewesen. Sich darüber zu streiten, ob es zwei Einzelspiele waren oder erst nach der Paket-Trennung- das ist doch Nonsens. Niemand hat dadurch irgend einen Nachteil, viele haben aber dadurch Vorteile.
Mit seinem GraKa-Kauf bei AMD hatte er ohnehin beide Spiele zusammen erworben (auch wenn er es scheinbar irgendwie vermasselt hat, den Key einzuholen), also ist er theoretisch nach wie vor Besitzer BEIDER Spiele,
Was also hat er denn überhaupt daran auszusetzen, das nun beides getrennt kaufbar ist? Alles andere ist doch eh nur Korinthenkackerei.
 
Die CryEngine (als Unterbau der Lumberyard) hatte schon zu Zeiten von Crysis vorbildlichen ArbitraryResolutionSupport. In gewissen Grenzen konntest du in die Engine-Konsole beliebige Auflösungen eingeben und sie hat sich daran angepasst.
Das Feature wird bei SC auch schon fleißig für die Erstellung von Screenshots verwendet.

Momentan stellt sich eher die Frage, wie CIG auch auf eine Raytracing-Pipeline umsatteln werden. Vulkan und eine HDR-Pipeline sind hingegen schon länger eingeplant, ersteres ist auch dringend für gute Performance in solch einem Spiel notwendig; letzteres zu supporten ohnehin ein NoBrainer.

Ruckelfrei in 8K@120hz? Nun, das hängt nicht zuletzt auch an der Frage, ob sich der Graka-Fortschritt weiter verlangsamt und die Monitorbranche weiter herumkrebst. Wenn die Monitorbranche die Kurve nicht mal endlich kriegt, wird das nichts mit 2025 und 8K120, außer vielleicht für 10K-EarlyAdopter...

Die Monitorhersteller hatten nie besonderes Interesse an schnellen Fortschritten im Moment wären die das dümmste, was man machen kann. Jenseits von 30, spätestens bei 40 Zoll stößt man an die Grenzen dessen, was bei (seit Jahrhunderten!) üblichen Arbeitsplatz-/Schreibtischdimensionen physisch machbar und ganz allgemein auch ergonomisch sinnvoll ist (Kopfbewegungen). Und 8k auf 40 Zoll wäre dann, bei gängigen Sitzentfernungen, auch die absolute Obergrenze der sinnvollen Auflösung. Dann kann vielliecht noch einmalig von 120 auf 240 Hz steigern und alles in 12 Bit umsetzen, aber das war es dann auch. Weitere Qualitätsupdates danach wären unmöglich, weil das Auge mit mehr einfach einfach nichts anfangen kann. Wer in 50 Jahren noch Monitore verkaufen will, sollte also maximal eine derartige Innvoation pro Jahrzehnt rausbringen.
 
Es ist doch alles nach wie vor. Der einzige Unterschied, das man es nun auch getrennt erwerben kann. Und diesen Umstand hat @geist4711 dann als negativ hingestellt? Das Ausgliedern als alleiniges Spiel ist doch ein Gewinn gewesen. Sich darüber zu streiten, ob es zwei Einzelspiele waren oder erst nach der Paket-Trennung- das ist doch Nonsens. Niemand hat dadurch irgend einen Nachteil, viele haben aber dadurch Vorteile.
Mit seinem GraKa-Kauf bei AMD hatte er ohnehin beide Spiele zusammen erworben (auch wenn er es scheinbar irgendwie vermasselt hat, den Key einzuholen), also ist er theoretisch nach wie vor Besitzer BEIDER Spiele,
Was also hat er denn überhaupt daran auszusetzen, das nun beides getrennt kaufbar ist? Alles andere ist doch eh nur Korinthenkackerei.
Das ist nur halb korrekt, durch die Trennung fällt die Verbindung zum Server weg und dadurch auch die Möglichkeit zum Coop und die Verbindung zur SC Lobby. Insofern ist die Trennung durchaus auch der Hauptgrund warum dann Coop gestrichen wurde.
 
Ist allerdings im Kern das gleiche Projekt geblieben, heißt heute deshalb ja auch Gen12-Renderer. Und Crytek selber hatte ja auch einige Probleme, der CryEngine Gen12-Support zu verpassen und es in die aktuell laufenden Titel auf bestehender Basis, also Hunt: Showdown oder Crysis Remastered reinzupatchen ist ihnen bislang nicht gelungen...

Allgemein hat sich gefühlt die halbe Spielewelt verkalkuliert, was den Aufwand der Portierung von einem Gen11 zu einem der späteren Gen12-Renderer betrifft. Eine Erklärung, woran genau das eigentlich liegt, wieso es anscheinend für Devs damals so viel leichter war zu Mantle als heute zu Vulkan oder DX12 zu wechseln, habe ich bislang noch nicht gehört.

Die Studios würde ich nicht 1:1 vergleichen. Cloud Imperium Games müsste mittlerweile dreimal so viele Mitarbeiter haben wie Crytek und die arbeiten alle an einem Spiel, während Crytek seine Kräfte auf rund ein halbes Dutzend Projekte verteilt. Nichtsdestotrotz kann niemand einfach von DX11 auf DX12 wechseln, wenn er dabei mehr als nur die bessere Multithread-Optimierung von ein paar Zeilen Code in Windows nutzen möchte. (Also den Teil von DX12, den man mittlerweile sogar unter Win7 implementieren kann)

Für alle andere muss man größere Teile der Engine neu schreiben, da diese jetzt zahlreiche Aufgaben übernehmen muss, die unter DX11 noch das Betriebssystem oder der Treiber erledigt hat. Und als Entwickler muss man überhaupt erst einmal ein Konzept entwickeln, wie diese Aufgaben erledigt werden sollen und dabei teilweise die jeweils verbaute Hardware berücksichtigen. Erst wenn man das macht, bringt DX12 einen echten Vorteil gegenüber DX11. Hat man die nötige Manpower nicht, so etwas sauber umzusetzen (oder kann es zum jetzigen Zeitpunkt eh nicht passend für die zum Release erwartete Hardware machen, weil der Zeitraum bis dahin zu groß ist), ist DX12 eine eher schlechte Idee. Das galt übrigens in gleicher Form auch für Mantle, nur dass hier AMD selbst Techniker zur Implementierung angeboten hat. Trotzdem gibt es nur eine einzige Engine mit Mantle-Nutzung, auf deren Basis auch grafisch fordernde Spiele erschienen sind und die stammt zufällig von AMDs Co-Entwicklungspartner. Drei weitere Titel mit jeweils einer anderen Engine unterstützen es zwar auch noch, aber bei z.B. Civilization braucht man über Performance-Optimierungen komplexer Grafiken wohl nicht weiter zu reden. Die breite Masse an Entwicklern hat nur Ankündigungen gemacht, später aber auf eine Umsetzung verzichtet. Ob derartige Vorstöße überhaupt eine technische Basis hatten oder ob das Marketing-Team des jeweiligen Games einfach nur im "Mantle!!!"-Hype erwähnt werden wollte, während den Entwicklern die praktische Unmöglichkeit von Anfang an klar war, wäre im Einzelfall zu prüfen.


Das stimmt doch gar nicht! Star Citizen wurde ursprünglich als Nachfolger in Geiste von Privateer geschaffen, mit einer Single Player Kampagne als Kern. Deswegen bin ich auch Backer geworden, will ich Privateer geliebt habe.

Das stimmt so nicht. Zwar habe ich es ebenfalls als "ein Spiel" in Erinnerung und es wäre auch sehr diskutabel, ob zwei Titel mit gleicher Engine und gleicher Spielmechanik überhaupt als getrennte Spiele gezählt werden können, wenn auch noch die Assets im großen und ganzen gleich sind. Aber es stand von Anfang an sowohl fest, dass der Fokus auf dem MMO-Teil liegen wird, als auch dass der Single-Player-Teil streng Story-gebunden, also eher ein Wing-Commander-Spielerlebnis sein wird. Das war für mich damals, zusammen mit der Projektplanung in den Händen von Chris Roberts, der Grund nicht zu backen, obwohl ich Privateer 3 neben van Buren zu den traurigsten Projekteinstellungen der PC-Geschichte zähle. Aber SQ42 sollte nie ein Privateer werden, sondern eher ein komplexer Missionsstrang innerhalb SCs. Spätesten als klar wurde, dass das auch eine Zwangsbindung an die SC-Server selbst im Single Player bedeutet, war ich dann froh, nicht finanziell beteiligt zu sein. Seitdem warte ich ab, ob/was da irgendwann mal erscheint und für wen es spielenswert sein wird.


:haha: schreibt ER, der noch nie einmal in das Game geschaut hat :lol:was bereits in einem ersten spielbaren Version existiert, oder glaubst Du ich poste hier nur gerenderte Bilder ?

Ich möchte wetten, dass diese Bilder aus einem Renderer stammen und nicht von Hand gemalt wurden. :-)
 
Zum OffTopic:
Die Monitorhersteller hatten nie besonderes Interesse an schnellen Fortschritten im Moment wären die das dümmste, was man machen kann. Jenseits von 30, spätestens bei 40 Zoll stößt man an die Grenzen dessen, was bei (seit Jahrhunderten!) üblichen Arbeitsplatz-/Schreibtischdimensionen physisch machbar und ganz allgemein auch ergonomisch sinnvoll ist (Kopfbewegungen). Und 8k auf 40 Zoll wäre dann, bei gängigen Sitzentfernungen, auch die absolute Obergrenze der sinnvollen Auflösung. Dann kann vielliecht noch einmalig von 120 auf 240 Hz steigern und alles in 12 Bit umsetzen, aber das war es dann auch. Weitere Qualitätsupdates danach wären unmöglich, weil das Auge mit mehr einfach einfach nichts anfangen kann. Wer in 50 Jahren noch Monitore verkaufen will, sollte also maximal eine derartige Innvoation pro Jahrzehnt rausbringen.
8K@35er entspräche etwa 4K im 17,3er-Notebook, 8K@31er entspräche etwa 4K im 15,6er-Notebook; 8K@27er entspräche etwa 4K im 13,3er-Notebook. Bei jeder dieser Notebookgrößen ergibt 4K Sinn → 8K ist auch für Diagonalen kleiner 40 Zoll noch sinnvoll.

Die Hersteller der Panels lassen sich gleichzeitig momentan im Smartphonemarkt durchaus vorantreiben, im TV-Markt auch. Beides mal werden die Panels hinterher durch nicht ausreichende Entspiegelung verschandelt, aber abseits dessen stehen Smartphone- und TV-Markt im Moment einfach besser als der Monitormarkt dar.

Entspiegelung wäre übrigens ein Bereich, in dem noch sehr viel mehr möglich wäre. Ansonsten Energieeffizienzerhöhung, weniger umweltschädliche Produktion, Aus- bzw. Einrollbarkeit, Krümmungsradiuswahl durch Nutzer, generelle Mobilitätsoptimierung, eine Erhöhung der effektiven ColorVolume, besser automatisierte Kalibrierungsprozesse in der Breite verfügbar, automatisierte Deaktivierung durch intelligente Kameras, ...
...und das alles war jetzt ohne Rückgriff auf Traumtechnologiekonzepte wie Lichtfelddisplays.

Natürlich ist das aber mit mehr Aufwand verbunden, als einfach künstlich Fortschritt zu bremsen. :D

Back2Topic: (naja, mehr oder weniger)
Die Studios würde ich nicht 1:1 vergleichen. Cloud Imperium Games müsste mittlerweile dreimal so viele Mitarbeiter haben wie Crytek und die arbeiten alle an einem Spiel, während Crytek seine Kräfte auf rund ein halbes Dutzend Projekte verteilt. Nichtsdestotrotz kann niemand einfach von DX11 auf DX12 wechseln, wenn er dabei mehr als nur die bessere Multithread-Optimierung von ein paar Zeilen Code in Windows nutzen möchte. (Also den Teil von DX12, den man mittlerweile sogar unter Win7 implementieren kann)

Für alle andere muss man größere Teile der Engine neu schreiben, da diese jetzt zahlreiche Aufgaben übernehmen muss, die unter DX11 noch das Betriebssystem oder der Treiber erledigt hat. Und als Entwickler muss man überhaupt erst einmal ein Konzept entwickeln, wie diese Aufgaben erledigt werden sollen und dabei teilweise die jeweils verbaute Hardware berücksichtigen. Erst wenn man das macht, bringt DX12 einen echten Vorteil gegenüber DX11. Hat man die nötige Manpower nicht, so etwas sauber umzusetzen (oder kann es zum jetzigen Zeitpunkt eh nicht passend für die zum Release erwartete Hardware machen, weil der Zeitraum bis dahin zu groß ist), ist DX12 eine eher schlechte Idee. Das galt übrigens in gleicher Form auch für Mantle, nur dass hier AMD selbst Techniker zur Implementierung angeboten hat. Trotzdem gibt es nur eine einzige Engine mit Mantle-Nutzung, auf deren Basis auch grafisch fordernde Spiele erschienen sind und die stammt zufällig von AMDs Co-Entwicklungspartner. Drei weitere Titel mit jeweils einer anderen Engine unterstützen es zwar auch noch, aber bei z.B. Civilization braucht man über Performance-Optimierungen komplexer Grafiken wohl nicht weiter zu reden. Die breite Masse an Entwicklern hat nur Ankündigungen gemacht, später aber auf eine Umsetzung verzichtet. Ob derartige Vorstöße überhaupt eine technische Basis hatten oder ob das Marketing-Team des jeweiligen Games einfach nur im "Mantle!!!"-Hype erwähnt werden wollte, während den Entwicklern die praktische Unmöglichkeit von Anfang an klar war, wäre im Einzelfall zu prüfen.
(...)
Vielen Dank für die umfangreiche Stellungnahme!
 
ist der "Theatres of War" Modus vorgesehen: combined arms im Stil von Battlefield.

aufgrund schlechter Performance
Ach, schlechte Performance ist mir (im Bedarfsfall) nebensächlich.
Trotz High-End-Hardware spiele ich KSP mit 10 oder 5 FPS.
Hauptsache, es funktioniert.
(Berechnungen im Hintergrund stimmen.)
Ok, das ist ein Spezialfall.

Und Dinge/Spiele wie Battlefield "lehne ich ab".
Mochte ich nie, mag ich nicht und werde sie nie mögen.
 
Zum OffTopic:

8K@35er entspräche etwa 4K im 17,3er-Notebook, 8K@31er entspräche etwa 4K im 15,6er-Notebook; 8K@27er entspräche etwa 4K im 13,3er-Notebook. Bei jeder dieser Notebookgrößen ergibt 4K Sinn → 8K ist auch für Diagonalen kleiner 40 Zoll noch sinnvoll.

Die Hersteller der Panels lassen sich gleichzeitig momentan im Smartphonemarkt durchaus vorantreiben, im TV-Markt auch. Beides mal werden die Panels hinterher durch nicht ausreichende Entspiegelung verschandelt, aber abseits dessen stehen Smartphone- und TV-Markt im Moment einfach besser als der Monitormarkt dar.

Entspiegelung wäre übrigens ein Bereich, in dem noch sehr viel mehr möglich wäre. Ansonsten Energieeffizienzerhöhung, weniger umweltschädliche Produktion, Aus- bzw. Einrollbarkeit, Krümmungsradiuswahl durch Nutzer, generelle Mobilitätsoptimierung, eine Erhöhung der effektiven ColorVolume, besser automatisierte Kalibrierungsprozesse in der Breite verfügbar, automatisierte Deaktivierung durch intelligente Kameras, ...
...und das alles war jetzt ohne Rückgriff auf Traumtechnologiekonzepte wie Lichtfelddisplays.

Natürlich ist das aber mit mehr Aufwand verbunden, als einfach künstlich Fortschritt zu bremsen. :D

Die meisten Leute würden den Sinn von 4K auf 13,3 Zoll bestreiten, mich eingeschlossen. QHD reicht dort von der Pixeldichte vollkommen aus. Und vor einem 27-Zoll-Monitor sitzt man typischerweise 50-100 Prozent weiter entfernt als von einem Ultrathin, sodass sich der Markt auch dort in QHD als Optimum und 4K als weniger bedeutende Ergänzung aufgeteilt hat. 8K in der Größe dürfte ein winzige Nische bleiben, so wie heute 4K auf 22 Zoll und kleiner. Davon abgesehen war meine Aussage nicht, dass es keine (seltenen) kleineren 8K-Monitore geben wird, sondern das es bei 40 Zoll wenig Sinn macht, noch einmal auf 16K zu verdoppeln und dass es, ausgehend von heutigen Arbeitsplätzen, nicht möglich sein wird nenneswert Monitore mit deutlich über 40 Zoll abzusetzen. Das heißt nach der 8K-Generation folgt 16K weder in Form einer höheren Pixeldichte noch in Form größerer Bildschirme, sondern es folgt im Massenmarkt gar nichts mehr. Jede Konzept hat eine gewisse Grenze innerhalb der es skalierbar ist und genauso wie optische Datenträger mit mehr als 25 GiB, Tatstaturen mit mehr als 20 frei belegbaren Zusatztasten, Gehäuse mit mehr als 7 externen Laufwerksschächten oder Uhren mit mehr als drei Zeigern jederzeit möglich waren und angeboten wurden, sich aber nie als neue Norm durchsetzen konnten, sehe ich auch beim konventionellen "Monitor auf Schreibtisch" die Grenze bald erreicht.

Den Smartphone-Markt würde ich hier ebenfalls als Beispiel nennen. Es ist 10 Jahre her, dass die bei den dort üblichen Abständen sinnvolle Obergrenze von 300-350 PPI erreicht wurde. Von den 1462 seit 2019 im PCGH-Preisvergleich erschienenen Smartphones haben 215 <250 PPI, 1062 haben 250-450 PPI und nur 185 haben mehr als 450 PPI – davon aber 154 maximal 550. Wo wird da wer zu immer höheren Pixeldichten getrieben, wenn in einem ganzen Jahrzehnt keine Verdoppelung gelungen ist?

Die anderen Aspekte, die du nennst, sind ebenfalls keine Neuheiten. Aufwendig entspiegelte Displays gibt es seit über 15 Jahren (genaugenommen kam der nicht entspiegelte und nicht mattierte Schrott als letztes auf den Markt), sauber vorkalibrierte ebenfalls – wird von den Kunden aber nicht angenommen. Krümmung ist bei Fernsehern bereits wieder tot, bei Monitoren beschweren sich zunehmend mehr Kunden über eine zu starke Wölbung. 10 Bit Farbtiefe wird angeboten, bleibt aber ein Nice-to-have und wenn der Durschnittsverbaucher auf Umweltthemen wie Verbrauch, Herstellung oder Abschaltautomatik (ebenfalls ein alter Hut) achten würde, sähe es auf unserem Planeten grundlegend anders aus. Das sind zwar alles Punkte, in denen sich die Hersteller verbessern sollten, aber selbst in der Summe kann man damit niemanden überreden, ein 8K-Display gegen ein neues 8K-Display zu tauschen. Aber man kann ein 4K, 5K, 6K in Gewinn verwandeln, bevor man das 8K überhaupt erstmal anbietet. Und man kann bis dahin noch jeden Schritt mit 30 Hz/60 Hz/120 Hz multiplizieren. Gegebenenfalls noch erst LCD und dann OLED/Micro-LED nachreichen. So schafft man Kaufanreize auf Jahrzehnte hinaus, obwohl eigentlich jede einzelne dieser Technologien bereits heute oder in wenigen Jahren starten könnte, wenn der Bau eines perfekten Displays das Ziel wäre.
 
iCache und Server Meshing... es ist schon einfach nur noch grotesk.
Vor einem dreiviertel Jahr hatten wir schon die Diskussion drüber, wann das wohl alles so weit ist, und jetzt reden wir immer noch drüber.
Aber man kann ein 4K, 5K, 6K in Gewinn verwandeln, bevor man das 8K überhaupt erstmal anbietet. Und man kann bis dahin noch jeden Schritt mit 30 Hz/60 Hz/120 Hz multiplizieren. Gegebenenfalls noch erst LCD und dann OLED/Micro-LED nachreichen. So schafft man Kaufanreize auf Jahrzehnte hinaus, obwohl eigentlich jede einzelne dieser Technologien bereits heute oder in wenigen Jahren starten könnte, wenn der Bau eines perfekten Displays das Ziel wäre.

Die nächste und auch die übernächste Generation ist ja auch längst fertig entwickelt.

Genauso auch bei der ganzen Schnittstellen-Versionitis.
Als ob es technisch oder mechanisch auch nur im Ansatz ein Problem wäre, die Bandbreite einer HDMI-, USB-, PCIe- oder weiß Gott was für Schnittstellen einfach heute schon so auszulegen, dass es für die nächsten 50 Jahre dick reicht.
Aber wo käme man da auch hin, wenn man nicht mit jeder neuen HDMI-Revision seine komplette Kette aus Receiver, Player, TV, Projektor usw. usw. austauschen müsste, um nur ein Beispiel zu nennen.
 
Zuletzt bearbeitet:
Zurück