Ich finde es extrem traurig, dass immer wieder Technologie eingreifen muss, um die Faulheit der Entwicklerstudios künstlich auszugleichen. Texturen könnten längst um einen gigantischen Faktor effizienter/schärfer sein, wenn man nicht auf irgendwelche unfähigen Massenteams aus Dritte-Welt-Ländern oder sogar KI zurückgreifen, sondern Leute ordentlich schulen und nicht nur rein nach Kostenfaktor einstellen würde.
3D-Modelle und deren Texturen können extrem optimiert werden, es sind halt nur der Wille und die Zeit dafür notwendig. Bei den meisten models könnten die Anzahl an Polygonen und die Texturdichte mit intelligenter Arbeit massiv verbessert werden, aber bei der Bildung der Teams ist das für niemanden (außer bei Hero-models wie z.b. der Hauptwaffe des Protagonisten und dessen Spielfigur etc.) von Interesse.
Ich gehe davon aus, dass wir die jeweilige Non-Plus-Ultra-Grafik mit jeweils ca. 2 älteren Generationen gleichwertig schnell zocken könnten, wenn die Studios nicht aufgrund ihrer Geldgeilheit die Hardware mit 100% unoptimiertem Schund zu Höchstleistungen zwingen würden.
Grafik ist halt nicht gleich Grafik. Ich kann im Extremfall eine komplett weiße Fläche als 1x1-Pixel-Textur laden oder als 16k mit minimalsten Unterschieden im Weißton (=> riesengroß, aber keiner sieht nen Unterschied), die keiner sehen kann und die Leute wollen hunderte € mehr ausgeben für etwas mehr Grafikspeicher, weil ihre Framerate sonst einbricht.
Ich kann ein komplexes 3D-Modell so intelligent aufteilen, dass kaum sichtbare Stellen extrem niedrig aufgelöst sind und die sichtbarsten viel höher, dann alles mit viel Frickelei ultradicht packen (>>>70% Texturdichte statt sagen wir 30% von jemandem, der im Terminstress nur ein autom. Skript laufen lässt, denn 4K ist nicht gleich 4K) und überall komplexe Geometrie per Hand um einen Faktor von oft ~10 vereinfachen, ohne dass auch nur im geringsten Qualität verloren geht (im Gegenteil: models sind dann fast immer besser verformbar).
Mich machts auch ehrlich gesagt gleich doppelt wütend, weil die Idee, dass fertige Werke durch Treiber in ihrem Aussehen nochmals abgeändert werden (wenn auch angeblich minimal) dem Künstler wieder Macht entreißen.
z.T. kann es also passieren, dass feinste Details, die ich mit mühevoller Arbeit reinpacke, dann nicht mehr auf gewünschte Art auf das ingame-Erlebnis des Spielers übertragen werden, weil das zufällig genau die Grenze war, bei der die KI es nicht mehr erkennt? Das ist Affenscheisse. Warum soll meine detaillierte, gute Arbeit auch nur im geringsten komprimiert werden, nur weil Todd Howard ein faules %&!!$/% ist?
Bethesda übertrifft in puncto "Optimierung" mal wieder Alle:
Den Apfel hier im Bild ( er *soll* übrigens quadratisch sein, wie diese japanischen Wassermelonen, die es in echt gibt) z.B. hab ich mal in 30 Sekunden in höherwertiger Qualität (keine chaotischen Linien, die zu Shading-Fehlern führen etc.) nachgestellt und bin auf exakt 172 Dreiecke (90 Vertices) statt 2.172 gekommen, also ca. 7,9%. Dabei habe ich bewusst eher zu viele Punkte verwendet, damit ich garantiert nichts schlechteres abliefere und der Firma mit meiner Aussage kein Unrecht tue.
Ich vermute stark, dass das 3D-Modell KI-generiert ist und daher in keinster Weise irgendwie optimiert wurde. Texturen wären bei Handarbeit realistisch gesehen ca. 4x so scharf bei gleichem Speicherbedarf, weil bei so einem Modell garantiert niemand irgendwie versucht hat, rumzufrickeln. Wenn ich bspw. den Apfel im Spiel immer nur in Verbindung mit einem Teller, auf dem er liegt, spawnen lasse, dann kann ich die Apfeltextur gleich mit in die Lücken packen, die sich automatisch beim kreisrunden Teller auf der quadratischen Teller-Textur in den Ecken ergeben und die Apfeltextur ist quasi "umsonst", solange auch der Teller sowieso da wäre. Diese fehlende Art von Optimierung ist ja auch der Grund, warum z.B. fast alle Mods von alten Spielen, bei denen Hobbyisten überall naiv unoptimiert 4k oder 8k drüberballern, so absurd schlechte Performance haben und damit alte Spiele dazu bringen können, moderne Hardware auszureizen.
Ihr wisst dann ja, wo euer gutes Geld für die so teure Grafikkarte tatsächlich hingeht. Mit einer 1080Ti statt der 4080 würde so ein Spiel wohl auch flüssig laufen. Wenn das einer so wollte.
Ist ein bißchen so, als ob alle Autos auf der Straße per Gesetz mit angezogener Handbremse fahren müssten und die Autohersteller das mit stärkeren Motoren kompensieren würden.
Insgeheim wünsche ich mir persönlich schon fast einen Krieg zw. China und Taiwan. Einfach mal keine Hardware verfügbar machen für sagen wir 10 Jahre - das würde bei Studios ein massives Umdenken notwendig machen und plötzlich kämen Patches raus, bei denen die Grafik erhalten bleibt oder sogar minimal besser wird, aber auf einmal auf Hardware von vor 5-10 Jahren läuft. Weil der ganze Hardwarebedarf halt fast nur der Faulheit/Geldgeilheit der Studios geschuldet ist.
Das Umgehen mit Elektroschrott würde sich ebenfalls komplett verändern, auf einmal wäre das nicht mehr notwendig, Inder auf Bergen von dem Zeugs barfuß rumlaufen zu lassen.
Aber Hauptsache immer weiter und weiter die Wattzahlen hochballern. 5090Ti mit 450W, weil das für tolle Grafik garantiert notwendig ist. Alles klar man.
Ich persönlich vergesse nach 30 Sekunden in nem Spiel sowieso, ob ich in 1080p medium oder 4k Ultra zocke, aber das ist wieder ein anderes Thema.