News AMD NTBC: KI-Texturkompression spart bis zu 70 Prozent Speicherplatz

PCGH-Redaktion

Kommentar-System
Teammitglied
AMD hat die KI-Kompression "Neural Texture Block Compression" inzwischen offiziell vorgestellt. Diese soll Spiele deutlich kompakter speichern können. Es gibt aber auch Nachteile.

Was sagt die PCGH-X-Community zu AMD NTBC: KI-Texturkompression spart bis zu 70 Prozent Speicherplatz

Bitte beachten: Thema dieses Kommentar-Threads ist der Inhalt der Meldung. Kritik und allgemeine Fragen zu Online-Artikeln von PC Games Hardware werden hier gemäß der Forenregeln ohne Nachfrage entfernt, sie sind im Feedback-Unterforum besser aufgehoben.
 
Zitat: "Angesichts des teils sehr großen Platzverbrauchs moderner Spieler..."

Lese ich da etwa heimliche Kritik am Leibesumfang des ein oder anderen Konsumenten eurer Arbeit?

Gut, gut, mit zunehmendem Alter hab ich auch zugelegt und bewege mich wohl zu wenig. Aber wenn ihr schon an das schlechte Gewissen der Leser appellieren wollt, dann bitte auch Vorschläge mit einarbeiten, den persönlichen Platzverbrauch effektiv zu reduzieren. :D ;)
 
Erstmal die mehrfachen Assets aus der DVD/HDD Optimierung für sie letzte Konsolengeneration wegschmeißen, dann sind die Downloads wahrscheinlich eh schon 30% kleiner.
Ausschließlich Platz auf Speichermedien sparen sehe ich jedenfalls nicht als den großen Wurf. Spannend wäre bessere on the fly Komprimierung beim Weg in und aus dem DRAM oder VRAM.
 
Gab es früher nicht mal die Möglichkeit, vielleicht auch nur bei einzelnen Spielen, die Texturen (einmalig) vor dem Spielstart (manuell) zu dekomprimieren (= mehr Platzverbrauch auf der "Platte"), damit man während des Spielens ein paar FPS dazugewinnt? Mir als Spieler ist der Speicherplatzverbrauch auf dem Massenspeicher doch relativ egal. Warum sollte man Darstellungsqualität opfern, nur damit ein Spiel weniger Speicherplatz auf der "Platte" belegt?

Selbst der Platz im RAM/VRAM sollte heutzutage doch eigentlich keine große Rolle mehr spielen (wenn die Graka-Hersteller nicht knausern, RAM kann man ja aufrüsten). Aber klar, wenn man in seine 8GB/12GB/16GB usw. VRAM mittels Kompression noch mehr Details bekommt, man also zb. mit seiner 8GB Karte dadurch fast die Texturqualität wie mit einer 12GB Karte bekommt, warum nicht. Hauptsache der Speicher ist immer voll. Aber wenn die Kompression dafür genutzt wird, dass der RAM/VRAM leerer wird, kann man sich das mMn sparen. Leerer RAM/VRAM ist nutzloser RAM/VRAM.

Aber Speicherplatzbelegung auf der SSD?
Parallel ist auch die für die Dekompression benötigte Rechenzeit zu bedenken.
Und dafür auch noch FPS/"Fluffigkeit" und Bildqualität opfern? Da würde ich doch eher eine größere SSD kaufen, wenn ich zwingend mehr Spiele installiert haben will, als auf meine SSD passen. :confused:
 
Die damalige Grafikkartenfirma und Chiphersteller S3 hatte doch auch mal ein Komprimierungsverfahren namens S3TC am Start auf den damaligen Savege-Karten - ist das vergleichbar?
 
Ich kann mir vorstellen, das KI da noch deutlich größere Einsparungen ermöglichen kann. Vermutlich wird sie jetzt schon in den Entwicklerstudios für generische Texturen (Steine, Straßen, Kisten usw.) eingesetzt, das könnte vlt. irgendwann direkt auf dem Rechner des Spielers passieren. Vlt. könnte dann auch in großen Spielen wirklich jede Kiste seine eigene Textur ohne Wiederholung haben...
 
Zitat: "Angesichts des teils sehr großen Platzverbrauchs moderner Spieler..."

Lese ich da etwa heimliche Kritik am Leibesumfang des ein oder anderen Konsumenten eurer Arbeit?

Gut, gut, mit zunehmendem Alter hab ich auch zugelegt und bewege mich wohl zu wenig. Aber wenn ihr schon an das schlechte Gewissen der Leser appellieren wollt, dann bitte auch Vorschläge mit einarbeiten, den persönlichen Platzverbrauch effektiv zu reduzieren. :D ;)
Haben sie doch mit SCHLEICHWERBUNG!!!1111ELF :motz:

Wer täglich eine RX 7900 verdrückt nimmt bald 70% weniger Platz ein.
Angeblich arbeit AMD schon länger an der Geschmacksrichtung Hase....
 
Also bekommt die PS6 keine 12 TB (2x6) SSD und wird auch keine 24 / bzw 32 GB Grafikkarte haben - schade.
 
@KremitTheFrag
Der Schreibfehler war definitiv einer meiner besseren
:ugly:

Vielen Dank für den Hinweis - ist korrigiert :)
 
Gab es früher nicht mal die Möglichkeit, vielleicht auch nur bei einzelnen Spielen, die Texturen (einmalig) vor dem Spielstart (manuell) zu dekomprimieren (= mehr Platzverbrauch auf der "Platte"), damit man während des Spielens ein paar FPS dazugewinnt?
Klar.

Beispielsweise die Spiele die PAK-Dateien benutzen. Die konnte man mit 7Zip oder ähnlichen Programmen einfach entpacken und dann wieder zu einer neuen gleichnamigen PAK-Datei packen (nur eben ohne Komprimierung also nur speichern). Das Ergebnis war die gleiche PAK-Datei in größer/unkomprimiert und kürzere Ladezeiten... aber meist nicht mehr fps.
 
Erstmal die mehrfachen Assets aus der DVD/HDD Optimierung für sie letzte Konsolengeneration wegschmeißen, dann sind die Downloads wahrscheinlich eh schon 30% kleiner.
Ausschließlich Platz auf Speichermedien sparen sehe ich jedenfalls nicht als den großen Wurf. Spannend wäre bessere on the fly Komprimierung beim Weg in und aus dem DRAM oder VRAM.
Sehe ich persönlich ähnlich, Spiele sind größtenteils nach wie vor auf die klassische Magnet Festplatte und Optische Speichermedien (DVD ect) optimiert und ziehen nur bedingt nutzen aus einer Modernen SSD..
Und selbst hier gerade Mal aus den Zugriffszeiten und nicht aus der rohen Geschwindigkeit, die bei modernen NVME SSDs bis zu 50x höher liegen als bei einer klassischen Festplatte .. (120mb/sec vs 7000mb/sec)

Hinzukommt das man hier einen geringeren Speicherplatz gegenüber höheren Rechenaufwand tauscht..
Auch dürfte nicht jede Spieleengine kompatibel sein bzw gleich gut mit dieser Komprimierung zurecht kommen.


Außerdem Frage ich mich welchen Performance Sprung dezidierte KI Einheiten hier noch zusätzlich bringen würden.. wie es scheint ist der Algorithmus Universal auf allen GPUs einsetzbar.. (weil auch Nvidia muss diese Spiele dekomprimieren und abspielen können)
Es wird Leistung der GPU dafür benötigt.. und was passiert nun wenn man das durch die Tensor Cores leitet? Dann steht AMD ja am Ende wieder blöd da
 
Ich finde es extrem traurig, dass immer wieder Technologie eingreifen muss, um die Faulheit der Entwicklerstudios künstlich auszugleichen. Texturen könnten längst um einen gigantischen Faktor effizienter/schärfer sein, wenn man nicht auf irgendwelche unfähigen Massenteams aus Dritte-Welt-Ländern oder sogar KI zurückgreifen, sondern Leute ordentlich schulen und nicht nur rein nach Kostenfaktor einstellen würde.

3D-Modelle und deren Texturen können extrem optimiert werden, es sind halt nur der Wille und die Zeit dafür notwendig. Bei den meisten models könnten die Anzahl an Polygonen und die Texturdichte mit intelligenter Arbeit massiv verbessert werden, aber bei der Bildung der Teams ist das für niemanden (außer bei Hero-models wie z.b. der Hauptwaffe des Protagonisten und dessen Spielfigur etc.) von Interesse.

Ich gehe davon aus, dass wir die jeweilige Non-Plus-Ultra-Grafik mit jeweils ca. 2 älteren Generationen gleichwertig schnell zocken könnten, wenn die Studios nicht aufgrund ihrer Geldgeilheit die Hardware mit 100% unoptimiertem Schund zu Höchstleistungen zwingen würden.

Grafik ist halt nicht gleich Grafik. Ich kann im Extremfall eine komplett weiße Fläche als 1x1-Pixel-Textur laden oder als 16k mit minimalsten Unterschieden im Weißton (=> riesengroß, aber keiner sieht nen Unterschied), die keiner sehen kann und die Leute wollen hunderte € mehr ausgeben für etwas mehr Grafikspeicher, weil ihre Framerate sonst einbricht.

Ich kann ein komplexes 3D-Modell so intelligent aufteilen, dass kaum sichtbare Stellen extrem niedrig aufgelöst sind und die sichtbarsten viel höher, dann alles mit viel Frickelei ultradicht packen (>>>70% Texturdichte statt sagen wir 30% von jemandem, der im Terminstress nur ein autom. Skript laufen lässt, denn 4K ist nicht gleich 4K) und überall komplexe Geometrie per Hand um einen Faktor von oft ~10 vereinfachen, ohne dass auch nur im geringsten Qualität verloren geht (im Gegenteil: models sind dann fast immer besser verformbar).

Mich machts auch ehrlich gesagt gleich doppelt wütend, weil die Idee, dass fertige Werke durch Treiber in ihrem Aussehen nochmals abgeändert werden (wenn auch angeblich minimal) dem Künstler wieder Macht entreißen.
z.T. kann es also passieren, dass feinste Details, die ich mit mühevoller Arbeit reinpacke, dann nicht mehr auf gewünschte Art auf das ingame-Erlebnis des Spielers übertragen werden, weil das zufällig genau die Grenze war, bei der die KI es nicht mehr erkennt? Das ist Affenscheisse. Warum soll meine detaillierte, gute Arbeit auch nur im geringsten komprimiert werden, nur weil Todd Howard ein faules %&!!$/% ist?

Bethesda übertrifft in puncto "Optimierung" mal wieder Alle:
1694885483524739.png


Den Apfel hier im Bild ( er *soll* übrigens quadratisch sein, wie diese japanischen Wassermelonen, die es in echt gibt) z.B. hab ich mal in 30 Sekunden in höherwertiger Qualität (keine chaotischen Linien, die zu Shading-Fehlern führen etc.) nachgestellt und bin auf exakt 172 Dreiecke (90 Vertices) statt 2.172 gekommen, also ca. 7,9%. Dabei habe ich bewusst eher zu viele Punkte verwendet, damit ich garantiert nichts schlechteres abliefere und der Firma mit meiner Aussage kein Unrecht tue.
Ich vermute stark, dass das 3D-Modell KI-generiert ist und daher in keinster Weise irgendwie optimiert wurde. Texturen wären bei Handarbeit realistisch gesehen ca. 4x so scharf bei gleichem Speicherbedarf, weil bei so einem Modell garantiert niemand irgendwie versucht hat, rumzufrickeln. Wenn ich bspw. den Apfel im Spiel immer nur in Verbindung mit einem Teller, auf dem er liegt, spawnen lasse, dann kann ich die Apfeltextur gleich mit in die Lücken packen, die sich automatisch beim kreisrunden Teller auf der quadratischen Teller-Textur in den Ecken ergeben und die Apfeltextur ist quasi "umsonst", solange auch der Teller sowieso da wäre. Diese fehlende Art von Optimierung ist ja auch der Grund, warum z.B. fast alle Mods von alten Spielen, bei denen Hobbyisten überall naiv unoptimiert 4k oder 8k drüberballern, so absurd schlechte Performance haben und damit alte Spiele dazu bringen können, moderne Hardware auszureizen.

Ihr wisst dann ja, wo euer gutes Geld für die so teure Grafikkarte tatsächlich hingeht. Mit einer 1080Ti statt der 4080 würde so ein Spiel wohl auch flüssig laufen. Wenn das einer so wollte.
Ist ein bißchen so, als ob alle Autos auf der Straße per Gesetz mit angezogener Handbremse fahren müssten und die Autohersteller das mit stärkeren Motoren kompensieren würden.

Insgeheim wünsche ich mir persönlich schon fast einen Krieg zw. China und Taiwan. Einfach mal keine Hardware verfügbar machen für sagen wir 10 Jahre - das würde bei Studios ein massives Umdenken notwendig machen und plötzlich kämen Patches raus, bei denen die Grafik erhalten bleibt oder sogar minimal besser wird, aber auf einmal auf Hardware von vor 5-10 Jahren läuft. Weil der ganze Hardwarebedarf halt fast nur der Faulheit/Geldgeilheit der Studios geschuldet ist.
Das Umgehen mit Elektroschrott würde sich ebenfalls komplett verändern, auf einmal wäre das nicht mehr notwendig, Inder auf Bergen von dem Zeugs barfuß rumlaufen zu lassen.
Aber Hauptsache immer weiter und weiter die Wattzahlen hochballern. 5090Ti mit 450W, weil das für tolle Grafik garantiert notwendig ist. Alles klar man.
Ich persönlich vergesse nach 30 Sekunden in nem Spiel sowieso, ob ich in 1080p medium oder 4k Ultra zocke, aber das ist wieder ein anderes Thema.
 
Nvidia ist wohl nicht mehr einholbar auf die traditionelle Art, dass man es jetzt auf diese Weise versucht wird schon einen Schub mit sich bringen allen schon in Sachen Echtzeit Schatten und Licht Berechnungen.
Dazu noch die wenigere Speicherplatzbelegung (Festplatte) finde ich gut, aber so wie ich AMD kenne, werden, die es dann wieder schleifen lassen, bis Nvidia mit gleichem oder besserem Teurerem kommt und sich gut bezahlen lässt wie immer halt.
 
Zurück