News Nvidia Neural Texture Compression: Mehr Textur-Details dank KI

Klingt für mich nach hartem Bullshit.

Da wir auf absehbare Zeit sicherlich keine höheren Auflösungen als UHD sehen werden, lässt sich das VRAM-Problem einfach durch mehr VRAM lösen. Da hätte man weniger Entwicklungszeit in ein neues (und sicherlich proprietäres) Feature stecken müssen, das man sich von den Kunden fürstlich versilbern lassen wird - RTX 4000 ist ja nicht schon überteuert genug. Am Ende wird's dann das Alleinstellungsmerkmal von RTX 5000, um die Spielerschaft zu teuren Upgrades zu zwingen. Top!
 
Klingt für mich nach hartem Bullshit.

Da wir auf absehbare Zeit sicherlich keine höheren Auflösungen als UHD sehen werden, lässt sich das VRAM-Problem einfach durch mehr VRAM lösen.
Klar kann man das auch mit mehr Vram lösen..und mit mehr Speicherplatz auf den Festplatten..
aber es ist ja auch ne Bandbreiten Frage (Vram, PCiX ect..diverse Schnittstellen halt)

Und wenn man Mal in Richtung Video Bereich schielt sieht man ja das entsprechende Codecse wie zb AV1 kein Bullshit sind

Das macht aus effizients und Performance Sicht schon erheblich Sinn in Richtung AI Texture compressions Codecs zu forschen

Blöder Autovergleich:
Früher hat man aus 2l Hubraum auch nur ca 100-120ps rausgeholt..
Heute ist man locker beim doppelten
 
Zuletzt bearbeitet:
aber es ist ja auch ne Bandbreiten Frage (Vram, PCiX ect..diverse Schnittstellen halt)
Stärkeres Speicherinterface würde helfen. RTX 4000 war da ja - außer bei der 4090 - eher rückschrittlich (bspw. 256bit anstelle von 320bit bei der 4080 im Vergleich zur 3080 und 198bit anstelle von 256bit bei 4070/3070).
Und wenn man Mal in Richtung Video Bereich schielt sieht man ja das entsprechende Codecse wie zb AV1 kein Bullshit sind
Videos sind aber keine Videospiele. Das ist leider ein Äpfel-Birnen-Vergleich. Nvidias neuer Zauberstaub hört sich für mich ohnehin nach zu viel Aufwand für die Spieleentwickler an. Da wir ohnehin schon zu viele Releases unfertiger Spiele haben, ist das m.E. eher ein Negativpunkt.
 
Stärkeres Speicherinterface würde helfen. RTX 4000 war da ja - außer bei der 4090 - eher rückschrittlich (bspw. 256bit anstelle von 320bit bei der 4080 im Vergleich zur 3080 und 198bit anstelle von 256bit bei 4070/3070).
Ein großeres Speicherinterface hat andere Nachteile (Stromverbrauch.. DIE Fläche ect)

Das was du da beschreibst ist mehr Leistung nach Brute Force Methode..
Oder anders ausgedrückt.. ein Problem mit Mehrleistung zuscheißen



Nvidias neuer Zauberstaub hört sich für mich ohnehin nach zu viel Aufwand für die Spieleentwickler an. Da wir ohnehin schon zu viele Releases unfertiger Spiele haben, ist das m.E. eher ein Negativpunkt.
Wie wissen noch gar nicht wie das umgesetzt ist..
Nicht immer alles negativ denken und sehen
 
Stärkeres Speicherinterface würde helfen. RTX 4000 war da ja - außer bei der 4090 - eher rückschrittlich (bspw. 256bit anstelle von 320bit bei der 4080 im Vergleich zur 3080 und 198bit anstelle von 256bit bei 4070/3070).

Ist aber alles eine Kostenfrage. Software und gute Algorithmen/Techniken sind eben genauso wichtig wie die Grafikkarte selbst. Waren sie übrigens schon immer. Früher war es dann die bessere Kantenglättung oder andere Verfahren um Leistung einzusparen (siehe NvidiaTreiber).

Wenn ich die Wahl habe zwischen 4070 mit 12GB und 192bit Speicherinterface für 600€, welche auf einmal dank DLSS3 + Neural Texture problemlos 4k + Raytracing berechnen kann und einer 4070 mit 24GB und 384bit Speicherrinterface für 1000€, welche nativ 4k nicht mal ohne Raytracing schafft, dann wähle ich doch Produkt 1 aus dank der besseren Software.

Ebenso würde Karte 2 nicht nur 400€ mehr Kosten, sondern wahrscheinlich auch noch 100 Watt mehr Strom ziehen für deutlich weniger Leistung.
 
Viele sind stinkig gegenüber der Preispolitik seitens Nvidia, verständlich, aber Nvidia setzt mit diesem ganzen AI Ding genau auf das richtige Pferd. Das wird die Zukunft der Spiele noch massiv beflügeln.
 
Klingt für mich nach hartem Bullshit.

Da wir auf absehbare Zeit sicherlich keine höheren Auflösungen als UHD sehen werden, lässt sich das VRAM-Problem einfach durch mehr VRAM lösen. Da hätte man weniger Entwicklungszeit in ein neues (und sicherlich proprietäres) Feature stecken müssen, das man sich von den Kunden fürstlich versilbern lassen wird - RTX 4000 ist ja nicht schon überteuert genug. Am Ende wird's dann das Alleinstellungsmerkmal von RTX 5000, um die Spielerschaft zu teuren Upgrades zu zwingen. Top!
Das was du forderst versucht jedes Unternehmen zu vermeiden wo es geht.
Wenn du die Wahl zwischen mehr HW oder eine effizientere Software hast, ist die Entscheidung eigentlich immer effizientere Software. Zumindest wenn die Kosten in einer ähnlichen Größenordnung sind. Eine solche Softwarelösung entwickelst du nur einmal. Sprich solltest du bspw. mehr Karten verkaufen als erwartet dann sparst du die Kosten ggü. einer Hardwarelösung, da du nicht bei jeder Karte den höheren VRAM Bedarf bezahlen musst. Bei einer Lösung die auch zukünftig genutzt werden kann sind die Potentiale sogar noch höher.
Wie viel der Ansatz wirklich bringt wird man sehen müssen aber ich denke dass wir da in Zukunft mehr sehen werden.
 
Wie wissen noch gar nicht wie das umgesetzt ist..
Nicht immer alles negativ denken und sehen

Das was du forderst versucht jedes Unternehmen zu vermeiden wo es geht.
Wenn du die Wahl zwischen mehr HW oder eine effizientere Software hast, ist die Entscheidung eigentlich immer effizientere Software. Zumindest wenn die Kosten in einer ähnlichen Größenordnung sind. Eine solche Softwarelösung entwickelst du nur einmal. Sprich solltest du bspw. mehr Karten verkaufen als erwartet dann sparst du die Kosten ggü. einer Hardwarelösung, da du nicht bei jeder Karte den höheren VRAM Bedarf bezahlen musst. Bei einer Lösung die auch zukünftig genutzt werden kann sind die Potentiale sogar noch höher.
Wie viel der Ansatz wirklich bringt wird man sehen müssen aber ich denke dass wir da in Zukunft mehr sehen werden.
Ich kann euch ja verstehen, aber: Es ist Nvidia. Es wird eine proprietäre Lösung sein, die helfen wird, Nvidias Position als Monopolist zu festigen. Egal, wie toll das kurzfristig sein mag, langfristig ist das für den Verbraucher eine Katastrophe.
 
Ich kann euch ja verstehen, aber: Es ist Nvidia. Es wird eine proprietäre Lösung sein, die helfen wird, Nvidias Position als Monopolist zu festigen. Egal, wie toll das kurzfristig sein mag, langfristig ist das für den Verbraucher eine Katastrophe.

Entwicklung ist immer gut und AMD hat auch schon viel nachgebaut bzw. später dann auch gebracht. Klar kannst du GSync und DLSS verteufeln, aber nur deswegen haben wir auch FreeSync und FSR bekommen. Am Ende profitieren alle davon. Früher musste man eine neue Grafikkarte kaufen, heute stellt man DLSS/FSR auf on.
 
Entwicklung ist immer gut und AMD hat auch schon viel nachgebaut bzw. später dann auch gebracht. Klar kannst du GSync und DLSS verteufeln, aber nur deswegen haben wir auch FreeSync und FSR bekommen. Am Ende profitieren alle davon. Früher musste man eine neue Grafikkarte kaufen, heute stellt man DLSS/FSR auf on.
Die Frage ist für mich eher, wie lange AMD noch durchhält, denn AMD scheint's derzeit nicht allzu gut zu gehen.
 
Die Frage ist doch, wo sich diese Technik sinnvoll einsetzen lässt? Dieser Detailgrad wird zumindest in schnellen Games keiner benötigen.

Lustig, dass du dir de Antwort quasi selbst gegeben hast.

Langsame und gemütliche Spiele.

Des weiteren liegt hier iwann ein Limit der Tensor-Cores vor. Inbesondere wenn diese dann schon mit RT + DLSS + … beschäftigt sind.

Die kann man aufstocken.

Und zum Thema Speicherbedarf: Bei einer 4090 bestimmt kein Problem. Bei den Karten < 4090 hat Nvidia den Speicher der Karten eigentlich immer „Spitz-auf-Knopf“ genäht, da kann jedes weitere MByte richtig weh tun.

Eine Texturkompression führt dazu, dass sie weniger VRAM benötigen und nicht mehr.

Es ist doch toll, wenn man künftig, mit einer 48GB Karte eine ähnliche Qualität, wie mit einer 128GB Karte bekommt.

Und da frage ich mich wie diese Technologie, die mehr Speicher benötigt, helfen soll „die Limitierungen bei verfügbarem Grafikspeicher zu umgehen.“ Häh? :ugly:

Du hast den Artikel nicht verstanden.

Also, diese Lobeshymnen in diesem Artikel kann ich nicht nachvollziehen.

Und ich kann nicht nachvollziehen, warum hier immer gemeckert wird, wenn es etwas neues gibt, anstatt sich darüber zu freuen.
 
Ich kann euch ja verstehen, aber: Es ist Nvidia. Es wird eine proprietäre Lösung sein, die helfen wird, Nvidias Position als Monopolist zu festigen. Egal, wie toll das kurzfristig sein mag, langfristig ist das für den Verbraucher eine Katastrophe.
Auch das ist nicht wirklich etwas verwerfliches. Die wenigsten Lösungen sind offen.
Nvidia ist nun der erste der vorgeht, während Intel und AMD das ganze genau analysieren und ihrerseits Lösungen vorantreiben wenn es sich lohnt.
 
Die Frage ist für mich eher, wie lange AMD noch durchhält, denn AMD scheint's derzeit nicht allzu gut zu gehen.

Das ist ja etwas was man nicht Nvidia ankreiden sollte.. sondern etwas was an AMD selbst liegt.

Software mässig haben sie einiges aufzuholen auch wenn ihre Technik eigentlich gut dabei ist.
Ihr upscaler ist zweite Wahl, Framegeneration liegt nach wie vor in den Sternen.. und auf Treiber Seite gibt es auch noch einiges zu tun.

Hier geht die Schere halt immer weiter auseinander

Wärend die einem noch versuchen Framegeneration von Grund auf zu entwickeln und lauffähig zu bekommen sind die anderen bereits an AI Textur Kompressions Algorithmen dran.

Der Vorsprung ist vorhanden und hat Nvidia auch einiges an Investment gekostet.
 
Zuletzt bearbeitet:
Auch das ist nicht wirklich etwas verwerfliches. Die wenigsten Lösungen sind offen.
Nvidia ist nun der erste der vorgeht, während Intel und AMD das ganze genau analysieren und ihrerseits Lösungen vorantreiben wenn es sich lohnt.

Warum sollte man auch etwas für die Allgemeinheit und speziell seinen Konkurrenten entwickeln? Als Gewinn orientiertes Unternehmen versucht man ja Vorteile gegenüber der Konkurrenz zu entwickeln. Ganz extrem z.B. auch im Pharmabereich, wenn da jeder das neue Medikament herstellen dürfte, dann würde es gar keine neuen Medikamente mehr geben, da eben die Forschung sich nicht rentieren würde.

Natürlich muss man da auch eine Balance finden. Vieles läuft sicherlich auch falsch ab.
 
Lustig, dass du dir de Antwort quasi selbst gegeben hast.

Langsame und gemütliche Spiele.



Die kann man aufstocken.



Eine Texturkompression führt dazu, dass sie weniger VRAM benötigen und nicht mehr.

Es ist doch toll, wenn man künftig, mit einer 48GB Karte eine ähnliche Qualität, wie mit einer 128GB Karte bekommt.



Du hast den Artikel nicht verstanden.



Und ich kann nicht nachvollziehen, warum hier immer gemeckert wird, wenn es etwas neues gibt, anstatt sich darüber zu freuen.
Auch wenn du mit deinen Punkten prinzipell recht hast, beurteile ich das für die Gegenwart und eben nicht mit aufgestockten Tensore-Cores, 48 GByte RAM und was die nächsten Gens an GPUs evtl. vielleicht evtl. noch bringen könnten.
 
Denkt dran: Die Methode nimmt an bzw. setzt voraus, dass alle Texturen die gleiche Größe haben...
Die assets müssen natürlich in unterschiedlichen Formaten ausgeliefert werden, damit das funktioniert.

Die Blockgrößen für Texturen sind meist 128-256 Byte groß.

Ich denke, wenn die Dekompression nur eine Millisekunde auf die Renderzeit pro Bild aufschlägt, könnte man damit leben.

Fraglich ist die Verbreitung.
 
Zuletzt bearbeitet:
Klingt für mich nach hartem Bullshit.
Keine Verwunderung bei mir.
Da wir auf absehbare Zeit sicherlich keine höheren Auflösungen als UHD sehen werden, lässt sich das VRAM-Problem einfach durch mehr VRAM lösen.
Es ist also besser Ressourcen zu verschwenden anstatt mit Technologie vorhandene besser zu nutzen?
(und sicherlich proprietäres) Feature stecken müssen,
Proprietär muss das nicht sein.
Am Ende wird's dann das Alleinstellungsmerkmal von RTX 5000, um die Spielerschaft zu teuren Upgrades zu zwingen. Top!
Wie wird man denn zum Kauf einer GPU gezwungen? Rollt der CEO mit vorgehaltener Pistole unter dem Weihnachtsbaum hervor? :D
 
Zurück