Blackfirehawk
Software-Overclocker(in)
Naja die ultra Texturen brauchen bei gleicher Qualität durch die Komprimierung weniger SpeicherplatzWenn man natürlich mit den Ultra Texturen startet wird der Speicherverbrauch nicht besser.
Naja die ultra Texturen brauchen bei gleicher Qualität durch die Komprimierung weniger SpeicherplatzWenn man natürlich mit den Ultra Texturen startet wird der Speicherverbrauch nicht besser.
Klar kann man das auch mit mehr Vram lösen..und mit mehr Speicherplatz auf den Festplatten..Klingt für mich nach hartem Bullshit.
Da wir auf absehbare Zeit sicherlich keine höheren Auflösungen als UHD sehen werden, lässt sich das VRAM-Problem einfach durch mehr VRAM lösen.
Stärkeres Speicherinterface würde helfen. RTX 4000 war da ja - außer bei der 4090 - eher rückschrittlich (bspw. 256bit anstelle von 320bit bei der 4080 im Vergleich zur 3080 und 198bit anstelle von 256bit bei 4070/3070).aber es ist ja auch ne Bandbreiten Frage (Vram, PCiX ect..diverse Schnittstellen halt)
Videos sind aber keine Videospiele. Das ist leider ein Äpfel-Birnen-Vergleich. Nvidias neuer Zauberstaub hört sich für mich ohnehin nach zu viel Aufwand für die Spieleentwickler an. Da wir ohnehin schon zu viele Releases unfertiger Spiele haben, ist das m.E. eher ein Negativpunkt.Und wenn man Mal in Richtung Video Bereich schielt sieht man ja das entsprechende Codecse wie zb AV1 kein Bullshit sind
Ein großeres Speicherinterface hat andere Nachteile (Stromverbrauch.. DIE Fläche ect)Stärkeres Speicherinterface würde helfen. RTX 4000 war da ja - außer bei der 4090 - eher rückschrittlich (bspw. 256bit anstelle von 320bit bei der 4080 im Vergleich zur 3080 und 198bit anstelle von 256bit bei 4070/3070).
Wie wissen noch gar nicht wie das umgesetzt ist..Nvidias neuer Zauberstaub hört sich für mich ohnehin nach zu viel Aufwand für die Spieleentwickler an. Da wir ohnehin schon zu viele Releases unfertiger Spiele haben, ist das m.E. eher ein Negativpunkt.
Stärkeres Speicherinterface würde helfen. RTX 4000 war da ja - außer bei der 4090 - eher rückschrittlich (bspw. 256bit anstelle von 320bit bei der 4080 im Vergleich zur 3080 und 198bit anstelle von 256bit bei 4070/3070).
Das was du forderst versucht jedes Unternehmen zu vermeiden wo es geht.Klingt für mich nach hartem Bullshit.
Da wir auf absehbare Zeit sicherlich keine höheren Auflösungen als UHD sehen werden, lässt sich das VRAM-Problem einfach durch mehr VRAM lösen. Da hätte man weniger Entwicklungszeit in ein neues (und sicherlich proprietäres) Feature stecken müssen, das man sich von den Kunden fürstlich versilbern lassen wird - RTX 4000 ist ja nicht schon überteuert genug. Am Ende wird's dann das Alleinstellungsmerkmal von RTX 5000, um die Spielerschaft zu teuren Upgrades zu zwingen. Top!
Wie wissen noch gar nicht wie das umgesetzt ist..
Nicht immer alles negativ denken und sehen
Ich kann euch ja verstehen, aber: Es ist Nvidia. Es wird eine proprietäre Lösung sein, die helfen wird, Nvidias Position als Monopolist zu festigen. Egal, wie toll das kurzfristig sein mag, langfristig ist das für den Verbraucher eine Katastrophe.Das was du forderst versucht jedes Unternehmen zu vermeiden wo es geht.
Wenn du die Wahl zwischen mehr HW oder eine effizientere Software hast, ist die Entscheidung eigentlich immer effizientere Software. Zumindest wenn die Kosten in einer ähnlichen Größenordnung sind. Eine solche Softwarelösung entwickelst du nur einmal. Sprich solltest du bspw. mehr Karten verkaufen als erwartet dann sparst du die Kosten ggü. einer Hardwarelösung, da du nicht bei jeder Karte den höheren VRAM Bedarf bezahlen musst. Bei einer Lösung die auch zukünftig genutzt werden kann sind die Potentiale sogar noch höher.
Wie viel der Ansatz wirklich bringt wird man sehen müssen aber ich denke dass wir da in Zukunft mehr sehen werden.
Ich kann euch ja verstehen, aber: Es ist Nvidia. Es wird eine proprietäre Lösung sein, die helfen wird, Nvidias Position als Monopolist zu festigen. Egal, wie toll das kurzfristig sein mag, langfristig ist das für den Verbraucher eine Katastrophe.
Die Frage ist für mich eher, wie lange AMD noch durchhält, denn AMD scheint's derzeit nicht allzu gut zu gehen.Entwicklung ist immer gut und AMD hat auch schon viel nachgebaut bzw. später dann auch gebracht. Klar kannst du GSync und DLSS verteufeln, aber nur deswegen haben wir auch FreeSync und FSR bekommen. Am Ende profitieren alle davon. Früher musste man eine neue Grafikkarte kaufen, heute stellt man DLSS/FSR auf on.
Die Frage ist doch, wo sich diese Technik sinnvoll einsetzen lässt? Dieser Detailgrad wird zumindest in schnellen Games keiner benötigen.
Des weiteren liegt hier iwann ein Limit der Tensor-Cores vor. Inbesondere wenn diese dann schon mit RT + DLSS + … beschäftigt sind.
Und zum Thema Speicherbedarf: Bei einer 4090 bestimmt kein Problem. Bei den Karten < 4090 hat Nvidia den Speicher der Karten eigentlich immer „Spitz-auf-Knopf“ genäht, da kann jedes weitere MByte richtig weh tun.
Und da frage ich mich wie diese Technologie, die mehr Speicher benötigt, helfen soll „die Limitierungen bei verfügbarem Grafikspeicher zu umgehen.“ Häh?
Also, diese Lobeshymnen in diesem Artikel kann ich nicht nachvollziehen.
Ach nicht? Hier wird doch dauernd rumgeheult, weil Nvidia mit dem VRAM knausert und jeder unbedingt Ultratexturen haben will.Die Frage ist doch, wo sich diese Technik sinnvoll einsetzen lässt? Dieser Detailgrad wird zumindest in schnellen Games keiner benötigen.
Dann gibts demnächst also noch eine Stufe über "ultra" beim Texturenregler? ^^
Auch das ist nicht wirklich etwas verwerfliches. Die wenigsten Lösungen sind offen.Ich kann euch ja verstehen, aber: Es ist Nvidia. Es wird eine proprietäre Lösung sein, die helfen wird, Nvidias Position als Monopolist zu festigen. Egal, wie toll das kurzfristig sein mag, langfristig ist das für den Verbraucher eine Katastrophe.
Die Frage ist für mich eher, wie lange AMD noch durchhält, denn AMD scheint's derzeit nicht allzu gut zu gehen.
Auch das ist nicht wirklich etwas verwerfliches. Die wenigsten Lösungen sind offen.
Nvidia ist nun der erste der vorgeht, während Intel und AMD das ganze genau analysieren und ihrerseits Lösungen vorantreiben wenn es sich lohnt.
Auch wenn du mit deinen Punkten prinzipell recht hast, beurteile ich das für die Gegenwart und eben nicht mit aufgestockten Tensore-Cores, 48 GByte RAM und was die nächsten Gens an GPUs evtl. vielleicht evtl. noch bringen könnten.Lustig, dass du dir de Antwort quasi selbst gegeben hast.
Langsame und gemütliche Spiele.
Die kann man aufstocken.
Eine Texturkompression führt dazu, dass sie weniger VRAM benötigen und nicht mehr.
Es ist doch toll, wenn man künftig, mit einer 48GB Karte eine ähnliche Qualität, wie mit einer 128GB Karte bekommt.
Du hast den Artikel nicht verstanden.
Und ich kann nicht nachvollziehen, warum hier immer gemeckert wird, wenn es etwas neues gibt, anstatt sich darüber zu freuen.
Die assets müssen natürlich in unterschiedlichen Formaten ausgeliefert werden, damit das funktioniert.Denkt dran: Die Methode nimmt an bzw. setzt voraus, dass alle Texturen die gleiche Größe haben...
Keine Verwunderung bei mir.Klingt für mich nach hartem Bullshit.
Es ist also besser Ressourcen zu verschwenden anstatt mit Technologie vorhandene besser zu nutzen?Da wir auf absehbare Zeit sicherlich keine höheren Auflösungen als UHD sehen werden, lässt sich das VRAM-Problem einfach durch mehr VRAM lösen.
Proprietär muss das nicht sein.(und sicherlich proprietäres) Feature stecken müssen,
Wie wird man denn zum Kauf einer GPU gezwungen? Rollt der CEO mit vorgehaltener Pistole unter dem Weihnachtsbaum hervor?Am Ende wird's dann das Alleinstellungsmerkmal von RTX 5000, um die Spielerschaft zu teuren Upgrades zu zwingen. Top!