• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Direct Storage in Windows 11: SSD-Turbo kommt nicht für Windows 10

raPid-81

Software-Overclocker(in)
Und sie alle haben mindestens eines von zwei Problemen. Entweder schmecken sie nicht nach Zucker, sondern sind einfach nur süß, mir diversen Beigeschmäckern, von metallisch bis bitter oder sie verursachen massiven Durchfall.

Bisher muß man einen Tod sterben, such dir aus welchen.

Kann ich nur bestätigen. Xylit und Erythrit sind geschmacklich noch das angenehmste, wirken aber leider abführend. Das kann man wirklich nur in geringen Mengen verwenden.
Nennt sich das dann "DirectUnstorage" oder "DirectExhaust"? :D
 

lapp-ron1

Schraubenverwechsler(in)
...
Die 2TB hat ne höhere TBW von 480 die 1TB nur die Hälfte. (ansonsten gibts ja noch 3 Jahre Garantie)
...
Ist aber beides gleich schlecht. Beide kannst du nur 240x komplett beschreiben.
3 Garantie gibt es meines Wissens nach nur falls die TBW noch nicht erreicht wurden. Zumindest meine ich z.B. bei Samsung etwas von "warranty: x years OR TBW" gelesen zu haben.
 

Locuza

Lötkolbengott/-göttin
Warum benötigt man dazu eine NVMe SSD? Wenn es nur ums Lesen geht ist eine Sata SSD doch nicht viel langsamer, oder doch?
Weil SATA-SSDs auf den veralteten AHCI-Standard von 2004 setzen, während NVMe mehrere neue Funktionen anbietet, welche von DirectStorage ausgenutzt werden, um das Daten-Streaming deutlich effizienter zu gestalten.
Unter AHCI gibt es nur eine Befehlsschlange, welche 32 Befehle enthalten kann.
NVMe dagegen bietet 64K Queues mit jeweils 64K Befehlen, weswegen es möglich ist wesentlich mehr I/O-Operationen durchzuführen.
Die Lesegeschwindigkeit war nicht das entscheidende Merkmal, sondern das direkte ausnutzen der Command-Queues, wovon es wesentlich mehr gibt und womit man den Datenverkehr wesentlich breiter aufstellen kann.

Ein Blogeintrag von Microsoft hat es angesprochen:
https://devblogs.microsoft.com/directx/directstorage-is-coming-to-pc/
 

restX3

Software-Overclocker(in)
Hat sich nichts geändert bei M$.
Dann hab ich fertig seit Win 95 dabei. Allein schon der TPM Zwang reicht mir, um nicht auf Win 11 zu wechseln.
Win 10 wird mein letztes Windows bleiben.
 

MADman_One

PCGHX-HWbot-Member (m/w)
Damit wird es sich endgültig nicht durchsetzen, zumindest nicht in den nächsten Jahren.
Das ist mir zu pauschal schwarzgemalt, wir wissen nichts über die Komplexität der Implementierung. MS kann sich immer noch umentscheiden und für die Spielehersteller kann sich auch rausstellen, daß es kein Problem ist, DS optional mit einzubauen und dann Leute ohne Windows 11 auf einen älteren Pfad zu setzen. Für die Konsolen werden sie vielelicht so oder so nicht drum herum kommen DS einzubauen.

Ich würde daher mal abwarten.

Denke ich nicht. Windows 11 wird ja wieder ein kostenloses Update sein.
Sobald 11 am Markt ist, wird 10 schnell an Marktanteil verlieren.

Ich denke die meisten Win 10 Benutzer werden schnell umsteigen. Klar wird es auch wieder die verweigerer geben, aber das sollten deutlich weniger sein als noch von Win7 zu Win10 .
Sehe ich ähnlich. Die Leute die noch W7 benutzen haben meist einen persönlichen Grund dafür gehabt und was ich gehört habe scheint sich das auch bei W11 nicht gebessert zu haben.
Wer dagegen mit W10 klarkommt, sollte wenig Probleme mit W11 haben, es sei denn die Systemvorraussetzungen geben es einfach nicht her. Und da denke ich auch, daß diese Gruppe eher kleiner sein wird. Ich räume einem verbreiteten Update von W10 auf W11 daher auch gute Chancen ein.

Wann gab es zuletzt ein Windows-Update, ohne irgendwelche Nachteile?
Vielleicht von Windows Vista auf Windows 7, aber ab dann war schon Schluss damit.
Ich hatte keine Nachteile von W7 auf W10 von denen ich wüßte. Das was mich gestört hatte konnte ich per Tools fixen. Es war nie nmeine Erwartung das ich alles unverändert in ein neues OS übernhemen kann, weder meine Programme noch meine Gewohnheiten. Es ist oft einfach eine Einstellungssache. Sowohl im System als auch im Kopf.

Das gibt es bis heute noch nicht, jedenfalls nicht ohne massiven Durchfall. Entweder es schmeckt nicht wirklich nach Zucker oder man verbringt eine lange Zeit auf dem Klo. (wenn man mehr als 50gr gegessen hat)

Wer das hinbekommt, der hätte den Nobelpreis verdient.
Ist aus meiner Sicht ein gutes Beispiel dafür, warum pauschale Ansätze problematisch sind. Ich habe vor zwei Jahren z.B. ausfühliche Experimente im Selbstversuch mit allen möglichen Süßstoffen in allen möglichen zuckerbasierten Speisen durchgeführt und dabei festgestellt, daß einige der langläufigen Aussagen auch auf mich zutreffen, andere dagegen nicht (ich kann Sucralose z.B. nicht von Zucker unterscheiden und Erytrith verursacht selbst bei größeren Mengen (mehr als 100g) keinen Durchfall bei mir, Xylit dagegen schon). Es gibt nicht das eine Richtig und Falsch für alle.
Auch bei Windows 11 wird das so sein. Es ist aus meiner Sicht noch viel zu früh für endgültige Festlegungen. In wenigen Stunden seit der Ankündigungen haben sich die Systemvorraussetzungen schon ein paar Mal geändert bzw wurden korrigiert. Ich würde mich daher auch jetzt nicht wundern, wenn auch da das letzte Wort noch nicht gesprochen ist.

Und sie alle haben mindestens eines von zwei Problemen. Entweder schmecken sie nicht nach Zucker, sondern sind einfach nur süß, mir diversen Beigeschmäckern, von metallisch bis bitter oder sie verursachen massiven Durchfall.
Auch hier hat das meiner Meinung nach zumindest teilweise mit unser Engstirnigkeit zu tun. Warum muss eigentlich alles exakt wie Zucker schmecken ? Kann man sich nicht auch an eine andere Form von süß gewöhnen und das mit der Zeit als normal empfinden ? Unseren Körper interessiert am Zucker der Energiegehalt, nicht der Geschmack. Es gibt also keinen biologischen Grund warum Süße wie Zucker schmecken muss, wir sind einfach nur so konditioniert. Ich habe lange Zeit die meisten "Zero" Produkte gehaßt, mittlerweile kann ich bei vielen bei einer Blindverkostung keine eindeutige Zuordnung mehr vornehmen. Alles Konditionierung.

Gleiches gilt auch hier wieder für das eigentliche Thema. Wir erwarten von einem OS, daß es möglichst alle Funktionen die wir toll finden auch in zukünftigen Versionen noch hat und nur tolle neue Sachen oben drauf kommen. Wir wollen uns nicht umstellen oder umgewöhnen oder uns von etwas trennen. Langfristig führt so ein Verhalten aus meiner Sicht aber zu Stagnation, weil es die Weiterentwicklung in jeder Hinsicht bremst.

Ich finde die grundsätzliche Idee hinter Windows 11 gut und würde daher zuerst versuchen, eine Lösung im neuen System für meine Anforderungen zu finden statt darauf zu bestehen, daß meine alten Anforderungen weiterhin funktionieren. Denn wenn man nur wegen dem Aufwand Migrationen immer weiter aufschiebt, dann kommt man irgendwann an den Punkt, an dem man aus einem nicht umgehbaren Grund wechseln muss und dann plötzlich Lösungen auch noch für alle anderen eigenen Anforderungen braucht. ich stelle mich daher lieber frühzeitg auf Neues um und schmeiße altes über Bord, das macht mich anpassungsfähiger.

Ich beobachte die W11 Entwicklung daher erst mal weiter, bis November ist noch Zeit.

Kann ich nur bestätigen. Xylit und Erythrit sind geschmacklich noch das angenehmste, wirken aber leider abführend. Das kann man wirklich nur in geringen Mengen verwenden.
Kann ich nicht bestägigen, mein Körper reagiert völlig anders auf Xylit als auf Erythrith. Bei Xylith habe ich ab 20g gerne eine Toilette in Sichtweite, bei Erytrith dagegen passiert selbst bei mehr als 100g bei mir noch nichts. Ist alles nicht so pauschal wie es immer dargestellt wird, Menschen sind verschieden. So auch ihre Anforderungen an ein gutes OS.
 

RX480

Lötkolbengott/-göttin
Ist aber beides gleich schlecht. Beide kannst du nur 240x komplett beschreiben.
3 Garantie gibt es meines Wissens nach nur falls die TBW noch nicht erreicht wurden. Zumindest meine ich z.B. bei Samsung etwas von "warranty: x years OR TBW" gelesen zu haben.
Das 2TB Gaming-LW werde ich bestimmt net so oft komplett beschreiben. = vollkommen an den Haaren herbeigezogen !!!
direct storage liest nur und mit SamplerFeedback wird die Datenmenge sogar noch geringer
daher
Gibts keinen Anlass für sündhaft teure "bessere" M2.

240 x 2000GB / 100GB-Game = 2.400 große Games !? (bei 41,67h Spielzeit je Game = 100.000h = 25.000d bei ca. 4h täglich)
Bis ich das auf der Platte hätte, geschweige denn gespielt, gibts längst neue Hardware.
 
Zuletzt bearbeitet:

BlubberLord

Komplett-PC-Aufrüster(in)
Ist aber beides gleich schlecht. Beide kannst du nur 240x komplett beschreiben.
3 Garantie gibt es meines Wissens nach nur falls die TBW noch nicht erreicht wurden. Zumindest meine ich z.B. bei Samsung etwas von "warranty: x years OR TBW" gelesen zu haben.
Das habe ich bei der vorherigen Diskussion auch nicht verstanden.
2 TB SSD haben bei Verwendung der gleichen Chips eine doppelt so hohe TBW wie 1 TB? You don't say.
Sinn ergibt es eben nur wenn man die Platte nur halb voll macht bzw. generell wenig schreibt. Dann hält die große 800 Jahre ist aber nie mehr als halb voll – Glückwunsch zur Investition!
Ich hoffe sie bekommen es Mal gebacken auch mehr RAM beim spielen anzusprechen.. hab seit 2015 32gb Arbeitsspeicher und viele Games nutzen davon vielleicht 10-12gb und lagern auf die Festplatte aus anstatt erst den RAM voll zu machen..
Genau das bemängele ich auch. In Spielen sehe ich nachladende Texturen und lange Ladezeiten ohne dass mein RAM ansatzweise ausgelastet ist.
Ein User widersprach dann aber, dass DirectStorage ja viel schneller sei und RAM somit unnötig.
Das kann ich mir aber nicht erklären, dass Daten aus dem RAM in den VRAM länger brauchen als von der SSD in den VRAM. Oder hat da jemand einen Erklärung für?
 

RX480

Lötkolbengott/-göttin
Das habe ich bei der vorherigen Diskussion auch nicht verstanden.
2 TB SSD haben bei Verwendung der gleichen Chips eine doppelt so hohe TBW wie 1 TB?
Die TBW 480 besagt = 480 Terabyte können garantiert geschrieben werden.(auf der 2TB)

Bill Gates: "man wird nie mehr als 1MB Hauptspeicher brauchen"
Vllt. gibts ja noch nen ähnlichen Irrtum bei der Speichermenge von Games?
(statt 50GB dann nearly1000GB je Game, womit die komische Größenangabe von Gestern wieder erklärbar wäre)
 
Zuletzt bearbeitet:

TheGoodBadWeird

Software-Overclocker(in)
Ganz tolle Sache ...
Habe hier jeweils eine Gen3 NVme mit 128GB @2,2GB read und eine 512GB @3,3GB read.

Vor einiger Zeit habe ich mir die für DirectStorage geholt. Mit dem nötigigen Umstieg auf Windows 11 ist mir die Lust allerdings vergangen. Microsoft ist aktuell komplett auf dem Trip.

Weiß jetzt nicht ob die Metzchen aus Redmond noch mitmache oder wie meine Kollegen auf Linux wechsle. Hab die Faxen ernsthaft dicke!
 

ZeroZerp

Freizeitschrauber(in)
Das kann ich mir aber nicht erklären, dass Daten aus dem RAM in den VRAM länger brauchen als von der SSD in den VRAM. Oder hat da jemand einen Erklärung für?
Es kommt auf die Zwischenstationen an.

Derzeit werden die Daten x- Fach unter Kosten von CPU- Zyklen zwischen den storage tiers hin- und hergeschoben. Komprimiert/Dekomprimiert. Zudem ist ein Threading/Queuing schwierig bzw. muss der Entwickler bis jetzt sein eigenes System dazu entwickeln.
Datenträger->CPU->RAM->CPU (Dekompression) -> VRAM

Zukünftig
Datenträger->Per DMA/Pipelining ins VRAM ->Dekompression on demand auf der GPU
Automatisiertes + Erweitertes Queuing/Threading

Somit umgehst Du Flaschenhälse, entlastest CPU, Busse usw. usf.

Auch wenn Du im klassischen Sinne den VRAM nutzen würdest, müssen die Daten da irgendwie rein. Somit bliebe bis auf Umwege und Mehrfachverarbeitung auch dort die SSD der begrenzende Faktor.

Wenn Du den RAM als direct storage Massenspeicher verwenden würdest, wäre dieser als last storage tier aber natürlich nochmal schneller als eine SSD.
Das würde aber irgendwie dem Sinn der ganzen Geschichte widersprechen.
Man will ja dadurch teuren, aufwändig zu betreibenden Speicherverkehr effizienter und günstiger machen.
 

ToZo1

Freizeitschrauber(in)
Also tausche ich die Fähigkeit, alte 32bit-Software (wie alte Spiele) nutzen zu können und mich mit TPM2.0 noch besser kontrollieren und überwachen zu lassen gegen jetzt *Trommelwirbel und Tusch* runde Ecken, ein unpraktisch Apple nachäffendes Startmenü, eine noch verhunztere Systemsteuerung und DirectStorage als vermeindliches Leckerli "vollkommen kostenlos" ein?
Nö danke, ich verzichte, denn ich finde diesen Trade nicht sonderlich vorteilhaft für mich als Kunden ...
 

raPid-81

Software-Overclocker(in)
Genau das bemängele ich auch. In Spielen sehe ich nachladende Texturen und lange Ladezeiten ohne dass mein RAM ansatzweise ausgelastet ist.
Ein User widersprach dann aber, dass DirectStorage ja viel schneller sei und RAM somit unnötig.
Das kann ich mir aber nicht erklären, dass Daten aus dem RAM in den VRAM länger brauchen als von der SSD in den VRAM. Oder hat da jemand einen Erklärung für?

Um das zu beantworten muss man ziemlich ausholen. Ich mach eine hoffentlich kurze Liste:

1. Warum werden Texturen gestreamt? Man könnte ja alles in den RAM laden. Mit 64-256 (je nach Spiel sogar mehr) GB RAM könnte man das tatsächlich. Mit der alten Storage-API und den aktuellen Übertragungsraten würde das dann aber auch erst mal zu einer längeren Ladezeit am Anfange führen. Effizient ist das auch nicht gerade, man erschlägt alles mit Speicher, davon abgesehen hat nur ein Bruchteil der Spieler so viel RAM verbaut. Deswegen streamt man seit langer Zeit die Texturen je nach Bedarf im benötigten MIP Level. Wer mehr dazu wissen möchte, hier mal lesen: https://forum.xboxera.com/t/a-more-detailed-insight-about-sampler-feedback-streaming/3543

2. DirectStorage ermöglicht eine viel effizientere Methode die benötigten Daten von einer schnellen SSD in den RAM (bei RTX IO direkt in den VRAM) zu kopieren. Durch die parallelen Queues und verringerten IO CPU Overhead reduziert man nebenbei noch die CPU Last.

3. Mit DirectStorage werden die Daten komprimiert (2-fache Komprimierung) von der Quelle zum Ziel übertragen. Mit der alten API hat man die Daten komprimiert in den RAM kopiert, dort einmal per CPU entpackt (was relativ ineffizient ist), dann in den VRAM kopiert (was noch mal CPU Last erzeugt, außerdem sind die Daten nur noch 1-fach komprimiert), und dort konnte dann die GPU darauf zugreifen. DirectStorage "erhöht" also die Bandbreite um den Faktor 2, heißt man kann jetzt doppelt so viele / große Texturen in derselben Zeit dorthin kopieren wo sie hin sollen. Die GPU's ab RDNA1 / Turing unterstützen die direkte 2-fach-Dekomprimierung im VRAM.

4. Sampler Feedback Streaming ist direkt gekoppelt mit DirectStorage, ohne funktioniert es nicht. Die neue Streaming-Pipeline ermöglicht eine Reduktion des VRAM-Bedarfs um bis zu 70%.


Ganz tolle Sache ...
Habe hier jeweils eine Gen3 NVme mit 128GB @2,2GB read und eine 512GB @3,3GB read.

Vor einiger Zeit habe ich mir die für DirectStorage geholt. Mit dem nötigigen Umstieg auf Windows 11 ist mir die Lust allerdings vergangen. Microsoft ist aktuell komplett auf dem Trip.

Weiß jetzt nicht ob die Metzchen aus Redmond noch mitmache oder wie meine Kollegen auf Linux wechsle. Hab die Faxen ernsthaft dicke!

Na dann viel Spaß beim zocken per Linux. Ich weiss es geht, aber leider weiterhin mit Einschränkungen. Immerhin gibt's bald DLSS (und FSR) auch für Linux User per Vulkan API.
 

perupp

Software-Overclocker(in)
Also als ich vor 3,5 Jahren (!) von 400 GB auf 800 GB aufgerüstet habe, galt das schon nicht mehr unbedingt als "viel". Heute enthält selbst der günstigste PCGH-PC ein 1-TB-Modell und solange die Unterstützung nicht rückwirkend für alte Grafikkarten (und alte Spiele) kommt, betrifft sie in erster Linie Neukäufe und nicht den Bestand aus NVME-Anfangstagen. Ich finde die Grenze zwar auch reichlich merkwürdig, aber wirklich störend ist sie eigentlich nur für Leute, die ausgehend von einer kleinen SSD eine zweite kleine nachgerüstet haben, anstatt eine Große neu zu kaufen. Wer insgesamt mit wenig Speicherplatz auskommt, das heißt nur kleine Spiele hat, braucht sowieso kein Direct Storage, weil die Spiele dann komplett oder größtenteils in den RAM passen. (Nicht dass ich der Meinung wäre, dass irgendwer anders mit RAM DiSt brauchen würde.^^)

Great: Text veraltet, bevor ich auf "antworten" klicken kann




Sind bislang irgendwelche Verschlechterungen von Windows 11 gegenüber 10 bekannt? Alles was ich bislang gesehen habe, ist die Ergänzung von ein paar Features und Optik-Optionen. Im Prinzip nichts weiter als ein größeres Update für Windows 10 (als eben solches wurden die Neuerungen diesen Herbst auch lange erwartet), nur halt mit neuem Namen. Die neuen Features für alte Win-1x-Versionen zu bringen ist also genauso überflüssig, wie die des letzten Updates für Win 10 1703 auszurollen. Wer "das neue Windows" haben will, kann doch einfach "das neue Windows" nutzen? Im Gegensatz zu Windows-8.1- oder gar -7-Nutzern entstehen Leuten, die Windows 10 schon haben, beim Wechsel auf 11 keine Nachteile.




Die billigste 1-TB-QLC-SSD kostet 75 Euro. Soviel hat man früher schon für das Update auf ein neues Windows selbst bezahlt und wer wirklich 480 GB (45 Euro) oder 240 GB (30 Euro) nutzt, der hat halt sowohl von der Schreibleistung als auch des Anschaffungspreises her ein Einwegprodukt. Umgekehrt wir gerade Optane, dass mit vielen Schreibvorgängen große Probleme hätte, vor allem in kleinen Größen verbaut.

Aber davon abgesehen: Direct Storage soll vor allem/ausschließlich Ladevorgänge bei viel zu kleinem RAM beschleunigen. Wieso sollten dadurch die Schreibzyklen deutlich zunehmen?
1-TB-QLC-SSD......


Davon würde ich persönlich abraten...
Lieber eine schnelle 3 Bit SSD mit 512 GByte statt eine 1TB 4 Bit SSD...

Die schreibleistung nach den SLC Catche lässt doch sehr zu wünschen übrig
Deswegen verstehe ich auch nicht warum du meinst eine 480 GB SSD ist von der Schreibleistung ein Einwegprodukt...
Die tbw sind meistens höher als von einer 1 tb QLC
 

PCGH_Torsten

Redaktion
Teammitglied
2. DirectStorage ermöglicht eine viel effizientere Methode die benötigten Daten von einer schnellen SSD in den RAM (bei RTX IO direkt in den VRAM) zu kopieren. Durch die parallelen Queues und verringerten IO CPU Overhead reduziert man nebenbei noch die CPU Last.

3. Mit DirectStorage werden die Daten komprimiert (2-fache Komprimierung) von der Quelle zum Ziel übertragen. Mit der alten API hat man die Daten komprimiert in den RAM kopiert, dort einmal per CPU entpackt (was relativ ineffizient ist), dann in den VRAM kopiert (was noch mal CPU Last erzeugt, außerdem sind die Daten nur noch 1-fach komprimiert), und dort konnte dann die GPU darauf zugreifen. DirectStorage "erhöht" also die Bandbreite um den Faktor 2, heißt man kann jetzt doppelt so viele / große Texturen in derselben Zeit dorthin kopieren wo sie hin sollen. Die GPU's ab RDNA1 / Turing unterstützen die direkte 2-fach-Dekomprimierung im VRAM.

4. Sampler Feedback Streaming ist direkt gekoppelt mit DirectStorage, ohne funktioniert es nicht. Die neue Streaming-Pipeline ermöglicht eine Reduktion des VRAM-Bedarfs um bis zu 70%.




Na dann viel Spaß beim zocken per Linux. Ich weiss es geht, aber leider weiterhin mit Einschränkungen. Immerhin gibt's bald DLSS (und FSR) auch für Linux User per Vulkan API.

Korrigiere mich, wenn ich falsch liege, aber Direct Storage ermöglicht KEINE direkten Transfer von SSD-Daten in den normalen RAM, sondern ausschließlich in den VRAM und ausschließlich mit Dekomprimierung via GPU, ohne Spezialeinheiten also via Shader. Dementsprechend kann es auch nur in Szenarien, in denen herkömmliche PC-Renderer an mangelnder RAM-Größe (respektive -Nutzung) oder CPU-Leistung leiden Vorteile bringen, während es bei mangelnder VRAM-Kapazität oder mangelnder Shader-Leistung sogar Nachteile schafft.

Was auf alle Falle falsch ist: Die Annahme einer um Faktor zwei erhöhten Datentransferrate durch die Aufrechterhaltung der doppelten Kompression bis in den VRAM. Das wäre nur gegeben, wenn der Kompressionsfaktor der zweiten Stufe exakt 2 beträgt und wenn die Datentransferrate zwischen RAM und VRAM im bisherigen System limitierend war. Das ist aber nicht der Fall. PCs haben zwischen Arbeitsspeicher und GPU seit längerem mindestens die vierfache Datentransferrate (×4- vs. ×16-Link), in ettlichen Fällen sogar die sechs- bis achtfache (NVME-SSD reizt ihren PCI-E-Standard nicht aus oder hat sogar einen niedrigeren als die Grafikkarte) und in Extremfällen bis zur 16-fachen (lahme 2-GB/s-SSD in einem System mit PCI-E-×16-4.0 zur GPU). Das heißt Direct Storage könnte die reine Transferrate nur steigern, wenn die zweite Komprimierungsstufe die Texturen auf 25 bis unter 10 Prozent der Größe nach der ersten Komprimierung reduzieren würde, was aber vollkommen utopisch ist. Somit ist der einzige Unterschied zwischen Systemen mit Direct Storage und ohne die Senkung der RAM- zu Lasten der VRAM-Anforderungen und die Entlastung der CPU von Entpackaufgaben zu Lasten der GPU.
 

ToZo1

Freizeitschrauber(in)
32b Anwendungen gehen doch weiterhin...
Hieß es nicht, daß die 32bit-Fähigkeit entfernt wird oder verstehe ich das mit dem 32bit-Support nur falsch?

"Vielmehr könnte die Entscheidung zugunsten einer gänzlich neuen Betriebssystem-Version aus anderen Gründen getroffen worden sein: So dem Absägen des bei Windows 10 immer noch mitgeschleppten 32-Bit-Supports, welcher bei Windows 11 nun augenscheinlich wegfällt."

Quelle: http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-16-juni-2021
 

blautemple

Lötkolbengott/-göttin
Hieß es nicht, daß die 32bit-Fähigkeit entfernt wird oder verstehe ich das mit dem 32bit-Support nur falsch?

"Vielmehr könnte die Entscheidung zugunsten einer gänzlich neuen Betriebssystem-Version aus anderen Gründen getroffen worden sein: So dem Absägen des bei Windows 10 immer noch mitgeschleppten 32-Bit-Supports, welcher bei Windows 11 nun augenscheinlich wegfällt."

Quelle: http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-16-juni-2021

Da geht es nur um die 32-Bit Version des Betriebssystems. 32-Bit Anwendungen sind natürlich noch immer möglich.
 

Pu244

Lötkolbengott/-göttin
Das ist mir zu pauschal schwarzgemalt, wir wissen nichts über die Komplexität der Implementierung. MS kann sich immer noch umentscheiden und für die Spielehersteller kann sich auch rausstellen, daß es kein Problem ist, DS optional mit einzubauen und dann Leute ohne Windows 11 auf einen älteren Pfad zu setzen. Für die Konsolen werden sie vielelicht so oder so nicht drum herum kommen DS einzubauen.

Hier sind zwei Dinge, die sich gegenseitig verstärken. Zum einen muß der Entwickler das ganze mühselig einbauen, damit es richtig funktioniert und zum anderen ist es nicht allen zugänglich. Weil es nicht allen zugänglich ist, machen sich wenige Entwickler die Mühe das ganze sinnvoll zu impelentieren. Weil es keinen großen Nutzen gibt, wechseln wenige auf Win 11, was das ganze nochmal verstärkt.

Das Gegenbeispiel wäre AMDs FFX. Angeblich leicht zu implementieren und alle profitieren davon, selbst meine GTX 670. Das könnte DLSS langfristig das Genick brechen.

Hieß es nicht, daß die 32bit-Fähigkeit entfernt wird oder verstehe ich das mit dem 32bit-Support nur falsch?

Man kann es nur nichtmehr auf 32Bit CPUs installieren, die Anwendungen laufen weiterhin.
 

RX480

Lötkolbengott/-göttin

Mit alten CPU´s und Boards wird auch noch TPM 2.0 interessant, wenns net im Bios einzuschalten geht.
Falls man net aufrüsten möchte hilft dann nur ein Modul. (hier war ein 2700X@B450)
 

Anhänge

  • TPM-Modul.JPG
    TPM-Modul.JPG
    51,1 KB · Aufrufe: 24

raPid-81

Software-Overclocker(in)
Korrigiere mich, wenn ich falsch liege, aber Direct Storage ermöglicht KEINE direkten Transfer von SSD-Daten in den normalen RAM, sondern ausschließlich in den VRAM und ausschließlich mit Dekomprimierung via GPU, ohne Spezialeinheiten also via Shader. Dementsprechend kann es auch nur in Szenarien, in denen herkömmliche PC-Renderer an mangelnder RAM-Größe (respektive -Nutzung) oder CPU-Leistung leiden Vorteile bringen, während es bei mangelnder VRAM-Kapazität oder mangelnder Shader-Leistung sogar Nachteile schafft.
Aus dem MS Dev Blog:

direct-storage.png


Du sprichst von RTX IO welches die Daten, ohne Umweg über den RAM, direkt in den VRAM legt. DirectStorage an sich (ohne Nvidia Erweiterung) arbeitet über den oben zu sehenden "Workflow".

Die Dekomprimierung der Texturen findet bei beiden Techniken innerhalb der GPU statt. Aktuell weiss keiner genau ob dafür dedizierte Recheneinheiten bereits verbaut sind (wie es bei der Xbox der Fall ist), man geht aber davon aus.


rtx-io.jpg


Ich denke da werden sich Nvidia und AMD schon Gedanken zu gemacht haben. Immerhin wird DirectStorage ab RDNA1 / Turing unterstützt.

Es verringert auf jeden Fall die CPU Last durch parallele Bearbeitung und Batch-Calls von Assets. Mangelnde VRAM Kapazität muss man ja erst mal erreichen (aktuell geht das laut euch auch fast nur mit Extrem-Settings), außerdem enabled DirectStorage ja Sampler Feedback Streaming welches den VRAM Bedarf um bis zu 70% senken kann bei gleicher Grafikqualität.


x-times-more-memory.png

Was auf alle Falle falsch ist: Die Annahme einer um Faktor zwei erhöhten Datentransferrate durch die Aufrechterhaltung der doppelten Kompression bis in den VRAM. Das wäre nur gegeben, wenn der Kompressionsfaktor der zweiten Stufe exakt 2 beträgt und wenn die Datentransferrate zwischen RAM und VRAM im bisherigen System limitierend war. Das ist aber nicht der Fall. PCs haben zwischen Arbeitsspeicher und GPU seit längerem mindestens die vierfache Datentransferrate (×4- vs. ×16-Link), in ettlichen Fällen sogar die sechs- bis achtfache (NVME-SSD reizt ihren PCI-E-Standard nicht aus oder hat sogar einen niedrigeren als die Grafikkarte) und in Extremfällen bis zur 16-fachen (lahme 2-GB/s-SSD in einem System mit PCI-E-×16-4.0 zur GPU). Das heißt Direct Storage könnte die reine Transferrate nur steigern, wenn die zweite Komprimierungsstufe die Texturen auf 25 bis unter 10 Prozent der Größe nach der ersten Komprimierung reduzieren würde, was aber vollkommen utopisch ist. Somit ist der einzige Unterschied zwischen Systemen mit Direct Storage und ohne die Senkung der RAM- zu Lasten der VRAM-Anforderungen und die Entlastung der CPU von Entpackaufgaben zu Lasten der GPU.
Ein User hier im Forum hat den Test gemacht, je nach BCn Stufe, kombiniert mit zlib, wurde die Textur bis zu 70% kleiner.

Nvidia spricht von:
This removes the load from the CPU, moving the data from storage to the GPU in its more efficient, compressed form, and improving I/O performance by a factor of 2.
https://www.nvidia.com/en-us/geforce/news/rtx-io-gpu-accelerated-storage-technology/

Und Microsoft auch:
1624651130789.png


Also laut diesen beiden erhöht sich die Performance um Faktor 2 durch die komprimierte Übertragung (oder die gesamte Performance? Das geht nicht so ganz daraus hervor).
 

MADman_One

PCGHX-HWbot-Member (m/w)
Hier sind zwei Dinge, die sich gegenseitig verstärken. Zum einen muß der Entwickler das ganze mühselig einbauen, damit es richtig funktioniert und zum anderen ist es nicht allen zugänglich. Weil es nicht allen zugänglich ist, machen sich wenige Entwickler die Mühe das ganze sinnvoll zu impelentieren. Weil es keinen großen Nutzen gibt, wechseln wenige auf Win 11, was das ganze nochmal verstärkt.
Spechen wir jetzt von DirectStorage oder von DLSS ? Weil bei DirectStroage habe ich keine Informationen bisher wie aufwendig eine Implementierung ist. Wenn die ähnlich einfach ist wie eine Library einzubinden und eine Anfrage umzuleiten kann das einen großen Einfluss auf die Implementierungswahrscheinlichkeit haben.
Wenn es aber so mühsehlig ist wie Du sagst, dann hast Du recht, dann ist das keine gute Sache. Mir wäre so oder so lieber gewesen es kommt auch für W10, denn eine breitere Unterstützung zu haben schadet definitiv nie.
 

Blackfirehawk

Freizeitschrauber(in)
Korrigiere mich, wenn ich falsch liege, aber Direct Storage ermöglicht KEINE direkten Transfer von SSD-Daten in den normalen RAM, sondern ausschließlich in den VRAM und ausschließlich mit Dekomprimierung via GPU, ohne Spezialeinheiten also via Shader. Dementsprechend kann es auch nur in Szenarien, in denen herkömmliche PC-Renderer an mangelnder RAM-Größe (respektive -Nutzung) oder CPU-Leistung leiden Vorteile bringen, während es bei mangelnder VRAM-Kapazität oder mangelnder Shader-Leistung sogar Nachteile schafft.

Was auf alle Falle falsch ist: Die Annahme einer um Faktor zwei erhöhten Datentransferrate durch die Aufrechterhaltung der doppelten Kompression bis in den VRAM. Das wäre nur gegeben, wenn der Kompressionsfaktor der zweiten Stufe exakt 2 beträgt und wenn die Datentransferrate zwischen RAM und VRAM im bisherigen System limitierend war. Das ist aber nicht der Fall. PCs haben zwischen Arbeitsspeicher und GPU seit längerem mindestens die vierfache Datentransferrate (×4- vs. ×16-Link), in ettlichen Fällen sogar die sechs- bis achtfache (NVME-SSD reizt ihren PCI-E-Standard nicht aus oder hat sogar einen niedrigeren als die Grafikkarte) und in Extremfällen bis zur 16-fachen (lahme 2-GB/s-SSD in einem System mit PCI-E-×16-4.0 zur GPU). Das heißt Direct Storage könnte die reine Transferrate nur steigern, wenn die zweite Komprimierungsstufe die Texturen auf 25 bis unter 10 Prozent der Größe nach der ersten Komprimierung reduzieren würde, was aber vollkommen utopisch ist. Somit ist der einzige Unterschied zwischen Systemen mit Direct Storage und ohne die Senkung der RAM- zu Lasten der VRAM-Anforderungen und die Entlastung der CPU von Entpackaufgaben zu Lasten der GPU.
Aha..
Also Brauch ich dann weniger RAM.. weniger CPU Leistung
Dafür wird der Vram voller
 

MTMnet

Software-Overclocker(in)
Windows 7 only SSD Trim Support
Windows 10 only DX12 Support
Windows 11 only Direct Storage Support

Ich sehe da ein Muster... :schief:
 

raPid-81

Software-Overclocker(in)
Aha..
Also Brauch ich dann weniger RAM.. weniger CPU Leistung
Dafür wird der Vram voller
Dass der VRAM dadurch voller wird ist erst mal Spekulation.

Was man bekommt durch DS ist schnellere Ladezeiten (ins Spiel rein, Schnellreisen, etc), der gesamte Asset-Austausch läuft schneller durch Batch-Bearbeitung anstatt serieller Einzel-Bearbeitung von Anfragen.
 

RX480

Lötkolbengott/-göttin
Hol Dir ein TPM 2.0 -Modul falls Dein Board das net per Bios-Software kann.(oder ersetzt einfach die dll)
Wichtig ist nur das Dein Board ein UEFI-Bios haben muss!


btw.
Für den frühen Status funzt W11 schon ganz gut: mit nem UWP-Treiber schneller als mit dem 21.6.1
Tattoo: "Also ich würde jetzt mal sagen Win 11 hat ca 50 Gfx Punkte gebracht in Verbindung mit dem 21.6.1. Mit dem Dev Treiber war ich bei 24.300 . Konnte den aber nicht Validieren ." Bild ist mit dem W10-Treiber 21.6.1 wg. valide

edit: inzwischen ging mit dem 21.6.1 ein mue mehr
 

Anhänge

  • Tattoo@W11.JPG
    Tattoo@W11.JPG
    96,1 KB · Aufrufe: 15
  • TPM-Abfrage_dll.JPG
    TPM-Abfrage_dll.JPG
    45,9 KB · Aufrufe: 14
  • Tattoo@W11.JPG
    Tattoo@W11.JPG
    99 KB · Aufrufe: 11
Zuletzt bearbeitet:

BlubberLord

Komplett-PC-Aufrüster(in)
Um das zu beantworten muss man ziemlich ausholen. Ich mach eine hoffentlich kurze Liste:
[...]
Danke, so war das sehr verständlich!

Demnach bleibe ich bei der Meinung, dass DirectStorage zwar große Vorteile bietet, eine bessere Ausnutzung des RAMs aber auch ordentlich helfen würde da eben die Anbindung vom RAM zu GPU immer noch schneller/breiter ist und eine Station (die SSD) in der Kette fehlt. Wie du sagst quasi DirectStorage mit RAM Disk ;)
Auch wenn das natürlich nur in Nischenszenarien mit VIEL RAM was bringt.

So Videoschnitt- und 3D-Workstations haben den Vorteil, dass sie extrem viel VRAM, RAM und GPU-Leistung brauchen und damit zufällig auch perfekt für's Gaming sind. Außer dass da der RAM leider wirklich untätig bleibt - so kam ich auf die ganze Geschichte :)
 

MTMnet

Software-Overclocker(in)
i7 7820HK nicht mit Windows 11 kompatibel,
es werden weiterhin Windows 10- Updates abgerufen. :wow:
Du brauchst ein aktiviertes TPM 2.0

Es müsste bei dir im Bios eine Einstellung für "TPM" (fTPM / PTT) geben.
In meinem MSI Bios habe ich eine Option dafür. Das muss man dann erstmal Aktivieren.

Erst dann erkennt die Windows 11 update "Überprüfung" das es vorhanden ist.
( Blöd programmiertes MS-"Tool". Microsoft sollte genauere Infos anzeigen und Hilfe geben)

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

Recommented content - Youtube An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt. For more information go to the privacy policy.

ggf. auf ein Bios update warten / bzw. auf die finale Win 11 version (PTT1.2)


Windows 11 Supported Intel Processors

 
Zuletzt bearbeitet:

PCGH_Torsten

Redaktion
Teammitglied
Aus dem MS Dev Blog:

Anhang anzeigen 1367666

Du sprichst von RTX IO welches die Daten, ohne Umweg über den RAM, direkt in den VRAM legt. DirectStorage an sich (ohne Nvidia Erweiterung) arbeitet über den oben zu sehenden "Workflow".

Die Dekomprimierung der Texturen findet bei beiden Techniken innerhalb der GPU statt. Aktuell weiss keiner genau ob dafür dedizierte Recheneinheiten bereits verbaut sind (wie es bei der Xbox der Fall ist), man geht aber davon aus.

Danke für den Hinweis. Der Unterschied war mir in der Tat bislang nicht geläufig. Die meisten bisherigen Direct-Storage-Aussagen gingen von der Xbox oder RTX I/O aus, also ohne Umweg über den Arbeitsspeicher. Wenn man das weglässt, verkommt Direct Storage ja im Prinzip zu einer neuen Texturkompression, sonst nichts: Weiterhin ist nichts "Direct", sondern alles wird über drei Speichersysteme bereitgestellt (Massen-, Arbeits- und Grafikspeicher), nur der Ort der Dekomprimierung wird verlagert. Damit ähnelt PC-Direct-Storage den diversen Texturkomprimierungsintiaitven der GPU-Hersteller, die es in den letzten 20-25 Jahren gab und die dafür gesorgt habe, dass Texturen bereits heute relativ gut gepackt zur Grafikkarte vorliegen. Dem nochmal Faktor 2 oben drauf zu setzen ist nett, aber keine Weltrevolution. Insbesondere Latenzvorteile wird es somit gar eine geben. Spannend bleibt, wie schnell (und wie stromhungrig) das Entpacken durch die GPUs im Vergleich zu den Vorteilen einer effektiv verdoppelten PCI-E-Transferrate und eines effektiv halbierten RAM-Bedarfs wird.

Anhang anzeigen 1367667

Ich denke da werden sich Nvidia und AMD schon Gedanken zu gemacht haben. Immerhin wird DirectStorage ab RDNA1 / Turing unterstützt.

Was nahelegt, dass man mit einer Shader-Implementation arbeitet, denn die Entwicklung dieser Chips muss deutlich vor der von Direct Storage begonnen haben.

Ein User hier im Forum hat den Test gemacht, je nach BCn Stufe, kombiniert mit zlib, wurde die Textur bis zu 70% kleiner.

Nvidia spricht von:

https://www.nvidia.com/en-us/geforce/news/rtx-io-gpu-accelerated-storage-technology/

Und Microsoft auch:
Anhang anzeigen 1367669

Also laut diesen beiden erhöht sich die Performance um Faktor 2 durch die komprimierte Übertragung (oder die gesamte Performance? Das geht nicht so ganz daraus hervor).

Komprimierung um "bis zu" Faktor 3 laut Userbericht und 1,5-4 in anderen Quellen, die ich gesehen habe, passt gut zu einer Steigerung der Übertragungsgeschwindigkeit um Faktor 2. Eine allgemeine Ansage zur Gesamtperformance für alle Spiele und alle GPUs ist dagegen praktisch unmöglich, das Direct Storage nur einen kleinen Teil der Renderpipeline adressiert und somit je nachdem, wie stark der limitiert, kann sich irgendwas zwischen 0 und 100 Prozent Durchschlag auf die Fps geben.


Zum Sampler Feedback: Intelligente Nachladesysteme sind erst einmal unabhängig davon, wie nachgeladen wird. Desweiteren habe ich dazu auch noch keine Beispiele mit realistischen Spiele-Szenen gesehen. Microsofts X-Box-Demo legt nahe, dass es passend zum Namen Feedback vor allem die Eviction nicht benötigter Texturen beschleunigt, was bei exklusiv der GPU zur Verfügung stehendem RAM aber egal wäre.
 

raPid-81

Software-Overclocker(in)
Was nahelegt, dass man mit einer Shader-Implementation arbeitet, denn die Entwicklung dieser Chips muss deutlich vor der von Direct Storage begonnen haben.
RDNA1 / Turing vielleicht per Shader, RDNA2 / Ampere dann in Hardware. Werden wir sehen wenn es verfügbar ist.

Komprimierung um "bis zu" Faktor 3 laut Userbericht und 1,5-4 in anderen Quellen, die ich gesehen habe, passt gut zu einer Steigerung der Übertragungsgeschwindigkeit um Faktor 2. Eine allgemeine Ansage zur Gesamtperformance für alle Spiele und alle GPUs ist dagegen praktisch unmöglich, das Direct Storage nur einen kleinen Teil der Renderpipeline adressiert und somit je nachdem, wie stark der limitiert, kann sich irgendwas zwischen 0 und 100 Prozent Durchschlag auf die Fps geben.
Mehr FPS wird es dadurch eher gar keine geben, aber generell schnellere Ladezeiten (ins Spiel rein, Schnellreisen). Immer dann wenn ein kompletter Asset-Austausch stattfindet sollte die Batch-Bearbeitung und komprimierte Übertragung bis zum Endpunkt das Laden beschleunigen.

Zum Sampler Feedback: Intelligente Nachladesysteme sind erst einmal unabhängig davon, wie nachgeladen wird. Desweiteren habe ich dazu auch noch keine Beispiele mit realistischen Spiele-Szenen gesehen. Microsofts X-Box-Demo legt nahe, dass es passend zum Namen Feedback vor allem die Eviction nicht benötigter Texturen beschleunigt, was bei exklusiv der GPU zur Verfügung stehendem RAM aber egal wäre.
Das sehe ich anders, wenn Sampler Feedback Streaming die niedrigeren MIP-Level eines Assets on-the-fly nachlädt (und so ist es ja erklärt worden), dann geht es hier nicht ohne Verbesserung der IO Rates. Und genau da setzt ja DirectStorage an, ich wiederhole mich: Reduzierung des CPU Overheads und Batch-Bearbeitung von Asset-Calls.
 

PCGH_Torsten

Redaktion
Teammitglied
RDNA1 / Turing vielleicht per Shader, RDNA2 / Ampere dann in Hardware. Werden wir sehen wenn es verfügbar ist.


Mehr FPS wird es dadurch eher gar keine geben, aber generell schnellere Ladezeiten (ins Spiel rein, Schnellreisen). Immer dann wenn ein kompletter Asset-Austausch stattfindet sollte die Batch-Bearbeitung und komprimierte Übertragung bis zum Endpunkt das Laden beschleunigen.


Das sehe ich anders, wenn Sampler Feedback Streaming die niedrigeren MIP-Level eines Assets on-the-fly nachlädt (und so ist es ja erklärt worden), dann geht es hier nicht ohne Verbesserung der IO Rates. Und genau da setzt ja DirectStorage an, ich wiederhole mich: Reduzierung des CPU Overheads und Batch-Bearbeitung von Asset-Calls.

Habe das nie systematisch getestet, aber in den meisten Spielen scheinen mir die Ladezeiten beim Schnellreisen deutlich länger zu sein, als für die Kopie des minimalen/aktiv genutzten VRAM-Inhalts aus dem RAM oder gar von der SSD benötigt werden würde. Das gilt um so mehr als wenn zwischen Gebieten mit ähnlichem Texturset gereist wird. Witcher 3 zum Beispiel benutzt meiner Erinnerung nach maximal 3 GiB VRAM und typischerweise weniger als 2 GiB (ohne Mods), von denen beim Schnellreisen zwischen zwei Punkten in der gleichen Gegend 1,5 GiB identisch zu bestücken sind. Es müssen also weniger als 500 MiB über die 32-GB/s-Verbindung zwischen GPU und CPU transportiert werden, nicht einmal für die Einblendung eines Ladebildschirms reichen würde.

Meine Vermutung: Da werden eher die gesamten anderen Informationen, vor allem die Position diverser Objekte in der Gegend, gespeichert.


Zum Nachladen von Auflösungsstufen: Das wird meinem Wissen nach seit AGP 1.0 unterstützt.
 

raPid-81

Software-Overclocker(in)
Habe das nie systematisch getestet, aber in den meisten Spielen scheinen mir die Ladezeiten beim Schnellreisen deutlich länger zu sein, als für die Kopie des minimalen/aktiv genutzten VRAM-Inhalts aus dem RAM oder gar von der SSD benötigt werden würde. Das gilt um so mehr als wenn zwischen Gebieten mit ähnlichem Texturset gereist wird. Witcher 3 zum Beispiel benutzt meiner Erinnerung nach maximal 3 GiB VRAM und typischerweise weniger als 2 GiB (ohne Mods), von denen beim Schnellreisen zwischen zwei Punkten in der gleichen Gegend 1,5 GiB identisch zu bestücken sind. Es müssen also weniger als 500 MiB über die 32-GB/s-Verbindung zwischen GPU und CPU transportiert werden, nicht einmal für die Einblendung eines Ladebildschirms reichen würde.

Meine Vermutung: Da werden eher die gesamten anderen Informationen, vor allem die Position diverser Objekte in der Gegend, gespeichert.


Zum Nachladen von Auflösungsstufen: Das wird meinem Wissen nach seit AGP 1.0 unterstützt.
Also ich habe z.B. während ich Division 2 gezockt habe eine NVME in mein System eingebaut, das Schnellreisen hat sich alleine dadurch massiv beschleunigt. Ich denke da kommt es auf die Engine an, beim Schnellreisen könnte ich mir einen "complete VRAM flush" vorstellen. Immerhin weiss die Engine (ohne Sampler Feedback) nicht genau welche Texturen in welchem MIP Level gerade im VRAM liegen.

Ja, das Streaming von benötigten MIP-Leveln gibt es schon ewig. Allerdings ist es bis einschließlich PRT (Partial Resident Texture / Virtual Texture) ein "raten" was geladen werden muss. Ich empfehle dazu folgenden Link: https://forum.xboxera.com/t/a-more-detailed-insight-about-sampler-feedback-streaming/3543/3

Da wird auf jedes Streaming-Verfahren eingegangen und Sampler Feedback Streaming erklärt.
 

PCGH_Torsten

Redaktion
Teammitglied
Die Engine weiß nicht, welche Daten noch im VRAM liegen, dass stimmt, weil überschüssiger VRAM vom Treiber selbst in Eigenregie als Cache verwaltet wird. Aber das spielt eben genau deswegen keine Rolle, denn der Treiber ist auch an allen anderen Schritten beteiligt. Die Engine muss nur sagen, was gerendert werden soll – die Daten organisiert sich die GPU dann selbst. (Zumindest solange sie im RAM vorliegen, aber das tun sie auf dem PC eben, wenn der Entwickler keinen Fehler gemacht hat.)

Zum Raten sagt dein eigener Link alles:
"Before Sampler Feedback, the developers lack the ability to optimize things to the absolutely last drop. They could only make some guesses about visibility, importance or so".
Die Entwickler mussten nie raten, welche Mip-Stufe sie von welcher Textur brauchen. Im Gegenteil, das gibt es meinem Wissen nach sogar noch die Engine bevor beziehungsweise sie kann zumindest Vorgaben machen, bis zu welcher Empfehlung der Treiber welche Mip-Stufe wählt. Unbekannt ist nur das "letzte" Detail: Wieviel der geladenen Textur ist überhaupt sichtbar?
Aber das weiß auch SFS erst nachdem die Szene gerendert wurde. Dann können mit SFS Texturteile, die im Moment nicht benötigt werden, wieder aus dem VRAM geschmissen werden, aber zunächst wird die volle Kapazität benötigt. Eventuell kann das mal in Kombination mit hohen Fps-Raten und verzögertem Streaming genutzt werden, um die VRAM-Anforderungen allgemein zu senken (man rendert die Szene einmal in Qualität "Matsch", damit man die sichtbaren Texturbereiche kennt, und lädt diese dann in HD nach). Aber im Moment ist der Trend am PC genau das Gegenteil: Es wird VRAM weit über das für das aktuelle Bild benötigte und sogar über der von der Engine gemeldeten Bedarf hinaus mit alten Texturen als Cache gefüllt, um bei der nächsten Bewegung möglichst nichts über den lahmen PCI-E-Slot nachladen zu müssen.
 

raPid-81

Software-Overclocker(in)
Die Engine weiß nicht, welche Daten noch im VRAM liegen, dass stimmt, weil überschüssiger VRAM vom Treiber selbst in Eigenregie als Cache verwaltet wird. Aber das spielt eben genau deswegen keine Rolle, denn der Treiber ist auch an allen anderen Schritten beteiligt. Die Engine muss nur sagen, was gerendert werden soll – die Daten organisiert sich die GPU dann selbst. (Zumindest solange sie im RAM vorliegen, aber das tun sie auf dem PC eben, wenn der Entwickler keinen Fehler gemacht hat.)
Das ist doch genau der Punkt, wenn die Game-Devs ihr Streaming perfekt optimiert haben dann liegen die passenden Texturen immer dann im RAM wenn sie benötigt werden. SFS optimiert das nun automatisch, immer, ohne Ratespiel.

Zum Raten sagt dein eigener Link alles:
"Before Sampler Feedback, the developers lack the ability to optimize things to the absolutely last drop. They could only make some guesses about visibility, importance or so".
Die Entwickler mussten nie raten, welche Mip-Stufe sie von welcher Textur brauchen. Im Gegenteil, das gibt es meinem Wissen nach sogar noch die Engine bevor beziehungsweise sie kann zumindest Vorgaben machen, bis zu welcher Empfehlung der Treiber welche Mip-Stufe wählt. Unbekannt ist nur das "letzte" Detail: Wieviel der geladenen Textur ist überhaupt sichtbar?
Zum "vorladen" in den RAM/VRAM müssen die Game-Devs aber weiterhin raten, eben weil sie mit alten Streaming-Techniken kein Feedback vom Sampler erhalten und somit wissen könnten was gebraucht wurde. Es geht auch nicht nur um "Wieviel der geladenen Textur ist überhaupt sichtbar?" sondern auch "Wieviel der geladenen Textur ist überhaupt sichtbar und in welchem MIP-Level wird sie benötigt?".

Aber das weiß auch SFS erst nachdem die Szene gerendert wurde. Dann können mit SFS Texturteile, die im Moment nicht benötigt werden, wieder aus dem VRAM geschmissen werden, aber zunächst wird die volle Kapazität benötigt. Eventuell kann das mal in Kombination mit hohen Fps-Raten und verzögertem Streaming genutzt werden, um die VRAM-Anforderungen allgemein zu senken (man rendert die Szene einmal in Qualität "Matsch", damit man die sichtbaren Texturbereiche kennt, und lädt diese dann in HD nach). Aber im Moment ist der Trend am PC genau das Gegenteil: Es wird VRAM weit über das für das aktuelle Bild benötigte und sogar über der von der Engine gemeldeten Bedarf hinaus mit alten Texturen als Cache gefüllt, um bei der nächsten Bewegung möglichst nichts über den lahmen PCI-E-Slot nachladen zu müssen.
Soweit ich SFS+DS verstanden habe wird genau das gemacht, Frame 1 wird beispielsweise (wie Du sagtest) mit höherem MIP-Level ausgegeben, SFS streamt die Texturen die in einem niedriger benötigten MIP-Level zu sehen sind nach (also detaillierter) und gibt sie schnellstmöglich mit automatischem Filter zur besseren Überblendung in Frame 2-3-4-usw aus.

As we have stated, the Sampler knows what it needs. The developer can answer the request of Mip 0 by giving Mip 0.8 on frame 1, Mip 0.4 on frame 2, and eventually Mip 0 on frame 3.
 
Oben Unten