Direct Storage in Windows 11: SSD-Turbo kommt nicht für Windows 10

Und sie alle haben mindestens eines von zwei Problemen. Entweder schmecken sie nicht nach Zucker, sondern sind einfach nur süß, mir diversen Beigeschmäckern, von metallisch bis bitter oder sie verursachen massiven Durchfall.

Bisher muß man einen Tod sterben, such dir aus welchen.

Kann ich nur bestätigen. Xylit und Erythrit sind geschmacklich noch das angenehmste, wirken aber leider abführend. Das kann man wirklich nur in geringen Mengen verwenden.
Nennt sich das dann "DirectUnstorage" oder "DirectExhaust"? :D
 
...
Die 2TB hat ne höhere TBW von 480 die 1TB nur die Hälfte. (ansonsten gibts ja noch 3 Jahre Garantie)
...
Ist aber beides gleich schlecht. Beide kannst du nur 240x komplett beschreiben.
3 Garantie gibt es meines Wissens nach nur falls die TBW noch nicht erreicht wurden. Zumindest meine ich z.B. bei Samsung etwas von "warranty: x years OR TBW" gelesen zu haben.
 
Warum benötigt man dazu eine NVMe SSD? Wenn es nur ums Lesen geht ist eine Sata SSD doch nicht viel langsamer, oder doch?
Weil SATA-SSDs auf den veralteten AHCI-Standard von 2004 setzen, während NVMe mehrere neue Funktionen anbietet, welche von DirectStorage ausgenutzt werden, um das Daten-Streaming deutlich effizienter zu gestalten.
Unter AHCI gibt es nur eine Befehlsschlange, welche 32 Befehle enthalten kann.
NVMe dagegen bietet 64K Queues mit jeweils 64K Befehlen, weswegen es möglich ist wesentlich mehr I/O-Operationen durchzuführen.
Die Lesegeschwindigkeit war nicht das entscheidende Merkmal, sondern das direkte ausnutzen der Command-Queues, wovon es wesentlich mehr gibt und womit man den Datenverkehr wesentlich breiter aufstellen kann.

Ein Blogeintrag von Microsoft hat es angesprochen:
https://devblogs.microsoft.com/directx/directstorage-is-coming-to-pc/
 
Hat sich nichts geändert bei M$.
Dann hab ich fertig seit Win 95 dabei. Allein schon der TPM Zwang reicht mir, um nicht auf Win 11 zu wechseln.
Win 10 wird mein letztes Windows bleiben.
 
Damit wird es sich endgültig nicht durchsetzen, zumindest nicht in den nächsten Jahren.
Das ist mir zu pauschal schwarzgemalt, wir wissen nichts über die Komplexität der Implementierung. MS kann sich immer noch umentscheiden und für die Spielehersteller kann sich auch rausstellen, daß es kein Problem ist, DS optional mit einzubauen und dann Leute ohne Windows 11 auf einen älteren Pfad zu setzen. Für die Konsolen werden sie vielelicht so oder so nicht drum herum kommen DS einzubauen.

Ich würde daher mal abwarten.

Denke ich nicht. Windows 11 wird ja wieder ein kostenloses Update sein.
Sobald 11 am Markt ist, wird 10 schnell an Marktanteil verlieren.

Ich denke die meisten Win 10 Benutzer werden schnell umsteigen. Klar wird es auch wieder die verweigerer geben, aber das sollten deutlich weniger sein als noch von Win7 zu Win10 .
Sehe ich ähnlich. Die Leute die noch W7 benutzen haben meist einen persönlichen Grund dafür gehabt und was ich gehört habe scheint sich das auch bei W11 nicht gebessert zu haben.
Wer dagegen mit W10 klarkommt, sollte wenig Probleme mit W11 haben, es sei denn die Systemvorraussetzungen geben es einfach nicht her. Und da denke ich auch, daß diese Gruppe eher kleiner sein wird. Ich räume einem verbreiteten Update von W10 auf W11 daher auch gute Chancen ein.

Wann gab es zuletzt ein Windows-Update, ohne irgendwelche Nachteile?
Vielleicht von Windows Vista auf Windows 7, aber ab dann war schon Schluss damit.
Ich hatte keine Nachteile von W7 auf W10 von denen ich wüßte. Das was mich gestört hatte konnte ich per Tools fixen. Es war nie nmeine Erwartung das ich alles unverändert in ein neues OS übernhemen kann, weder meine Programme noch meine Gewohnheiten. Es ist oft einfach eine Einstellungssache. Sowohl im System als auch im Kopf.

Das gibt es bis heute noch nicht, jedenfalls nicht ohne massiven Durchfall. Entweder es schmeckt nicht wirklich nach Zucker oder man verbringt eine lange Zeit auf dem Klo. (wenn man mehr als 50gr gegessen hat)

Wer das hinbekommt, der hätte den Nobelpreis verdient.
Ist aus meiner Sicht ein gutes Beispiel dafür, warum pauschale Ansätze problematisch sind. Ich habe vor zwei Jahren z.B. ausfühliche Experimente im Selbstversuch mit allen möglichen Süßstoffen in allen möglichen zuckerbasierten Speisen durchgeführt und dabei festgestellt, daß einige der langläufigen Aussagen auch auf mich zutreffen, andere dagegen nicht (ich kann Sucralose z.B. nicht von Zucker unterscheiden und Erytrith verursacht selbst bei größeren Mengen (mehr als 100g) keinen Durchfall bei mir, Xylit dagegen schon). Es gibt nicht das eine Richtig und Falsch für alle.
Auch bei Windows 11 wird das so sein. Es ist aus meiner Sicht noch viel zu früh für endgültige Festlegungen. In wenigen Stunden seit der Ankündigungen haben sich die Systemvorraussetzungen schon ein paar Mal geändert bzw wurden korrigiert. Ich würde mich daher auch jetzt nicht wundern, wenn auch da das letzte Wort noch nicht gesprochen ist.

Und sie alle haben mindestens eines von zwei Problemen. Entweder schmecken sie nicht nach Zucker, sondern sind einfach nur süß, mir diversen Beigeschmäckern, von metallisch bis bitter oder sie verursachen massiven Durchfall.
Auch hier hat das meiner Meinung nach zumindest teilweise mit unser Engstirnigkeit zu tun. Warum muss eigentlich alles exakt wie Zucker schmecken ? Kann man sich nicht auch an eine andere Form von süß gewöhnen und das mit der Zeit als normal empfinden ? Unseren Körper interessiert am Zucker der Energiegehalt, nicht der Geschmack. Es gibt also keinen biologischen Grund warum Süße wie Zucker schmecken muss, wir sind einfach nur so konditioniert. Ich habe lange Zeit die meisten "Zero" Produkte gehaßt, mittlerweile kann ich bei vielen bei einer Blindverkostung keine eindeutige Zuordnung mehr vornehmen. Alles Konditionierung.

Gleiches gilt auch hier wieder für das eigentliche Thema. Wir erwarten von einem OS, daß es möglichst alle Funktionen die wir toll finden auch in zukünftigen Versionen noch hat und nur tolle neue Sachen oben drauf kommen. Wir wollen uns nicht umstellen oder umgewöhnen oder uns von etwas trennen. Langfristig führt so ein Verhalten aus meiner Sicht aber zu Stagnation, weil es die Weiterentwicklung in jeder Hinsicht bremst.

Ich finde die grundsätzliche Idee hinter Windows 11 gut und würde daher zuerst versuchen, eine Lösung im neuen System für meine Anforderungen zu finden statt darauf zu bestehen, daß meine alten Anforderungen weiterhin funktionieren. Denn wenn man nur wegen dem Aufwand Migrationen immer weiter aufschiebt, dann kommt man irgendwann an den Punkt, an dem man aus einem nicht umgehbaren Grund wechseln muss und dann plötzlich Lösungen auch noch für alle anderen eigenen Anforderungen braucht. ich stelle mich daher lieber frühzeitg auf Neues um und schmeiße altes über Bord, das macht mich anpassungsfähiger.

Ich beobachte die W11 Entwicklung daher erst mal weiter, bis November ist noch Zeit.

Kann ich nur bestätigen. Xylit und Erythrit sind geschmacklich noch das angenehmste, wirken aber leider abführend. Das kann man wirklich nur in geringen Mengen verwenden.
Kann ich nicht bestägigen, mein Körper reagiert völlig anders auf Xylit als auf Erythrith. Bei Xylith habe ich ab 20g gerne eine Toilette in Sichtweite, bei Erytrith dagegen passiert selbst bei mehr als 100g bei mir noch nichts. Ist alles nicht so pauschal wie es immer dargestellt wird, Menschen sind verschieden. So auch ihre Anforderungen an ein gutes OS.
 
Ist aber beides gleich schlecht. Beide kannst du nur 240x komplett beschreiben.
3 Garantie gibt es meines Wissens nach nur falls die TBW noch nicht erreicht wurden. Zumindest meine ich z.B. bei Samsung etwas von "warranty: x years OR TBW" gelesen zu haben.
Das 2TB Gaming-LW werde ich bestimmt net so oft komplett beschreiben. = vollkommen an den Haaren herbeigezogen !!!
direct storage liest nur und mit SamplerFeedback wird die Datenmenge sogar noch geringer
daher
Gibts keinen Anlass für sündhaft teure "bessere" M2.

240 x 2000GB / 100GB-Game = 2.400 große Games !? (bei 41,67h Spielzeit je Game = 100.000h = 25.000d bei ca. 4h täglich)
Bis ich das auf der Platte hätte, geschweige denn gespielt, gibts längst neue Hardware.
 
Zuletzt bearbeitet:
Ist aber beides gleich schlecht. Beide kannst du nur 240x komplett beschreiben.
3 Garantie gibt es meines Wissens nach nur falls die TBW noch nicht erreicht wurden. Zumindest meine ich z.B. bei Samsung etwas von "warranty: x years OR TBW" gelesen zu haben.
Das habe ich bei der vorherigen Diskussion auch nicht verstanden.
2 TB SSD haben bei Verwendung der gleichen Chips eine doppelt so hohe TBW wie 1 TB? You don't say.
Sinn ergibt es eben nur wenn man die Platte nur halb voll macht bzw. generell wenig schreibt. Dann hält die große 800 Jahre ist aber nie mehr als halb voll – Glückwunsch zur Investition!
Ich hoffe sie bekommen es Mal gebacken auch mehr RAM beim spielen anzusprechen.. hab seit 2015 32gb Arbeitsspeicher und viele Games nutzen davon vielleicht 10-12gb und lagern auf die Festplatte aus anstatt erst den RAM voll zu machen..
Genau das bemängele ich auch. In Spielen sehe ich nachladende Texturen und lange Ladezeiten ohne dass mein RAM ansatzweise ausgelastet ist.
Ein User widersprach dann aber, dass DirectStorage ja viel schneller sei und RAM somit unnötig.
Das kann ich mir aber nicht erklären, dass Daten aus dem RAM in den VRAM länger brauchen als von der SSD in den VRAM. Oder hat da jemand einen Erklärung für?
 
Das habe ich bei der vorherigen Diskussion auch nicht verstanden.
2 TB SSD haben bei Verwendung der gleichen Chips eine doppelt so hohe TBW wie 1 TB?
Die TBW 480 besagt = 480 Terabyte können garantiert geschrieben werden.(auf der 2TB)

Bill Gates: "man wird nie mehr als 1MB Hauptspeicher brauchen"
Vllt. gibts ja noch nen ähnlichen Irrtum bei der Speichermenge von Games?
(statt 50GB dann nearly1000GB je Game, womit die komische Größenangabe von Gestern wieder erklärbar wäre)
 
Zuletzt bearbeitet:
Ganz tolle Sache ...
Habe hier jeweils eine Gen3 NVme mit 128GB @2,2GB read und eine 512GB @3,3GB read.

Vor einiger Zeit habe ich mir die für DirectStorage geholt. Mit dem nötigigen Umstieg auf Windows 11 ist mir die Lust allerdings vergangen. Microsoft ist aktuell komplett auf dem Trip.

Weiß jetzt nicht ob die Metzchen aus Redmond noch mitmache oder wie meine Kollegen auf Linux wechsle. Hab die Faxen ernsthaft dicke!
 
Das kann ich mir aber nicht erklären, dass Daten aus dem RAM in den VRAM länger brauchen als von der SSD in den VRAM. Oder hat da jemand einen Erklärung für?
Es kommt auf die Zwischenstationen an.

Derzeit werden die Daten x- Fach unter Kosten von CPU- Zyklen zwischen den storage tiers hin- und hergeschoben. Komprimiert/Dekomprimiert. Zudem ist ein Threading/Queuing schwierig bzw. muss der Entwickler bis jetzt sein eigenes System dazu entwickeln.
Datenträger->CPU->RAM->CPU (Dekompression) -> VRAM

Zukünftig
Datenträger->Per DMA/Pipelining ins VRAM ->Dekompression on demand auf der GPU
Automatisiertes + Erweitertes Queuing/Threading

Somit umgehst Du Flaschenhälse, entlastest CPU, Busse usw. usf.

Auch wenn Du im klassischen Sinne den VRAM nutzen würdest, müssen die Daten da irgendwie rein. Somit bliebe bis auf Umwege und Mehrfachverarbeitung auch dort die SSD der begrenzende Faktor.

Wenn Du den RAM als direct storage Massenspeicher verwenden würdest, wäre dieser als last storage tier aber natürlich nochmal schneller als eine SSD.
Das würde aber irgendwie dem Sinn der ganzen Geschichte widersprechen.
Man will ja dadurch teuren, aufwändig zu betreibenden Speicherverkehr effizienter und günstiger machen.
 
Also tausche ich die Fähigkeit, alte 32bit-Software (wie alte Spiele) nutzen zu können und mich mit TPM2.0 noch besser kontrollieren und überwachen zu lassen gegen jetzt *Trommelwirbel und Tusch* runde Ecken, ein unpraktisch Apple nachäffendes Startmenü, eine noch verhunztere Systemsteuerung und DirectStorage als vermeindliches Leckerli "vollkommen kostenlos" ein?
Nö danke, ich verzichte, denn ich finde diesen Trade nicht sonderlich vorteilhaft für mich als Kunden ...
 
Genau das bemängele ich auch. In Spielen sehe ich nachladende Texturen und lange Ladezeiten ohne dass mein RAM ansatzweise ausgelastet ist.
Ein User widersprach dann aber, dass DirectStorage ja viel schneller sei und RAM somit unnötig.
Das kann ich mir aber nicht erklären, dass Daten aus dem RAM in den VRAM länger brauchen als von der SSD in den VRAM. Oder hat da jemand einen Erklärung für?

Um das zu beantworten muss man ziemlich ausholen. Ich mach eine hoffentlich kurze Liste:

1. Warum werden Texturen gestreamt? Man könnte ja alles in den RAM laden. Mit 64-256 (je nach Spiel sogar mehr) GB RAM könnte man das tatsächlich. Mit der alten Storage-API und den aktuellen Übertragungsraten würde das dann aber auch erst mal zu einer längeren Ladezeit am Anfange führen. Effizient ist das auch nicht gerade, man erschlägt alles mit Speicher, davon abgesehen hat nur ein Bruchteil der Spieler so viel RAM verbaut. Deswegen streamt man seit langer Zeit die Texturen je nach Bedarf im benötigten MIP Level. Wer mehr dazu wissen möchte, hier mal lesen: https://forum.xboxera.com/t/a-more-detailed-insight-about-sampler-feedback-streaming/3543

2. DirectStorage ermöglicht eine viel effizientere Methode die benötigten Daten von einer schnellen SSD in den RAM (bei RTX IO direkt in den VRAM) zu kopieren. Durch die parallelen Queues und verringerten IO CPU Overhead reduziert man nebenbei noch die CPU Last.

3. Mit DirectStorage werden die Daten komprimiert (2-fache Komprimierung) von der Quelle zum Ziel übertragen. Mit der alten API hat man die Daten komprimiert in den RAM kopiert, dort einmal per CPU entpackt (was relativ ineffizient ist), dann in den VRAM kopiert (was noch mal CPU Last erzeugt, außerdem sind die Daten nur noch 1-fach komprimiert), und dort konnte dann die GPU darauf zugreifen. DirectStorage "erhöht" also die Bandbreite um den Faktor 2, heißt man kann jetzt doppelt so viele / große Texturen in derselben Zeit dorthin kopieren wo sie hin sollen. Die GPU's ab RDNA1 / Turing unterstützen die direkte 2-fach-Dekomprimierung im VRAM.

4. Sampler Feedback Streaming ist direkt gekoppelt mit DirectStorage, ohne funktioniert es nicht. Die neue Streaming-Pipeline ermöglicht eine Reduktion des VRAM-Bedarfs um bis zu 70%.


Ganz tolle Sache ...
Habe hier jeweils eine Gen3 NVme mit 128GB @2,2GB read und eine 512GB @3,3GB read.

Vor einiger Zeit habe ich mir die für DirectStorage geholt. Mit dem nötigigen Umstieg auf Windows 11 ist mir die Lust allerdings vergangen. Microsoft ist aktuell komplett auf dem Trip.

Weiß jetzt nicht ob die Metzchen aus Redmond noch mitmache oder wie meine Kollegen auf Linux wechsle. Hab die Faxen ernsthaft dicke!

Na dann viel Spaß beim zocken per Linux. Ich weiss es geht, aber leider weiterhin mit Einschränkungen. Immerhin gibt's bald DLSS (und FSR) auch für Linux User per Vulkan API.
 
Also als ich vor 3,5 Jahren (!) von 400 GB auf 800 GB aufgerüstet habe, galt das schon nicht mehr unbedingt als "viel". Heute enthält selbst der günstigste PCGH-PC ein 1-TB-Modell und solange die Unterstützung nicht rückwirkend für alte Grafikkarten (und alte Spiele) kommt, betrifft sie in erster Linie Neukäufe und nicht den Bestand aus NVME-Anfangstagen. Ich finde die Grenze zwar auch reichlich merkwürdig, aber wirklich störend ist sie eigentlich nur für Leute, die ausgehend von einer kleinen SSD eine zweite kleine nachgerüstet haben, anstatt eine Große neu zu kaufen. Wer insgesamt mit wenig Speicherplatz auskommt, das heißt nur kleine Spiele hat, braucht sowieso kein Direct Storage, weil die Spiele dann komplett oder größtenteils in den RAM passen. (Nicht dass ich der Meinung wäre, dass irgendwer anders mit RAM DiSt brauchen würde.^^)

Great: Text veraltet, bevor ich auf "antworten" klicken kann




Sind bislang irgendwelche Verschlechterungen von Windows 11 gegenüber 10 bekannt? Alles was ich bislang gesehen habe, ist die Ergänzung von ein paar Features und Optik-Optionen. Im Prinzip nichts weiter als ein größeres Update für Windows 10 (als eben solches wurden die Neuerungen diesen Herbst auch lange erwartet), nur halt mit neuem Namen. Die neuen Features für alte Win-1x-Versionen zu bringen ist also genauso überflüssig, wie die des letzten Updates für Win 10 1703 auszurollen. Wer "das neue Windows" haben will, kann doch einfach "das neue Windows" nutzen? Im Gegensatz zu Windows-8.1- oder gar -7-Nutzern entstehen Leuten, die Windows 10 schon haben, beim Wechsel auf 11 keine Nachteile.




Die billigste 1-TB-QLC-SSD kostet 75 Euro. Soviel hat man früher schon für das Update auf ein neues Windows selbst bezahlt und wer wirklich 480 GB (45 Euro) oder 240 GB (30 Euro) nutzt, der hat halt sowohl von der Schreibleistung als auch des Anschaffungspreises her ein Einwegprodukt. Umgekehrt wir gerade Optane, dass mit vielen Schreibvorgängen große Probleme hätte, vor allem in kleinen Größen verbaut.

Aber davon abgesehen: Direct Storage soll vor allem/ausschließlich Ladevorgänge bei viel zu kleinem RAM beschleunigen. Wieso sollten dadurch die Schreibzyklen deutlich zunehmen?
1-TB-QLC-SSD......


Davon würde ich persönlich abraten...
Lieber eine schnelle 3 Bit SSD mit 512 GByte statt eine 1TB 4 Bit SSD...

Die schreibleistung nach den SLC Catche lässt doch sehr zu wünschen übrig
Deswegen verstehe ich auch nicht warum du meinst eine 480 GB SSD ist von der Schreibleistung ein Einwegprodukt...
Die tbw sind meistens höher als von einer 1 tb QLC
 
2. DirectStorage ermöglicht eine viel effizientere Methode die benötigten Daten von einer schnellen SSD in den RAM (bei RTX IO direkt in den VRAM) zu kopieren. Durch die parallelen Queues und verringerten IO CPU Overhead reduziert man nebenbei noch die CPU Last.

3. Mit DirectStorage werden die Daten komprimiert (2-fache Komprimierung) von der Quelle zum Ziel übertragen. Mit der alten API hat man die Daten komprimiert in den RAM kopiert, dort einmal per CPU entpackt (was relativ ineffizient ist), dann in den VRAM kopiert (was noch mal CPU Last erzeugt, außerdem sind die Daten nur noch 1-fach komprimiert), und dort konnte dann die GPU darauf zugreifen. DirectStorage "erhöht" also die Bandbreite um den Faktor 2, heißt man kann jetzt doppelt so viele / große Texturen in derselben Zeit dorthin kopieren wo sie hin sollen. Die GPU's ab RDNA1 / Turing unterstützen die direkte 2-fach-Dekomprimierung im VRAM.

4. Sampler Feedback Streaming ist direkt gekoppelt mit DirectStorage, ohne funktioniert es nicht. Die neue Streaming-Pipeline ermöglicht eine Reduktion des VRAM-Bedarfs um bis zu 70%.




Na dann viel Spaß beim zocken per Linux. Ich weiss es geht, aber leider weiterhin mit Einschränkungen. Immerhin gibt's bald DLSS (und FSR) auch für Linux User per Vulkan API.

Korrigiere mich, wenn ich falsch liege, aber Direct Storage ermöglicht KEINE direkten Transfer von SSD-Daten in den normalen RAM, sondern ausschließlich in den VRAM und ausschließlich mit Dekomprimierung via GPU, ohne Spezialeinheiten also via Shader. Dementsprechend kann es auch nur in Szenarien, in denen herkömmliche PC-Renderer an mangelnder RAM-Größe (respektive -Nutzung) oder CPU-Leistung leiden Vorteile bringen, während es bei mangelnder VRAM-Kapazität oder mangelnder Shader-Leistung sogar Nachteile schafft.

Was auf alle Falle falsch ist: Die Annahme einer um Faktor zwei erhöhten Datentransferrate durch die Aufrechterhaltung der doppelten Kompression bis in den VRAM. Das wäre nur gegeben, wenn der Kompressionsfaktor der zweiten Stufe exakt 2 beträgt und wenn die Datentransferrate zwischen RAM und VRAM im bisherigen System limitierend war. Das ist aber nicht der Fall. PCs haben zwischen Arbeitsspeicher und GPU seit längerem mindestens die vierfache Datentransferrate (×4- vs. ×16-Link), in ettlichen Fällen sogar die sechs- bis achtfache (NVME-SSD reizt ihren PCI-E-Standard nicht aus oder hat sogar einen niedrigeren als die Grafikkarte) und in Extremfällen bis zur 16-fachen (lahme 2-GB/s-SSD in einem System mit PCI-E-×16-4.0 zur GPU). Das heißt Direct Storage könnte die reine Transferrate nur steigern, wenn die zweite Komprimierungsstufe die Texturen auf 25 bis unter 10 Prozent der Größe nach der ersten Komprimierung reduzieren würde, was aber vollkommen utopisch ist. Somit ist der einzige Unterschied zwischen Systemen mit Direct Storage und ohne die Senkung der RAM- zu Lasten der VRAM-Anforderungen und die Entlastung der CPU von Entpackaufgaben zu Lasten der GPU.
 
32b Anwendungen gehen doch weiterhin...
Hieß es nicht, daß die 32bit-Fähigkeit entfernt wird oder verstehe ich das mit dem 32bit-Support nur falsch?

"Vielmehr könnte die Entscheidung zugunsten einer gänzlich neuen Betriebssystem-Version aus anderen Gründen getroffen worden sein: So dem Absägen des bei Windows 10 immer noch mitgeschleppten 32-Bit-Supports, welcher bei Windows 11 nun augenscheinlich wegfällt."

Quelle: http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-16-juni-2021
 
Hieß es nicht, daß die 32bit-Fähigkeit entfernt wird oder verstehe ich das mit dem 32bit-Support nur falsch?

"Vielmehr könnte die Entscheidung zugunsten einer gänzlich neuen Betriebssystem-Version aus anderen Gründen getroffen worden sein: So dem Absägen des bei Windows 10 immer noch mitgeschleppten 32-Bit-Supports, welcher bei Windows 11 nun augenscheinlich wegfällt."

Quelle: http://www.3dcenter.org/news/hardware-und-nachrichten-links-des-16-juni-2021

Da geht es nur um die 32-Bit Version des Betriebssystems. 32-Bit Anwendungen sind natürlich noch immer möglich.
 
Das ist mir zu pauschal schwarzgemalt, wir wissen nichts über die Komplexität der Implementierung. MS kann sich immer noch umentscheiden und für die Spielehersteller kann sich auch rausstellen, daß es kein Problem ist, DS optional mit einzubauen und dann Leute ohne Windows 11 auf einen älteren Pfad zu setzen. Für die Konsolen werden sie vielelicht so oder so nicht drum herum kommen DS einzubauen.

Hier sind zwei Dinge, die sich gegenseitig verstärken. Zum einen muß der Entwickler das ganze mühselig einbauen, damit es richtig funktioniert und zum anderen ist es nicht allen zugänglich. Weil es nicht allen zugänglich ist, machen sich wenige Entwickler die Mühe das ganze sinnvoll zu impelentieren. Weil es keinen großen Nutzen gibt, wechseln wenige auf Win 11, was das ganze nochmal verstärkt.

Das Gegenbeispiel wäre AMDs FFX. Angeblich leicht zu implementieren und alle profitieren davon, selbst meine GTX 670. Das könnte DLSS langfristig das Genick brechen.

Hieß es nicht, daß die 32bit-Fähigkeit entfernt wird oder verstehe ich das mit dem 32bit-Support nur falsch?

Man kann es nur nichtmehr auf 32Bit CPUs installieren, die Anwendungen laufen weiterhin.
 
Zurück