News Ultraram: Neuer Speicher soll schneller als RAM, persistent und effizient sein

ES hat nicht an Versuchen gemangelt, eine Alternative, zwischen RAM und Flash zu etablieren. Das ganze wird auch, wenn überhaupt, zuerst im Embeddedbereich Fuß fassen und sich dann immer mehr ausdehnen. Keine Trennung zwischen RAM und Flash hätte da massiver Vorteile, außerdem kann man, nach einem Ausfall der Stromversorgung (wenn jemand das Gerät absteckt) einfach da weiter machen, wo man aufgehört hat und muß nichts Booten.

Aber wer weiß, eventuell bekommen wir ja eines Tages unsere PCs, die nach einem Stromausfall da weiter machen, wo sie aufgehört haben. Dafür muß das ganze aber DRAM in Sachen Geschwindigkeit
mindestens mithalten können.

3D XPoint war ja gar nicht mal so schlecht, aber zu teuer.

Das Problem ist, dass die Kunden sehr oft das eine sagen, aber in Wirklichkeit etwas völlig anderes wollen. Egal ob beim Wechselakku im Smartphone oder echtem Klimaschutz (konnte man beim Heizungsgesetz gut sehen).

Quasi alle wollen zuverlässige SSDs. das ist angeblich wichtig. Man wird nur wenige finden, die es begrüßen, wenn QLC nun 1200 Schreibzyklen, statt der bisherigen 2700 (19nm TLC Flash) hält. Leute, die guter SSDs wollen sind ein gigantischer Markt, jeder will sie.

Die Wirklichkeit sieht dann anders aus. Bei meiner bisherigen Schreibleistung von 1TB/Mon, auf dem Hauptrechner, hält meine 1TB 850 Evo gut 800 Jahre, die 2TB Ultra 3D in meinem Laptop 450 Jahre. Bin ich bereit, für 100 bis 1000 mal mehr Schreibzyklen wesentlich mehr Geld auszugeben? Ähm, nein, da muß ich leider passen. Mir reicht es schon, wenn die SSD mich mit einer recht hohen Wahrscheinlichkeit überleben wird. Selbst ein Faktor 10 in der Schreibleistung wäre noch kein Grund umzudenken, die Chancen, dass die 850 Evo in meinem nächsten Hauptrechner die primäre SSD wird sind gleich Null.

Wieso, XPoint gibts es doch noch. Wir haben hier eine DC P5800X (also zwei) im Server laufen, die basieren meines Wissens nach auf dem 3D XPoint Speicher.

Intel stellt die Fertigung ein, langfristig gibt es nichts mehr von Intel. Ob Micron noch etwas anbietet weiß ich nicht, aber die große Einführungsoffensive von Intel ist endgültig gescheitert.
 
Mir reicht es schon, wenn die SSD mich mit einer recht hohen Wahrscheinlichkeit überleben wird
Wenn so ein Ding 10 Jahre hält, reich mir das mehr als aus. Die hohen Werte sind ja ohnehin nur für den Flash gültig, die Controller geben meist Jahre vorher den Geist auf, geschweige denn wird man in 100 Jahren noch eine Schnittstelle finden um die Dinger irgendwo einzustecken. Versuche heute mal IDE Platten auszulesen, wird schon gar nicht mehr so günstig (mal abgesehen von Aliexpress und Co.,)

Intel stellt die Fertigung ein, langfristig gibt es nichts mehr von Intel. Ob Micron noch etwas anbietet weiß ich nicht, aber die große Einführungsoffensive von Intel ist endgültig gescheitert.
Find ich schade, die Dinger sind saugeil und für Datenbanken in meinen Augen das beste was der Markt derzeit hergibt.
 
Intel stellt die Fertigung ein, langfristig gibt es nichts mehr von Intel. Ob Micron noch etwas anbietet weiß ich nicht, aber die große Einführungsoffensive von Intel ist endgültig gescheitert.

Micron hat den Ausstieg bereits 2021 begonnen. Die diesjährigen DDR5-Optane-Module dürften der letzte Xpoint-Speicher gewesen sein. Wirklich schade drum, aber eine echte "Einführungsoffensive" vermisse ich bis heute. Wo sind die integrierte Caching-Konzepte, analog zu SSHDs? Was ist mit einem low-power-DRAM-Ersatz für leistungsschwache Geräte? Insbesondere für Kameras, E-Book-Reader, aber möglicherweise auch für einfache Smartphones, müsste Xpoint eigentlich schon flott genug sein, um direkt als Arbeitsspeicher zu dienen. E-Ink-Geräte könnten dann zwischen Seitenwechseln einfach komplett abschalten. Und warum sich der Preisabstand zwischen Flash und Xpoint mit steigender SSD-Geschwindigkeit immer größer geworden ist, obwohl die Technik ja eigentlich leichter skalieren sollte, ist auch ein Marktchancen-vernichtendes Rätsel.
 
Wenn eine Anwendung beendet wird, darf das OS halt nicht einfach nur den Speicherbereich wieder frei geben, sondern muss die Daten aktiv löschen. Das bekommt man auch mit einfachen Mittel datenschutzkonform hin.
OK. Das sehe ich bei z.B. Open Source Software als Alternative an. Ein Problem ist es aber bei Closed Source Software. Z.B. kann eine Closed Source Software eine SSD formatieren und dass sie das getan hat, kannst Du ziemlich sicher abchecken, indem Du abcheckst, ob wirklich der ganze Speicher überschrieben ist.
Wie soll das aber bei dem Non-Volatilen RAM gehen? Du kannst ihn ja nicht passiv in den Rechner stecken und einfach voll überschreiben. Er ist ja immer auch mit in Benutzung. Also müsstest Du dann dem Betriebssystemhersteller vertrauen. Und einem Softwarehersteller aus einem anderen Rechtsraum zu vertrauen, kann datenschutzmäßig ein Problem sein, wenn er z.B. vom Staat, in dem er seinen Firmensitz hat, dazu gezwungen werden kann, es falsch zu implementieren, und darüber zu schweigen.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
Einen nicht flüchtigen RAM kann man dagegen z.B. in einer Wartungsphase des Systems ausbauen, kopieren und wieder einbauen, ohne bemerkt zu werden. Und wenn die Nichtflüchtigkeit systematisch genutzt wird, erbeutet man dabei auch langfristig wichtige Informationen.
Danke für die ganzen interessanten Ausführungen zur technischen Seite.

der Bedarf an optischen Wechselmedien ist auf nahe Null gefallen, lange bevor die Speicherkapazität einer XL-BD nicht mehr ausreichte.

Ich würde mir immer noch ein optisches und günstiges Speichermedium wünschen, auf dass 500 GB aber besser bis 1 TB an Daten passt. Damit könnte ich den Ist Zustand der SSD einmal monatlich speichern und auch die private Bildersammlung könnte in regelmäßigen Intervallen auf billigen Medien archiviert werden. Damit wäre zumindest immer ein Großteil der Daten mehrfach redundant vorhanden.

Ob der Markt dafür groß genug ist? Vielleicht nicht.

Aber ich freue mich heute durchaus eine 70 oder 60 Jahre alte Schallplatte abspielen zu können und auch von den ersten CD's meines Vaters kann ich heute noch Musik hören.

Von daher... Lang lebe die Disc :-D
 
OK. Das sehe ich bei z.B. Open Source Software als Alternative an. Ein Problem ist es aber bei Closed Source Software. Z.B. kann eine Closed Source Software eine SSD formatieren und dass sie das getan hat, kannst Du ziemlich sicher abchecken, indem Du abcheckst, ob wirklich der ganze Speicher überschrieben ist.
Wie soll das aber bei dem Non-Volatilen RAM gehen? Du kannst ihn ja nicht passiv in den Rechner stecken und einfach voll überschreiben. Er ist ja immer auch mit in Benutzung. Also müsstest Du dann dem Betriebssystemhersteller vertrauen. Und einem Softwarehersteller aus einem anderen Rechtsraum zu vertrauen, kann datenschutzmäßig ein Problem sein, wenn er z.B. vom Staat, in dem er seinen Firmensitz hat, dazu gezwungen werden kann, es falsch zu implementieren, und darüber zu schweigen.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Das Management des Rams macht auch jetzt bereits das OS. Das darf eine Anwendung so oder so nicht selbst,
das wäre jetzt schon katastrophal!

Und die "Vertrauensprobleme" hättest du aber auch schon jetzt. Das OS hat halt Zugriff auf alles!
Egal, ob es im RAM oder auf der SSD oder sonst wo (zwischen-) gespeichert ist. Ob es nun Daten bewusst in einem NVRam belässt oder sie gleich ins Internet schickt, macht doch keinen Unterschied.
Das OS könnte den Speicherinhalt bestimmter Prozesse regelmäßig auf die SSD schreiben.
Das macht es sogar, wenn du deinen PC schlafen schickst...

Auch das Formatieren einer SSD durch externe Tools kann dir das OS "vorgaukeln", ohne das du oder das Tool es zunächst bemerken würden! Den Zugriff auf die Hardware des Datenträgers steuert nämlich auch das OS!
Auch die Hersteller-Tools könnten dir das lediglich vorgaukeln und die Firmware der SSD/HDD sowieso.

Wenn du solche "Vertrauensprobleme" hast wirst du nicht darum herum kommen, dir dein eigene OS und eigene Firmwares zu schreiben! Und das nicht erst, wenn solcher "Ultraram" im Massenmark ankommen sollte, sondern schon heute!
 
Für "mit Lasern räumlich platzierte Strukturen in durchsichtigen Kunststoff einbringen" gibt es auch noch jede Menge andere Anwendungsgebiete. Jeder Nippes-Laden verkauft dir zum Beispiel Plexiglas-Blöcke mit dreidimensionalen Motiven darin, die unter Verwendung vergleichbarer Prinzipien hergestellt werden (und etwas bessere Läden machen dir das sogar mit Wunschmotiven). Aber der (vermeintliche) Anspruch von "Tesa ROM" war ein einfach und langsam beschreibbares Tape-Medium mit extrem hoher Datendichte – ein Produkt nach dem von Archiv bis Distribution niemand gefragt hat. Wahrscheinlicher wäre die Anwendung in Form von Discs gewesen, aber pressbare Formate wie DVD und BD waren zunächst die günstigere Wahl und danach kam gar nichts mehr. Das man seit 2003 individuell mit Daten beschreibbare Klebettiketten mit einer Speicherdichte von 1 KB/mm² verkauft (weniger als Vierfache einer Diskette) mag auf die ursprüngliche Forschung zurückgehen, hat aber nichts mit der werbewirksamen "Tesa ROM" zu tun.

Danke für die ganzen interessanten Ausführungen zur technischen Seite.



Ich würde mir immer noch ein optisches und günstiges Speichermedium wünschen, auf dass 500 GB aber besser bis 1 TB an Daten passt. Damit könnte ich den Ist Zustand der SSD einmal monatlich speichern und auch die private Bildersammlung könnte in regelmäßigen Intervallen auf billigen Medien archiviert werden. Damit wäre zumindest immer ein Großteil der Daten mehrfach redundant vorhanden.

Ob der Markt dafür groß genug ist? Vielleicht nicht.

Aber ich freue mich heute durchaus eine 70 oder 60 Jahre alte Schallplatte abspielen zu können und auch von den ersten CD's meines Vaters kann ich heute noch Musik hören.

Von daher... Lang lebe die Disc :-D

Medien für den Vertrieb sind an die Anforderungen desselben gebunden und bis einschließlich UHD-Filmen kommt man gut mit ein paar dutzend bis 100 GB aus. 1-TB-Inhalte werden bis heute nirgendwo am Stück ver- oder gekauft. Der sehr kleine Markt für monatliche Full-Back-Ups wird bereits von den Herstellern magnetischer Tapes bedient und ist definitiv nicht groß genug, für eine konkurrierende Technologie – sondern gerade eben so ausreichend, dass ich von "fast Null" statt exakt Null Bedarf gesprochen habe. ;-)
 
Medien für den Vertrieb sind an die Anforderungen desselben gebunden und bis einschließlich UHD-Filmen kommt man gut mit ein paar dutzend bis 100 GB aus. 1-TB-Inhalte werden bis heute nirgendwo am Stück ver- oder gekauft. Der sehr kleine Markt für monatliche Full-Back-Ups wird bereits von den Herstellern magnetischer Tapes bedient und ist definitiv nicht groß genug, für eine konkurrierende Technologie – sondern gerade eben so ausreichend, dass ich von "fast Null" statt exakt Null Bedarf gesprochen habe. ;-)

Du hast leider Recht. Dennoch wünsche ich mir eben größere beschreibbare Discs.

Bandlaufwerke mag ich nicht so gerne. Die sind neu quasi kaum bezahlbar für Endandwender und HDD's lassen sich nur unschön stapeln / aufbewahren. Nehmen eben viel Platz weg. So eine Disc in ner schmalen Hülle ist vom Platzbedarf einfach etwas ganz anderes.

Bezüglich Linear Tape, mir würde LTO 5 schon reichen. Da gibts gebrauchte Laufwerke um die 150 € herum. Mit 1,5 TB wäre das eigentlich genau mein Nutzungsfall aber ich stecke mir ungern gebrauchte Hardware an oder in den PC.
 
Wirklich schade drum, aber eine echte "Einführungsoffensive" vermisse ich bis heute.

Intel hat es zumindest versucht, das ganze breit einzuführen, das kann man ihnen definitiv nicht vorwerfen.

Es gab eine breite Produktpalette und im Abverkauf konnte man sich eine Reihe toller Schnäppchen sichern. Von der 16GB Optane SSD, die als Cache gedacht war, bis hin zur 1,6TB PCIe Karte. Wer das besondere schätzt, der wurde hier fündig.

Ich habe mir z.B. 2015, nach dem Scheitern des ersten Ansatzes von Ivy- und Sandybridge eine billige 20GB SLC SSD geholt, sieht man auch nicht mehr alltäglich. Der Abverkauf von gewissen Technologien kann ganz erfreulich sein, auch wenn es der Anlaß nicht ist.

Wo sind die integrierte Caching-Konzepte, analog zu SSHDs?

Das haben sie ja versucht. Wie bei Ivy-und Sandy Bridge. Es gab 16 und 32GB Optane SSDs, zu überschaubaren Kosten. Die Probleme waren die gleichen, wie damals (nichts ganzes, nur etwas halbes und etwas umständlicher Weg [man mußte das Ding extra kaufen], nur für Intel Systeme). Der große Unterschied war, dass HDDs als primäre Platten extrem selten wurden und bei SSDs hielt sich der Sinn in Grenzen.

Weder Intel noch Micron sind HDD Hersteller, von daher kam da nichts. Dann ist ausgefallener Flash Speicher bei SSHDs jetzt auch kein verbreitetes Problem, wozu also etwas ändern.

Noch wichtiger ist wohl, dass Seagate, WD und Hitachi alle im SSD Bereich unterwegs sind und darauf auch mehr oder weniger ihre Zukunft setzen (Seagate weniger, WD mehr). Ich würde den Teufel tun und eine Technologie groß machen, die das Potential hat, einer meiner Hauptgeschäftsfelder in den Hintern zu treten.

Was ist mit einem low-power-DRAM-Ersatz für leistungsschwache Geräte? Insbesondere für Kameras, E-Book-Reader, aber möglicherweise auch für einfache Smartphones, müsste Xpoint eigentlich schon flott genug sein, um direkt als Arbeitsspeicher zu dienen.

Meine Vermutung ist, dass das ganze schon fertig Entwickelt ist und man es deshalb so läßt. Neue Konzepte werden eher vom oberen Preisbereich in den unteren runter skaliert. Man könnte eventuell, mit 8GB Optane Cache, ein Smartphone erschaffen, dass mit 3 oder 4GB RAM einem Smartphone mit 8GB RAM ebenbürtig ist, aber lohnt sich das. Es müßte völlig neu entwickelt werden. Da ist es wohl einfacher, dem Ding gleich 8GB RAM zu spendieren. Intersannt wäre natürlich ein Oberklassephone, das mit 64GB Optanecache und 16GB RAM auch künftigen 32GB RAM Phones einheizen könnte. Aber der Zug ist abgefahren, schade.

E-Ink-Geräte könnten dann zwischen Seitenwechseln einfach komplett abschalten.

Die halten ja jetzt schon sehr lange, warum also kompliziert neu entwickeln? Zumal sich der Markt für High End eBookreader wohl eher in grenzen hält, die sind meist billig.

Und warum sich der Preisabstand zwischen Flash und Xpoint mit steigender SSD-Geschwindigkeit immer größer geworden ist, obwohl die Technik ja eigentlich leichter skalieren sollte, ist auch ein Marktchancen-vernichtendes Rätsel.

Wenn ich eine Vermutung anstellen müßte, dann würde ich sagen, dass die Leute, die sowas unbedingt gebraucht haben, gleich am Anfang zugelegt haben. Zusätzlich ist Intels HDD Cache ja gefloppt. Beides könnte somit für einen abnehmenden Bedarf und damit ein geringeres Produktionsvolumen. Flash gibt es hingegen wie Sand am Meer und wird damit immer billiger.

Schade, eines der Beispiele dafür, dass sich Qualität nicht immer durchsetzt. Auch ein Beispiel für "liefere nur das, was dein Kunde möchte und wofür er dich auch bezahlt" (der letzte Teil ist der wichtigere).

Ob der Markt dafür groß genug ist? Vielleicht nicht.

Der Markt ist tot. Der angedachte Nachfolger für UHD Blu Ray wurde eingestellt. Schade, da waren 500GB und 1TB geplant. Genug, um 8K (oder eventuell 16K) Filme mit 500-1000MBit zu speichern. Die Qualität wäre extrem gewesen.

So müssen wir halt eben mit Streaming vorlieb nehmen 8K, mit 45MBit und h.266 sollten zumindest in etwa auf dem Niveau einer UHD Blu Ray liegen. Eventuell gibt es ja bei 16K noch mehr.

Fürs Back Up gibt es noch Magnetbänder.
 
Ja die Bequemlichkeit. hat gesiegt Nicht außer Haus müssen, alles streamen, alles downloaden. Irgendwann sehnen sich auch die anderen zurück nach den guten alten Zeiten :-D

Ich finds wirklich schade und Magnetbänder sind kein Ersatz, weder für Distribution noch fürs billige Home-Backup aber das ist halt die aktuelle Realität.
 
Ja die Bequemlichkeit. hat gesiegt Nicht außer Haus müssen, alles streamen, alles downloaden. Irgendwann sehnen sich auch die anderen zurück nach den guten alten Zeiten :-D

Glaube ich eher weniger. Streaming ist einfach viel zu bequem und an Qualität sind nicht soviele interessiert, sonst würde sich UHD Blu Ray besser verkaufen. Wenn 8K Streaming kommt, dann fällt das Qualitätsargument auch weg, da der Nachfolger von UHD Blu Ray nie erschienen ist.
 
Doch wenn die Apokalypse losgeht und ich hock in meinem Keller und zieh mir einen coolen Film rein während die anderen schon kein Internet mehr haben :D

Aber hast schon recht, der Zug scheint abgefahren zu sein. Obwohl es immer noch viele mit schlechter Internetanbindung gibt. Das ständige Streaming ganz schön hohe Kosten verursacht und eine schlechte Ökobilanz hat. Die Zeiten physischer Mediendistribution kommen wohl nicht wieder
 
@Pu244: HDD-Caching war zum Erscheinen von Xpoint bereits ausgestorben und die dafür bestimmten Intel-Laufwerke waren so klein und lahm dimensioniert, dass sie auch für nichts anderes taugten. Verglichen mit den ähnlich alten TLC-SSDs waren die vollwertigen Optane dagegen pfeilschnell, hier hätte ein Hybrid-Ansatz Sinn gemacht – mit der 4.0-Generation gäbe es bei heute Potenzial. Aber wenn man mindetens 0,4, eher 0,8 TB erwerben muss, um eine ordentlichen Transferrate zu erhalten, dann kostet allein der Cache bereits mehr, als den gesamten Archiv-Speicherplatzbedarf mit den schnellsten 5.0-Flash-SSDs bereitzustellen.

Sicherlich hast du Recht, dass viele bestehende Marktakteure wenig Interesse haben, ihre bestehende, schlechtere Technik auf den Schrott zu werfen, um eine neue Entwicklung zu finanzieren. Aber genau das wäre eben eine Markteinführung auf breiter Front: Ein Anbieter neuer Technik nimmt den Aufwand selbst in die Hand und bietet sein Produkt für alle Märkte an, auch wenn er R&D dafür in der ersten Generation nicht refinanziert bekommt. Genau das hat Intel nicht gemacht, sondern Xpoint auf einige wenige Nischenmärkte konzentriert.
 
Aber genau das wäre eben eine Markteinführung auf breiter Front: Ein Anbieter neuer Technik nimmt den Aufwand selbst in die Hand und bietet sein Produkt für alle Märkte an, auch wenn er R&D dafür in der ersten Generation nicht refinanziert bekommt. Genau das hat Intel nicht gemacht, sondern Xpoint auf einige wenige Nischenmärkte konzentriert.

Es ist halt eben die Frage, welche Märkte das sein sollen. Wirklich Sinn ergeben, für den Endverbraucher, eigentlich nur die absoluten High End SSDs. Dann sind da noch bei den Profis die Server SSDs, die auch viele Schreibzyklen aushalten müssen. Beide Märkte hat Intel gut versorgt, da kann man ihnen nicht viel vorwerfen.

Beim Rest ist dann eher fraglich, ob das etwas geworden wäre. High End Smartphones, die neben ihrem RAM noch einen großen Optane Cache haben, wären eine super Idee gewesen, nur hätte da ein großer Hersteller mitziehen müssen. Die letzt Smartphoneoffensive Intels, verlief ja nicht so erfolgreich, auch wenn man sich 2015, im Abverkauf, einige gute Atom Phones und Tablets sichern konnte. Bei den sonstigen kleinen Anwendungen hat Optane eben noch die Konkurrenz von SLC Flash, in alten Fertigungsverfahren. Da sind dann 1 Mio Schreibzyklen drin, wenn selektiert wird sogar 5 Mio. Da braucht es dann Optane nicht wirklich.

Im Prinzip ist Optane daran gescheitert, dass jeder Qualität möchte, aber wenn es daran geht den eigenen Geldbeutel zu öffnen, sieht die Sache plötzlich anders aus.
 
Zurück