Damit ein Hunderte Millionen teures Teleskop nicht nutzlos wird, wenn SSD1 den Abgang macht.
Es gibt da keine SSD1, das sind viele Module, die man auch einzeln ansteuern kann. Das ganze setzt sich eher aus mehreren duzend SSDs zusammen.
Die Leute haben aus Hubble gelernt.
Es geht nicht darum alles umzuwerfen um von mehr SPeicher zu profitieren sondern darum, dass man ohne Aufwand viel mehr Redundanz einbauen könnte.
Nimm es mir nicht übel, aber du scheinst von solchen Projekten wenig Ahnung zu haben. Wer behauptet, man könne ha ohne Aufwand irgendwas ändern, weiß einfach nicht, womit er es zu tun hat.
Es muss nicht mal was kaputt gehen - wenn es so knapp bemessen ist wie aktuell braucht nur mal was bei der Datenübertragung zur Erde schiefzugehen schon muss das Teleskop den Betrieb einstellen bis bei der nächsten gelegenheit die Daten übertragen wurden denn weitermachen ist ja nicht weil der Speicher voll ist.
Im Text stand ganz klar, dass das Ding normalerweise zweimal am Tag ausgelesen wird. Man hat also schon eine doppelte Redundanz, zusätzlich zur normalen Redundanz. Wenn also irgendwann wirklich soviel kaputt geht, dann wird man das Ding eben zweimal am Tag auslesen müssen. Das macht es zwar unbequemer, ist aber kein Beinbruch.
Die Leute haben schon an sowas gedacht.
Klar. Nur ändert ein "baue statt 70GB halt 470GB ein" am Ablauf nichts... wenn man nicht das 70GB-Teil schon seit 10 Jahren da liegen hat...
Ähm nein, das ändert einfach alles.
Zum einen kann man nicht einfach so anderen Flash hernehmen. Im Weltraum nimmt man gerne große Strukturgrößen, weil die nicht so anfällig sind. Man wird also nicht einfach eine größere SSD reinstopfen können, wie bei einem PC, sondern das Ding wird dann einfach 6 mal größer werden. Größe ist nicht gern gesehen, da extrem teuer. Danach kann man dann auch fragen, warum man die Solarzellen nicht einfach vervierfacht, die sind auch wichtig und ohne Strom ist das Teleskop erst recht hin. Am Ende kann man einfach zwei oder drei Teleskope hochschicken, das wäre sogar die bessere Alternative.
Aber nehmen wir mal an, sie nehmen anderen Speicher. Dann muß man mit dem testen wieder von vorne anfangen und das bedeutet einfach nur irre Verzögerungen. Alleine die Bestrahlungs- und die Langzeittests werden irre viel Zeit in Anspruch nehmen. Wenn man schonmal den Speicher komplett überarbeitet, dann kann man die ganzen Verzögerungen auch einfach nutzen, um die ganzen Computer völlig neu zu denken, die Zeit hat man ja. Am Ende wird sich die Frage stellen, ob man nicht das ganze Teleskop komplett neu Entwickelt, immerhin hat sich ja schon vieles verbessert.
Am Ende bekommst du den Duke Nukem der Teleskope. Das ist auch ein gutes Stickwort. Der Duke hat nicht so lange gebraucht, weil es so komplex war, sondern weil man drei mal neu angefangen hat.
Irgendwann ist einfach ein Punkt erreicht, an dem man es einfach durchziehen muß und das gilt für alle großtechnischen Projekte. Ausnahmen gibt es nur wenige.