James Webb: Weltraumteleskop mit nur 68 GB SSD-Speicher, aber hoher Ausfallsicherheit

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu James Webb: Weltraumteleskop mit nur 68 GB SSD-Speicher, aber hoher Ausfallsicherheit

Im James Webb Weltraumteleskop befindet sich eine SSD mit nur 68 GB Speicher. Gegenüber handelsüblichen Modellen ist dieser dafür deutlich robuster, und zudem ist mehr Kapazität für den Betrieb auch gar nicht notwendig.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: James Webb: Weltraumteleskop mit nur 68 GB SSD-Speicher, aber hoher Ausfallsicherheit
 
Netter Artikel, aber mehr Informationen währen schon toll gewesen, welche Hardware genau verbaut wird, bezüglich der SSD natürlich die verwendeten Speicherchips und den Controller.
Werden die Daten komprimiert gesendet?
Ihr könnt ruhig mehr Infos bringen, wie der verwendete RAM, CPU usw, oder wollt ihr das alles in separate News aufspalten?
 
Das Problem ist, dass die Quelle auch keine wirklichen Informationen enthält. Lustig ist eher die Spekulation, dass es deswegen nur run 70GB sind weil der Vertrag im Jahre 2003 unterzeichnet wurde - wo 70GB Flashspeicher noch verdammt viel war. :-D

Ich verstehe da nicht so ganz warum das an der Stelle derart in Stein gemeißelt ist. Ich meine NAND-Chips haben jetzt nicht die Größe und Gewicht dass man mit Gewalt bis aufs letzte sparen muss und sind ein absolut kritisches bauteil (Kein Speicher --> WEBB funktionslos). Da hätte man durchaus Hunderte GB zusätzlich an gehärtetem SLC-Flash reinlöten können.
 
Ich verstehe da nicht so ganz warum das an der Stelle derart in Stein gemeißelt ist. Ich meine NAND-Chips haben jetzt nicht die Größe und Gewicht dass man mit Gewalt bis aufs letzte sparen muss und sind ein absolut kritisches bauteil (Kein Speicher --> WEBB funktionslos). Da hätte man durchaus Hunderte GB zusätzlich an gehärtetem SLC-Flash reinlöten können.

Ich kann es verstehen. Irgendwann ist das ganze festgezurrt und dann wird mit der Arbeit angefangen. Änderunge bringen alles durcheinander. Du willst mehr Speicher einbauen, wozu? Damit der genutzt werden kann müssen sich dann die anderen Abteilungen auf deinen tollen Speicher einstellen. Ehe man es sich versieht ist ein weiteres Jahrzehnt vergangen.

Erinnert mich irgendwie an den Eurofighter. Da würde ja auch bemängelt, dass der eine Uralt CPU hat. Natürlich hat er die, denn er wurde in den 80ern entwickelt. Wenn man da eine neue Gamingtaugliche CPU eingebaut hätte, dann würde sich das ganze nochmal 10 Jahre verzögern und dann nochmal

Ein Teil des gelungenen Projektmanagements: irgendwann muß man es auch durchziehen.

Ihr könnt ruhig mehr Infos bringen, wie der verwendete RAM, CPU usw, oder wollt ihr das alles in separate News aufspalten?

Ist das eine rhetorische Frage?
 
Was heißt denn hier nur?
Das JWST macht vor allem Aufnahmen mit sehr langer Belichtungszeit (mehrere Stunden).
D.h. an den meisten Tagen wird es irgendwo so um die 1Gbyte/Tag oder noch weniger benötigen
 
Du willst mehr Speicher einbauen, wozu?
Damit ein Hunderte Millionen teures Teleskop nicht nutzlos wird, wenn SSD1 den Abgang macht.
Es geht nicht darum alles umzuwerfen um von mehr SPeicher zu profitieren sondern darum, dass man ohne Aufwand viel mehr Redundanz einbauen könnte.
Es muss nicht mal was kaputt gehen - wenn es so knapp bemessen ist wie aktuell braucht nur mal was bei der Datenübertragung zur Erde schiefzugehen schon muss das Teleskop den Betrieb einstellen bis bei der nächsten gelegenheit die Daten übertragen wurden denn weitermachen ist ja nicht weil der Speicher voll ist.

Ein Teil des gelungenen Projektmanagements: irgendwann muß man es auch durchziehen.
Klar. Nur ändert ein "baue statt 70GB halt 470GB ein" am Ablauf nichts... wenn man nicht das 70GB-Teil schon seit 10 Jahren da liegen hat...

Das JWST macht vor allem Aufnahmen mit sehr langer Belichtungszeit (mehrere Stunden).
D.h. an den meisten Tagen wird es irgendwo so um die 1Gbyte/Tag oder noch weniger benötigen
So hohe Belichtungszeiten sind nicht zwingend "Blende ewig aufstehen lassen", da werden ggf. auch viele Bilder gemacht und die danach übereinandergelegt. Dann brauchste für die zu kombinierenden Bilder schon den Platz. ;-)
 
Ich denke mal dass die erstens sehr gut wissen was sie brauchen und deren Programmierer wohl auch um Welten besser sind als das was in Gaming Studios rum tippt… die verdoppeln halt einfach den RAM bei den Anforderungen und fertig. Da gibt es keinen Grund so sparsam wie möglich zu sein.
 
Ich verstehe da nicht so ganz warum das an der Stelle derart in Stein gemeißelt ist. Ich meine NAND-Chips haben jetzt nicht die Größe und Gewicht dass man mit Gewalt bis aufs letzte sparen muss und sind ein absolut kritisches bauteil (Kein Speicher --> WEBB funktionslos). Da hätte man durchaus Hunderte GB zusätzlich an gehärtetem SLC-Flash reinlöten können.
Die größten weltraumtauglichen SSDs von heute sind gar nicht so viel größer als die 70 GB, die RH3480 SSDR von Mercury ist z.B. auch "nur" 480 GB groß.

Das Problem bei solchen Bauteilen ist, dass man eben nicht einfach neuen NAND Flash reinlöten kann. Die neuen Flash Zellen verlangen mit ziemlicher Sicherheit einen neuen Speichercontroller, im schlimmsten Fall brauchen die Zellen oder der neue Controller auch noch andere Bus- oder Versorgungsspannungen - und schwups hat man ein paar Redesigns im Platinenlayout und eine Menge zusätzlicher Komponenten am Hals, die alle wieder validiert und getestet werden müssen.

Auf der Softwareseite sieht es nicht besser aus, da braucht es mindestens mal neue Treiber damit die archaische CPU sich mit einer modernen SSD verständigen kann.

Ich denke schon, dass man sich das angeschaut hat. Nur hat man wohl beschlossen, dass die potentiellen Vorteile nicht die Arbeit und Risiken aufwiegen.
 
Und eines darf man bei der Robustheit des Speichers auch nicht vergessen.
Die Lebensdauer!
Da das J.W. Treibstoff gespart hat, kann es nun bis zu 20 Jahren operieren.
Hoffe die SSD hält durch, bei den täglichen Schreib-, und Löschvorgängen.
 
Damit ein Hunderte Millionen teures Teleskop nicht nutzlos wird, wenn SSD1 den Abgang macht.

Es gibt da keine SSD1, das sind viele Module, die man auch einzeln ansteuern kann. Das ganze setzt sich eher aus mehreren duzend SSDs zusammen.

Die Leute haben aus Hubble gelernt.

Es geht nicht darum alles umzuwerfen um von mehr SPeicher zu profitieren sondern darum, dass man ohne Aufwand viel mehr Redundanz einbauen könnte.

Nimm es mir nicht übel, aber du scheinst von solchen Projekten wenig Ahnung zu haben. Wer behauptet, man könne ha ohne Aufwand irgendwas ändern, weiß einfach nicht, womit er es zu tun hat.

Es muss nicht mal was kaputt gehen - wenn es so knapp bemessen ist wie aktuell braucht nur mal was bei der Datenübertragung zur Erde schiefzugehen schon muss das Teleskop den Betrieb einstellen bis bei der nächsten gelegenheit die Daten übertragen wurden denn weitermachen ist ja nicht weil der Speicher voll ist.

Im Text stand ganz klar, dass das Ding normalerweise zweimal am Tag ausgelesen wird. Man hat also schon eine doppelte Redundanz, zusätzlich zur normalen Redundanz. Wenn also irgendwann wirklich soviel kaputt geht, dann wird man das Ding eben zweimal am Tag auslesen müssen. Das macht es zwar unbequemer, ist aber kein Beinbruch.

Die Leute haben schon an sowas gedacht.

Klar. Nur ändert ein "baue statt 70GB halt 470GB ein" am Ablauf nichts... wenn man nicht das 70GB-Teil schon seit 10 Jahren da liegen hat...

Ähm nein, das ändert einfach alles.

Zum einen kann man nicht einfach so anderen Flash hernehmen. Im Weltraum nimmt man gerne große Strukturgrößen, weil die nicht so anfällig sind. Man wird also nicht einfach eine größere SSD reinstopfen können, wie bei einem PC, sondern das Ding wird dann einfach 6 mal größer werden. Größe ist nicht gern gesehen, da extrem teuer. Danach kann man dann auch fragen, warum man die Solarzellen nicht einfach vervierfacht, die sind auch wichtig und ohne Strom ist das Teleskop erst recht hin. Am Ende kann man einfach zwei oder drei Teleskope hochschicken, das wäre sogar die bessere Alternative.

Aber nehmen wir mal an, sie nehmen anderen Speicher. Dann muß man mit dem testen wieder von vorne anfangen und das bedeutet einfach nur irre Verzögerungen. Alleine die Bestrahlungs- und die Langzeittests werden irre viel Zeit in Anspruch nehmen. Wenn man schonmal den Speicher komplett überarbeitet, dann kann man die ganzen Verzögerungen auch einfach nutzen, um die ganzen Computer völlig neu zu denken, die Zeit hat man ja. Am Ende wird sich die Frage stellen, ob man nicht das ganze Teleskop komplett neu Entwickelt, immerhin hat sich ja schon vieles verbessert.

Am Ende bekommst du den Duke Nukem der Teleskope. Das ist auch ein gutes Stickwort. Der Duke hat nicht so lange gebraucht, weil es so komplex war, sondern weil man drei mal neu angefangen hat.

Irgendwann ist einfach ein Punkt erreicht, an dem man es einfach durchziehen muß und das gilt für alle großtechnischen Projekte. Ausnahmen gibt es nur wenige.
 
Ich denke schon, dass man sich das angeschaut hat. Nur hat man wohl beschlossen, dass die potentiellen Vorteile nicht die Arbeit und Risiken aufwiegen.
Klar hat man sich das angeschaut. Wir können von hier aus sowieso nur spekulieren - dass aber die Variante "reicht grade so aus" gewonnen hat muss schon gute Gründe gehabt haben. :ka:

ber du scheinst von solchen Projekten wenig Ahnung zu haben. Wer behauptet, man könne ha ohne Aufwand irgendwas ändern, weiß einfach nicht, womit er es zu tun hat.
Ich habe fast 10 Jahre als Projektingenieur gearbeitet... übrigens sogar am Material der Boosterraketen, mit denen WEBB hochgeschossen wurde. ;-)
Es gibt Dinge, die man sehr schnell und ohne Aufwand und sehr spät noch ändern kann. Ob das bei Speicherplatz im WEBB so ist oder nicht kann ich (und du) nicht beurteilen - aber es sollte zumindest erlaubt sein es zu hinterfragen.

Hoffe die SSD hält durch, bei den täglichen Schreib-, und Löschvorgängen.
Da wir hier mit ziemlicher Sicherheit von SLC in großen Strukturen reden sollten sie das locker aushalten.
 
Klar. Nur ändert ein "baue statt 70GB halt 470GB ein" am Ablauf nichts... wenn man nicht das 70GB-Teil schon seit 10 Jahren da liegen hat...
Stelle dir mal vor was es kostet und wie viel Zeit es in Anspruch nimmt, wenn du für dich persönlich eine einzelne 400-500 GB SSD herstellen lässt, die nicht nur massive Stöße aushält, sondern auch extreme Kälte/Hitze und alle Arten von Strahlung.
Es ist ja nicht nur so, dass einfach irgendwelche Chips auf eine Platine gepappt wurden. Jedes einzelne Teil ist eine Sonderanfertigung für dieses Teleskop, welches drei mal so teuer und erst mit 10 Jahren Verspätung hoch geschickt wurde.

Wenn man das alles bedenkt, ist es völlig unnötig noch mehr Speicher als nötig einzubauen.
 
Klar hat man sich das angeschaut. Wir können von hier aus sowieso nur spekulieren - dass aber die Variante "reicht grade so aus" gewonnen hat muss schon gute Gründe gehabt haben. :ka:

Dein "reicht gerade so aus" stimmt eben nicht. Wie gesagt: wenn man das Ding zwei mal am Tag ausliest (wie es normal ist), dann reicht auch die Hälfte des Speichers aus. Ob man die Daten zur Not auch vier mal am Tag auslesen kann, weiß ich nicht, man wird aber wohl an diesen Fall gedacht haben.

Du verdrehst hier die Tatsachen.

Ich habe fast 10 Jahre als Projektingenieur gearbeitet... übrigens sogar am Material der Boosterraketen, mit denen WEBB hochgeschossen wurde. ;-)
Es gibt Dinge, die man sehr schnell und ohne Aufwand und sehr spät noch ändern kann. Ob das bei Speicherplatz im WEBB so ist oder nicht kann ich (und du) nicht beurteilen - aber es sollte zumindest erlaubt sein es zu hinterfragen.

Bei diesen Dingen wird man wohl garantiert nichts mehr in Letzter Minute ändern können.

Stell dir vor du setzt dich mit deiner Idee durch und plötzlich schrumpft die Strahlung deine tolle Riesen SSD wie Schnee in der Sahara (von mir aus auch etwas langsamer). Nach zwei Jahren hat die Strahlung die SSD völlig platt gemacht.

In dem Fall, Glückwunsch: du hast erfolgreich eines der größten Projekte der Menschheitsgeschichte ruiniert. Ab sofort wird dein Name in keiner Dokumentation mehr fehlen, in denen es um Leute geht, die es so richtig verbockt haben. Die Geschichte von dem Typen, der eine größere SSD einbauen wollte und alles kaputt gemacht hat. Dein Ruhm wird wohl Jahrtausende währen (kein Scherz, wir machen uns heute noch über Typen des Altertums lustig, die richtig schön ins Klo gegriffen haben). Erinnerst du dich an den Typen, der eine Marssonde ruiniert hat, weil er imperiale mit metrischen Einheiten verwechselt hat? Du wirst die größere Nummer sein.

Natürlich wird man das Testen und zwar sehr, sehr ausgiebig. Das gehört garantiert nicht zu den Dingen, die man schnell ändern kann.
 
Stell dir vor du setzt dich mit deiner Idee durch und plötzlich schrumpft die Strahlung deine tolle Riesen SSD wie Schnee in der Sahara
Und du sagst zu mir ich würde Tatsachen verdrehen?

Schon ok, man verzeihe mir dass ich etwas in Frage gestellt habe (nicht mal warum die SSD so klein ist sondern "warum das an der Stelle derart in Stein gemeißelt ist") und damit anscheinend Menschheitsgeschichte ruinieren wollte. :ugly:

Ich kann zwar den Grund nicht erkennen warum du da so hart getriggert wirst und statt über technische Dinge zu diskutieren lieber mich angreifst aber seis drum, ich will dir keine Zacken aus deinem imaginären Krönchen abbrechen, keine Sorge. Wir können uns gerne drauf einigen dass du in allem Recht hast (von mir aus auch mit dem Menschheitsgeschichtending) wenns dir dann wieder besser geht. ;-)
 
Und du sagst zu mir ich würde Tatsachen verdrehen?

Der Punkt ist einfach, dass deine Behauptung "reicht grade so aus" ganz einfach nicht stimmt. Das ist eine beweisbare Tatsache.

Schon ok, man verzeihe mir dass ich etwas in Frage gestellt habe und damit anscheinend Menschheitsgeschichte ruinieren wollte. :ugly:

Der Punkt ist einfach, dass ein 10 Mrd $ Projekt hin ist, wenn da ein gravierender Fehler unterläuft. Einfach mal so den Speicher auszutauschen und das Ding schlecht getestet hochzuschicken ist eben eine massive Fehlerquelle.

Mit 10 Mrd $ ist es eines der teuersten Projekte der Menschheit. Die Cheopspyramide hätte nur 6 Mrd $ gekostet, die chinesische Mauer war etwas teurer und ganz oben steht die ISS, mit über 100Mrd $ Gesamtkosten.

Wenn man solche Dinge kaputtpfuscht, dann bleibt das nicht unbemerkt.

Ich kann zwar den Grund nicht erkennen warum du da so hart getriggert wirst und statt über technische Dinge zu diskutieren lieber mich angreifst aber seis drum, ich will dir keine Zacken aus deinem imaginären Krönchen abbrechen, keine Sorge. Wir können uns gerne drauf einigen dass du in allem Recht hast (von mir aus auch mit dem Menschheitsgeschichtending) wenns dir dann wieder besser geht. ;-)

Du versuchst dich so billig aus der Affäre zu ziehen? Ach komm schon, das habe ich dir nicht zugetraut.

Erinnert mich an einen Querdenker, der behauptet hat, es gäbe keine Viren, da er nur glaubt, was er mit eigenen Augen sieht. Ich habe ihn dann gefragt, wie es mit der Schwerkraft ist, die Gravitation hat auch noch keiner gesehen, genau wie den elektrischen Strom. Das gab dann ähnliches.

Der entscheidende Punkt ist, dass es sehr, sehr gute Gründe gibt, warum man eben keine größere SSD einbaut. Die NASA, ESA und die kanadische Weltraumagentur werden diese Gründe sehr gut abgewogen haben. Manchmal gibt es eben sehr gute Gründe etwas nicht zu machen, auch wenn sie sich einem sofort erschließen.

Irgendwie kannst du es nicht zugeben oder zumindest mit der Tatsache leben, dass du falsch gelegen haben könntest und ziehst jetzt diese kindische Sache ab (hätte ich von die nicht erwartet).
 
Zurück