Secure Boot / Bios Passwort - Bad Disk-Symptom

GoChris

Schraubenverwechsler(in)
Ich habe mal eine SSD einfach aus dem Slot (mit Slimslot-Adapter) eines Notebooks gezogen - während das System hochgefahren war. Daraufhin konnte ich die SSD nicht mehr in anderen PC-Systemen verwenden (Bad Disk - konnte nicht initialisiert werden).

Ich dachte erst, das Rausziehen hat die SSD gekillt (denn die DVD-Slotlaufwerksanschlüsse sind nicht Hotswap-fähig). Aber später wurde mir klar, das es offenbar am Bios-Passwort oder der Secure Boot-Funktion lag, die dann das Laufwerk in anderen Systemen sperrt, wenn die SSD mit der Funktion gesichert wurde.

Wie kann man nun solcherart Datenträger, wenn sie deswegen ein "Bad Disk"-Symptom (in MiniTool partition wizard) aufweisen, oder von Windows nicht mehr erkannt werden, wieder funktionsfähig machen, ohne, das man das Notebook, womit der Datenträger gesichert wurde, dazu verwendet? (etwa, weil man das Notebook nicht mehr hat)?

Mit einem Partitionsprogramm hat das nicht fuznktioniert. Es wird (bei MiniTool) eine "Bad Disk" angezeigt und im Kontextmenu keine Möglichkeiten der Formatierung oder andere Funktionen angezeigt.
 
Wenn sich das Drive über die stinknormale DATENTRÄGERVERWALTUNG von Wondows nicht löschen/neu einrichten läßt -> Laufwerk defekt !


Für sowas braucht es keinen 3. Party Mist mehr !

BTW . Ein verschlüßeltes/geschütztes Dirve wird grundsätzlich TROTZDEM auf Hrdware-Basis erkannt und "nur" der Zugriff auf Daten-ebene verhindert. Dies umfasst aber NICHT das löschen/neu erstellen von Logischen Laufwerken da dies mit Löschung einhergeht -> Schutzfunktion wurde erfüllt.
 
Ich dachte erst, das Rausziehen hat die SSD gekillt
Der Gedanke war der richtige.
Eine Secure-Funktion verhindert nicht dass das Laufwerk erkannt wird oder formatiert werden kann sondern nur dass Daten ohne Passwort gelesen werden können.
Wenn die SSD nicht oder als "bad" erkannt wird ist sie wahrscheinlich hinüber (warum in aller Welt zieht man auch ne SSD im laufenden Betrieb aus einem Slot?).
 
Nun, bei der erwähnten SSD war das so, das nach dem Rausziehen "Bad Disk" angezeigt wurde. Aber nachdem ich sie wieder ins Notbook einlegte und das Passwort für Secure Boot oder Administrator-Passwort löschte und die Funktionen deaktivierte, konnte ich die SSD auch auf anderen Systemen wieder zugreifen und Formatieren oder Partitionen verändern.

Also irgendwas hat verhindert, das der Datenträger auf anderen Systemen verwendbar war. Und zu diesem Fall wollte ich eben fragen, was man tun kann, ohne das gerät zu benutzen, mit welchem die Sicherheitsfunktion eingerichgtet wurde.

...

Weil die Datenträgerverwaltung bei Win10 nicht leicht zu finden ist (in den Menus, wie noch bei Windows 7), verwende ich das MiniTool zur Partitionierung. Und meistens tut es auch, was man erwartet.

Sollte es tatsächlich so sein, das die Windows Datenträgerverwaltung mehr Funktionen oder Rechte besitzt, als das MiniTool?


Und das man Laufwerke nicht vom Anschluß abziehen soll, ist hier nun kein Argument. Denn es war schlicht nicht das Problem, worum es geht. Das Windows sowieso immer so einen Aufstand macht, wenn man USB Sticks ohne sie vom System zu trennen, abzieht, ist mehr aufwand und funktion, als man alltäglich benötigt.
Und ist nur so zu verstehen, das Windows irgendeine besondere "indizierung" auf dem Datenträger hinterlässt, der prinzipiel nicht wirklich notwendig ist. Solange man den Datenträger nicht beim schreiben auf dem Datenträger abzieht, dürfte es nie Probleme geben.

Aber Windows beansprucht mit der Ausrede, es ginge um "Datensicherheit" immer eine spezielle Indizierung des Datenträgerinhaltes. Kann man das im Betriebssystem abschalten, damit USB-Sticks unkomplizierter verwendbar sind?
 
Nun, bei der erwähnten SSD war das so, das nach dem Rausziehen "Bad Disk" angezeigt wurde. Aber nachdem ich sie wieder ins Notbook einlegte und das Passwort für Secure Boot oder Administrator-Passwort löschte und die Funktionen deaktivierte, konnte ich die SSD auch auf anderen Systemen wieder zugreifen und Formatieren oder Partitionen verändern.
Das ist ziemlich kurios. Denn normalerweise sind auch verschlüsselte SSDs normal verwendbar und nicht "bad" - nur kann man halt die Daten nicht auslesen.

Weil die Datenträgerverwaltung bei Win10 nicht leicht zu finden ist
drück die Windowstaste auf der Tastatur und tippe "Verwaltung" --> erstes Ergebnis. Niemand braucht noch die Menüs seit Win7 für sowas auswendig zu lernen... die ändern sich sowieso gefühlt mit jedem zweiten Patch^^

Sollte es tatsächlich so sein, das die Windows Datenträgerverwaltung mehr Funktionen oder Rechte besitzt, als das MiniTool?
Mehr Funktionen nicht unbedingt aber mehr Rechte garantiert.

Und das man Laufwerke nicht vom Anschluß abziehen soll, ist hier nun kein Argument. Denn es war schlicht nicht das Problem, worum es geht. Das Windows sowieso immer so einen Aufstand macht, wenn man USB Sticks ohne sie vom System zu trennen, abzieht, ist mehr aufwand und funktion, als man alltäglich benötigt.
Es ist ein sehr großer Unterschied ob man Geräte die genau dafür gedacht sind im Betrieb an und abstöpselt (das "sicher entfernen" ist bei USB-Sticks auch nichts was Defekte verhindern soll, das schreibt einfach nur ggf. noch vorhandene Caches in den Festspeicher um Datenverlust zu vermeiden) oder ob man das bei Geräten macht die nie dafür gedacht wurden.
Solange man den Datenträger nicht beim schreiben auf dem Datenträger abzieht, dürfte es nie Probleme geben.
Stimmt fast. So lange man keinen Schreibvorgang auf dem Datenträger ausgelöst hat der einen Cache benutzt (egal ob auf dem Datenträger selbst oder im RAM des PCs) ist es egal ob man einfach abzieht.
Wenn du dagegen sagen wir mal 10GB an Daten auf einen USB Stick schiebst dann st der Vorgang noch lange nicht abgeschlossen nachdem das "kopieren"-Fenster weg ist. Im Hintergrund wird noch immer aus RAM und Stick-Cache in den Flash geschrieben (Windows zeigt im Kopierfenster sinnigerweise NICHT an was auf den Zieldatenträger geschrieben wird sondern was vom Quelldatenträger gelesen wird...). Nur dafür ist das "sicher entfernen" da: Alle Caches leerschreiben und im falle einer HDD noch das Abschaltsignal senden.
 
(Windows zeigt im Kopierfenster sinnigerweise NICHT an was auf den Zieldatenträger geschrieben wird sondern was vom Quelldatenträger gelesen wird...).

Ich befürchte, das ist falsch. Wenn ich Daten verschiebe, dann wird die Datei auf dem primären Laufwerk erst gelöscht, wenn die Datei auf dem Zieldatenträger vollständig geschireben ist. Beim Kopieren ist das wahrscheinlich (sinnvollerweise) nicht anders, als beim Verschieben (das der prozess abgeschlossen ist, wenn die Datei im Zieldatenträger vollständig geschrieben ist ohne das Löschen auf dem Primärdatenträger).

Wenn also das Fenster für die Kopier/Verschiebung-Funktion also geschlossen wird, ist der Vorgang auch abgeschlossen.
Diese Windows-Funktion, den Datenträger vor Entnehmen mit einem Klick zu trennen, ist nur deswegen da, weil Windows Datenträger trotzdem ich keine Indizierung will, indiziert und eine Information diesbezüglich auf den Datenträger schreibt.
Das ist weiter auch ein Hinweis darauf, das Windows den Inhalt von externen Datenträgern in irgendeiner Weise Rgistriert und das ergebnis (etwa als codierter Wert) speichert. Auf dem Datenträger als numerischen Datensatz und im Betriebssystem als Information. Sowas benutzt man meistens dazu, um Spionieren zu können, damit man Datensätze leichter wiedererkennen kann und deren Status (und Verwendung auf anderen Geräten) registrieren kann.

Es ist kein großer Untescheid, ob ein Sata-Anschluß für Hotswap/Plugging ausgelegt ist, oder nicht. Mechanisch und elektrisch passiert nichts anderes: Der Datenträger wird, bei Trennung vom Anschluß, mechanisch von der Stromversorgung zuerst und von der Datenanbindung zuletzt elektrisch/mechanisch getrennt. Auf Controller-Ebene ist mir unerkärlich, wieso man Laufwerke also demonstrativ trennen muß, wenn es abstöpseln will. Es sei denn, die Software will immernoch eine Info auf dem Datenträger hinterlassen, die irgendeinem "organisatorischem" Zweck dient.
Bei nicht-hotplug anschlüssen ist es halt nur so, das der Anschluß nicht erneut verbunden werden kann. Das Abstecken hat normalerweise keine besonderen Folgen für die geschrtiebenen Daten. Selbst nicht, wenn noich Daten auf dem Cache sind. Dann ist nu rdi eDatei, die gerade noch geschrieben wird, nicht vollstädnig oder erscheint gar nicht beim erneuten Anschliessen, weilö sie nicht adressiert worden ist, was zuletzt getan wird, wenn die Datei geschrieben ist. Denn erst der erfolgriche Schreib-Vorgang lässt ja Aufschluß über die Adresse in den Blöcken zu.

Das ist ziemlich kurios. Denn normalerweise sind auch verschlüsselte SSDs normal verwendbar und nicht "bad" - nur kann man halt die Daten nicht auslesen.
So war es aber im Rückblick. Die SSD war auf anderen Systemen plötzlich "bad Disk" angezeigt worden (in MiniTool). Und ich dachte, sie wäre defekt gewesen. Aber nachdem ich sie mit dem Notebook erneut verwendete, und dann die Passwörter und Secure-Funtkionen deaktivierte, stellte sich herraus, das sie nicht deffekt war.

Ich könnte mich aber täuschen, und da wr noch eine andere Problematik. Aber die SSD funktionierte eben wieder, als ich die Secure-funktion und das Biospasswort ausschaltete.
Ich erinnere mich jednefalls daran, weil es eine große SSD war (1TB) und ich erstmal sehr geknickt war, das sie nicht mehr funktionierte.
 
Ich befürchte, das ist falsch. Wenn ich Daten verschiebe, dann wird die Datei auf dem primären Laufwerk erst gelöscht, wenn die Datei auf dem Zieldatenträger vollständig geschireben ist.
Das hat damit nichts zu tun.
Dass die Leserate und nicht die Schreibrate angezeigt wird kannste ganz einfach daran sehen dass wenn du von einer SSD auf einen USB-Stick Daten kopierst am Anfang mit vielen Hundert MB/s gestartet wird was der Stick gar nicht kann. Was da angezeigt wird ist "SSD liest in den RAM". ;-)

Wenn also das Fenster für die Kopier/Verschiebung-Funktion also geschlossen wird, ist der Vorgang auch abgeschlossen.
Nö.
Kopiere mal ne größere Datenmenge und schau dir deine RAM-Auslastung nach dem kopieren an. Die fällt danach mit der Schreibbrate des Ziellaufwerkes - purer Zufall bestimmt.

Das ist zugegeben nicht immer so, Windows entscheidet da je nach Datenträger(n) ob und wenn ja wie es sinnvoll ist den RAM als Puffer zu benutzen. Man kann das bei externen Datenträgern in den Eigenschaften sogar gezielt deaktivieren ("Schreibcache verwenden") wenn man immer ohne sicher entfernen abziehen möchte:

1640269059880.png

DANN wird die Schreibleistung angezeigt (weil diese dann eben identisch zur Leseleistung ist) und der Vorgang ist beendet wenn das Fenster weg ist.
 
Zuletzt bearbeitet:
(Windows zeigt im Kopierfenster sinnigerweise NICHT an was auf den Zieldatenträger geschrieben wird sondern was vom Quelldatenträger gelesen wird...). .

Also, ich weiß natürlich nicht, wie es wirklich ist. Aber wäre es so, dann ist das Betriebssystem eben schlicht anwenderfeindlich programmiert, wenn es zwar ein Fenster eines Prozesses anzeigt, das aber nicht den wirklichen Prozess-Ablauf anzeigt.

Und ich verstehe nur als Anwenderfeindlich, wieso das Betriebssystem nicht einfach eine Datei auf einen Datenträger schreiben kann und dann auch gleich den Wert, den es zur Indizierung braucht, gleich mit einträgt...anstatt es erst dann zu tun, wenn ich das Laufwerk zum Abziehen vom Stecker demonstrativ vom System trennen muß.

Prozesse kann man doch dann vollständig abschliessen, wann sie beendet sind, anstatt dann nochmal einen User-Befehl zu erfordern, diese Information zu generieren.


Eben ist was seltsames Passiert:
Ich habe viele Fenster offen und der Ram ist voll. Das hat zuweilen den Effekt, das ein Bluescreen geschieht.

Und das passierte eben und das System startete neu. Aber weil ich eine SSD mit dem beschriebenen Problem noch angesteckt hatte, zeigte mir das Bios an, das ein Datenträger (mit der Typbezeichnung) "locked" ist und ich ein Passwort eingeben soll, damit das System starten konnte.

ich konnte das System nur starten, nachdem ich die SSD vom Anschluß getrennt habe und neustartete.

Anscheinend ist die SSD also noch in Ordnung, nur eben gesperrt.
Das kann natürlich auch aufgrund eines Defektes so vom Bios angezteigt werden, wenn der Defekt eben solche Auswirkungen hat.
Aber es kann auch sein, das es nur gesperrt ist.

Wie also kann man das prüfen?

Mit der Windows Datenträgerverwaltung geht es nicht.
Dass die Leserate und nicht die Schreibrate angezeigt wird kannste ganz einfach daran sehen dass wenn du von einer SSD auf einen USB-Stick Daten kopierst am Anfang mit vielen Hundert MB/s gestartet wird was der Stick gar nicht kann. Was da angezeigt wird ist "SSD liest in den RAM".

Nun, es ist der Datenstrom, der über den Controller geht. Und dann dauert es natürlich noch eine Sekunde, bis der dann auch im Ziellaufwerk geschrieben ist. Und das dauert nur die Sekunde, aber nicht Minuten, bis ich dann irgendwann den Stick abziehe und mir die Datei dann nach neuanschluß ohne "Prüfen und Reparieren"" nicht angezeigt wird, weil der Eintrag für die Datei noch fehlt.

Das ist Scam und eine schlechte Userinterface-Information.
Das eine Sata- oder PCIe-Spezifikation nicht vorsehen kann, das ein Prozesssignal nach Abschluß des Proze3sses gesendet werden kann, ist auch seltsam. Wenn es dan so wäre, das nicht.

Aber trotzdem zeigt mir das Prozessfenster natürlich erst das beenden eines verschiebe-Vorgangs an, wenn die Datei im Ziellaufwerk geschrieben ist und auf dem Primärlaufwerk gelöscht wurde (oder der Befehl dafür getätigt wurde).

Und es geht natürlich nicht darum, das jeder User den Stick sofort nach dem schliessen des Prozessfensters abziehen. Sondern darum, das trotzdem schon lange kein Trafic mehr auf der Sata-Line läuft, der Datenträger noch abgemeldet werden muß, damit kein Datenverlust auftritt. Denn es kann sein, das vor jeder "Prüfung und Reparatur" die zuletzt geschriebenen Dateien eben nicht auf dem Stick als Existierend angezeigt werden. Obwohhl sie allermeist doch da sind, denn sonst ergäbe die erfolgreiche "prüfung und Reparatur" ja keinen Sinn, wenn sie die zuletzt geschriebene Datei nicht auflistet.
 
Zuletzt bearbeitet:
Aber wäre es so, dann ist das Betriebssystem eben schlicht anwenderfeindlich programmiert, wenn es zwar ein Fenster eines Prozesses anzeigt, das aber nicht den wirklichen Prozess-Ablauf anzeigt.
Klingt böse aber genau so ist es.
Es so zu machen zeigt halt höhere Zahlen und schnellere Abläufe an als sies tatsächlich sind. Marketing eben.
Aus den gleichen Gründen werden gehaltene Cacheinhalte im RAM nicht als Belegung angezeigt (zumindest nicht grafisch). Windows behält kopierte Daten dauerhaft im RAM (falls sie noch woanders hin kopiert werden sollen müssen sie nicht neu gelesen werden) bis ein anderes Programm den RAM benötigt. Um aber zu vermeiden dass Anwender durchdrehen weil ihr RAM immer voll ist versteckt man das eben.
Bei Win7 hat mans zumindest noch mit ner Zahl angezeigt:
1640270298669.png

Hier sind 2,3 von 6GB "belegt" aber nur 6MB wirklich "frei" (=leer). Die Differenz sind gecachte Daten. Seit Win10 ist die Angabe ganz verschwunden bzw noch besser versteckt:
1640270791892.png

7 von 32 GB sind bei mir grade "belegt", aber die Speicherauslastung sind 31,9 (oben rechts klein), wirklich leer sind also nur 100MB. ;-)

Windows nutzt den RAM sinnvollerweise immer wenns geht voll aus. Da man den Leuten aber nicht plausibel machen kann dass es GUT ist wenn das Betriebssystem auch 64GB RAM vollkloppt statt 60 davon ungenutzt leerstehen zu lassen zeigt mans den Leuten nicht mehr und alles ist gut.



Leider ist das, was Windows dem Nutzer anzeigt schon ewig nicht mehr das was tatsächlich passiert, frei nach "die Wahrheit könnte sie beunruhigen".

Wie also kann man das prüfen?
Das weiß ich leider auch nicht, ich habe selbst wenig Erfahrung mit Hardwareverschlüsselung von internen Laufwerken (falls es eine solche hier ist, ein "SecureBoot" ist ja nochmal was anderes).
 
Zuletzt bearbeitet:
Die "Entfernungsrichtlinie" ist mir auch nach meiner Frage im Kommentar eingefallen.

Es spricht aber nichts dagegen, den Schreibcache weiterhin zu benutzen, ohne die Komplikation mit dem Trennungsbefehl zu erfordern.
Die Programmierer oder Ingeneure sollten den Schreibcache und den Zugriffs-Prozess besser koordinieren, indem sie ein "Prozess endet" Signal vom Datenträger senden lassen, wenn die Datei geschrieben ist und daran die Prozessfensterschliessung orientieren..
So, wie es jetzt ist, ist es Anwender-stressend und unnötig kompliziert. es wird mehr Zeit benötigt, als wenn der Schreibcache ausgeschaltet würde, weil man zu oft unnütz "Prüfen und Reparieren" muß und sich rausstellt, das die Datei ja doch vollständig geschrieben wurde..
 
Es spricht aber nichts dagegen, den Schreibcache weiterhin zu benutzen, ohne die Komplikation mit dem Trennungsbefehl zu erfordern.
Richtig.
Die Programmierer oder Ingeneure sollten den Schreibcache und den Zugriffs-Prozess besser koordinieren, indem sie ein "Prozess endet" Signal vom Datenträger senden lassen, wenn die Datei geschrieben ist und daran die Prozessfensterschliessung orientieren..
Das gibts alles - aber nicht im normalen Endkundenbereich bzw. bei der Standard-Explorer-Kopierfunktion. Sobald du anfängst mit der Windows-Shell bzw der CMD zu arbeiten ist das alles in der Anzeige korrekt.

Wenn ich meine Sicherung ausführe passiert das:
1640271430193.png

1640271460696.png

Da wurde jetzt nichts ersetzt weils keine neuen Daten gab (die Sicherung ist inkrementell und ich hab sie heute MIttag schon ausgelöst) aber da wird dann alles exakt angezeigt und wenn da "FERTIG" steht dann ist auch wirklich fertig.
Leider ist im nicht-Profibereich der Schein weit wichtiger als die Technik dahinter oder die "Richtigkeit".
 
7 von 32 GB sind bei mir grade "belegt", aber die Speicherauslastung sind 31,9 (oben rechts klein), wirklich leer sind also nur 100MB.

Manchmal, wenn ich mal kritisch auf den Auslastungszustand des Rams schaue, schliesse ich einige Browser-Tabs. Aber die Speicherauslastung ändert sich dann auch kaum oder gar nicht. Windows muß dann die Daten noch im Speicher halten, obwohl es nicht nötig ist.Moderne Browser speichern ja im Verlauf nicht nur die Links, sondern auch in Kommentarmasken der Seiten eingetragene Zeichen (nicht immer, aber manchmal). Das sich Windows da "einmischt" ist vollkommen unnötig.

Und 2x 16GB liegen schon lange bei mir bereit, um sie in den PC einzubauen. Aber ich wollte daneben noch mehr am System im Gehäuse verändern (ebenso bereitliegende größere CPU und einen besseren Kühler und einen Airduct, der mit einen Lüfter im PC ersparen würde) und alles zusammen habe ich noch nicht fertig, weswegen ich mich noch mit 2x 8GB Ram rumärgere.

ich habe selbst wenig Erfahrung mit Hardwareverschlüsselung von internen Laufwerken (falls es eine solche hier ist, ein "SecureBoot" ist ja nochmal was anderes).

Es handelt sich um Samsung PM851. Also nicht die Konsumer-SSDs sondern aus dem pro-Bereich. Aber ich weiß nicht, ob die Hardware-verschlüsseln können.

Ausserdem scheint es sich nicht um Verschlüsselung zu handeln, sondern um Sperrung des Laufwerks. Was irgendwie vom Controller in der SSD bewerkstelligt werden müsste und dann den Zugriff auf die Partitionen verhindert.

Denn im Windows Gerätemanager ist die SSD auch aufgeführt.
Nur, es dauert lange, bis sie in der Datenträgerverwaltung aufgeführt werden und dann nur als "Bad disk" oder gestrichelt und ohne Partitionen und Laufwerks-Buchstabe. Und ein Initiialisierungsversuch ergibt eine Fehlermeldung (E/A-Gerätefehler). Das könnte einen Defekt anzeigen.

Aber ich habe es auch damals mit der anderen SSD nicht geschaft, sie trotz der Sperrung in Windows zu formatieren. oder zu initialisieren. Sogesehen scheint die Situation ähnlich zu sein.
 
Aber die Speicherauslastung ändert sich dann auch kaum oder gar nicht. Windows muß dann die Daten noch im Speicher halten
Das macht der Browser selbst, damit du beim Aufruf "kürzlich geschlossene Tabs" sofort wieder alles hast. Die Daten werden erst aus dem RAM gelöscht wenn sie von etwas anderem benötigt werden. Das Prinzip ist in der IT auch sehr gängig, das machen Browser genau wie Windows und die meisten anderen fortgeschrittenen Programme.
Deswegen ist auch bei RAM (und auch vRAM) Auslastungen die Menge an "belegt" nie gleichzusetzen mit der Menge an "benötigt". Immer wenn mehr Speicher da ist nutzt man ihn aus weil leerstehender Speicher ist unnötiger Speicher. Erst wenn "wichtige" Daten rein müssen fliegen die "unwichtigen" raus.

Es handelt sich um Samsung PM851.
Kommst du vielleicht mit dem Samsung Magician an die SSD ran?
 
Das macht der Browser selbst, damit du beim Aufruf "kürzlich geschlossene Tabs" sofort wieder alles hast. Die Daten werden erst aus dem RAM gelöscht wenn sie von etwas anderem benötigt werden. Das Prinzip ist in der IT auch sehr gängig, das machen Browser genau wie Windows und die meisten anderen fortgeschrittenen Programme.
Deswegen ist auch bei RAM (und auch vRAM) Auslastungen die Menge an "belegt" nie gleichzusetzen mit der Menge an "benötigt". Immer wenn mehr Speicher da ist nutzt man ihn aus weil leerstehender Speicher ist unnötiger Speicher. Erst wenn "wichtige" Daten rein müssen fliegen die "unwichtigen" raus.


Kommst du vielleicht mit dem Samsung Magician an die SSD ran?

Das mit Samsung Magician habe ich damals auch bei der Notebook-1TB SSD-Problematik versucht, aber ohne Erfolg. ich versuche es aber jetzt nochmal.

Also "mehr Schein als Sein"...
was ja eigendlich eine Anmaßung an den User ist und zuweilen probleme auslösst, die sonst nicht wären.
Ausserdem könnte man den Stromverbrauch von Ram verringern, wenn man ihn nicht voll Auslastet und nur jene Speicherbereiche taktet, die auch belegt sind und gebraucht werden.

Ehrlich: Windows ist so groß und erfolgreich geworden, weil sie aus der Anwender-Communitye viel Kritik bekam und erst deswegen konnten sie ein heute relativ Stabil laufendes System hinbekommen. Ansonsten habe ich das Gefühl, das die Konstrukteure und Programmierer nur rudimentär wissen, was sie da tun. Und den Rest macht eben die User-Gemeinde.
Was meint, das wir hier... trotzdem es nicht mehr nötig scheint (schon wieder der Schein) ....für Microsofrt ihr Produkt verbessern... zumindest schon mal theretisch. Ohne den User wüssten die Programmierer nicht, was sie programmieren müssten.
Das es also bis heute noch kein" Windows Open-Source" gibt, wo doch die Anwender all die ganze "Verbesserungsanstöße" brachten, ist eine Art Skandal. Sicher würde Microsoft damit argumentieren, das dann ja niemand mehr an der Verbesserung arbeiten würde, wenn man Windows verallgemeinern würde (Open Source draus macht). Aber das ist nur eine Ausrede, denn selbstverständlich geht nur das Eine oder das Andere, aber es gilt auch, das ein "fertiges Produkt" keine Verbesserungen mehr braucht.

Mit Facebook ist es ja genauso: Als es funktionel keine Verbesserung mehr brauchte, kam die Überführung in den kommerziellen Rahmen. Und damit auch die Rechtfertiguung, das man Gekld verdienen müsste, um das Produkt aktuell zu halten. Aber ein "fertiges Produkt" braucht schlicht keine Verbesserungen. Facebook hat prinzipiel so funktioniert, wie es anfangs gedacht war. Und ab dann wäre es sinnvoll gewesen, es zu verallgemeinern.

So sehen wir, das sich ein Mensch (und einige Millionen Aktionäre) mit Facebook ihren Reichtum ewig vergrößern und das auf Kosten der anwender machen, die einst notwendiger und hilfreicher Teil der Verwirklichung des Profduktes waren. Dabei ist für den Anwender/User selbst eher nicht mehr brauchbare Funktion ins Facebook-Urprinzip gekommen, sondern nur Kontroll- und Manipulationsschnittstellen für die Wirtschaft und Politik.

Gegenwärtig läuft viel schief bei der Digitalen Welt. Das Microsoft zwar großsspurig populiert, das man eine Lizenz zum Betriebssysytem braucht, aber oft genug die automatische Aktivierung ohne Zutun abläuft, hat auch so seinen nicht ganz redlichen Hintergrund. Man will ja die Menschen ans Digitale Binden, damit man sie ausspionieren kann.

Das ist so ähnlich, wie mit der Drogen prohibition, die auch nur "demonstrativ" ... also symbolisch durchgesetzt wird. Und also nur "öffetnlichkeitswirksam" existiert, aber sonst keine Durchsetzung stattfindet.

Solche Begebenheiten zeigen an, das die gesamte "Kultur" in erheblicher Schieflage existiert und praktisch alle darin belügt. Inklusive sich selbst... wobei die besten Lügner ja solche sind, die gar nicht begreifen, womit sie lügen.
 
Ausserdem könnte man den Stromverbrauch von Ram verringern, wenn man ihn nicht voll Auslastet und nur jene Speicherbereiche taktet, die auch belegt sind und gebraucht werden.
Der Verbrauch des RAMs (in aktueller Form) ist unabhängig von seinem Füllstand sondern abhängig davon abhängig wie viele Zugriffe erfolgen.
Nur bestimmte Speicherbereiche "takten" bedeutet, dass die im Ruhezustand sofort leer wären da keine Auffrischung mehr erfolgt. Der Aufwand um das koordiniert hinzubekommen rechtfertigt nicht ansatzweise das eine Watt, das ein PC dadurch ggf. sparsamer würde.
Ehrlich: Windows ist so groß und erfolgreich geworden, weil sie aus der Anwender-Communitye viel Kritik bekam und erst deswegen konnten sie ein heute relativ Stabil laufendes System hinbekommen. Ansonsten habe ich das Gefühl, das die Konstrukteure und Programmierer nur rudimentär wissen, was sie da tun.
Die wissen sehr wohl was sie da tun, MS beschäftigt wie alle großen Techunternehmen Scharen an extrem fähigen Programmierern. Nur sind Verbesserungen im Heimbereich einfach weil Windows nunmal alles kann was 99+% der Leute brauchen (und das seit zig Jahren) fast nur noch kosmetisch. Man macht heute einen Aufriß darüber ob Ecken Rund oder eckig sind und ob das Startmenu in der Mitte oder links ist als wäre das das wichtigste an einem Betriebssystem. Die Programmierer tun dabei eben das, was sie von der Konzernführung verordnet bekommen.
 
Wo man die ganze RAM-Geschichte auch gut nachvollziehen kann:

"Ressourcenmonitor"
(braucht man auch nirgends suchen, einfach "resmon" ins Startmenü tippen und "Enter" drücken)
1640282289062.png
 
Die wissen sehr wohl was sie da tun ... die ....extrem fähigen Programmierer

Nun ja, wenn sie nur tun, was die Konzernführung verordnen, dann.... mag ihr Wissen eher nebensächlich sein.
So ist das immer, wenn das eigendliche produkt funktioniert, aber das geschäft weitergehen muß und dann nicht nur wirtschaftliche, sondern auch politische aspekte und Interessen zur Leitidee werden, und in die Produkte einzug erhalten.
Programmierer-Ethik bleibt dann schnell auf der Strecke. "Don´t be evil" sieht aus der Perspektive der Größenwahnsinnigkeit auch vollkomen anders aus. Was meint, das sogenannte "gesellschaftliche Interessen" regelmäßig oder immer über Individualrechte und Freiheiten geht. Und weil diese diffuse "gesellschaft" über allem steht, aber nicht genau genug definiert ist, kann man noch das Böseste vor sich und der Welt rechtfertigen.

Als es noch darum ging, überhaupt ein funktionierendes System hinzu bekommen, gab es wenig Anlass zu Zweifel an der Ethik. Denn es gab ein tatsächlich gesellschafgtliches Interesse daran. Heute sind die wirtschaftlichen und politischen Interessen überwiegend.

Einst sagte ich mal, als Windows XP regelmäßig zusammenrbrach, das, wenn mal nicht meine eigene Dämlichkeit dafür verantwortlich war, sondern Viren oder Trojaner, wenigstens das Betriebssystem stabil bleiben sollte (sodass man es nicht ständig neu installieren muß), dann wäre es mir egal, wer und was auf meinem System rumstöbert und spioniert.

Aber das war eine sehr naive und kurzsichtige Aussage.

Seit dem UEFI Bios muß man sich auch fragen, wieviel Steuerung auch am Betriebssystem vorbei über Netzwerke möglich sein kann. Dazu sind ja nicht besonders aufwändige Prozessoren nötig, sondern nur "Abzweige" der eh bestehenden einfachsten Informationsverarbeitung innerhalb der UEFI-Ebene und Datentrafik der jeweiligen Schnittstellen, die allesamt im Bios zusammenkommen. oder von dort ausreichend steuerbar sind

So kann der zufällig aufgetretene Absturz vorhin auch von Extern initialisiert worden sein.
Denn immer, wenn so ein Absturz bei mir geschieht, so scheint es, das ich gerade etwas brisantes Geschrieben habe...
Auch die Seltsamkeit, das ich offline was schreibe, und dann online sogenannte "Beitragsvorschläge" durch die Algorythmen mit dem Thema bekomme, das ich gerade offline behandelt habe, ist verdächtig genug.

Wie kommt man vom Chip in der Hand auf seine Funktion, die er durch die inneren Schaltungen ermöglichen kann?

Das ist gar nicht so einfach bei Strukturgrößen im Nanometer-Bereich. Der8auer hat mal ein Labor besucht, wo man solche kleinen Strukturen irgendwie abtasten und sichtbar machen kann. Wenn es so aufwändig ist, diese Strukturen zu überprüfen, dann ist Vertrauen nicht gut, weil kontrolle unmöglich (für Jedermann). Bei den Videos ging es darum, wie sich Intels gegen AMDs 7nm darstellen. Und das sichtbar eResultat war, das man bei solcher Struktur-"Kleinheit" soviele Abtastungen mit sowas, wie einem Elektronenmikroskop (oder ähnliches) womöglich einige Jahre braucht, um einen modernen Chip vollständig "erkundet" zu haben und sozusagen "nachgezeichnet" hat.

So ähnlich, wie man vor Jahren begonnen hat, das Gehirn (irgendeines Lebewesens) in superdünnen Scheiben zu schneiden, zu Fotografieren und zu Kartografieren. Ich glaube, die schnippeln heute noch. Und die Datenmenge wird wohl auch gigantisch sein, die da angehäuft wird.

Das meint jedenfalls nur, das sie wohl wissen, was sie da tun, aber ethisch und redlich kaum mehr hinter den Entscheidungen stehen können, die da getätigt werden.
Wenn man aber genauer nachfragt, heisst es dann hinter vorgehaltener Hand, das es dafür getan wird, weil die Demokratie nicht die Bedingungen herstellen und erhalten kann, auf denen sie beruht, weswegen Mechanismen in die Kulturtechnik eingebaut werden müssen, um das doch ermöglichen zu können.

Im Zusammenhang mit anderen "Maßnahmen" kommt dabei aber nur eine noch höher "instabilere" Konstitution herraus, die nur bestehen kann, wer maximale Fitness hat und daher sowieso keine echte "Demokratie" besteht, sondern auch wieder nur eine "Meritokratie", die durch die Fähigkeit zum Machen herrscht. Das "Stimmvolk", das nach üblicher Vision über Demokratie die wichtigste Instanz sei, ist darin nur Statist, die sowieso nur für das stimmen, was vorgelegt wird. Und dei Freiheit der "freien Welt" nur die Freiheit der darin Erfolgreichen sei, aber nicht der Normalmenschen selbst.

Die latente Instabilität dieses Konstrukts kann man nicht sehen, weil über das, was darin scheitert, niemand mehr Aufmerksamkeit verschwendet. Die "glaubwürdfigkeit" des Opfers ist sowieso regelmäßig taktisch diskreditiert, damit auch ja immer wieder klargemacht wird (subliminal), das die Opferrolle keine Relevanz in dieser Gesellschaft hat.
 
Zuletzt bearbeitet:
Zurück