Blog Alkis Blog #48 - Der Backup Blog

Incredible Alk

Moderator
Teammitglied
Hallo liebe PCGHXler,

erschreckt musste ich feststellen, dass der letzte Blogeintrag von mir schon über ein Jahr alt ist (und deutlich über 10.000 Aufrufe hat?! Ich verspüre einen gewissen Qualitätsdruck^^). Mangels passender bzw. im Forum sehr häufig nachgefragter neuer Themen hatte sich da wenig ergeben. Nun gibt’s aber wieder einen Themenbereich, den ich relativ häufig in Antwortposts umreißen muss aber aufgrund seiner Komplexität nicht in drei Sätzen abgearbeitet werden kann und eine klassische Wall-of-Alkis-Blog-Text verlangt: Die Frage nach der Datensicherheit oder umgangssprachlich das Backup.

Eins vorweg: Der folgende Textberg erhebt keinerlei Anspruch auf Vollständigkeit (das kann ich bei dem Thema sowieso niemals leisten) und mein Ziel ist es auch ausdrücklich nicht, hier eine Anleitung zu schreiben mit welchen Programmen man wo wie welche Backups abspeichern sollte oder wie man Systemwiederherstellungen durchzieht, solche How-Tos gibt’s im Netz mehr als genug. Es geht hier darum, Hintergründe von Datensicherheit in zwei großen Themenbereichen (Backupstrategien und Kryptografie) zu erklären, häufig gemachte Fehler zu beleuchten und vielleicht auch mit einigen falschen Vorstellungen aufzuräumen, die in der Bevölkerung offenbar leider sehr verbreitet zu sein scheinen. Ziel soll es sein, dass der geneigte Leser am Ende dieses Blogs ein solides Grundwissen darüber hat, wie er praxisnah dafür sorgen kann, erstens nie wieder wichtige Daten wie etwa unwiederbringliche Familienfotos und ähnliches zu verlieren und zweitens diese gegen unerwünschte Mitleser zu schützen. Fertig? Los!




TEIL 1: Kein Backup – Kein Mitleid.


Dieser Spruch ist so berühmt, dass es schon T-Shirts mit entsprechendem Aufdruck von der Stange zu kaufen gibt. Blöderweise macht ihn das nicht weniger richtig, denn tatsächlich ist der mit Abstand häufigste gemachte Fehler beim Thema Datensicherheit, sich schlichtweg nicht darum zu kümmern. Von allen Threads die dieses Thema zum Inhalt haben sind mindestens zwei Drittel Anfragen, wie Daten wiederhergestellt werden könnten nachdem sie bereits verloren wurden, da kein Backup existiert – was heutzutage aufgrund des Siegeszuges der SSDs meist im Totalverlust der Daten endet (da SSDs im Gegensatz zu Magnetspeicherplatten prinzipbedingt Daten hart mit Nullen überschreiben müssen um performant zu bleiben und daher eine nachträgliche Datenrettung nahezu immer unmöglich ist).

Aber der Reihe nach: Um ein sinnvolles Backupkonzept zu erstellen, das möglichst gut gegen verschiedene Gefahren schützen kann muss zunächst klar sein, welche Gefahren denn drohen. Denn, für viele Nutzer wohl eher überraschenderweise, ist es eben meist nicht der Defekt der Festplatte, der zum Backup greifen lässt…


Gefahren für Daten

1. Der Bediener

So blöd es sich anhören mag, aber der bei weitem häufigste Grund für verlorene Daten sind keine Defekte sondern schlicht und ergreifend menschliches Versagen. Da werden falsche Laufwerksbuchstaben formatiert, Daten ungewollt überschrieben, an falsche Stellen kopiert, ausgeschnitten statt dupliziert oder Dateispeicherorte einfach vergessen. Die Liste menschlicher Fehler an der Stelle ist endlos. Besonders gefährlich daran: Der fehlerbehaftete Bediener ist nicht nur Herr über seine Daten sondern auch über seine Backups oder andere Systeme die er fälschlicherweise für solche hält. Oder anders gesagt: In ggf. vorhandenen Backups kann natürlich genauso ungewollt gelöscht, überschrieben, vergessen und so weiter werden was sie unbrauchbar macht. Die fortgeschrittene Form dieses Problems ist, das auch noch zu automatisieren – beispielsweise durch Backupsoftware die alle paar Minuten gemachte Änderungen inkrementell in ein Backup schreibt ohne eine Versionshistorie zu unterhalten und somit Fehler des Bedieners 1:1 ins Backup schreibt. Noch schneller geht’s nur mit RAID-Systemen wo noch immer viele Leute glauben es wäre ein Backup. Nein, ist es nicht – RAID erhöht (ggf.) Performance und DatenVERFÜGBARKEIT, nicht DatenSICHERHEIT, denn eine versehentlich überschriebene Datei wird im RAID auf allen evtl. vorhandenen Spiegelungen ebenfalls überschrieben.

Menschliche Fehler sind leider nicht nur die häufigsten Ursachen für Datenverlust sondern auch die, die am schwierigsten zu verhindern sind – einfach weil die Fehlerquelle selbst vollen Zugriff auf Daten und Backup(s) hat. Die natürliche Eigenschaft des Menschen, grundsätzlich erstmal von der Richtigkeit seines Verhaltens auszugehen macht es notwendig, sich selbst Regeln und Grenzen aufzuerlegen um Fehler zu verringern oder auszuschließen. Was jedes Qualitätsmanagement seit Jahrzehnten weiß und weltweit industrieller Standard ist wird hier leider zur Falle für viele Privatpersonen die noch immer fest davon überzeugt sind, „noch schnell die Fotos auf nen Stick kopieren“ und den weglegen wäre irgendwie eine Datensicherung. Nein, ist es nicht. Aber zu den Lösungen kommen wir weiter unten.


2. Software

Der zweithäufigste Grund, warum Daten im Nirvana verschwinden betrifft alle möglichen Arten von Software. Obwohl auch erwünschte normal genutzte Software zu Problemen führen kann wenn Windows mal wieder nicht booten will, die Textverarbeitung abstürzt und die Abschlussarbeit dabei korrumpiert oder irgendwelche Bugs Dinge auslösen die zu Datenverlust führen, so sind solche Fälle glücklicherweise eher die Ausnahme. Weitaus häufiger treten Probleme mit unerwünschter Software auf – oder ums beim Namen zu nennen: Malware/Viren. Diese gibt es Bekannterweise in unzähligen Versionen und ebenso unzähligen Auswirkungen. Bestimmte Arten davon zielen sogar sehr gezielt auf Datenverluste für den Nutzer ab, prominentestes Beispiel ist die sogenannte Ransomware. Ein Virus, das die Dateien des Benutzers verschlüsselt und meist irgendwelche Lösegeldforderungen stellt zur Herausgabe des Passwortes (die danach nicht wirklich erfolgen muss…). Höher entwickelte Arten solcher Ransomware sind dabei nicht nur in der Lage, Daten des infizierten PCs zu verschlüsseln, sondern auch alles was sie sonst noch so an externen Medien, Netzwerklaufwerken und so weiter finden können. Im worst case hat also jemand, der sich so ein Ding einfängt, seinen PC verschlüsselt, die angeschlossenen Backupfestplatten gleich mit, das NAS sowieso und andere Geräte im Heimnetzwerk (PC der Kinder, alle Smartphones, demnächst im IoT-Zeitalter womöglich auch noch die Heizungssteuerung und der Kühlschrank) auch. Dass alle Backups, die „online“ sind hier völlig sinnlos sind sollte einleuchten. Aber auch hier gibt’s natürlich Mittel und Wege.


3. Hardware

Endlich kommt das Thema, was für viele der Hauptgrund für das Anlegen eines Backups ist: Ausfälle von Hardware. Hier gibt es aber ebenfalls einige Dinge bewusst zu unterscheiden, denn die Nummer woran jeder spontan denkt, man startet den PC und die Festplatte macht keinen Mucks mehr, ist nur einer von vielen Fällen die auftreten können – und es ist der bei weitem einfachste.

Der klassische Hardwaredefekt, dass ein Datenträger spontan stirbt, sei es aus Verschleißgründen oder sonstigen Umständen (wenn der oben beschriebene fehlerhafte Bediener wieder die externe HDD fallen lassen hat) kann ganz simpel durch Ersatz des defekten Laufwerkes und zurückspielen des Backups das auf einem anderen Datenträger vorrätig war behoben werden. Nun gibt es aber auch andere Arten von Defekten und Fehlern, die weitaus kniffliger sind. Oftmals sterben Festplatten nicht spontan sondern produzieren defekte Sektoren, Schreib- und Lesefehler und so weiter – das muss dem Bediener nicht mal auffallen. Solche Platten können monatelang vor sich hin sterben ohne dass es jemand bemerkt. Bis irgendwann das Urlaubsfoto XY geöffnet wird und das untere Drittel des Bildes fehlt/ein einfarbiger Matsch ist weil die Platte dort auf einen defekten Sektor getroffen ist und die Fehlerkorrektur versagt hat. Das könnte schon vor 3 Monaten passiert sein – und wer davon Backups gemacht hat hat das kaputte Bild natürlich auch in kaputter Form gesichert (und ein vorher noch heiles Bild mit der defekten Version überschrieben). Dies zeigt, dass es nicht nur darum geht einfach Kopien wichtiger Daten wegzuspeichern, sondern auch das Ergebnis zu kontrollieren und es mit einem kontrollierten zeitlichen Versatz zu tun. Aber wie bereits geschrieben, dazu mehr im Backupstrategie-Absatz weiter unten.


4. Höhere Gewalt

Seltene Ereignisse werden meist vollkommen ignoriert bei Backupüberlegungen. Aber auch wenn die Chance dass so etwas eintritt sehr gering ist: Das beste Backupsystem nützt nichts, wenn alle Backups verloren wären wenn die Wohnung ausbrennt oder ein Einbrecher alles mitgehen lässt um zwei Beispiele zu nennen. Dagegen absichern ist schwierig oder teuer? Nicht wirklich. Wer die Möglichkeit solcher Ereignisse miteinbezieht kann sich leicht dagegen schützen.




Backupstrategie: Was man tun und was man lassen sollte

Nachdem nun die wesentlichen Gefahren erkannt wurden gegen die ein gutes Backupsystem schützen muss folgen nun einige Ratschläge sowie deren Begründungen, was man sinnvollerweise tun sollte und welche Fallstricke zu vermeiden sind.


1. Viele Kopien erstellen

Wie aus den Ausführungen oben schnell ersichtlich werden sollte reicht es eben nicht aus, seine Daten schnell auf einen externen Datenträger zu kopieren und in die Schublade zu legen. Ein gutes Backup besteht immer aus mehreren Kopien der wichtigen Daten, je mehr, desto besser. Die eine externe Festplatte in der Schublade ist besser als nichts. Aber im Ernstfall kann schnell das große Achselzucken kommen wenn die Platte nur Daten enthält die schon ein Jahr alt sind, wenn sie über das Jahr Liegezeit kaputt gegangen ist ohne dass es jemand bemerkt hätte (oder wenn der Bediener sie beim heraus nehmen aus der Schublade fallen lässt…), der letzte Gauner die Platte schon lange bei eBay versetzt hat und so weiter. Daher die wichtigste Regel ganz oben auf der Liste: Mache MEHRERE Kopien!


2. Physisch getrennte Kopien erstellen

Ein wichtiger Punkt bei Befolgung von Regel Nummer 1 ist es, die erstellten Kopien auf physikalisch getrennten Datenträgern zu machen. Das blödeste was man tun kann ist, mehrere Backups auf ein und derselben Festplatte zu speichern. Stirbt diese aus irgendwelchen Gründen sind natürlich alle Kopien verloren. Also, auch wenns etwas teurer ist: Nutze mehrere Datenträger. Dies verringert die Wahrscheinlichkeit massiv, dass das Backup aufgrund eines Hardwarefehlers nicht funktioniert (dass eine externe Festplatte nach zwei, drei Jahren spontan nicht mehr funktioniert passiert in grob einem von 100 Fällen – dass es bei zwei gleichzeitig passiert nur noch in einem von 10.000 Fällen). Daher zweitwichtigster Punkt: Mache GETRENNTE Kopien! Trennung ist auch in anderer Hinsicht wichtig – daher die Punkte 3 und 4:


3. Räumlich getrennte Kopien erstellen

Mehrere Kopien sollten immer an räumlich unterschiedlichen, aber leicht erreichbaren Orten lagern. Damit ist nicht nur gemeint, dass zwei Backup-Platten nicht in der gleichen Schublade liegen sollten (damit sie nicht zusammen kaputtgehen wenn die zweijährige Tochter die Schublade polternd aus dem Schrank entfernt als Beispiel) sondern möglichst nicht im gleichen Haus liegen sollten. Das ist der wesentlichste Schutz gegen die oben genannte Gefahr der höheren Gewalt. Liegt eine Backupplatte zu Hause und die andere bei einer Vertrauensperson im Schreibtisch kann kein Einbrecher alle Daten stehlen und kein Hausbrand kann alle Backups vernichten. Streng genommen müsste man zwei Kopien beim Kollegen lagern um die Ausfallchance wieder von 1:100 auf 1:10.000 zu verringern, aber da die Eintrittswahrscheinlichkeit höherer Gewalt so klein ist was die Ausfallchance bereits erheblich senkt wäre diese Vorgehensweise her etwas für paranoidere Naturen. Im ersten Satz habe ich hier das Wort „erreichbar“ verwendet. Wenn auf das nicht im Haus befindliche Backup aus welchen Gründen auch immer zugegriffen werden muss bringt es nichts, die Vertrauensperson nur alle 6 Wochen mal anzutreffen – ebenso sinnlos ist es, das Backup in einem Bankschließfach liegen zu haben an das man an Wochenenden und Feiertagen ggf. keinen Zugriff hat.


4. Netzwerktechnisch getrennte Kopien erstellen

Was auch zur Trennung gehört ist, seine Backups OFFLINE zu verstauen. Backups, die online sind sind angreifbar gegenüber vielen oben erwähnten Gefahren. Daher sind (exklusive) Backups auf weiteren internen Festplatten, ständig angestöpselten externen Laufwerken, NAS-Systemen, Webclouds und so weiter KEINE gute Idee. Nochmal ums gegen die allgemein übliche Volksmeinung klar herauszustellen: Nein, NAS-Systeme sind (alleine) KEINE gute Backupablage – denn der geneigte Ransomwarevirus verschlüsselt die grade mit. Und nein, Cloudanbieter bieten KEINEN vollen Schutz denn auch deren Server können wie wir vor nicht allzu langer Zeit noch in den Nachrichten sehen konnten spontan abbrennen – und sie erfüllen ein weiteres Kriterium nicht:


5. Vollständige Kontrolle bewahren

Backups sind nur dann immer uneingeschränkt nutzbar, wenn der Besitzer die alleinige und vollständige Kontrolle darüber hat. Das mag seltsam klingen, hat aber schon einigen Leuten den Blutdruck in ungesunde Höhen steigen lassen wenn das Backup, das in der supersicheren und ultrakomfortablen Cloud abgelegt wurde, nicht genutzt werden konnte weil keine Internetverbindung zur Verfügung stand, der Cloudserviceanbieter gerade offline (oder dauerhaft offline/insolvent) war, die Serverfarm abgebrannt ist oder ähnliches. Selbstverständlich werben die Anbieter mit solchen Lösungen als Backup aber solche Systeme erfüllen prinzipbedingt nicht die Anforderung, dass der Nutzer immer die volle Kontrolle darüber hat.

Übrigens ist es auch ein Kontrollverlust, wenn solche Systeme von Backupanbietern angeboten werden oder sonstige Drittsoftware proprietäre Backupfiles ablegt. Natürlich ist es irre komfortabel sein Backuptool einmal einzurichten und das Ding erstellt dann automatisch nach vorher definierten Vorgaben die schönsten Backups. Und was passiert, wenn der Hersteller der Software draufgeht? Die Backupdateien nicht mehr auslesbar sind? Ein automatisches Programmupdate einen Bug enthält der die Daten schrottet? Auch hier: Wunderbares Marketing aber für jemanden der es wirklich richtig machen möchte wenig sinnvoll.

Bevor das falsch verstanden wird: Die Software die renommierte Backupsystemanbieter haben ist bei weitem nicht schlecht. Acronis beispielsweise um einen sehr bekannten Vertreter zu nennen kann wirklich viel und ist für einen Normalnutzer sicher gut verwendbar – aber eben alleine nicht ausreichend und auch nur mit sinnvoll gewählten Einstellungen überhaupt eine Option. Das Versprechen, nach der Installation solcher Tools und zwei Klicks vor allem sicher zu sein ist leider nur ein buntes Werbeblättchen.

Dennoch sollte man einen kleinen Automatisierungsgrad haben um schlichtweg menschliche Fehler auszudünnen – kommen wir zu Punkt 6.


6. Automatisierte Kopiervorgänge nutzen

Für sehr kleine und übersichtliche Datenmengen mag es ausreichen, einfach von Hand im Windows-Explorer kopieren/einfügen zu benutzen. Wer auf diese Art seinen 5 GB großen Fotoordner backuppen möchte kann das auf diese Art schnell und einfach tun. Komplizierter wird es, wenn es viele verschiedene Dateien und Strukturen gibt die gesichert werden sollen. So etwas ist inkrementell kaum bis nicht von Hand zu leisten, einfach weil dafür manuelle Vorgänge viel zu fehlerbehaftet sind. Natürlich kann der Nutzer jedes Mal wenn das Backup gemacht werden soll einfach alles markieren und kopieren/einfügen – aber wenn das Hunderte von Gigabytes werden die jedes Mal neu kopiert werden (obwohl nur 500 MB davon wirklich neu sind) wird die Wartezeit irgendwann zu groß.

Manuelles Kopieren zu fehleranfällig und/oder langsam und Software kommt mit Kontrollverlust… was also tun bei großen Datenmengen? Den Automatismus einfach selbst programmieren! Bevor der Aufschrei kommt: Keine Sorge, ich rede nicht von echtem programmieren was hier völlig stumpfsinnig wäre. Aber es ist auch für Laien gar kein Problem, sich (evtl. mit etwas Hilfe von Google oder netten Usern dieses Forums…) eine ein- oder zweizeilige CMD-Datei zu schreiben, die unter anderem mit dem Befehl „robocopy“, den Windows seit Jahrzehnten werksseitig mitbringt, ganz einfache automatische Backups zu erstellen. Mit wenigen Befehlszeilen kann man Windows anweisen, einen Ordner von Laufwerk a nach Laufwerk b zu kopieren, dabei nur neuere Dateien zu ersetzen um nicht alles neu schreiben zu müssen und das Ergebnis noch zu prüfen (siehe Punkt 7). Diese Befehlszeile als Datei abgelegt und schon reicht es in Zukunft, den externen Datenträger anzustöpseln, einen Doppelklick auf die Datei zu machen, warten bis die Fertigmeldung kommt und das Backup ist gemacht.

Kleines Beispiel einer solchen CMD-Datei:
@Echo off
title Automatische Sicherung
verify on
echo Spiegelung des Bilderordners von E: auf M:
echo Nur Dateien mit neuerem Zeitstempel ueberschreiben
echo Nicht vorhandene Quelldateien im Zielordner loeschen
echo Logdatei auf D: ablegen
robocopy E:\Bilder M:\Bilder /mir /r:3 /w:10 /LOG+:"D:\backuplog.txt"
pause


7. Kein Backup ohne verify

Bei all den vielen Kopien die hier erstellt werden sollte man sich über eines im Klaren sein: Datenträger sind nicht perfekt und I/O-Befehle sind nicht perfekt. Beides ist sehr dicht dran heutzutage (Die Anzahl falsch übertragener oder falsch geschriebener Bits ist sehr nahe Null) aber im Privatbereich wo es keine (echte) ECC-Korrekturen gibt kommt es nunmal vor, dass die auf die Externe Platte kopierte Datei XY nicht mehr identisch zur Quelldatei ist. Das hat in fast allen Fällen keinerlei Auswirkungen, ob in einem 5 MB großen Bild ein Bit gekippt ist sieht man nicht, kann aber auch gröbere Folgen haben. Die meisten kennen diese MP3s von früher, in denen mal ne Zehntelsekunde fehlt, ein sehr kurzer Plopp oder Zischlaut zu hören ist und ähnliches. Das sind die Folgen von Fehlern bei Kopiervorgängen (je öfter diese Dateien weitergegeben/kopiert wurden desto wahrscheinlicher waren diese Fehler).

Die Abhilfe ist: Verify. In der ursprünglichen, harten Form bedeutet das, dass nachdem eine Datei kopiert wurde sie wieder vom Zielmedium gelesen wird und bitweise mit dem Original verglichen wird. Nur wenn die Dateien identisch sind wird zur nächsten weitergesprungen. Heute läuft das in aller Regel über CRC-Prüfsummen und andere Techniken was hier zu weit führen würde aber wichtig für uns am Ende ist: Nur ein geprüftes Backup ist ein gutes Backup.


8. Verschiedene Updatezyklen nutzen

Nach den ganzen Punkten haben wir nun also mehrere, in allen Punkten getrennte und auf Korrektheit geprüfte Backups. Nicht schlecht. Aber was, wenn der Bediener ohne es zu bemerken eine wichtige Datei überschieben hat – und alle Backups entsprechend angepasst wurden (die Datei also überall fehlt)? Oder ein besonders schlauer Virus nicht sofort aktiv wurde sondern sich erst mal zwei Wochen auf alles kopiert was angeschlossen wird und danach anfängt zu verschlüsseln? Alle schönen Backups wären sofort nutzlos. Deswegen ein weiterer Wichtiger Punkt: Mache niemals alle Backups zeitgleich! Es bietet sich meist an, „nähere“ Kopien häufiger zu backuppen, „entferntere“ Kopien seltener. Das Laufwerk in der Schublade kann man jeden Sonntag anstecken, die außer Haus gelagerte Kopie vielleicht alle 2-3 Monate mal. Das Ergebnis sollte in jedem Falle sein, dass man mehrere Backupstände hat, dass falls aufgetretene Probleme erst etwas später bemerkt wurden und schnelle Backups unbrauchbar werden man immer noch ein älteres zur Verfügung hat auf dem das Problem noch nicht bestand. Um das prozesssicher durchzuziehen braucht der Bediener noch etwas völlig offensichtliches:


9. Updateplan erstellen

Man sollte sich darüber sehr klar sein was man wann wo wieso wie sichert und, was noch viel wichtiger ist, sich penibel daran halten. Vielen Menschen geht es so, dass sie sich in ein Thema einlesen, sich überlegen was sie jetzt tun, es nach bestem Wissen und Gewissen oftmals gar nicht schlecht hinbekommen und es nach getaner Arbeit aus den Augen verlieren und weiterziehen. Zwei Jahre später wenn dann der Fall der Fälle eingetreten ist bemerkt der geneigte Bediener dann, dass beispielsweise das letzte Backup schon zig Monate alt ist und kaum mehr hilft.

Datensicherheit ist keine einmalige Sache sondern ein kontinuierlicher Vorgang. Wer faul wird verliert. Deswegen der Ratschlag: Einmal einen für die persönlichen Ansprüche passenden Plan erstellen der beinhaltet zu welchem Zeitpunkt was wohin gesichert wird und diesen stur befolgen. Manche Menschen tun sich mit sowas einfacher als andere aber Fakt ist einfach je mehr Trägheit in den Prozess kommt und je weiter das Backup auf der persönlichen Prioritätsliste nach unten wandert desto ineffektiver wird es.

Bevor es zum zweiten Teil geht noch ein letzter technischer Punkt der nicht unerwähnt bleiben darf:


10. Richtige Datenträgertypen auswählen

Bisher wurde, durchaus bewusst, nur von Datenträgern und höchstens mal Festplatten gesprochen. Der Grund dafür ist, dass manche Speicherarten sich prinzipiell besser oder schlechter für Backups eignen als andere. Grundsätzlich sind alle gängigen Speichermedien die wir in unserer modernen Welt so nutzen NICHT dafür ausgelegt, ihre Daten besonders lange zu halten. Die beschriebene Festplatte, SSD, USB-Stick, CD, DVD und so weiter einige Jahre in die Ecke gelegt und die Daten sind Geschichte – bei manchen der genannten sehr viel schneller, als manchem Nutzer da draußen bekannt oder lieb ist.

Am besten weg kommt man aktuell noch mit Festplatten. Deren hartmagnetische Platter halten einmal platzierte Magnetfelder vergleichsweise sehr lange. Festplatten, die ordentlich gelagert sind (also nicht zu feucht, keine Temperaturschwankungen, keine Stöße usw.) sind in aller Regel auch 10 Jahre später noch einwandfrei auslesbar – zumindest was die Daten betrifft, die Mechanik kann nach langem Stillstand durchaus Probleme haben.

Mehr Glücksspiel sind dann schon optische Datenträger wie CDs, DVDs, BluRays. In gepresster Form und bei guter Lagerung (aufrecht, kühl, dunkel, trocken) durchaus Jahrzehnte haltbar, sind die gebrannten Versionen teilweise sehr anfällig und kurzlebig. Die vor 10 Jahren gebrannte CD mit den Urlaubsfotos im Schrank ist mit hoher Wahrscheinlichkeit schon lange nicht mehr lesbar, vor allem wenn ein billiger Spindelrohling aus dem Discounter verwendet wurde und am besten noch mit 40x drübergeballert wurde. Bei schlechterer Lagerung sind solche Datenträger innerhalb von Wochen defekt – ältere Semester kennen noch die Autos mit den ersten CD-Playern und voller Rohlinge auf den Beifahrersitzen die nach dem Sommer alle in die Tonne konnten weil die Sonne sie durchgebraten hatte.

Einzige rühmliche Ausnahme im optischen Bereich (für Consumer) ist die sogenannte „M-Disc“, deren Rohling gezielt darauf ausgelegt wurde besonders haltbar zu sein. Hier stellt sich dann eher die Frage, ob in 20 Jahren noch ein Laufwerk erhältlich sein wird um die Disc auszulesen.

Zunehmende Verbreitung sehen wir seit vielen Jahren beim Flashspeicher: Angefangen mit USB-Sticks, SD-Karten bis hin zu SSDs basiert alles auf dieser Technik. Flash ist sehr vereinfacht gesagt eine riesige Ansammlung winziger Kondensatoren deren Ladungszustand Bits und Bytes repräsentieren. Das Blöde an Kondensatoren ist: Sie sind nicht 100%tig dicht und verlieren durch Leckströme ihre Ladung. Dieses Problem hat Flash-Speicher ebenfalls, wirkt dem aber entgegen, indem die Daten bzw. Ladungen im Betrieb ständig aufgefrischt werden. Der geneigte Leser erkennt das Problem: Sind die Datenträger stromlos in der Schublade kann keine Auffrischung stattfinden und die Daten verschwinden langsam und leise im Nichts. Je nach Bauart und Qualität des Datenträgers kann das viele Jahre dauern – oder wenige Monate. Der USB-Stick und die Kamera-Speicherkarte mit den Urlaubsfotos von vor vielen Jahren in der Schublade sind also in vielen Hausalten schon lange leer oder mindestens korrupt ohne dass der Besitzer es bereits bemerkt hätte. Fun Fact am Rande: Flashspeicherhalten die Daten umso länger, je heißer sie beim beschreiben waren und je kühler sie danach gelagert werden. Wenn Sie irgendwann in einem Nerdhaushalt nen USB-Stick im Kühlschrank finden sollten... das ist der Grund.

Lange Rede kurzer Sinn: Übliche Speichermedien eigenen sich nicht für Langzeitarchivierung, erst recht keine Flashlaufwerke. Die einzige Chance, Daten langfristig zu halten ist es, die Datenträger ab und an mal zu benutzen – was aber für jemanden, der Punkt 9 verinnerlicht hat kein Problem ist, denn laut erstelltem Plan muss ja sowieso jeder Datenträger des Backupsystems alle n Wochen/Monate wieder ran, nicht?



Nachdem mit all diesen Überlegungen der sich bis hierhin durch den Text gequälte Leser nun ein Backupsystem einrichten kann, das nahezu jeder Gefahr trotzen kann bleibt aber noch ein letzter Punkt – der Inhalt eines Backups sollte grundsätzlich unzugänglich für Dritte sein. Dabei geht es gar nicht darum, ob derjenige etwas zu verbergen hätte oder nicht (was ständig als Standardargument genommen wird), denn frei nach Snowden - wer seine Daten nicht verschlüsselt weil er nichts zu verbergen hat der hält auch nichts von Meinungsfreiheit weil er nichts zu sagen hat. Es ist einfach eine prinzipielle Sache, seine Daten, gleich welchen Inhaltes, vor dem Zugriff fremder Personen zu schützen. Da klassische Backupinhalte von Privatpersonen sowieso Schriftverkehr, Fotos/Videos, Musik und ähnliche Dinge sind besteht in den allermeisten Fällen ohnehin ein beträchtliches Interesse daran die Inhalte nicht frei in die Welt rauszupusten. Daher der zweite Teil des Blogs: Datenverschlüsselung.




TEIL 2: Kryptografie Grundlagen


Wie funktioniert eigentlich…?


Ich möchte zu Beginn ein kleines bisschen das Prinzip hinter moderner Datenverschlüsselung erläutern. Das Ziel ist natürlich nicht, groß in die Kryptografie oder gar Mathematik dahinter einzusteigen da das eine ganz eigene Welt ist und man um da wirklich im Detail durchzusteigen Jahre seines Lebens investieren muss – was ich auch nicht getan habe. Ein gewisses Grundverständnis was da eigentlich abläuft ist aber sehr hilfreich um später zu verstehen warum man bestimmte Dinge tun oder nicht tun sollte.

Im Bereich der modernen Informatik sind klassische Kryptografiemethoden, die Zeichenfolgen aufgrund bestimmter, nur dem autorisierten Leser bekannten Regeln/Tabellen/Walzen/usw. in andere Zeichenfolgen übersetzen (als prominentes Beispiel sei die „Enigma“ genannt) schon lange unbrauchbar geworden da sie mit aktuellen Rechnerleistungen innerhalb von Millisekunden geknackt wären - jedes Smartphone hat heute die milliardenfache Kryptografieleistung der Turing-Bombe. Es müssen also auf die moderne Welt angepasste Verfahren verwendet werden, die auch schnellste Supercomputer möglichst massiv überfordern. Dazu nutzt man asymmetrische, also „einseitige“ mathematische Funktionen, die in einer Richtung sehr einfach zu berechnen sind, in der anderen Richtung dagegen immensen Aufwand erfordern, bzw. nur mit einer Zusatzinformation (Passwort…) überhaupt in akzeptabler Zeit möglich sind.

Ein Beispiel. Man nehme zwei sehr große Primzahlen. Sagen wir mal 1535747 und 7998941. Diese sind jetzt nicht wirklich groß im Sinne eines Computers aber es dient nur der Veranschaulichung. Jeder Taschenrechner kann aus diesen beiden Zahlen das Produkt bilden.

7.998.941 x 1.535.747 = 12.284.349.643.927

Das ist die „einfache“ Richtung der Mathematik. Multiplikation. Die andere Richtung ist dagegen weitaus komplexer, nämlich die Primfaktorzerlegung. Jemandem die Zahl 12.284.349.643.927 zu nennen und zu fragen aus welchen zwei Primzahlen diese zusammengesetzt ist ist mathematisch gesehen eine sehr aufwendige Sache das herauszufinden. Für diese „kleinen“ Zahlen wäre das noch kein Problem da heutige PCs einfach in akzeptabler Zeit alle Primzahlen unter 12 Billionen ermitteln könnten und alle möglichen Kombinationen durchprobieren könnten (oder es per quadratischem Sieb etwas effizienter tun würden…) aber man kann auch Primzahlen wählen, die mehrere Hundert Dezimalstellen lang sind – und für Zahlen die zehntausende Stellen haben eine Primfaktorzerlegung durchzuführen ist (aktuell) praktisch unmöglich.

Aus diesem Zusammenhang lässt sich eine Verschlüsselungsmethode gewinnen, da übertragen gesagt jemand ohne Zusatzinformationen/Passwort (1. Faktor) nur die riesige Zahl abfangen könnte und die Information (2. Faktor) nie entschlüsseln könnte. Wenn jemand das detaillierter wissen möchte wie man damit Nutzdaten verschlüsselt, die beschriebene Theorie wird im Rivest–Shamir–Adleman-Verfahren (RSA) benutzt – Google erklärt das auf Wunsch bis ins kleinste Detail. [EDIT 7.7.21: Anmerkung von Olstyle Post #6 beachten, Unterschied von symmetrischer zu asymmetrischer Verschlüsselung ist ungenau beschrieben)

Die in moderner Kryptografie für große Mengen an Nutzdaten verwendeten Algorithmen basieren auf der gleichen Grundlage von asymmetrischer Mathematik, sind aber sehr (!) viel komplexer als das RSA-Verfahren. Der verbreiteste Algorithmus dürfte momentan „Rijndael“ sein. Der ist so verbreitet, dass er in vielen Chips bereits unter dem Namen Advanced Encryption Standard (AES) in Hardware implementiert und entsprechend sehr performant ist. Andere Beispiele extrem guter Verfahren wären „Twofish“ und „Serpent“. Es wäre wie gesagt völliger Overkill, diese Algorithmen im Detail beleuchten zu wollen, aber es sei gesagt dass die gesamte Mathematik dahinter öffentlich ist und Zehntausende Kryptografieexperten seit Jahrzehnten ohne den geringsten Erfolg versuchen, durchführbare Angriffsvektoren zu finden. Natürlich ist nie ausgeschlossen dass das auch irgendwann gelingt (wie beim Vorgänger „DES“…) aber stand jetzt kann als gesichert angesehen werden, dass der Algorithmus der Verschlüsselungen selbst keine sinnvollen Angriffe zulässt. Oder anders gesagt: Nichts und niemand kann Daten entschlüsseln die mit einem (oder mehreren…) dieser Verfahren verschlüsselt wurden, wenn beim Verschlüsseln keine Anfängerfehler gemacht wurden (und das Passwort „1234“ lautet…).


Software

Wie kommt der Endnutzer nun in den Genuss, diese Verschlüsselungen zu benutzen? Man wäre erstaunt, wie oft man sie benutzt ohne es zu wissen. HTTPS-Webseiten, Banktransaktionen, Daten auf dem Smartphone, alle diese Dinge sind verschlüsselt und nutzen diese oder ähnliche Verfahren, das Passwort ist ein Zertifikat, eine Pin, ein Fingerabdruck und so weiter. Der Benutzer muss sich um all das keine Gedanken machen. Will er aber eigenständig Backups verschlüsseln so braucht er ein bisschen Grundwissen und ein Programm das den Vorgang für ihn erledigt. Hier gibt’s natürlich wieder eine große Auswahl, selbst Windows liefert ein Tool mit (BitLocker). Persönlich würde ich hier immer zu OpenSource Software greifen da man hier sicher sein kann, dass das Tool keine Backdoors enthält (diese wären der Schwarmintelligenz an Programmierern da draußen lange aufgefallen da der Quellcode offen zugänglich ist). Prominentestes Beispiel ist die Software „VeraCrypt“, welche ich auch persönlich nutze und empfehlen würde.

Wie die Benutzung von VeraCrypt im Detail funktioniert wird in vielen sehr ausführlichen How-Tos im Netz beschrieben, das muss ich hier nicht nochmal wiederholen. Aber nur grundlegend: Das Tool erstellt nach gewünschten Einstellungen von Algotithmen und einem vergebenen Passwort eine beliebig große Datei, den Container. Diese Datei ist der Safe. Den Container kann man nun mit VeraCrypt als Laufwerk einbinden („mount“), natürlich nur wenn man das korrekte Passwort kennt. Dann ist der Safe offen und als Laufwerk im Explorer ganz normal benutzbar. Alles was an Daten reinkopiert wird wird verschlüsselt abgelegt, alles was herausgenommen wird entschlüsselt. Ist man fertig beendet man in Veracrypt die Einbindung („dismount“), das Laufwerk verschwindet, der Safe ist geschlossen. Es gibt auch noch andere Funktionen wie das verschlüsseln ganzer (physischer) Laufwerke aber das lassen wir mal außen vor.

Diese Containersache ist, was man zum verschlüsselten Backup nutzen kann und sollte. Die Backupfestplatte enthält dann keine Klardaten mehr sondern nur die Containerdatei (und vielleicht die Installationsroutine von Veracrypt falls man an einem fremden PC zugreifen möchte…). Der Backupvorgang ist dann Container einbinden, Daten reinschreiben, Container schließen. Eine dritte Person die die Platte klaut hätte nur eine Containerdatei dessen Inhalt ihr für immer verborgen bleiben würde.



Was man tun und was man lassen sollte

Auch im zweiten Teil wie versprochen die Praxistipps worauf man achten sollte und was es zu vermeiden gilt. Beginnen wir mit DEM Thema schlechthin in der Kryptografie, den Passwörtern.


1. Sicheres Passwort wählen

Die oben beschriebenen Algorithmen können so sicher sein wie sie wollen und der Benutzer kann sie noch ineinander verschachtelt anwenden (VeraCrypt kann auf Kosten der Performance mehrere Algorithmen nacheinander einsetzen um für den Fall, dass AES gebrochen würde weiterhin sicher zu sein da beispielsweise AES und Twofish genutzt wurde) – all das ist zwecklos wenn unsichere Passwörter verwendet werden. Selbst hierfür bietet VeraCrypt noch einen gewissen Schutz, denn alleine die Überprüfung ob ein eingegebenen Passwort korrekt ist ist nur mit vergleichsweise großem Rechenaufwand möglich, so dass übliche aktuelle PCs mehrere Sekunden benötigen um ein Passwort zu testen. Dies hat das Ziel, Bruteforce- und Wörterbuchattacken stark zu erschweren, da übliche PCs nur 10-20 Passwörter pro Minute probieren können und keine Zigtausende oder Millionen. Dennoch: Jemand mit ausreichend Zeit und ja ständig wachsender verfügbarer Rechenleistung kann jedes VeraCrypt-Archiv knacken wenn das verwendete Passwort schwach ist.

Nun ein sehr wichtiger Absatz über schwache und starke Passwörter. Mittlerweile ist zumindest manchen Leuten klar geworden, dass Passwörter, die aus Geburtsdaten, Namen, Adressen, Zahlenfolgen oder generell irgendwelchen Wörtern die im Wörterbuch vorkommen grundsätzlich schlecht sind. Ein „Andreas26.07.1985“ wäre in meinem Falle also eine ziemlich schlechte Idee, wenn auch noch nicht die schlechteste, Dinge wie „26071985“ (reine Zahlenfolge) oder „IncredibleA“ (aus bekannten Eigenschaften von mir zu erraten) oder auch „vfr456zhnb“ (Muster auf der Tastatur) und erst Recht die Klassiker „123456“ und „passwort“ wären noch weitaus dümmlicher.

Starke Passwörter sind auch entgegen der landläufigen Meinung NICHT Dinge wie „2Fzp9ga“ – leider hat man den Leuten Ewigkeiten erzählt dass Passwörter besonders kompliziert sein müssten was einfach Quatsch ist. Kompliziert ist das genannte Passwort nur für einen Menschen, für einen Computer sind es einfach 7 Zeichen aus einem Teil des ASCII-Codes (Groß-/Kleinbuchstaben+Ziffern) und rechnerisch 62^7 = 3.521.614.606.208 Möglichkeiten. Ein PC der 10 Millionen Passwörter pro Sekunde probieren kann was je nach Ausrüstung und Verschlüsselungsmethode durchaus gängig ist hätte das Passwort innerhalb von spätestens 4 Tagen geknackt, statistisch gesehen (wenn der Treffer nach 50% der Versuche eintritt) nach 2 Tagen. Das Passwort „aaaaaaaaaaaaaaaaaaaa“ dagegen ist für einen Mensch leicht zu merken („20 mal a“), ein PC der das nicht in einer Wörterbuchliste hat hätte aber keine Chance es zu knacken da es 26^20 = 19.928.148.895.209.409.152.340.197.376 Möglichkeiten zu prüfen wären was umgerechnet statistisch rund 30 Billionen Jahre dauert.

Das soll jetzt kein Aufruf sein, Passwörter zu benutzen die nur aus einem n mal wiederholten Zeichen bestehen, zeigt aber die Schwachsinnigkeit sich im wahrsten Sinne des Wortes kryptische Passwörter auszudenken. Man kann gerne selbst kreativ werden und längere aber simpel zu merkende Passwörter erfinden und nutzen. Das Passwort „IchbineinsicheresPasswort!“ kann sich jeder leicht merken und es ist quasi unknackbar. Also zumindest war es das bis gerade eben, denn…


2. Unbekanntes Passwort wählen

…ich habe es gerade erfunden und öffentlich ins Netz gepostet. Das bedeutet „IchbineinsicheresPasswort!“ ist jetzt kein sicheres Passwort mehr da es ab morgen in einem Wörterbuch des Angreifers stehen könnte. Diese Wahrscheinlichkeit ist zugegeben klein, verdeutlicht aber das Problem: Ein Passwort muss EINMALIG sein und darf AUSSCHLIESSLICH dem Benutzer bekannt sein.

Das bedeutet erstens, ein Passwort immer nur ein Mal zu verwenden und eben nicht auf 10 Webseiten das gleiche und schlimmstenfalls noch genau das was beim Backup benutzt wird und zweitens, es NIRGENDS AUFZUSCHREIBEN. Weder auf dem berühmten Post-it am Bildschirm, noch unter der Fußmatte und erst recht nicht digital in irgendwelchen Textdateien, am Besten noch auf dem Desktop (dass der Angreifer es besonders leicht finden kann).

Ich weiß, dass letzterer Punkt für viele Menschen ein großes Problem ist, denn echte Sicherheit erfordert eine nennenswerte kognitive Leistung in einem Bereich der von vielen als unwichtig empfunden wird, was leider menschliche Hirne dazu veranlasst diese Informationen zu vergessen. Das wählen eines gut zu merkenden Passwortes wie oben beschrieben hilft zwar, dennoch muss der Nutzer in der Lage sein, sich dieses dauerhaft zu merken denn hier auch ein Wort der Warnung: Wer sein VeraCrypt Passwort vergisst hat genau wie ein Angreifer absolut keine Chance, jemals wieder an seine Daten zu kommen. Es gibt prinzipbedingt keine „Passwort vergessen“ Funktion.

Was hier auch zum Themenkomplex gehört ist selbstredend, sein Passwort niemandem zu verraten. Und ich meine NIEMANDEM. Es gibt eine ganze Methodik solche Dinge auszunutzen wenn Leute das nicht beherzigen.


3. Geheimhaltung

Der letzte Satz zielt ab auf das sogenannte „Social Engineering“. Ziel der Angriffsmethode ist es, den ganzen technischen Kram zu umgehen da es viel zu schwer bis unmöglich ist ihn zu knacken und den Benutzer einfach nach dem Passwort zu fragen. Klingt bescheuert aber funktioniert erstaunlich oft. Wird vorher noch ein gewisses Vertrauensverhältnis „engineered“ geben unglaublich viele Leute bereitwillig ihre Passwörter an Dritte ab. Das bekannte Phishing zählt da nebenbei auch dazu. Es gibt immer noch Leute, die einem wildfremden Menschen an der Haustür ihre Geheimzahl verraten würden der sagt „Bin isch von Bank, du mir sagen Geheimzahl sonst Konto sperren“. Nochmal in aller Deutlichkeit: NIEMAND wird jemals dazu authorisiert sein, ein Passwort zu erfragen. So funktioniert das System nicht. Verrate niemals jemandem ein Passwort!


4. Kompromittierte Rechner

Ein Punkt der auch nicht unerwähnt bleiben darf ist, dass es vergleichsweise einfach ist an Passwörter zu gelangen, wenn das Gerät das genutzt wird manipuliert wurde. Ein installierter Trojaner der alle Tastatureingaben mitloggt und dem Angreifer zusendet wird natürlich auch jedes eingegebene Passwort ausspionieren können. Noch einfacher geht es wenn physischer Zugang zum PC bestanden hat, der Angreifer steckt einfach einen Keylogger zwischen Tastatur und PC der in Hardware dasselbe erledigt. Moderne Logger senden dann über das Mobilfunknetz alle Eingaben des Opfers weiter. Eine Verschlüsselung ist immer nur so sicher, wie das Gerät das sie nutzt. Auch ums nochmal zu erwähnen: Ein geöffneter Container ist für alle Anwesenden Personen und Programme sichtbar und unverschlüsselt zugänglich nutzbar. Zusammenfassend: Malwareverseuchte PCs sind kein guter Ort, um seine Container zu öffnen.


5. Äußerer Zwang

Wenn ich oben schon von höherer Gewalt geschrieben habe muss ich das Thema der Vollständigkeit halber hier auch anschneiden.

Die meisten Menschen gehen immer davon aus, dass ein Angriff auf ein verschlüsseltes Datenarchiv im dunklen Keller stattfindet wo dann ein paar finstere Hacker an Supercomputern sitzen und grüne Zeichen auf schwarzen Bildschirmen von rechts nach links laufen. Das ist Hollywood. Eine weitaus realere Möglichkeit an ein Passwort zu kommen ist es, denjenigen der es weiß so lange zu verprügeln bis er es verrät. Geht schneller, einfacher und billiger als hacken – und es funktioniert mit weitaus höherer Wahrscheinlichkeit.

Man würde nun glauben dagegen kann man sich zumindest in der digitalen Welt nicht wirklich schützen – aber weit gefehlt, auch dafür gibt’s eine Strategie, das sogenannte hidden archive. Was jetzt kommt ist rein optional da es (hoffentlich) für niemanden von uns eine praktische Relevanz hat aber einfach weil ich das Prinzip sehr cool finde schreib ich ein paar Sätze dazu.

Versteckte Archive sind Bereiche innerhalb eines Containers von VeraCrypt, die nur über ein zweites, sich vom Erstpasswort unterscheidendes Passwort zu erreichen sind. Das bedeutet man hat den normalen Container wie oben beschrieben und kann diesen mit dem vergebenen Passwort öffnen. Wird aber stattdessen das zweite Passwort eingegeben öffnet man stattdessen den versteckten Bereich des Containers. Der Hintergrund dafür ist folgender: Man kann in den „normalen“ Bereich seines Containers irgendwelche unwichtigen Daten ablegen und die eigentlichen sensiblen Daten in den versteckten Bereich. Wird der Besitzer des Containers jetzt physisch zur Herausgabe seines Passwortes gezwungen kann er das normale Passwort herausgeben und der Angreifer hat Zugriff auf die unwichtigen Daten. Einem Container kann man nicht ansehen ob er einen versteckten Bereich enthält – das Opfer kann also glaubhaft leugnen dass ein solcher existiert oder generell leugnen überhaupt Kenntnis von so einer Möglichkeit/Technik zu haben. Die Daten im versteckten Bereich wären für den Angreifer nicht erreichbar.

Wichtig wenn man sowas wirklich vorhat einzurichten sind zwei Dinge. Erstens sollte sich das Zweitpasswort vom ersten grundlegend unterscheiden damit ein Ausprobieren ähnlicher Passwörter wenn das erste herausgegeben wurde keine Chance auf Erfolg hat. Und zweitens muss darauf geachtet werden wie viele Dummydaten man verwendet. Dadurch, dass der versteckte Bereich im hinteren Speicherbereich des Containers ist würde man sonst mit Dummydaten die sensiblen Daten überschreiben. Wer ein 10 GB großen Container erstellt und darin ein 7 GB großes hidden archive einbaut darf nur 3 GB in den Hauptbereich (der mit dem ersten Passwort zugänglich ist) schreiben weil er sonst das hidden archive überschreibt. Das System kann das nicht verhindern da es ja nicht wissen darf dass so ein versteckter Bereich existiert. Ein technisch versierter Angreifer könnte höchstens drohen mit „dann schreibe ich den Container mal restlos mit Datenmüll voll… das macht dir ja sicher nichts aus weil du ja kein hidden archive hast das dabei überschrieben würde, oder…?“ Aber auch diese Drohung würde ja bei jemandem der diesen Blog gelesen hat ins Leere laufen, schließlich hat man ja mehr als nur ein Backup von dem der Angreifer nichts weiß...




Tja, da sind wir wieder, über 6000 Wörter später am Ende des nächsten klassischen Textberges vom Forenalki. Ich hoffe wie immer den Leser gut unterhalten und ihm den ein oder anderen Aha-Moment beschert zu haben. Natürlich gilt auch weiterhin: Wenn was unklar ist oder etwas kommentiert werden soll – einfach hier druntertippen.
 
Zuletzt bearbeitet:
Vielen Dank! Da sind wieder einmal alle wichtigen Informationen an Ort und Stelle :-) und vorallem Teil 1 wird für viele User sehr hilfreich sein.

Betonen würde ich gerne nochmal das jeder der Teil 2 ernsthaft umsetz wirklich das Passworts gut merken muss, denn sonst steht er so da wie jemand ohne Backup, nämlich mit leeren Händen... Deshalb immer abwägen was eine Verschlüsselung und auch das Risiko wert ist (Stichwort Risiko nutzen Abwägung)

Digitales Archiv (papierloses Büro), sinvoll
Bankdaten etc, sinnvoll
Musik CD Archiv, nicht notwendig
Spielearchiv, nicht notwendig
Bilderarchive, je nach Inhalt
 
Risiko nutzen Abwägung
Klar, abwägen sollte man immer, nicht nur ob/wie man was verschlüsselt sondern auch welche Daten wie sicher gebackuppt werden sollten bzw. wie paranoid das System aufgestellt ist.

Das volle Programm was ich da oben beschreibe, also viele Kopien, nicht alle in der gleichen Wohnung, vollverschlüsselt usw. ziehe ich auch nur bei einem kleineren Teil meiner persönlichen Daten durch, diese sind aber auch immens wichtig und unwiederbringlich falls verloren. Der größere Teil meiner Daten ist nicht gegen höhere Gewalt geschützt und auch nicht verschlüsselt - aber es wäre auch kein Beinbruch wenn das Zeug verloren ginge.

jeder der Teil 2 ernsthaft umsetz wirklich das Passworts gut merken muss, denn sonst steht er so da wie jemand ohne Backup
Ja, hab ich ja auch so erwähnt. Das gute an starken Passwörtern verschlüsselter Daten ist dabei aber, dass man sie niemals ändern muss. Mein Passwort für meine Datenverschlüsselung ist seit geschätzten 20 Jahren (seitdem ich überhaupt meine Daten verschlüssele) dasselbe und ich habe es sicherlich mehrere Tausend Male eingegeben. Das Ding KANN ich gar nicht mehr vergessen selbst wenn ich wollte. :haha:
 
Mal wieder ein sehr interessanter Blogeintrag und für mich auch ein neues Thema. Vorallem habe ich über diese Dinge nie nachgedacht. Vorteil von mir aktuell: habe sämtliche Daten die wichtig für mich sind im sichersten Speicher: in meinem Kopf. :D
Spaß, der Speicherort kann auch gelöscht werden aber gut. So viele Daten habe ich nicht die richtig wichtig sind, vorallem auf meinem PC sind nur Daten die unwichtig sind. Diese werden aber mit der Onedrive abgeglichen. Mehr brauch ich nicht. Hoffe ich. :D :D

Deine Blogs sind, wie immer, klasse geschrieben, ein gewisser grad an Witz enthalten, tolle und anschauliche Bilder und frei gesprochen hast du auch. :ugly: :-D

Wird weiterempfohlen!

Und danke für den Blog. :)

Grüße aus Italien.
 
Ich schaue seit einem Jahr regelmäßig, ob ein neuer Blog von dir da ist... *Finally!*

Wieder super interessant!

ältere Semester kennen noch die Autos mit den ersten CD-Playern und voller Rohlinge auf den Beifahrersitzen die nach dem Sommer alle in die Tonne konnten weil die Sonne sie durchgebraten hatte.
Ich bin 24 und hatte in meinem ersten Auto lange Zeit nur den Original-Radio, der nur CD und kein AUX // BT hatte.
Ich habe immer noch bei manchen Liedern den Gedanken, was als nächstes kommt, weils auf meinen CDs so war :ugly:
 
Ein Einwand zur Krypto-Einführung: RSA passt da nicht in den Zusammenhang. Bei RSA war die neue Idee asymmetrisch zu verschlüsseln (verschiedene Keys zum ver- und entschlüsseln). Alles was du danach beschreibst ist aber (für die Anwendung vollkommen angebrachte) symmetrische Verschlüsselung. (Abgesehen vom Nebensatz zu allen möglichen Anwendungen von TLS/SSL)
 
Zuletzt bearbeitet:
Hmmm ja stimmt jetz wo dus sagst... Naja, hätte mich auch gewundert wenn ich so nen Umfang hier ohne Ungenauigkeiten raustippen könnte. ^^

Ich werd auf die Anmerkung verweisen.
 
Mal wieder sehr interessanter Blog von Dir mit vielen neuen und nützlichen Informationen.
Herzlichen Dank für deine Arbeit.
 
Nur ums mal spaßeshalber zu erwähnen - das ist das, was die KI so auf die Frage antwortet wie man ein gutes backup macht:

1686000030635.png


...das ist im Wesentlichen eine Zusammenfassung des Wall of Textes da oben - erstellt in einer Sekunde von ChatGPT.
Ich glaube für die Standardthemen hat mir die KI meinen Blogger-Job geklaut :ugly:
 
Ich glaube für die Standardthemen hat mir die KI meinen Blogger-Job geklaut
Dazu gab es gerade eine recht interessante Sendung. Normal schaue ich mir den "Gastgeber" nicht an. Der Gast ist aber IMO sehr interessant.
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
wow, krass ausführlicher bericht von dir! Vielen dank für deine mühe @ Incredible Alk

bei dem Thema VeraCrypt mußte ich schmunzeln. ich habn früher TrueCrypt genutzt...letztens über einen sehr alten container von mir gestolpert. tja dumm nur wenn einem das passwort nicht mehr einfällt XD alle meine üblichen durchgetestet aber ich bin nicht mehr drauf gekommen. somit ist der Container ein fall für den Papierkorb ^^ zum glück war scheinbar nix wichtigeres drin wenn ich schon über 12 jahre nicht mehr reingeschaut habe.

was ich nur sagen wollte...auch wenn einem das momentan genutzte passwort noch so logisch erscheint...der mensch ist doch sehr vergesslich und je älter man wird umso schlimmer wirds. auch wenn du von abräts, würde ich evtl. das pawo doch offline aufschreiben...und wenn schon nicht im klartext dann wenigstern mit "hinweisen"...weil das beste backup bringt dir nix wenn du an tag X nicht mehr reinkommst weil Master-pawo vergessen.

Zum thema Backup, vertrau ich seit jahren Acronis. macht die sache doch recht einfach und mit einem bootstick auch in der praxis halbwegs schnell restore-able. Als Backup medien nutze ich tages backup meiner SSD auf ne interne HDD und nach zeitplan noch auf externe HDD. Hier kann ich aber nur dringend abraten usb-platten zu nutzen. WD zb haben bei ihren 2,5" platten den USB Controller direkt auf die Platine integriert. Hat der usb kontakt nen wackler oder der USB Controller nen macken ist die hdd auch schnell datenmüll. bei 3,5" WD hab ich auch schon erlebt das die HDD hinterm usb controller kein NTFS/FAT32 formatierung hatte. baut man da die festplatte aus und versucht sie im pc auszulesen kriegt man recht schnell nen langes gesicht. konnte die hdd dann zum glück "on the fly" auf NTFS umformatieren ohne datenverlust aber das kriegt lang nicht jeder hin.

lange rede kurzer sinn....das Thema Backup/Restore und kryptografie ist ein Buch für sich. Das wichtigeste ist allerdings, dass man überhaupt eins macht....und da scheitert es schon bei den meisten weniger technik versierten nutzern. es ist erschreckend wie leichtfertig die meisten mit dem Thema umgehen.
 
Zurück