Schlagwort-Archive: Ausfall

Ich beim täglichen Bad in meinem Datenschatz

Zeit meines Lebens habe ich als selbsternannter Datenmessie beinahe schon leidenschaftlich Datenhamsterei betrieben, aber gleichzeitig nie ausreichend viele Gedanken an Backups verschwendet. Wenn man das weiß, erkennt man, dass ich in der großen Datenverlust-Lotterie unverschämt viel Glück gehabt habe. Schlimmer noch, die sogenannten Single Points of Failure sind mit den Jahren immer größer geworden, angesichts immer umfassenderer Datengräber, besonders in den letzten paar Jahren. Von meinen ersten 3,5 Zoll 720 Kbyte DD-Disketten in den 80er Jahren, über 700 MB CDRs in den 90ern, den 4,7 GB DVDRs in den 00er Jahren, bis zu den heutigen 16 TB HDDs, habe ich alle verfügbaren Datenträger immer sehr gerne mit meiner Sammlung vollgeschrieben. Sammlung deshalb, weil ich in weiser Voraussicht und in schöner Regelmäßigkeit die Inhalte auf den schwächelnden, alternden Datenträgern der vergangenen Generationen auf neuere übertragen habe, und die Datenmenge so kontinuierlich anstieg, die ich als meinen ganz eigenen Schatz betrachtet habe. Zuletzt lag der gesamte Krempel von unzähligen Disketten, einer vierstelligen Anzahl von CDs, einer dreistelligen Anzahl von DVDs, und einem ganzen Stapel älterer Festplatten auf nur noch drei zentralen Datenträgern. Also Daten aus über 30 Jahren Computernutzung – und für diese hatte ich keine (echten) Backups.

Selbstverständlich wusste ich als computeraffiner Mensch schon immer um die große Bedeutung von Backups. Früh brachte mein Vater mir bei, dass man von wichtigen Original-Disketten erst einmal (mindestens) eine Sicherheitskopie macht, und dann ausschließlich diese verwendet. Beim Verstehen half mir auch die Tatsache, dass Disketten oftmals relativ schnell die Grätsche machten. Datenverlust erlebte ich daher häufig, aber es war eben immer nur eine einzelne Diskette betroffen und nicht etwa ein gigantisches Archiv, das Jahrzehnte umfasste. Im Jahr 1995 unternahmen wir gemeinsam eine große Archivierungsaktion, bei der wir hunderte unserer Atari ST-Disketten in tagelanger Kleinarbeit auf DAT-Bändern sicherten. Die Aktion war ein voller Erfolg, die Backups benötigten wir jedoch nie. Bald darauf dominierte der PC unseren Alltag und der Siegeszug der optischen Datenträger begann. Selbstgebrannte CDs, selbstgebrannte DVDs, randvolle Festplatten, bald lag das Zeug kreuz und quer im Kinderzimmer herum. Die ISDN-Flatrate und die darauf folgende heimische DSL-Leitung machten es leicht, immer verrücktere, noch unnötigere Dinge herunterzuladen und “wegzubrennen”. Mit Hilfe von Tools wie GetRight, Go!Zilla oder FlashGet musste ich mir nicht einmal Mühe geben. Nur wenige Mausklicks und komplette Seitenarchive fanden auf mysteriöse Weise den Weg auf meine Festplatte – der Download lief dann über Nacht. Ob ich diese Dateien jemals anschauen würde? Wahrscheinlich nicht, aber das war zweitrangig.

Disketten wurden auf CDs übertragen, CDs auf DVDs, DVDs auf kleine Festplatten, und kleinere Festplatten auf immer größere Festplatten. Und heute sitze ich auf einem schätzungsweise 12 TB großen Berg an Daten, wie Dagobert in seinem Geldspeicher. Der Ausfall nur einer einzelnen meiner drei zentralen HDDs würde den Verlust von mindestens 15 Jahren an gesammelten Daten bedeuten. Für mich ein Katastrophenszenario, um das ich mich wirklich kümmern musste. Im Jahr 2012, als ich endlich die nötigen finanziellen Mittel besaß, besorgte ich mir einen 15 TB Netzwerkspeicher. Mit Hilfe von Robocopy und einem Batchskript synchronisierte ich sporadisch eine Auswahl der wichtigsten Ordner auf das verschlüsselte Netzwerkverzeichnis. Dies funktionierte gut, doch der Katastrophenfall trat auch in den folgenden Jahren nie ein, weshalb ich zu selbstsicher und faul wurde und meine Bemühungen reduzierte. Endlich im Jahr 2018 konnte ich mich dazu überwinden, alle meine Festplatten vollständig mit VeraCrypt zu verschlüsseln. Nun wurden Backups jedoch sogar noch viel wichtiger, denn wenn die Live-Entschlüsselung mit VeraCrypt plötzlich nicht mehr funktionierte, wäre das gleichbedeutend mit einem Festplattenausfall.

Doch die Technik gab mir erstaunlicherweise keinen Grund zur Sorge. Nach vier Jahren täglichen Gebrauchs arbeitet die Verschlüsselung immer noch einwandfrei. Im Jahr 2020 sattelte ich auf Linux um, und so lösten “rsync” und “Grsync” das bewährte Robocopy ab, und Ext4 löste NTFS ab. Erneut überraschte mich die ausgereifte Technik positiv, denn rsync konnte mühelos die mit Robocopy erstellten Backups aufgreifen und erneuern. Seit dem Sommer 2022 habe ich radikal damit begonnen, eine vernünftige Ordnung in meinem Archiv zu etablieren, habe dazu alte Strukturen aufgebrochen. Dies schuf erneut ungewohnte Herausforderungen, denn trotz meiner schlimmen Unordnung in meinem Dateisystem wusste ich bisher von den meisten Dingen nach all den Jahren wo sie lagen. Nun habe ich zwar Ordnung ins Chaos gebracht, doch muss ich paradoxerweise vieles nun tatsächlich erst suchen. Mit Hilfe von Grsync habe ich mir außerdem Jobs erstellt, die zwei komplette Festplatten auf das NAS spiegeln. Erstmals in meinem Leben bin ich nun in der Situation, dass meine wichtigsten Datengräber vollständig ausfallen könnten, ohne dass ich spürbaren Datenverlust befürchten müsste.

Nicht nur, dass auf meinem NAS vollständige Kopien der Festplatten vorliegen, auch bieten die Paritätsinformationen des RAIDs eine weitere Stufe der Redundanz, denn selbst wenn im NAS eine der Festplatten ausfällt, können die Daten noch verlustfrei wiederhergestellt werden. Und hier hört die Geschichte noch nicht auf: Mir wurde klar, dass meine Wohnung der letzte verbliebene Single Point of Failure darstellte. Ein Wohnungsbrand, Diebstahl oder ähnliches könnte weiterhin alle meine Daten auf einen Schlag vernichten. Die Lösung hierfür ist ein sogenanntes Off-Site-Backup, also eine weitere Kopie an einem weiter entfernten Ort. Und so sicherte ich den vollständigen Inhalt des Netzwerkspeichers auf einer verschlüsselten externen Festplatte und gab sie in vertrauenswürdige Hände zwecks Lagerung für den Katastrophentag X, der hoffentlich nie kommen möge.

Endlich habe ich ausreichende Ausfallsicherheit um mich wirklich sicher zu fühlen. Wenn morgen eine Festplatte quietscht und klackert und nur noch Fehlermeldungen ausspuckt, dann muss mich das nicht mehr beunruhigen: Alles ist noch da. Und ich bin dankbar, dass ich von Ausfällen verschont geblieben bin, als meine Infrastruktur noch ziemlich fahrlässigen “Mut zur Lücke” bewies. Es hätte nämlich auch ganz anders ausgehen können. Da das Thema Backups nun für mich geklärt wäre, kann ich den nächsten offenen Punkt angehen: Das Datenarchiv systematisch durchsuchen, aufräumen und objektiv nutzlosen Müll löschen. Aber Löschen bzw. Wegwerfen ist bekanntlich etwas, das jeden Messie an seine absoluten Schmerzgrenzen bringt.

Auf dem Weg zu Cloud-Gaming in ferner Zukunft und dem bis dahin fortschreitenden Auslagern von Spieldaten auf entsprechende Server, müssen sich Spieler auf einiges gefasst machen. Es ist abzusehen, dass selbige irgendwann wahrscheinlich nur noch einen Launcher auf dem Rechner haben, den sie starten können – der Rest wird online abgerufen und auch online gespeichert. Man erwirbt nicht länger ein Stück Software, das man installieren kann wo und wie es einem passt, sondern eigentlich nur das Recht, diese Software zu verwenden, wie es der Anbieter vorgesehen hat. Dieses Recht kann man offenbar in jeder Hinsicht einschränken, z.B. zeitlich gesehen, oder in Bezug auf die Anzahl der noch verbleibenden Installationen. Im Moment stehen wir noch am Anfang dieser Entwicklung, die ich nicht unbedingt in jeder Hinsicht gutheiße. Schon jetzt werden Savegames regelmäßig online gespeichert und immer seltener lokal auf dem heimischen Rechner. Besagte Launcher, die sich vor Spielstart auf einem Server einloggen, gibt es zwar schon, aber wenigstens die Spieldaten hat man noch selbst vorliegen. Die Server werden als Synchronisierungs- und als Kopierschutzmaßnahme gebraucht, um Dateien gegen Modifikationen zu sichern. Selbstverständlich gelingt das den Crackern bislang dennoch erstaunlich gut.

Ein Vorteil davon, der gerne genannt wird: Der Spieler hat seine Savegames immer und überall dabei, und auch bei einem kompletten Datenverlust bleiben diese erhalten. Aber „immer und überall dabei“ ist hier zu relativieren: Wer gerade keinen Internetanschluss hat, hat auch keine Savegames. Schlimmer noch: Wer keinen Internetanschluss hat, kann oft überhaupt nicht spielen. Zum Glück gibt es gar keine Menschen, die keinen Zugang zum Internet haben. Und Ausfälle gibts ja erst recht keine, dafür sorgen unsere Provider schon.

Kürzlich ist Origin abends für einige Stunden ausgefallen. Köstlich hat mich das amüsiert. Wäre ich Spieler von Battlefield 3 oder Star Wars: The Old Republic würde ich das höchstwahrscheinlich anders sehen, aber so fand ich das tatsächlich zu komisch. Nicht dass EA noch aus den anfänglichen Problemen von Ubisoft und seinem Image-Desaster mit den DRM-Servern für Assassins Creed 2 irgendetwas gelernt hätte, das wäre ja etwas viel verlangt. Klar, für niemanden wird die Welt untergehen, wenn er mal für einige Stunden auf sein Lieblingsspiel verzichten muss. Auch dann nicht, wenn er es legal gekauft hat und im Gegenzug erwartet, dass EA (respektive Ubisoft) für entsprechende Ausfallsicherheit sorgt.

Meine Meinung ist, dass ein Spielehersteller, der sich dazu entschließt, den Spielern einen dreisten Onlinezwang aufzuerlegen und somit jedem ohne Internetverbindung den Zugang zum Spiel verweigert, der hat gefälligst auch dafür zu sorgen, dass es auf Serverseite keine Ausfälle gibt. Wenn das nicht garantiert werden kann, ist von einem Onlinezwang abzusehen. Ohne Kompromisse. Streng genommen kann es mir wieder einmal egal sein. Erstens weil ich solche Spiele grundsätzlich meide und zweitens weil ich weiß, dass die Hersteller sich heute wirklich alles erlauben können, denn die Endbenutzer kaufen die Produkte trotzdem und bestätigen die Hersteller damit in ihrer Entscheidung. Es wird zwar kurzzeitig geheult, wenn mal wieder ein DRM-Server ausfällt, aber sobald alles wieder läuft, ist es vergeben und verziehen.

Jetzt mal von Multiplayer-Only-Titeln abgesehen – was meint ihr, wer bei solchen Geschichten am lautesten lacht? Der gewöhnliche Raubkopierer, der seine gecrackte Kopie auch ohne DRM-Server spielen kann. Der kann seine Spiele außerdem auch mal eben im Zug oder im Urlaub spielen, wo eine Internetverbindung weniger die Regel ist. Der musste nichts aktivieren, guckt nicht blöd in die Röhre, wenn die EA-Server streiken und er hat auch nichts bezahlt, denn mit seinem Geld hätte er die DRM-Maßnahmen unterstützt. Wenn EA sich in fünf Jahren aus Kostengründen entschließt, die Server abzuschalten, dann ist der Raubkopierer der einzige, der die Spiele weiterhin spielen kann. Natürlich nur sofern EA nicht selbst daran denkt, einen Crack, äh, Verzeihung, Patch zu veröffentlichen, der den Onlinezwang aushebelt. Aber ich bin zu sehr Realist um so gutgläubig zu sein.

Liebe Spielehersteller, wie doof seid ihr eigentlich? Ihr liefert den Raubkopierern die besten Argumente, die sie je hatten. Statt den ehrlichen Kunden etwas zu bieten, entwickelt ihr immer schlimmere Restriktionen, in der Hoffnung, dafür ein paar Leuten den Hahn abzudrehen, die das Spiel ohnehin nicht gekauft hätten, ob mit oder ohne DRM. Zum Glück verschwinden mit dem Cloud-Gaming wahrscheinlich auch die Probleme mit den bösen Raubmordkopierern und den unzensierten Versionen von Spielen in Deutschland, dann sind alle froh, die Jugend ist geschützt, und ihr könnt endlich machen was ihr wollt.