Ich will jetzt nicht unbedingt behaupten, dass ich fleißig bin, aber wenn ich mal ausnahmsweise nicht faul bin, dann bin ich so richtig nicht faul. Nach einer längeren Abwesenheit und gleichzeitigen Arbeitspause an meinem Spiele-Remake, bin ich nun endlich wieder dran. Mich hat aus irgendeinem mysteriösen Grund plötzlich wieder die Motivation eingeholt, und sofort konnte ich zumindest wieder etliche Kleinigkeiten angehen und Fehler korrigieren. Allerdings habe ich durch Zufall ganz unerwartet einen weiteren Meilenstein bei der Entwicklung erreicht; einen Punkt auf meiner To-Do-Liste, den ich definitiv irgendwann umsetzen wollte, selbst wenn dies einen Nutzen nur theoretischer Natur auf dem Papier bringt.

Was bisher geschah: Einem unfassbar mäßig begabten Entwickler eines Spiele-Remakes, der zwar nicht vom Erfolg seines Projektes überzeugt, aber dafür wenigstens nicht von seinem Ziel abzubringen ist, war es gelungen, die Original-Dateien des Atari ST-Spiels SPACOLA mit Hilfe eines Debuggers zu entpacken und anschließend sogar das undokumentierte Format der Sprite-Dateien zu dechiffrieren und einen eigenen Konverter zu schreiben. Dies sollte ihm endlich einen wichtigen Einblick in die Hintergründe der Unterhaltungssoftware einer längst vergessenen Zivilisation geben. Wie hatten unsere Vorfahren einst Spiele entwickelt? Wurden die Quellcodes damals noch in Keilschrift verfasst? Mussten Benutzer an einer Kurbel drehen, wenn sie ihren Heimcomputer starten wollten? Waren antike Computerprogramme auch nur in schwarzweiß? (In diesem Fall, ja!). Unermüdlich arbeitete der selbsternannte Software-Archäologe weiter an den historischen Dokumenten, um vielleicht irgendwann einmal das perfekte Remake zu erschaffen.

Teil 3 meines fortlaufenden Hintergrundberichts: Es war eigentlich reiner Zufall als ich im Internet auf die Reverse-Engineering-Erkenntnisse von Jeremy Sawicki aus dem Jahr 2003 stieß. Der hatte diverse OXYD-Spiele in ihren Farbversionen für den IBM-PC erfolgreich analysiert und deren Formatspezifikationen offengelegt, darunter das Levelformat, die Grafik- und Sounddateien. Seine Dokumentation war unter anderem nützlich bei der Entwicklung des freien OXYD-Klons Enigma. Als ich mir die Angaben zum Grafikformat genauer ansah, erkannte ich plötzlich viele Gemeinsamkeiten zu den PAC-Dateien, die in den alten Monochromversionen der frühen Dongleware-Klassiker Verwendung fanden. Diese Dateien enthielten binäre Vollbildgrafiken für die Spiele seit Esprit (1989) und bis mindestens OXYD2 (1991).

Ich hatte mich natürlich längst selbst mehrfach daran versucht, das seltsame Dateiformat zu dekodieren, zuletzt auf Grund meiner Erfolge beim Konvertieren der Sprite-Dateien, doch das PAC-Format widersetzte sich meinen Annäherungsversuchen konsequent. Bis auf einige sehr offensichtliche Headerinformationen konnte ich kaum sinnvolle Werte herauslesen, und meine einzigen Erkenntnisse über das Kompressionsverfahren bestanden darin, dass das Bild in Blöcke unterteilt wird, und die Pixelinformationen grundsätzlich durch ein XOR-Verfahren invertiert von oben nach unten beschrieben werden. Durch Manipulieren der Dateien im Hexeditor und anschließendem Beobachten der Auswirkungen in OXYD, stellte ich erstaunt fest, dass die Dateistruktur eine sehr eigenwillige sein musste, weil oft komplett unvorhersehbare und unintuitive Artefakte im Bild dadurch enstanden. Als ich keinerlei Gesetzmäßigkeiten ausmachen konnte, gab ich mein Vorhaben desillusioniert auf.

Seit heute weiß ich endlich sehr genau, was das große Problem war. Von Sawickis Arbeit angespornt, begann ich endlich an der Entwicklung eines eigenen Konverters, den ich letztlich in mein Remake einbauen wollte, so wie bereits getan beim Konverter für Sprite-Dateien. Ich studierte die Formatspezifikationen und implementierte die Dekompressions- und Zeichenroutinen. Ohne nun zu sehr ins Detail zu gehen (wer alles wissen möchte, kann die Originalseite lesen), besteht jede Packed-Bitplane-Datei aus einem Header, einem Bitstream und einem Bytestream. Der Bitstream beschreibt dabei die gesamte Struktur des Bildes, sowie Angaben über die Kompressionsmethodik, und der Bytestream enthält die tatsächlichen Pixeldaten, die entsprechend gezeichnet werden müssen.

Jedes Bild hat die Auflösung von 640×400 Bildpunkten und ist in Blöcken von je 16×16 Pixeln aufgeteilt. Der Bitstream beschreibt dabei, wie das Bild nacheinander in Reihen von Blöcken, Blöcken, Blockquadranten und Reihen von Pixeln in immer kleinere Häppchen aufgespalten wird, wobei jedes Element entweder übersprungen oder gezeichnet werden kann. Müssen Pixel gezeichnet werden, so wird ein Byte aus dem Bytestream gelesen und dessen Bits als Pixel interpretiert, abhängig von einer der Pixelreihen darüber, die miteinander XOR-verknüpft werden, also je nachdem ob ein Bit gekippt wird oder nicht. Die Formatspezifikation von Sawicki ist dabei technisch betrachtet soweit korrekt, aber leider an mehreren Stellen etwas unpräzise formuliert, so dass ich mehrere Fehler machte, deren Behebung mich viel Zeit gekostet hat.

Das Titelbild „TITLE.PAC“: Die einzelnen Fortschritte während der Entwicklung des PAC-Konverters von oben nach unten. (Rote Bereiche sind nur Hintergrund, wo noch nichts gezeichnet wurde.)

Während der Entwicklung fiel mir jedoch auf, dass Sawicki eines der Features des proprietären Dongleware-Formats definitiv nicht kannte: Neben dem Invert-Flag, das festlegt, ob das fertige Bild noch invertiert werden muss, gab es in meinem Archiv eine einzelne Datei, die ein undokumentiertes Flag setzt. Zum Glück konnte ich am Output des Konverters bereits erkennen, was dem Bild fehlte: Es musste ein Dithered Pattern („Schachbrettmuster“) mittels XOR über das gesamte fertige Bild gezeichnet werden, um die ursprüngliche Grafik wiederherzustellen. Dieser Modus wird wohl zwar nur sehr selten angewandt, aber mein Konverter unterstützt dieses Feature nun ebenfalls. Im Endeffekt war es mir in geschätzt sechs bis sieben Stunden gelungen, eine Implementierung abzuliefern, die sämtliche 16 PAC-Dateien, die ich aus vier Spielen gesammelt hatte, fehlerfrei einzulesen und anzuzeigen vermochte.

Ohne das hilfreiche Dokument wäre ich immer noch nicht schlauer, und sonst einen Konverter zu schreiben, hätte ich wahrscheinlich nur geschafft wenn ich viele Wochen und Monate in mühsames Debugging der Spiele investiert hätte. Ob ich mir diese Zeit jemals hätte nehmen wollen, sei mal dahingestellt. Nun bin ich umso glücklicher über diese angenehme Abkürzung, die ich nehmen konnte. Der Konverter ist fertig und bereits ins Remake eingebaut. Dadurch bin ich jetzt endlich in der Lage, auch die originalen Grafikdateien in unveränderter Form im Remake einzulesen und zu verwenden. Das macht – wie eingangs im Absatz beschrieben – für den Spieler absolut keinen Unterschied, für mich als Entwickler mit Perfektionsdrang aber einen gewaltigen.

Mein SPACOLA-Remake kann nun die ursprünglichen Sounddateien, die Sprites und die Grafikdateien korrekt lesen. An der Interpretation der originalen Leveldaten arbeite ich mich weiterhin Schritt für Schritt voran, sie werden aber immerhin schon komplett eingelesen. Alles was jetzt noch vollständig fehlt: Die Musikdaten im SMS Synthesizer-Format von Jürgen Piscol. Ob ich dieses Kapitel jemals abschließen werde, lässt sich im Moment noch nicht einmal sagen. Andererseits, wer weiß schon, ob sich nicht doch wieder jemand findet, der zufällig eine detaillierte Analyse des Formats in Schriftform für mich zur Einsicht hat. Dann könnte nämlich alles ganz schnell gehen.

Das „Boss Is Coming“-Bild aus OXYD2, dargestellt im PAC-Konverter, zeigt den Datenbank-Manager „Phoenix“ von den Application Systems Heidelberg

Und falls sich nun jemand fragt, wieviele PAC-Dateien in SPACOLA Eclipse denn nun eingelesen und angezeigt werden können: Es sind ganze vier Dateien! Erstens, das Titelbild beim Laden des Spiels. Zweitens, das typische HUD mit dem Radar auf der rechten Seite. Drittens, der Rentenbescheid zum Ausdrucken nach Abschluss des letzten Levels. Die vierte und letzte PAC-Datei ist tatsächlich ein ungenutztes Bild, das die Kontaktadresse des Dongleware-Verlages enthält. Vermutlich wurde es in einer früheren Version des Spiels verwendet, und dann durch ganz normalen Text in der Dongleware-Schriftart ersetzt. Alle diese vier Originaldateien werde ich nun ins Remake einbauen und in irgendeiner Weise nutzen, damit sich der ganze Entwicklungsaufwand auch gelohnt hat.

Ich beim täglichen Bad in meinem Datenschatz

Zeit meines Lebens habe ich als selbsternannter Datenmessie beinahe schon leidenschaftlich Datenhamsterei betrieben, aber gleichzeitig nie ausreichend viele Gedanken an Backups verschwendet. Wenn man das weiß, erkennt man, dass ich in der großen Datenverlust-Lotterie unverschämt viel Glück gehabt habe. Schlimmer noch, die sogenannten Single Points of Failure sind mit den Jahren immer größer geworden, angesichts immer umfassenderer Datengräber, besonders in den letzten paar Jahren. Von meinen ersten 3,5 Zoll 720 Kbyte DD-Disketten in den 80er Jahren, über 700 MB CDRs in den 90ern, den 4,7 GB DVDRs in den 00er Jahren, bis zu den heutigen 16 TB HDDs, habe ich alle verfügbaren Datenträger immer sehr gerne mit meiner Sammlung vollgeschrieben. Sammlung deshalb, weil ich in weiser Voraussicht und in schöner Regelmäßigkeit die Inhalte auf den schwächelnden, alternden Datenträgern der vergangenen Generationen auf neuere übertragen habe, und die Datenmenge so kontinuierlich anstieg, die ich als meinen ganz eigenen Schatz betrachtet habe. Zuletzt lag der gesamte Krempel von unzähligen Disketten, einer vierstelligen Anzahl von CDs, einer dreistelligen Anzahl von DVDs, und einem ganzen Stapel älterer Festplatten auf nur noch drei zentralen Datenträgern. Also Daten aus über 30 Jahren Computernutzung – und für diese hatte ich keine (echten) Backups.

Selbstverständlich wusste ich als computeraffiner Mensch schon immer um die große Bedeutung von Backups. Früh brachte mein Vater mir bei, dass man von wichtigen Original-Disketten erst einmal (mindestens) eine Sicherheitskopie macht, und dann ausschließlich diese verwendet. Beim Verstehen half mir auch die Tatsache, dass Disketten oftmals relativ schnell die Grätsche machten. Datenverlust erlebte ich daher häufig, aber es war eben immer nur eine einzelne Diskette betroffen und nicht etwa ein gigantisches Archiv, das Jahrzehnte umfasste. Im Jahr 1995 unternahmen wir gemeinsam eine große Archivierungsaktion, bei der wir hunderte unserer Atari ST-Disketten in tagelanger Kleinarbeit auf DAT-Bändern sicherten. Die Aktion war ein voller Erfolg, die Backups benötigten wir jedoch nie. Bald darauf dominierte der PC unseren Alltag und der Siegeszug der optischen Datenträger begann. Selbstgebrannte CDs, selbstgebrannte DVDs, randvolle Festplatten, bald lag das Zeug kreuz und quer im Kinderzimmer herum. Die ISDN-Flatrate und die darauf folgende heimische DSL-Leitung machten es leicht, immer verrücktere, noch unnötigere Dinge herunterzuladen und “wegzubrennen”. Mit Hilfe von Tools wie GetRight, Go!Zilla oder FlashGet musste ich mir nicht einmal Mühe geben. Nur wenige Mausklicks und komplette Seitenarchive fanden auf mysteriöse Weise den Weg auf meine Festplatte – der Download lief dann über Nacht. Ob ich diese Dateien jemals anschauen würde? Wahrscheinlich nicht, aber das war zweitrangig.

Disketten wurden auf CDs übertragen, CDs auf DVDs, DVDs auf kleine Festplatten, und kleinere Festplatten auf immer größere Festplatten. Und heute sitze ich auf einem schätzungsweise 12 TB großen Berg an Daten, wie Dagobert in seinem Geldspeicher. Der Ausfall nur einer einzelnen meiner drei zentralen HDDs würde den Verlust von mindestens 15 Jahren an gesammelten Daten bedeuten. Für mich ein Katastrophenszenario, um das ich mich wirklich kümmern musste. Im Jahr 2012, als ich endlich die nötigen finanziellen Mittel besaß, besorgte ich mir einen 15 TB Netzwerkspeicher. Mit Hilfe von Robocopy und einem Batchskript synchronisierte ich sporadisch eine Auswahl der wichtigsten Ordner auf das verschlüsselte Netzwerkverzeichnis. Dies funktionierte gut, doch der Katastrophenfall trat auch in den folgenden Jahren nie ein, weshalb ich zu selbstsicher und faul wurde und meine Bemühungen reduzierte. Endlich im Jahr 2018 konnte ich mich dazu überwinden, alle meine Festplatten vollständig mit VeraCrypt zu verschlüsseln. Nun wurden Backups jedoch sogar noch viel wichtiger, denn wenn die Live-Entschlüsselung mit VeraCrypt plötzlich nicht mehr funktionierte, wäre das gleichbedeutend mit einem Festplattenausfall.

Doch die Technik gab mir erstaunlicherweise keinen Grund zur Sorge. Nach vier Jahren täglichen Gebrauchs arbeitet die Verschlüsselung immer noch einwandfrei. Im Jahr 2020 sattelte ich auf Linux um, und so lösten “rsync” und “Grsync” das bewährte Robocopy ab, und Ext4 löste NTFS ab. Erneut überraschte mich die ausgereifte Technik positiv, denn rsync konnte mühelos die mit Robocopy erstellten Backups aufgreifen und erneuern. Seit dem Sommer 2022 habe ich radikal damit begonnen, eine vernünftige Ordnung in meinem Archiv zu etablieren, habe dazu alte Strukturen aufgebrochen. Dies schuf erneut ungewohnte Herausforderungen, denn trotz meiner schlimmen Unordnung in meinem Dateisystem wusste ich bisher von den meisten Dingen nach all den Jahren wo sie lagen. Nun habe ich zwar Ordnung ins Chaos gebracht, doch muss ich paradoxerweise vieles nun tatsächlich erst suchen. Mit Hilfe von Grsync habe ich mir außerdem Jobs erstellt, die zwei komplette Festplatten auf das NAS spiegeln. Erstmals in meinem Leben bin ich nun in der Situation, dass meine wichtigsten Datengräber vollständig ausfallen könnten, ohne dass ich spürbaren Datenverlust befürchten müsste.

Nicht nur, dass auf meinem NAS vollständige Kopien der Festplatten vorliegen, auch bieten die Paritätsinformationen des RAIDs eine weitere Stufe der Redundanz, denn selbst wenn im NAS eine der Festplatten ausfällt, können die Daten noch verlustfrei wiederhergestellt werden. Und hier hört die Geschichte noch nicht auf: Mir wurde klar, dass meine Wohnung der letzte verbliebene Single Point of Failure darstellte. Ein Wohnungsbrand, Diebstahl oder ähnliches könnte weiterhin alle meine Daten auf einen Schlag vernichten. Die Lösung hierfür ist ein sogenanntes Off-Site-Backup, also eine weitere Kopie an einem weiter entfernten Ort. Und so sicherte ich den vollständigen Inhalt des Netzwerkspeichers auf einer verschlüsselten externen Festplatte und gab sie in vertrauenswürdige Hände zwecks Lagerung für den Katastrophentag X, der hoffentlich nie kommen möge.

Endlich habe ich ausreichende Ausfallsicherheit um mich wirklich sicher zu fühlen. Wenn morgen eine Festplatte quietscht und klackert und nur noch Fehlermeldungen ausspuckt, dann muss mich das nicht mehr beunruhigen: Alles ist noch da. Und ich bin dankbar, dass ich von Ausfällen verschont geblieben bin, als meine Infrastruktur noch ziemlich fahrlässigen “Mut zur Lücke” bewies. Es hätte nämlich auch ganz anders ausgehen können. Da das Thema Backups nun für mich geklärt wäre, kann ich den nächsten offenen Punkt angehen: Das Datenarchiv systematisch durchsuchen, aufräumen und objektiv nutzlosen Müll löschen. Aber Löschen bzw. Wegwerfen ist bekanntlich etwas, das jeden Messie an seine absoluten Schmerzgrenzen bringt.

Gilmore GirlsIm Frühjahr 2004 war ich gerade noch mit der Vorbereitung auf mein Abi beschäftigt, als ich in einer müßigen Stunde durch Zufall auf VOX eine einzelne Folge der US-amerikanischen TV-Serie “Gilmore Girls” sah. Eigentlich nicht einem meiner bevorzugten Genres entsprechend, machte mich diese Serie und ihre eigenartigen und doch charmanten Charaktere überraschenderweise sofort neugierig. Ich sah mir die meisten Episoden in den folgenden Monaten in chronologischer Reihenfolge an und wurde damals ganz unerwartet so etwas wie ein Fan der Gilmore Girls, was mir teilweise auch einigen Spott von bestimmten Individuen einbrachte. Die Serie lief insgesamt über sieben Staffeln und 153 Folgen zwischen 2000 und 2007. Im Jahr 2016 entstand durch Netflix eine vierteilige Miniserie, die die Ereignisse der ein wenig unversöhnlich endenden Serie zumindest halbwegs abschließen sollte.

Bei den titelgebenden Gilmore Girls handelt es sich um die junggebliebene Mutter und Anfangdreißigerin Lorelai Gilmore (Lauren Graham), sowie ihre intelligente, ambitionierte Teenager-Tochter Rory Gilmore (Alexis Bledel). Und theoretisch, wenn man möchte, komplettiert die Großmutter Emily Gilmore das Trio noch, aber diese spielt eine eindeutig untergeordnete Rolle. Die kleinen Geschichten um die Gilmore-Mädels spielen in der fiktiven, beschaulichen US-Kleinstadt Stars Hollow und drehen sich zumeist auch um deren liebenswerte und wirklich zahlreiche Bewohner. Die bodenständige Lorelai, die ein Problem mit gesellschaftlichen Konventionen und ein schwieriges Verhältnis zu ihren reichen, versnobten Eltern Emily und Richard hat, wird bereits mit 16 Jahren schwanger. Die junge Frau wird folglich zur Heirat mit dem Vater des Kindes gedrängt, doch stattdessen führt dies zu einer schweren Familienkrise und schließlich zum Bruch mit den Eltern. Lorelai zieht Rory ganz alleine und ohne den Reichtum der Eltern groß, erfährt dabei aber gleichzeitig viel Unterstützung durch die Gemeinde, in die sie zieht. Rory wird so etwas wie das geliebte Töchterchen des ganzen Ortes.

16 Jahre später ist Rory zur hübschen, aufgeweckten Teenagerin und Musterschülerin aufgeblüht und steht an der Schwelle zum Erwachsenwerden. Sie soll nun auf eine angesehene, teure Privatschule gehen, die ihr zwar die besten Zukunftsaussichten bieten wird, doch die erwarteten Schulgebühren sind leider enorm. Sie übersteigen die finanziellen Mittel von Lorelai bei weitem, daher nimmt sie entgegen ihrer Prinzipien wieder Kontakt zu ihren Eltern auf, und bittet demütig um das Geld für Rorys Schule. Diese wollen jedoch endlich am Leben ihrer Enkelin teilhaben und knüpfen den regelmäßigen Kontakt als Bedingung an die Vereinbarung. Ihr Leben wird fortan völlig auf den Kopf gestellt, bei dem aussichtslosen Versuch, es ihren anspruchsvollen, traditionsverliebten Eltern irgendwie recht zu machen. Und plötzlich muss sich die bisher stolze, unabhängige Mutter damit auseinandersetzen, dass sie selbst im Grunde auch nur Kind ist.

Gilmore GirlsDie Serie lebt hauptsächlich von den starken, ungewohnt schnell gesprochenen Dialogen, insbesondere zwischen Lorelai und Rory, die ausdrücklich nicht allein Mutter und Tochter, sondern vor allem beste Freundinnen sind, was sich in ihrer perfekt eingespielten, kooperativen Lebensweise äußert. Sie haben ihre Alltagsrituale, ihre Insiderwitze und ihre ganz speziellen Spleens, die für Außenstehende selten nachzuvollziehen sind. Im Leben der Gilmore Girls ist alles in Bewegung, auch in Bezug auf ihre vielen romantischen Beziehungen, die im Verlauf der sieben Staffeln aufgezeigt werden. Konflikte lassen selbstverständlich auch nicht lange auf sich warten, so wechseln sich Comedy und Drama in schöner Regelmäßigkeit ab, was die Serie für den Zuschauer zu einer emotionalen Achterbahn werden lässt. Doch die Probleme, die man in dieser kleinen, relativ heilen Welt hat, bleiben weitestgehend auf Stars Hollow begrenzt, ein größeres Übel sucht man vergebens. Alles behält bis zum Ende seinen Kleinstadtcharme.

Die vier längeren Episoden der weiterführenden Serie “Gilmore Girls: Ein neues Jahr” mit den Titeln “Winter”, “Frühling”, “Sommer” und “Herbst” bilden den Abschluss der eigentlichen Serie, mit einem zeitlichen Abstand von fast 10 Jahren. Die Welt hat sich weitergedreht, alle sind reifer geworden, einige Dinge haben sich verändert, aber die Personen sind im Grunde dieselben geblieben. Jede wichtige Figur der Serie bekommt noch einmal ihren verdienten Gastauftritt, bevor der Vorhang zum Ende des Herbstes dann endgültig fällt – nicht jedoch ohne einen kleinen, unerwarteten und unaufgelösten Cliffhanger. Diese Kapitel im Leben der Gilmore Girls sind somit abgeschlossen, und ich habe alles bis zum Ende mitverfolgt und kann sagen, dass ich froh bin, dabei gewesen zu sein. Auch wenn man das in diesem Falle vielleicht nicht jedem gegenüber immer laut sagen sollte. Es ist natürlich zugegebenermaßen eine stark östrogenhaltige Fernsehserie. Doch wenn wir ehrlich sind, kommt dies nicht ganz ohne Vorteile daher. Die sympathischen und durchaus attraktiven Hauptdarstellerinnen haben jedoch auch noch ihren Beitrag dazu geleistet.

Ich persönlich mochte viele Aspekte der Serie, z.B. dass Lorelai und Rory große Filmfans sind und auch etliche Film- und Fernsehklassiker immer wieder gerne zitieren, was für Cineasten ein großer Spaß ist. Auch klassische Literatur und Musik kommen nicht zu kurz. Doch die große Stärke der Serie sind die teils komplexen, zwischenmenschlichen Beziehungen und die Romanzen, die sich allmählich entwickeln. Ich konnte mit Luke Danes, dem Besitzer des Diners, sehr oft sympathisieren, weil er mit seinem Image eines Einzelgängers und der Art eines verschrobenen Holzfällers erst ganz heimlich für Lorelai schwärmte, später aber aktiv nach Möglichkeiten suchte, ihr Herz für sich zu gewinnen, obwohl die beiden verschiedener kaum sein könnten. Er wollte lernen, Frauen besser zu verstehen, und nahm mich gewissermaßen mit auf diese Erfahrungsreise, um mir zu zeigen, dass nichts aussichtslos ist, wenn man sich nur bemüht. Auch Rorys erste Liebe mit ihrem Freund Dean in der ersten Staffel sollte nicht nur den beiden Charakteren, sondern auch mir damals als Lehrstück für Beziehungen dienen. Zumindest würde ich nicht behaupten, nichts aus deren Erfahrungen gelernt zu haben.

Mein Leben habe ich endlich wieder im Griff. Naja, zumindest habe ich meinen PC endlich wieder im Griff, denn ich bin seit Dezember 2020 zum ersten Mal nach 23 Jahren windows-frei(*), wohlgemerkt mit einem kleinen Sternchen, denn es gibt eine spezielle vorübergehende Ausnahme, die ich gerne erklären werde. Jedenfalls ist mein Haupt-Betriebssystem inzwischen Linux, genauer gesagt Ubuntu MATE 20.04 LTS. Diese Installation funktioniert seit zehn Monaten erstaunlich gut, und ich bin mittlerweile an einem Punkt angelangt, an dem ich mit Fug, mit Recht und auch mit Stolz sagen kann: Ich bin frei und werde nie wieder zu Windows zurückkehren! Den Spyware-Rotz von Microsoft habe ich endgültig hinter mir gelassen und genau das war mein Ziel. Aber wie kam es denn dazu? Eigentlich müsste die Frage eher lauten: Wieso kam es nicht viel früher dazu?

Wer die kleine Artikelreihe bisher verfolgt hat, wird live miterlebt haben, wie ich zuletzt 2017 an einer Installation von Linux Mint scheiterte, einem angeblich für Ein- und Umsteiger sehr gut geeigneten Betriebssystem. Tatsächlich gab es einige positive Aspekte, allerdings auch unerträgliche Eigenheiten, welches in einem insgesamt eher durchwachsenen Erlebnis für mich resultierten. Die letzten Sargnägel für Linux Mint bildeten für mich jedoch, dass sich die Updatefunktion irgendwann selbst ins Knie geschossen hatte, indem die gerade einmal 512 MB große vorkonfigurierte /boot/-Partition durch ungenutzte Kernels vollgeschrieben wurde (so meine gänzlich laienhafte Vermutung) und es in Linux Mint keinen automatischen Mechanismus gibt, um dies zu bereinigen. Inzwischen hat mir ein Kollege mitgeteilt, dass dies wohl eine alte Mint-Krankheit sei, mit der man offenbar leben müsse. Nunja. Und zuletzt beklagte ich mich darüber, dass vom Benutzer erwartet würde, immer wieder Befehle aus irgendwelchen Internetforen blind ins Terminal zu kopieren. Einmal zu oft folgte ich diesem seltsamen Linux-Paradigma, und plötzlich stand ich vor den Scherben meiner Linux-Installation. Da ich keine Tools kenne, um ein defektes Linux zu reparieren, deutete ich das Signal entsprechend und wechselte nach nur zwei Monaten zurück zu Windows 7.

Leider erzwangen die Hardware-Hersteller im vergangenen Jahr eine Abkehr von Windows 7, dem letzten wirklich brauchbaren Betriebssystem aus dem Hause Microsoft, und so wurde ich mangels Alternativen in die Ecke gedrängt. Entweder die NSA-Wanze Windows 10 installieren, oder doch wieder zu Linux ins eiskalte Wasser springen und hoffen, dass ich schnell genug schwimmen lerne, bevor mir die Luft ausgeht. Sollte ich meine Seele (und meine Daten) also dem Teufel aus Redmond verschreiben, oder mich endlich wie ein richtiger IT-Experte verhalten und Linux lernen? Schließlich war ich mir sicher, dass ich zwei entscheidende Vorteile auf meiner Seite hatte: Erstens, die Linux-Welt müsste sich doch in über drei Jahren seit meinem Fehlschlag entscheidend weitergedreht haben. Und zweitens, wenn Linux Mint für mich keine Option ist, nehme ich ganz einfach eine andere Distribution. Zum Glück hat man hier die Qual der Wahl.

Ich traf die einzig richtige Entscheidung in dieser Situation: Ubuntu sollte fortan mein Betriebssystem der Wahl werden, diesmal ohne Plan B. Im Grunde gab es da aber nicht viel zu entscheiden. Ich bin schließlich kein DAU, sondern Informatiker und arbeite täglich in der IT. Ich brauche Windows nicht und bin Windows auch nicht hilflos ausgeliefert, so wie viele andere. Für jemanden mit meinem Fachwissen gibt es überhaupt keinen Grund, nicht mit Linux arbeiten zu können, denn alles nötige lässt sich nachlesen und lernen. Ich wollte endlich wieder die Kontrolle über meine eigene Hardware haben und eben kein Betriebssystem, das permanent heimlich Nutzerdaten an den Hersteller sendet, regelmäßig Werbung einblendet, mir Nutzungs- und Updatevorschriften macht, mich am laufenden Band bevormundet und mir ein falsches Gefühl von Sicherheit vermittelt.

Zuvor sah ich mir zu Demonstrationszwecken einige Videos zu den einzelnen “Flavours” von Ubuntu an, also die verschieden ausgestatteten Varianten mit unterschiedlichen Desktops. Relativ schnell wusste ich, dass der tablet-android-ähnliche Desktop des Stock Ubuntu für mich suboptimal war. Zudem war die Systemsteuerung (Steuerzentrale) eine Frechheit, da man dort kaum das nötigste einstellen durfte. Offensichtlich war dies wohl eher die Ausgabe für Menschen ohne irgendwelche Computerkenntnisse. Glücklicherweise gibt es z.B. mit Ubuntu MATE eine stark desktop-zentrische Version mit umfassender Systemsteuerung und “oldschool”-Taskleiste und Startmenü. Da ich großen Wert auf einen klassischen Maus-Desktop lege und mein Filesystem quasi der Mittelpunkt aller meiner PC-Tätigkeiten ist, sollte das Betriebssystem dies auch in entsprechender Weise reflektieren und unterstützen. In dieser Hinsicht sind sich Ubuntu MATE und Linux Mint sogar ausgesprochen ähnlich. Eine lächerliche Wisch-und-Tatsch-Oberfläche mit interaktiven Ecken und Fingergesten wie bei einem Smartphone wäre hier vollkommen unangebracht.

Nun musste ich im Dezember vergangenen Jahres also in den kalten Entzug gehen. Da ich ohnehin nach sechs Jahren einen völlig neuen PC zusammenbauen wollte, gab es hierfür die ideale Gelegenheit. Nur die Festplatte formatieren, Windows runter, Ubuntu drauf, und schon konnte es losgehen. Die Installation verlief wie erwartet schön rund, die Hardwareunterstützung für alte sowie relativ neue Hardware ist mehr als anständig. Es dauerte nicht lange und ich wurde vom (leeren) Desktop begrüßt. Die Welt ist im Wandel. Fast Forward zum Oktober 2021: Seit zehn Monaten bin ich ein echter Linux-Nutzer und habe einige wertvolle Erfahrungen gesammelt. Die größte Erfolgsmeldung ist, dass das Betriebssystem bemerkenswerterweise immer noch läuft, und das ist schon ein gewaltiger Fortschritt wenn man meine schwierige Historie mit Linux betrachtet. Auch kann ich generell Entwarnung geben: Es liegen zwar holprige und ruckelige Zeiten hinter mir, doch inzwischen ist der Seegang wesentlich ruhiger geworden. Es kostete mich vielleicht eine Menge Nerven, brachte mir Glücksmomente und Wutausbrüche, ich bekam zusätzliche graue Haare, bis ich so halbwegs verstand, was man unter Linux tun kann, und was man besser lassen sollte. Heute kann ich mich zufrieden zurücklehnen, die Entziehungskur ist gelungen, der Patient ist im sicheren Linux-Hafen angelangt.

Ein wesentlicher Erfolgsfaktor im Umgang mit Linux ist freilich das passende Software-Angebot, und darauf möchte ich zumindest kurz eingehen: Von den vielen Programmen, die ich bisher tagtäglich unter Windows 7 genutzt habe, gibt es grob etwa 75% ganz normal auch als Linux-Build, sei es LibreOffice, GIMP, Eclipse, Firefox, VeraCrypt, CherryTree, Discord, Steam, Thunderbird, DOSBox, JDownloader, Audacity (bzw. künftig Tenacity), VLC Player/SMPlayer, OBS und viele, viele mehr. Bei den restlichen 25% hat man als Umsteiger genau zwei Möglichkeiten: Zunächst gibt es in einzelnen Fällen fertige Bundles der Windows-Version mit der Kompatibilitätsschicht Wine, oder zumindest die theoretische Option, die Software mit Wine zu starten. Dies ist nicht immer optimal, funktioniert aber besser als man glaubt, so z.B. bei Notepad++ oder IrfanView. Die Programme lassen sich sogar so ins Betriebssystem einbinden als wären es native Linux-Versionen. Und falls das auch nicht klappt, bleibt als letzte Maßnahme immerhin noch gesunder Menschenverstand und ein bisschen Wille zur Umgewöhnung, denn das Linux-Ökosystem bietet für fast jedes “unersetzbare” Stückchen Windows-Software eine Alternative. Ob diese Alternative (fast) gleichwertig oder sogar höherwertig ist, hängt vom Tool ab. Meistens ist der angeblich signifikante Unterschied in der Qualität am Ende doch nur eine subjektive Abneigung gegen alles Neue oder Andere. Ja, wir Menschen sind auch nur Gewohnheitstiere.

Für diesen letzten Schritt habe ich mir viel Zeit gelassen, habe immer wieder neue Programme installiert und ausprobiert und aus den verschiedensten Gründen wieder verworfen, weil mir deren Funktionsumfang und/oder Bedienkonzept nicht zusagte. Insbesondere wollte ich eine gute Linux-Alternative für besagtes Notepad++, und ganz so schnell wie man meint wird man hier leider doch nicht fündig. Einfache Texteditoren gibt es für Linux natürlich wie Sand am Meer, doch fast nichts ist auch nur annähernd so komfortabel und gleichzeitig so leistungsfähig wie Notepad++. Wer mir nicht glaubt, möge bitte einmal eine 100 MB große Textdatei mit einer Reihe von beliebten Editoren laden, bearbeiten und speichern. Mehrere von mir getestete Programme stürzten bei einem dieser drei Schritte grundsätzlich immer ab. Dieses Beispiel lässt sich leider relativ gut verallgemeinern, denn an Power-User wird selten gedacht. Aktuell teste ich hier “CudaText”, das viele Funktionen bietet, halbwegs schnell ist, und auch mit großen Dateien umgehen kann. Aber natürlich hat nicht jeder so hohe Ansprüche an einen Texteditor wie ich, daher wird nicht jeder dieselben Probleme haben. Um eine kleine Einkaufsliste zu schreiben, wird man so einen Aufriss selbstverständlich nicht betreiben müssen.

Auch habe ich lange mit mir um einen echten Ersatz für IrfanView gerungen. Die meisten Linux-Bildbetrachter sind sehr rudimentäre Programme, die im wahrsten Sinne des Wortes nur das Bild anzeigen, sonst aber kaum Funktionen zur Bearbeitung haben. Zusätzlich benötigt ein solches Tool für mich eine brauchbare Ordnernavigation, und zu allem Überfluss ein Tastenschema, das ich selbst definieren kann. Spätestens aber wenn ich von einem Bildbetrachter erwarte, dass er Bilder aus der Zwischenablage entgegennehmen kann (via STRG+V), fallen ohnehin 95% der Programme durch das Raster. Ja, es ist schon ein Krampf, wenn man so verwöhnt ist. Inzwischen bin ich bei “XnView MP” gelandet, das man mit ein wenig fleißiger Konfigurationsarbeit fast genau so einstellen kann, wie ich es benötige. IrfanView vermisse ich seitdem nicht mehr. Achja, und mit „KeePassXC“ habe ich eine wirklich außerordentlich gute, plattformunabhängige, und außerdem vollständig datenkompatible Alternative zum Passwortmanager-Klassiker KeePass gefunden.

Nachdem ich also alle meine wichtigen Programme beisammen habe, ist die tägliche Arbeit unter Linux viel reibungsfreier und gemütlicher geworden. Man hat nicht mehr ständig das Gefühl, mit stumpfen Werkzeugen arbeiten und mit Krücken gehen zu müssen. Tatsächlich bin ich mittlerweile in vielen Dingen routinierter und schneller, und Linux für mich zur Selbstverständlichkeit geworden. Aber ich habe natürlich nicht nur Lobhudelei und Jubelperserei für Linux übrig, sondern auch viel Kritik, denn nicht alles ist ideal im Pinguin-Wunderland. Andererseits verlangt ja auch niemand von Windows 10 ideal zu sein. Jedenfalls könnte ich wieder einmal eine komplette Artikelserie schreiben über die vielen Widrigkeiten, gegen die ich in den vergangenen Monaten ankämpfen musste. Und entgegen der allgemeinen Meinung über Linux möchte ich hier auch ganz klar betonen: Ubuntu stürzt ab! Vielleicht alle 6-8 Wochen stürzt das Betriebssystem komplett oder zumindest teilweise ab, so dass oftmals nur noch ein harter Reboot hilft. Dies ist noch kein Grund zur Panik, schließlich läuft mein PC fast 24/7 durch, aber es zeigt mir, dass Linux auch nur mit Wasser kocht und kein unerschütterliches Wunderwerk ist.

Ebenso könnte ich, wenn ich die Zeit dafür hätte, einen schönen, langen und ausgewogenen Artikel über das Thema Linux und Spiele schreiben, denn dieses Thema interessiert viele vorwiegend jüngere Menschen, und auch ich musste mich damit befassen. Um meine Erfahrungen wenigstens kurz zu umreißen: Es gibt eine gigantische Welt an Open-Source-Spielen und -Remakes, die unter Linux ganz normal laufen, darunter so namhafte Klassiker wie FreeCiv, OpenTTD, Doom, Unreal Tournament, Diablo, Daggerfall, Seven Kingdoms, Doom 3, Duke Nukem 3D, OpenXcom, Theme Hospital, FreeCol, OpenRCT2, OpenRA und sehr viele mehr. Und natürlich alles was irgendwie in einem Emulator lauffähig ist, ist für Linuxer ganz normal spielbar, egal ob mit Emulatoren für C64, Gameboy, SNES, N64, PSX oder PS3 usw., alte PC-Spiele via DOSBox oder Adventures mit Hilfe von ScummVM – über die Möglichkeiten könnte man stundenlang reden. Schwieriger wird es erst, wenn wir über Spiele reden, die exklusiv und nur nativ unter Windows laufen.

Hierbei sind Wine und Proton wahrhaftig mächtige Helferlein, wenn es darum geht, Windows-Spiele unter Linux zu verwenden. Aber sie sind leider auch bei weitem noch nicht perfekt. In gewisser Weise sind diese Tools für mich ein Hit-or-miss-Erlebnis. Manchmal staunt man geradezu, wie gut ein Spiel läuft, manchmal ist man aber nur enttäuscht, wenn man nicht einmal das Hauptmenü zu sehen bekommt. Um als aktuelles Beispiel etwa “Cyberpunk 2077” anzubringen: Laut ProtonDB läuft das Spiel bei etlichen Nutzern völlig problemlos, bei fast idealer Performance, fast ohne Grafik- und Audiofehler, während viele andere Spieler es noch nicht einmal gestartet bekommen. Ich selbst habe Cyberpunk 2077 mit Hilfe des beliebten Launchers “Lutris” installiert und getestet. In vier von fünf Fällen hängt sich das Spiel noch vor dem Intro auf. Meine längste Spielsitzung dauerte etwa 5 Minuten, dann ist nicht nur das Spiel, sondern jeweils der komplette Rechner abgestürzt. Gerne würde ich hier erzählen, wie toll und stabil das alles funktioniert, aber in Wirklichkeit sind es tendenziell eher Glücksfälle, wenn ein Spiel mit Wine/Proton gut läuft.

Insbesondere wenn man wie ich bewusst ein LTS-Betriebssystem installiert, hat man leider oft schon einen leicht angestaubten Linux-Kernel mit teilweise deutlich älteren Treibern. Als Linux-Gamer sollte man daher wohl besser auf ein LTS-Linux zugunsten aktuellerer Treiber verzichten. Und wenn man dann noch eine Grafikkarte vom falschen Hersteller nutzt, hat man ebenfalls Pech gehabt. Es gibt leider unzählige Gründe warum Spiele (trotz angeblicher Kompatibilität) entweder nicht laufen, oder viel gruselige Frickelei seitens der Nutzer erfordern. Mit Steam hat man hier jedenfalls noch mit Abstand die besten Chancen auf eine wirklich gute Out-Of-The-Box-Erfahrung. Bei aller gebotener Kritik hat Valve sich hier für Linux-Nutzer wahrlich ins Zeug gelegt.

Die einzig wasserdichte Lösung ist eine Windows 10-VM mit sogenanntem GPU-Passthrough unter Linux zu verwenden. Hier hat man sowohl eine perfekte Kompatibilität als auch eine ideale Performance. Leider ist die initiale Einrichtung nicht ganz trivial, und auch die Hardware-Anforderungen sind nicht zu verachten. Aber wenn man den Aufwand nicht scheut, gibt es etliche gute Tutorials in Foren und beispielsweise auf YouTube, die die Konfiguration sorgfältig Schritt für Schritt erklären, so dass sogar Linux-Noobs wie ich zum Ziel kommen. Am Ende wird man mit Hilfe von QEMU und KVM mit einem 100% spieletauglichen Setup unter Linux belohnt. In der Theorie kann man unter Linux bei Bedarf jederzeit die Windows-VM hoch- und wieder runterfahren, wenn man gerade etwas spielen will, und das restliche System wird davon nicht beeinflusst. In der Praxis hat die miserable Wahl meiner Grafikkarte meine Erfahrung leider doch ein wenig getrübt. Insgesamt hat es sich dennoch absolut gelohnt, und so kann ich eben auch Cyberpunk 2077 spielen wann immer ich das möchte.

Nichtsdestotrotz ist dies explizit nur eine temporäre Übergangslösung, denn der bittere Nachgeschmack bei der Verwendung von Windows 10 bleibt – trotz der “Gaming-Sandbox”, die ich extra dafür aufgebaut habe. Bei meiner nächsten Linux-Installation pünktlich zum Ubuntu-Release 22.04 im kommenden Frühjahr werde ich mehr Wert auf Spieletauglichkeit legen und darauf achten, dass ich immer die neuesten Treiber erhalte, damit auch moderne Triple-A-Spiele kein Hindernis mehr darstellen. Sobald Proton bei mir endlich vernünftig funktioniert, wird die lästige Win 10-VM in die Tonne getreten. Das Thema Spiele unter Linux ist, wie gesagt, eigentlich weitaus komplexer, daher muss es bei diesem knappen Überblick vorerst bleiben.

Wo stehe ich aktuell mit meiner Meinung? Ist Linux ein geeignetes Desktop-Betriebssystem im Jahr 2021? Nach allem was ich heute weiß: Eindeutig ja, wenn man wenigstens ein bisschen bereit ist, sich auf etwas Umgewöhnung einzulassen, und wenn man nicht vollkommen stur darauf besteht, dass sich alles immer so wie Windows anfühlen und alles exakt genau wie Windows funktionieren muss, denn das wird es bei Linux garantiert nie. Und insbesondere beim Thema Spiele wird man sich noch auf ein paar Kompromisse einlassen müssen, wobei sich hier in den vergangenen drei Jahren schon extrem viel getan hat, und in Zukunft angeblich noch einiges tun wird, wenn man etwa Valve glauben schenken mag. Linux ist längst nicht mehr das spielefeindliche Betriebssystem, das es einst war.

Die Wahl der richtigen Linux-Distribution und der richtigen und geeigneten Tools ist hier außerdem absolut entscheidend! Wie man an meinem Beispiel sehen kann, wird man mit der falschen Distro nicht glücklich und eher abgeschreckt, während eine kluge Wahl den Übergang erleichtert. Im Moment würde ich persönlich beispielsweise nicht mehr auf die Kombination Mint + Cinnamon + Nemo und auch nicht mehr auf Ubuntu + MATE + Caja setzen wollen, denn mit beidem hatte ich so meine Probleme. Nicht, dass diese Distributionen schlecht wären, aber sie passen einfach nicht perfekt zu mir und meinen Vorstellungen von einem guten Bedienkonzept. Meine derzeitig favorisierte Distro wäre eher Ubuntu + KDE Plasma + Dolphin. Wer bei diesen Details nur Bahnhof versteht, muss sich keine Vorwürfe machen, denn probieren geht über studieren. Irgendwo muss jeder mal anfangen, und mit Ubuntu oder Linux Mint liegt man als Anfänger meistens richtig.

Bleibt mir nur noch eines zu sagen: Ich bin geheilt! Und ich bin ausgeprochen froh darüber, diesen immens wichtigen und großen Schritt endlich gemacht zu haben. Die Belohnung dafür ist, mehr Souveränität über meine eigenen Daten und meine Hardware zurückzuerlangen. Etwas, das längst überfällig war. Lange habe ich mich davor gedrückt, diesen Artikel tatkräftig anzugehen, denn ich wusste, egal wieviel Zeit ich in das Schreiben investieren, egal wie umfassend ich die einzelnen Aspekte behandeln würde, es könnte der Komplexität des Themas schließlich doch nie gerecht werden, und so blieb mir nur der unbefriedigendste aller Kompromisse: Eine äußerst oberflächliche Betrachtung mit kurzen Zusammenfassungen in einem trotz aller Bemühungen doch leider ausufernden Textbeitrag.

Getreu dem Motto: Solange ich noch keine Weltsensation präsentieren kann, präsentiere ich wenigstens das bisschen an belanglosen Neuigkeiten, das ich habe. Denn ich wurde wieder einmal zertifiziert. Vor knapp siebeneinhalb Jahren, als ich im Berufsleben gerade mal so halb angekommen war, bot sich mir die Gelegenheit, eine ITIL v3 Foundation Zertifizierung (Edition 2011) – oder einfach “ITIL” – zu machen. Die mehrtägige Schulung mit anschließender Prüfung bescheinigt dem Zertifizierten nach Bestehen jedenfalls grundlegende Kenntnisse über die wichtigen Bausteine moderner IT-Dienstleister. Dieses Grundwissen ist im Berufsalltag eines ITlers enorm hilfreich, sobald man beginnt, sich für die Terminologie, die Prozesse und Workflows im Unternehmen zu interessieren, und warum die Fachbereiche genau so aufgebaut sind, wie sie sind.

Die Welt bleibt natürlich nicht stehen, alles verändert sich, und so müssen sich auch die Menschen und ihr Wissen verändern. Seit 2019 gibt es nun ITIL 4, und dieses wurde fast vollständig neu strukturiert und viele Tatsachen angepasst. Die Begrifflichkeiten sind durchweg dieselben, aber oftmals in einer neuen Konstellation. Mein Wissen aus ITIL v3 lässt sich nur noch teilweise auf die heutige IT-Welt anwenden, sofern es nicht ohnehin längst eingerostet ist. Und so entschied ich mich, als ich zufällig wieder die Chance bekam, zu einer Auffrischung und Aktualisierung mit Hilfe der ITIL 4 Foundation Zertifizierung. Diesmal aus naheliegenden Gründen nicht im Klassenzimmer, sondern im Homeoffice-Modus. Und das stellte sich für mich nicht so einfach dar, wie es klingt, denn Technik ist tückisch.

Jedenfalls kann ich stolz verkünden, dass ich am 22. Juli erfolgreich das “ITIL® Foundation Certificate in IT Service Management” erlangt habe. Eine ITIL-Anstecknadel oder ein gedrucktes Zertifikat wie zuletzt gab es diesmal nicht (oder wahrscheinlich nur gegen Aufpreis, denn bei der spottbilligen Prüfung für 250 Euro müssen die ja noch von irgendwas leben), daher muss mir das PDF als Beweis wohl reichen. Für deutsche Umlaute (Unicode!) sind die Anbieter selbst im Jahr 2021 noch zu blöd, darum musste mein Nachname in korrekter Schreibweise auf dem Zertifikat total stumpf zusätzlich ergänzt werden. Aber IT verstehen sie angeblich. Jedenfalls nehmen sie sich heraus, beurteilen zu können, ob andere IT verstanden haben.

Die Prüfung war ebenso unprofessionell, peinlich, unflexibel und technisch miserabel organisiert. Um daran teilnehmen zu dürfen, kann man nicht einfach ganz naheliegend eine Prüfungs-Webseite besuchen. Man ist stattdessen gezwungen, sich ein Programm namens ExamShield auf dem Rechner zu installieren. Dieses gibt es nur für Windows und für MacOS. Die Software mit Onlinezwang hat die Aufgabe, den PC während der Prüfung komplett zu sperren und zu überwachen. Hierzu muss es eine ganze Reihe von verdächtigen Prozessen beenden, über 20 an der Zahl, um etwaige Betrugsversuche zu verhindern. Zuvor darf man den PC einem Techniktest unterziehen, bei dem das Mikrofon, die Webcam und die Internetleitung auf ihre Funktionsfähigkeit und Konfiguration hin getestet werden. Der Test scheiterte mit VPN-Verbindung ohnehin bei mir, aber das war das kleinste Problem.

Zur Prüfung wollte das Programm schließlich die kritischen Prozesse beenden um den PC pflichtversessen sperren zu können. Aber ein einzelner Prozess zur Fernwartung ließ sich eben nicht beenden, und so weigerte sich ExamShield beharrlich, mich an der Prüfung teilnehmen zu lassen. Meine eigenen Versuche, den Prozess abzuschießen, schlugen ebenfalls fehl, da Administratorrechte benötigt wurden. Ergo hatte ich keine andere Wahl als mich bei einem Support-Mitarbeiter zu melden. Eine englischsprechende Inderin, die genau wie ich um Höflichkeit bemüht war, befragte mich zu meiner Teilnehmernummer, die ich ihr zunächst nicht nennen konnte, da ExamShield alle meine Programme geschlossen hatte, und auch keine VPN-Verbindung bestand. Ich musste also den Prüfungsversuch unterbrechen und alles neu starten um ihr die dämliche Nummer durchgeben zu können, die für die Lösung des Problems eh keine Rolle spielte. Nach dieser Hürde versuchte sie mich anzuleiten, den Prozess über den Task-Manager zu beenden, was ich aber bereits versucht hatte. Als sie selbst bemerkte, dass ich ohne Admin-Rechte nicht weiterkam, kapitulierte sie bereits, und verwies mich darauf, ich sollte statt meines Firmen-Notebooks doch den Privat-PC für die Prüfung nutzen, oder alternativ mich an den User Help Desk meiner eigenen Firma wenden, um das Problem dort lösen zu lassen.

Dass es von ihrer Schundsoftware überhaupt keine Linux-Version gab und der Privat-PC schon deswegen keine Option war, wollte ich ihr nicht umständlich erklären müssen, daher bedankte ich mich für ihre nutzlose, hilflose Hilfe und beendete die Konversation. Zu diesem Zeitpunkt hatte ich schon überhaupt keinen Nerv mehr für ihre blödsinnige Prüfung und dachte ernsthaft daran, es hinzuschmeißen. Die Prüfungsbedingungen sind ein großes Ärgernis und für mich so nicht mehr tragbar. Schließĺich setzte ich mich mit dem Help Desk in Kontakt und bat darum, den problematischen Prozess für mich zu beenden. Dies ließ sich zum Glück überraschend schnell und problemlos umsetzen, und so war ExamShield endlich mit meinem Setup zufrieden und die Schikanen konnten weitergehen.

Der Prüfungsmodus beinhaltet, dass man sich über seine Webcam von einem “Proctor” während der gesamten Prüfung beobachten lässt. Einen deutschen Proctor bekommt man hier sowieso nicht angeboten, daher muss man mit dem englischen vorlieb nehmen. Nachdem sich in meinem Fall eine weitere englischsprachige Inderin zugeschaltet hatte, musste ich ihr mit der Webcam eine Führung durch mein Wohnzimmer anbieten, ihr jeden einzelnen Winkel, mein Privat-Handy und auch den Schreibtisch zeigen, damit sie sich versichern konnte, dass ich alleine bin und nicht betrügen könnte. Zuletzt sollte ich ihr die beiden Türen zeigen und berichten, welche davon sich von außen öffnen ließe. Daraufhin verlangte sie von mir, den Schreibtisch so hinzudrehen, dass sie gleichzeitig mich und die Küchentür im Auge behalten konnte. Eigentlich eine lächerliche Forderung, die ich nur erfüllen konnte, weil ich an einem provisorischen, kleinen und leichten Schreibtisch saß. Nach dem peinlichen Möbelrücken zu ihrer Zufriedenheit saß ich dann relativ unbequem im richtigen Winkel vor der Kamera, aber immerhin durfte ich so mit einer knappen Stunde Verspätung an der Prüfung teilnehmen.

Die Prüfung ging knapp eine Stunde und beinhaltete 40 Multiple-Choice-Fragen. Es war leider nicht so einfach, wie ich gehofft hatte, und so musste ich bei einigen Fragen raten, deren Fragestellung und Wortlaut mir aus den Übungen zur Vorbereitung nicht bekannt war. Mein Bestehen hing davon glücklicherweise nicht ab, denn dafür war ich ausreichend gut vorbereitet. Schlappe 65% der Punkte benötigte man zum Bestehen, 85% erreichte ich. Zwar etwas weniger als bei der letzten ITIL-Prüfung, aber das war schon ok. Für das trockene Thema ein durchaus vorzeigbares Ergebnis.

Bis dann die nächste Iteration von ITIL in zehn Jahren erscheint, bin ich damit also vorerst mal sicher. Eine weitere Online-Prüfung von dieser Sorte will ich mir möglichst nicht mehr antun, dafür sind mir meine Nerven zu schade. Bis dahin sollten die Verantwortlichen für diesen Mist ihre Software bitteschön verbessert haben. Und jetzt entschuldigt mich, ich bin ITIL! Und zwar sowas von!