Archiv der Kategorie: Technik

Vor etwas mehr als einem Jahr, als ich mir mein NAS mit 15 TB Bruttospeicherplatz leistete und als Backuplösung für die Ewigkeit an meinen Arbeitsplatz stellte, musste ich mich im Freundes- und Bekanntenkreis mit dem berüchtigten „Wer braucht denn soviel Platz?“-Troll rumärgern, dem ich damals am liebsten bei jeder Begegnung eine verpassen wollte, aber mittlerweile ignoriere ich das nach Möglichkeit einfach. Ihr wisst schon, dieses widerliche Exemplar von Troll, das bei jeder Diskussion über Festplattenkapazitäten jenseits der 500 GB aus seinem Versteck kriecht und auf seine trollhaft charmante Art deren Existenzberechtigung in Frage stellt, nur weil er oder sie damit nichts anzufangen weiß, und sich daher nicht vorstellen kann, dass überhaupt irgendjemand etwas damit anfangen könnte. Ich versuche erst gar nicht zu erklären, wie das dann aussieht, wenn man mal 15 TB Speicher in die Diskussion einbringt. In solchen Sphären werden sogar Informatiker manchmal zu solchen Trolls, obwohl sie es besser wissen sollten. Ein Studium erzeugt Fachbildung, aber eben nicht zwangsläufig Intelligenz.

Seit Monaten spiegele ich also fleißig meine Festplatten in mehr oder weniger regelmäßigen Abständen auf mein NAS und bin äußerst zufrieden damit. Bis jetzt ist der Ernstfall zwar noch nicht eingetreten, dass ich auf ein Backup zurückgreifen musste, aber Vorsicht ist besser als Nachsicht. In der Zwischenzeit gingen die missgünstigen Unkenrufe der Neider und Ignoranten etwas zurück, doch inzwischen habe ich es mit einer neuen, deutlich aggressiveren Troll-Mutation zu tun bekommen, die sich erneut durch unqualifizierte Kommentare in Bezug auf Festplatten verrät. Meine bisher recht zahlreichen Begegnungen mit dieser unbelehrbaren Spezies, die offenbar Technikscheuklappen trägt, verliefen immer sehr unerfreulich für mich, daher werde ich mir wohl eine neue Dimension der Gelassenheit gegenüber Dummgeschwätz aneignen müssen.

Hier nun also einige Variationen der Äußerungen dieser Kreaturen, mit denen sie versuchen ihr getrolltes Opfer durch eine Kombination von Unwissen und gefährlichem Halbwissen zur Weißglut zu bringen. Im Gegensatz zur inzwischen womöglich fast ausgestorbenen Form der Festplattentrolle beziehen diese sich immer auf die neue Technologie der wesentlich schnelleren SSD-Festplatten, denn nun sprechen sie den herkömmlichen magnetisch-mechanischen Festplatten ihre komplette Daseinsberechtigung ab. Schlimmer noch, sie verachten jeden, der es wagt, sich heute noch gewöhnliche Festplattentechnik ins Haus zu holen. Das klingt dann vom Sinn etwa folgendermaßen:

„Warum wird mit allen Mitteln versucht diese alte Technologie am Leben zu erhalten?“

„Was sind das für Fortschrittsbremser, die sich noch normale Festplatten kaufen, wo es doch schon lange SSD gibt?“

„Warum wird diese völlig veraltete Technik noch gebaut? Wieso forscht daran überhaupt noch jemand, das bringt doch nichts!“

Man sollte Preise für die dämlichsten Sprüche vergeben, die man so im Netz findet. Womöglich stünden die Chancen nicht schlecht, dass einer dieser hirnverbrannten SSD-Trolle einen gewinnt. Nun, warum sollte man heutzutage noch gewöhnliche Festplatten kaufen? Zugegeben, die SSDs sind sehr viel schneller, in der Zugriffszeit unschlagbar, mangels mechanischer Bauteile (drehende Scheiben, bewegliche Schreib- und Leseköpfe) unempfindlich gegenüber Erschütterungen, und sie sind wirklich sehr leicht. Aber sie haben zwei gigantische Nachteile, die in meinem Fall den Geschwindigkeitsvorteil nicht aufwiegen können: Sie sind (immer noch) extrem teuer (bezogen auf den Preis pro GB), und ihre Festplattenkapazitäten sind eher ein schlechter Scherz.

Die teuersten SSDs können ein Terabyte an Daten aufnehmen, wohingegen ihre mechanischen Konterparts es schon lange auf die vierfache Menge bringen. Das Wachstum bei der Kapazität ist zwar inzwischen stagniert, aber solange SSDs nicht mindestens ebenso gut als Datengrab taugen und ähnlich günstig zu haben sind … nein Sir, solange sind SSDs noch kein vollwertiger Ersatz für normale Festplatten. Wenn ich sehr viel Wert auf Geschwindigkeit lege, dann kann ich mich mit dem höheren Preis und der deutlich niedrigeren Kapazität womöglich abfinden. Aber da ich Festplatten in erster Linie zwecks Storage kaufe, also um dort große Datenmengen abzulegen, kann ich niemandem guten Gewissens zustimmen, der meint, es gäbe keinen Grund mehr, sich noch normale Festplatten zu kaufen. Wer sowas behauptet, sollte vielleicht doch mal einen Blick über den Tellerrand werfen.

Toll sind auch die Versuche, meine Argumentation zu entkräften, indem mir vorgehalten wird, ich hätte wohl einfach selbst noch keine SSD erlebt, sonst würde ich nicht so an der veralteten „Schrott-Technik“ festhalten. Richtig ist, dass ich tatsächlich noch keine SSD verwende. Allerdings bin ich sehr wohl in der Lage, mir vorzustellen wie schnell der Rechner damit wird. Es ist sicherlich sehr praktisch, wenn der Rechner immer sofort reagiert und jede Anwendung innerhalb von Sekundenbruchteilen geladen und einsatzbereit ist. Und das Betriebssystem erst – „8 Sekunden!“, heißt es immer. Super! Ich freue mich darauf! Sobald es 4 TB SSDs für 300 Euro gibt, gerne. Vorher vermutlich nicht. Was ich mir allerdings sehr wohl überlegen könnte, wäre ein Mischkonfiguration mit SSD fürs Betriebssystem und normalen HDDs für mein persönliches Datenarchiv.

Die SSD-Trolle glauben wohl, dass Firmen in ihren Rechenzentren/SANs auch nur noch SSDs verbauen, weil es ja die neueste und damit deutlich bessere Technologie ist. Falsch! Fakt ist, niemand verwendet SSDs im Serverbereich, um darauf große Datenmengen abzulegen. Das wäre wirtschaftlicher Unfug. SSDs werden höchstens dort verwendet, wo Geschwindigkeit eine sehr große Rolle spielt. Aber selbst da unterschätzen die SSD-Trolle wie schnell so ein HDD-RAID werden kann, wenn man ihn auf Geschwindigkeit auslegt.

Es gibt doch inzwischen Elektroautos. Welche Fortschrittsbremser sind das eigentlich, die sich noch gewöhnliche Luftverpester-Benziner und Dreckschleuder-Diesel kaufen? Oh wait, ich habe ja selbst ein Auto mit Ottomotor. Total veraltete Technik, wer würde sowas brauchen? Strom kommt aus der Steckdose! Ich denke, ich habe meinen Standpunkt klargemacht. Lasst mich in Ruhe und kauft euch eure SSDs. Ich kann damit warten, bis ich echten Bedarf daran habe.

Die ganze Welt bestaunt gerade die Wii U von Nintendo, und mich interessiert es nicht die Bohne. Dafür habe ich zum Thema Nintendo etwas anderes im Sinn.

Heute lieferte der Paketbote ein ganz wunderbares vorgezogenes Weihnachtsgeschenk bei mir ab. Schon seit Jahren spiele ich mit dem Gedanken, mir einen Super Nintendo-Controller zuzulegen, der über ein USB-Kabel verfügt, so dass man ihn an den PC anschließen und damit alte Spiele im Emulator spielen kann. Die Tastatur hat zwar den Vorteil, dass (entsprechende Übung und eine Vorliebe für spartanische Ergonomie vorausgesetzt) sie konkurrenzlos präzise ist (und natürlich an jedem PC eine dranhängt), aber ein authentisches Spielgefühl kommt damit ganz sicher nicht auf.

Für den Anfang kaufte ich mir daher zunächst einen dieser 50-Tasten-10-Achsen-Superduper-PS3-/PC-Controller mit zwei Nippeln. Pardon, Analogsticks. Eigentlich ist mir das Ding definitiv zu klobig, aber es gab eben nur noch solche Teile. Es stellte sich heraus, dass dessen D-Pad eine absolute Katastrophe ist. Man trifft keine Richtung genau, wenn man nach rechts drückt, bewegt sich die Spielfigur manchmal auch nach unten oder oben, und das bedeutet in vielen Spielen den sicheren Tod, wenn jeder Sprung sitzen muss. Ich versuchte also mein Glück mit dem Analogstick. Der ist zwar etwas präziser (wobei analog eben auch bedeutet, dass man trotzdem regelmäßig daneben tippt), kann aber durch seinen gewaltigen Bewegungsspielraum z.B. bei Jump’n’Runs schnell ermüdend sein, weil der Ausschlag in die entsprechende Richtung nur voll oder gar nicht gezählt wird. Das war also auch nicht die Lösung.

Um meine Idee wahr werden zu lassen, hatte ich nun mehrere Möglichkeiten: einen gebrauchten SNES-Controller ersteigern und mittels USB-Adapter anschließen? Die gebrauchten Controller, die man so bekommt, habe ich mir mal stichprobenartig angesehen. Wer kein Problem mit starken Abnutzungserscheinungen hat, oder dass die Geräte teilweise mit Isolierband zusammengehalten werden, der darf gerne für 10 Euro aufwärts zugreifen. Ich hatte plötzlich weniger Bedarf an derlei Überraschungsware. Die zweite Möglichkeit erschien mir schon sympathischer: Ich wollte mir eines der zahlreichen Replikate der Nintendo-Controller als Neuware kaufen, die wahlweise bereits mit USB-Anschluss gebaut werden. Tatsächlich findet man bei Amazon und bei Ebay einige tolle Geräte, die dem Original mal mehr und mal weniger perfekt nachempfunden sind.

Als ich die Bewertungen und Kommentare der Käufer über besagte Produkte allerdings so las, da war ich mir auf einmal gar nicht mehr sicher, ob das eine gute Idee ist: Da ist von billigstem Plastik die Rede, von eingeklemmten Knöpfen, die oft gar nicht reagieren, von L- und R-Buttons, die sich anfühlten als würden sie gleich herausbrechen. Insgesamt war es meistens die schlechte Verarbeitung, sowie die extreme Ungenauigkeit, die ein Spielen angeblich unmöglich machten, und eben die Buttons, die nicht richtig funktionierten, was da so an den Controllern bemängelt wurde. Jedenfalls zuviele miese Bewertungen um noch als Zufall durchzugehen.

Ich wagte den Kauf trotzdem – und ich bestellte sogar gleich zwei davon. Für 14 Euro pro Stück wäre meine Enttäuschung ohnehin nicht so groß, wenn die Teile wirklich so unbrauchbar sein sollten. Und was soll ich heute sagen? Es hat sich gelohnt, die Pads sind der Hammer! Zum Testen habe ich gerade mal ohne Schwierigkeiten bis zum zweiten Level von Super Castlevania IV und bis zur ersten Burg in Super Mario World gespielt. Das Plastik kommt mir nicht billiger vor als beim Original, die unpräzise Steuerung ist eigentlich sogar erstaunlich präzise, die Buttons reagieren allesamt perfekt, auch L und R, Start und Select. Das Pad liegt gut in der Hand (da praktisch identisch zum SNES-Controller) und man fühlt sich auf einen Schlag um 20 Jahre jünger, wenn man Super Mario damit zielsicher auf Goombas und Koopas hüpfen lässt.

Der einzige tatsächlich „spürbare“ Nachteil ist das etwas feste D-Pad, das ich so steif nicht in Erinnerung habe. Es reagiert wunderbar und man trifft fast immer auf Anhieb die richtige Richtung, aber der Widerstand des D-Pads ist gerade am Anfang ungewohnt stark. Nach einer halben Stunde fällt es einem aber schon nicht mehr auf. Alles bestens. Auch das zweite Pad funktioniert einwandfrei (bemängelt wurde auch, dass einzelne Geräte komplett den Dienst verweigerten), weswegen ich davon ausgehe, dass ich entweder Glück hatte, oder dass meine Wahl für dieses Modell genau die richtige war. Interessierten Retrofans kann ich daher guten Gewissens den SNES Classic Controller von Retrolink empfehlen. Es ist bestimmt kein perfekter Controller für Spiele, aber es ist ein perfektes Imitat eines SNES-Controllers und genau das wollte ich. Mit dem Retrolink-Logo auf dem Pad hat diese Kopie sogar irgendwie etwas sehr Cooles.

Ein wenig wundern lässt mich die Tatsache, dass die SNES-Controller von Retrolink eigentlich immer die amerikanischen Button-Farben haben (lila), in meinem Fall habe ich aber Replikate der europäischen Controller mit den bekannten Buttons in vier Farben. Das muss wohl irgendeine Spezialversion für den europäischen Markt sein, über die ich im Netz nichts in Erfahrung bringen konnte. Wenn die Dinger ne Weile halten, dann muss ich mir am Ende noch überlegen, ob ich mir auch die entsprechende NES-Version kaufe.

Junge pickelgesichtige minecraft-zockende Gamer verstehen nur wenig von ihrem eigenen … nunja … „Fachgebiet“. Das musste ich jedenfalls vor kurzem feststellen. Was ich zuerst für einen traurigen Einzelfall hielt und ignorierte, begegnete mir in den letzten Wochen so häufig, dass ich die Angelegenheit genauer analysieren musste. Ich habe die Probe gemacht und einige Meinungen zu dem Thema eingeholt. Man berichtete mir von ähnlichen Beobachtungen, was meine These bestätigte. Es scheint fast so als würde es bei dieser neuen Generation von Gamern überall laggen – vor allen Dingen im Gehirn.

Junge razermaus-schwingende headset-tragende Gamer sind zu blöd zwischen ruckeliger Grafik und einem Lag zu unterscheiden. Aber wir uncoolen Oldschooler kennen den Unterschied zum Glück noch, und müssen die Begriffe daher nicht wie Opfer hilflos durcheinanderwerfen. Daher keine Sorge: Mit Hilfe meiner fettkrassen Lehrstunde werden diese armen Seelen vielleicht nicht dumm sterben müssen. Also zumindest nicht ganz so sehr wie zuvor.

Beginnen wir mit einer einfachen Definition der beiden Fachbegriffe. Da ist zunächst der (oder das) sogenannte Lag. Ein Lag entsteht durch einen Engpass bei der Datenübertragung in einem Netzwerk. Er zeigt sich etwa als zeitliche Verzögerung zwischen Aktion des Spielers auf der Tastatur und entsprechender Reaktion der Spielfigur auf dem Bildschirm eines Spieleclients. Wahlweise könnte er auch als Input-Lag gemeint sein, wenn beispielsweise die Mausbewegung spürbar nachzieht. Beides habe ich in diesem Zusammenhang kennengelernt. So ein Lag bewegt sich in einem Bereich von wenigen hundert Millisekunden bis mehreren Sekunden. Ein Lag lässt sich dadurch an einem hohen Ping messen.

Kennen junge Gamer übrigens auch nicht: Netzwerkkarte, BNC-Stecker und T-Stück

Ruckelnde Grafik entsteht vorwiegend wenn die Hardware, die für das Rendern des Bildes zuständig ist, die benötigten Grafikoperationen nicht ausreichend schnell durchführen kann, bis das Bild gezeichnet werden soll. Es entsteht ein zeitlicher Rückstand, der nur kompensiert werden kann, wenn darauf folgende Bilder übersprungen werden (Framedrop). Das Bild ruckelt oder „stottert“. Die Bewegungen sind nicht flüssig, sondern abgehackt, wie ein Daumenkino. Manche sprechen im Extremfall auch von „Diashow“. Der Effekt wird verstärkt oder abgeschwächt, je nachdem wieviele Objekte auf dem Bild gerade zu sehen sind. Ruckelnde Grafik äußert sich in einer niedrigen Framerate, also alles zwischen 0 fps und 25 fps.

Bei einem Lag ist die entscheidende Komponente das Netzwerk und die Netzwerkhardware, etwa wenn im Hintergrund zuviele Downloads/Uploads laufen, und die restliche Bandbreite nicht mehr für die Datenübertragung im Spiel ausreicht. Dagegen ist es bei ruckelnder Grafik die CPU oder die Grafikkarte, beispielsweise weil die Auflösung zu hoch eingestellt ist und so die Kapazität der Hardware übersteigt.

Wir merken uns: Lag – hoher Ping. Ruckelnde Grafik – niedrige FPS. Lag – Spielfiguren reagieren verzögert auf Eingaben oder teleportieren plötzlich wie Zauberer in der Spielwelt herum. Ruckelnde Grafik – Diashow-Effekt, Animation der Spielgrafik ist abgehackt und nicht flüssig.

Wir folgern daraus: „Lag“ ist der falsche Begriff für das was diese Konsumenten DRM-verseuchter Spielekost meinen. Eigentlich meinen sie etwas, das man als „Ruckeln/Ruckler“, „Framedrop“, „low FPS“ oder „scheiß Framerate“ bezeichnen könnte. Es gibt sicher noch bessere Begriffe. Man denke nur mal an die Probleme mit den „Mikrorucklern“ bei einer SLI/Crossfire-Konfiguration von Grafikkarten, die man vor einigen Jahren noch von NVidia und ATI kannte. Niemand wäre auf die Idee gekommen, das Problem „Mikrolag“ zu nennen. Es sind eben keine Lags. Ein Lag ist was anderes.

Das Spiel ruckelt und der unaufgeklärte Gamer flucht: „Wieso laggt das denn so?“. Solche Szenen gehören mit diesem großartigen Artikel hoffentlich bald der Vergangenheit an. Ich bin zuversichtlich, die Welt damit ein bisschen besser und ein bisschen schlauer gemacht zu haben. In der nächsten Folge erkläre ich dann, warum HTML keine Programmiersprache ist. Achja: Dieser Artikel kann Spuren von Satire und Islamkritik enthalten!

Android kann einem wirklich Angst machen. Als ich heute im Büro kurz einen Blick auf mein Smartphone warf, traf mich beinahe der Schlag. Erschrocken sah ich, dass alle meine gespeicherten Memos (mit teilweise recht persönlichem Inhalt) in eine große SMS eingefügt und aus dem Adressbuch eine Person aus einem weiter entfernten Freundeskreis ausgewählt worden war. Es hat nur noch ein versehentliches Berühren des „Senden“-Buttons gefehlt und ich hätte eine ganze Stange von SMS (für mehrere Euro) verschickt, und noch dazu gefüllt mit privaten Dingen, die wirklich niemanden etwas angehen.

Ich hatte Mühe, dem großen gruseligen „Senden“-Knopf auszuweichen und die „Nachricht löschen“-Funktion zu finden, die sich gut versteckt hat. Da diese Funktion allerdings nicht das gewünschte Ergebnis brachte (gefährliches Fenster blieb geöffnet, Nachricht war immer noch da), hielt ich schließlich solange Backspace gedrückt, bis alle Zeilen entfernt waren. Die Memos habe ich sofort gelöscht.

Wie kann denn sowas passieren? Und wie kann es eine Funktion geben, die sowas unterstützt? Es muss mir wohl irgendwie gelungen sein, das Smartphone in der Hosentasche zu entsperren, ein Nachrichtenfenster zu öffnen, einen Teilnehmer aus dem Adressbuch auszuwählen und anschließend den Text aus allen Memos einzufügen. Dass ich die Nachricht nicht auch noch abgeschickt habe, grenzt an ein Wunder, denn das war eigentlich die allerkleinste aller Hürden.

Und jetzt wo ich mir das Nachrichtenfenster noch einmal im Detail angesehen habe, habe ich die Funktion der Zwischenablage entdeckt. Da stehen sämtliche Dinge aus sämtlichen Anwendungen, in die ich jemals irgendwas reingeschrieben habe: Memos, Notiz-Widgets, Textdateien, URLs, alles. Das ist nicht nur gruselig, das ist entsetzlich. Es mag praktisch wirken, aber in meinem konkreten Fall ist es absolut beängstigend zu wissen, dass ich mit den Fingern nur ein wenig ungeschickt auf dem Touchscreen rumtippen muss und schon verschicke ich an meine Bekanntschaften eine SMS mit den Suchbegriffen, die ich bei Google mal eingegeben habe.

Oh Android, heute habe ich ein wenig Vertrauen in dich verloren. Zwischenablage ja, aber nicht so. Nicht so!

Ich bin reich! Also zumindest an Speicherplatz. Seit gestern Abend kann ich 15 Terabyte an Daten speichern. Zusätzlich selbstverständlich zu den 8,5 TB die mir an internen und externen magnetischen Speichermedien bisher schon zur Verfügung standen. „Wer braucht denn soviel Platz?“ werden die üblichen VollidiotenVerdächtigen wieder fragen und ich werde antworten: „Ihr wohl nicht, aber ICH!„.

Das neueste Stück Hardware, das bei mir nun rumsteht ist ein Netzwerkspeicher (NAS) von QNAP inklusive fünf 3,5″-Festplatten mit jeweils 3 TB. Darauf werden künftig zwei Desktoprechner, zwei Notebooks, ein Tablet und ein Smartphone jederzeit Zugriff haben. Die Kiste läuft mit einem Linux-Kernel und wird betrieben von einem beeindruckenden 1,8 GHz Zweikern-Intel Atom-Prozessor mit 1 GB RAM. Ist alles USB 3.0-, SATA3-, und doppelt Gigabit-LAN-fähig und kann die Datenträger verschlüsseln. Das Ding hat soviele Features und integrierte Dienste, dass ich wahrscheinlich morgen noch am Tippen wäre, würde ich versuchen sie alle aufzuzählen.

Na gut, es sind natürlich nicht 15 „TB“, sondern – nach Umrechnung – 13,7 TB, im RAID5 abzüglich Parität und sonstigem Overhead landen wir dann bei „nur“ noch 10,8 TB freiem nutzbarem Speicher. Immer noch eine ganze Menge. Das krieg ich ja NIEMALS voll. Wahrscheinlich aber doch. Soviel zu unendlich Speicherplatz.

Inzwischen habe ich Benutzer bzw. Freigabeverzeichnisse erstellt und diese schonmal probeweise unter Windows als Netzwerklaufwerke eingebunden und so die Rechtevergabe getestet. Scheint alles zu klappen, auch wenn ich dem Gerät meine Daten noch nicht so ganz anvertrauen will. Nachdem das NAS sich von seiner eigenen Software im Netzwerk nicht finden ließ, das Updaten der Firmware zuerst nicht klappen wollte, die Firmware zudem einen entsetzlich dämlichen Bug beim Anlegen der Benutzer hat (Artikel folgt wohl), mit der Datenträgersynchronisierung nach elf Stunden noch nicht ganz fertig war, und jetzt nach einem Reboot damit schlauerweise wieder von vorne anfängt, wobei die Synchronisierung stolze 50% der CPU frisst, bin ich zwiegespalten und etwas misstrauisch was das Ding angeht. Außerdem weiß ich nicht ob drei Minuten zum Hochfahren normal sind. Das packt meine Windows-Installation ja schneller und die müsste doch deutlich schwergewichtiger sein als so ein hochspezialisiertes Embedded-System. Vielleicht hätte ich mein Geld am Ende doch lieber dem Konkurrenzanbieter Synology geben sollen. Nunja, die Hauptsache ist, dass es läuft.

Und wofür brauch ich das Ding nun? Ganz einfach: für Redundanz, für einen zentralen dedizierten Speicherort, und für maximale Zukunftssicherheit. Auf das NAS kommen Daten, die für mich unverzichtbar sind und nicht durch einen Festplattenausfall verloren gehen dürfen. Außerdem komme ich so erst einmal nicht in die doofe Situation, dass mir der Speicherplatz ausgeht. Meine Daten kann ich nun immer und überall aus dem Internet abrufen, auch wenn ich meinen Desktoprechner mal ausgeschaltet habe.